check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index b623981..6e6a370 100644 (file)
@@ -1,18 +1,59 @@
-_ "Lenore" psychiatric disaster
-- Eliezerfic fight conclusion
+Notes from pt. 3–6 readthrough (post publication of pt. 1–2)—
+_ fullname Taylor and Hoffman at start of pt. 3
+_ footnote clarifying that "Riley" and Sarah weren't core members of the group, despite being included on some emails?
+_ be more specific about Ben's anti-EA and Jessica's anti-MIRI things, perhaps in footnotes
+_ Ben on "locally coherent coordination": use direct quotes for Ben's language—maybe rewrite in my own language (footnote?) as an understanding test
+_ set context for "EA Has a Lying Problem" (written by Sarah, likely with Michael's influence—maybe ask Sarah)
+_ clarify schism (me and Vassar bros leaving the EA/rat borg?)
+_ set context for Anna on first mention in the postq
+_ more specific on "mostly pretty horrifying" and group conversation with the whole house
+_ paragraph to explain the cheerful price bit
+_ cut words from the "Yes Requires" slapfight?
+_ better introduction of Steven Kaas
+_ "Not the Incentives"—rewrite given that I'm not shielding Ray
+_ cut many words from "Social Reality" scuffle
+_ is "long May 2020" link still good?
+_ better context on "scam" &c. earlier
+_ Ben's "financial fraud don't inquire as to the conscious motives of the perp" claim may be false
+_ later thoughts on jump to evaluation, translating between different groups' language
+_ mention that I was miffed about "Boundaries?" not getting Curated, while one of Euk's animal posts did
+_ examples of "bitter and insulting" comments about rationalists
+_ cut words from descriptions of other posts! (if people want to read them, they can click through)
+_ explicitly mention http://benjaminrosshoffman.com/bad-faith-behavior-not-feeling/
+_ cut words from NRx denouncement Jessica discussion
+_ "I" statements
+_ we can go stronger than "I definitely don't think Yudkowsky _thinks of himself_ as having given up on Speech _in those words_"
+_ try to clarify Abram's categories view (Michael didn't get it)
+_ cut lots of words from December 2019 blogging spree
+_ in a footnote, defend the "cutting my dick off" rhetorical flourish
+_ mention Nick Bostrom email scandal (and his not appearing on the one-sentence CAIS statement)
+_ revise and cut words from "bad faith" section since can link to "Assume Bad Faith"
+_ cut words from January 2020 Twitter exchange (after war criminal defenses)
+_ revise reply to Xu
+_ cut lots of words from Scotts comments on Jessica's MIRI post (keep: "attempting to erase the agency", Scott blaming my troubles on Michael being absurd)
+_ do I have a better identifier than "Vassarite"?
+_ maybe I do want to fill in a few more details about the Sasha disaster, conditional on what I end up writing regarding Scott's prosecution?—and conditional on my separate retro email—also the Zolpidem thing
+
+
+slotted TODO blocks—
+✓ psychiatric disaster
+_ "Agreeing With Stalin" intro recap
+_ recap of crimes, cont'd
+_ Dolphin War finish
+_ lead-in to Sept. 2021 Twitter altercation
 _ Michael Vassar and the Theory of Optimal Gossip
-_ plan to reach out to Rick 
-- regrets, wasted time, conclusion
+_ plan to reach out to Rick / Michael on creepy men/crazy men
 _ reaction to Ziz
 _ State of Steven
-_ culture off the rails; my warning points to Vaniver
 _ complicity and friendship
 _ out of patience email
-_ the hill he wants to die on
-_ recap of crimes, cont'd
-_ lead-in to Sept. 2021 Twitter altercation
-_ Dolphin War finish
-_ Michael on creepy men/crazy men
+- Eliezerfic fight conclusion
+
+blocks to fit somewhere—
+_ the hill he wants to die on (insert somewhere in "Standing")
+_ Tail vs. Bailey / Davis vs. Yudkowsky analogy (new block somewhere)
+_ mention that "Not Man for the Categories" keeps getting cited
+
 
 ------
 
@@ -1380,6 +1421,10 @@ Still citing it (19 Sep 22): https://twitter.com/ingalala/status/156839169106472
 https://arbital.greaterwrong.com/p/logical_dt/?l=5gc
 It even leaked into Big Yud!!! "Counterfactuals were made for humanity, not humanity for counterfactuals."
 
+At least I don't have to link the rebuttal myself every time:
+https://www.datasecretslox.com/index.php/topic,1553.msg38755.html
+https://old.reddit.com/r/slatestarcodex/comments/10vx6gk/the_categories_were_made_for_man_not_man_for_the/j7k8fjc/
+
 ------
 
 If you _have_ intent-to-inform and occasionally end up using your megaphone to say false things (out of sloppiness or motivated reasoning in the passion of the moment), it's actually not that big of a deal, as long as you're willing to acknowledge corrections. (It helps if you have critics who personally hate your guts and therefore have a motive to catch you making errors, and a discerning audience who will only reward the critics for finding real errors and not fake errors.) In the long run, the errors cancel out.
@@ -2706,7 +2751,7 @@ I thought I should have avoided the 2022 Valinor party to avoid running into him
 https://twitter.com/RichardDawkins/status/1684947017502433281
 > Keir Starmer agrees that a woman is an adult human female. Will Ed Davey also rejoin the real world, science & the English language by reversing his view that a woman can "quite clearly" have a penis? Inability to face reality in small things bodes ill for more serious matters.
 
-Analysis of my writing mistake (show this to Jackie!!)
+Analysis of my writing mistake
 https://twitter.com/shroomwaview/status/1681742799052341249
 
 ------
@@ -2736,3 +2781,31 @@ Yudkowsky on EA criticism contest
 https://forum.effectivealtruism.org/posts/HyHCkK3aDsfY95MoD/cea-ev-op-rp-should-engage-an-independent-investigator-to?commentId=kgHyydoX5jT5zKqqa
 
 Yudkowsky says "we" are not to blame for FTX, but wasn't early Alameda (the Japan bitcoint arbitrage) founded as an earn-to-give scheme, and recrutied from EA?
+
+https://twitter.com/aditya_baradwaj/status/1694355639903080691
+> [SBF] wanted to build a machine—a growing sphere of influence that could break past the walls of that little office in Berkeley and wash over the world as a force for good. Not just a company, but a monument to effective altruism.
+
+Scott November 2020: "I think we eventually ended up on the same page"
+https://www.datasecretslox.com/index.php/topic,1553.msg38799.html#msg38799
+
+SK on never making a perfectly correct point
+https://www.lesswrong.com/posts/P3FQNvnW8Cz42QBuA/dialogue-on-appeals-to-consequences#Z8haBdrGiRQcGSXye
+
+Scott on puberty blockers, dreadful: https://astralcodexten.substack.com/p/highlights-from-the-comments-on-fetishes
+
+https://jdpressman.com/2023/08/28/agi-ruin-and-the-road-to-iconoclasm.html
+
+https://www.lesswrong.com/posts/BahoNzY2pzSeM2Dtk/beware-of-stephen-j-gould
+> there comes a point in self-deception where it becomes morally indistinguishable from lying.  Consistently self-serving scientific "error", in the face of repeated correction and without informing others of the criticism, blends over into scientific fraud.
+
+https://time.com/collection/time100-ai/6309037/eliezer-yudkowsky/
+> "I expected to be a tiny voice shouting into the void, and people listened instead. So I doubled down on that."
+
+-----
+
+bullet notes for Tail analogy—
+ * My friend Tailcalled is better at science than me; in the hours that I've wasted with personal, political, and philosophical writing, he's actually been running surveys and digging into statistical methodology.
+ * As a result of his surveys, Tail was convinced of the two-type taxonomy, started /r/Blanchardianism, &c.
+ * Arguing with him resulted in my backing away from pure BBL ("Useful Approximation")
+ * Later, he became disillusioned with "Blanchardians" and went to war against them. I kept telling him he _is_ a "Blanchardian", insofar as he largely agrees with the main findings (about AGP as a major cause). He corresponded with Bailey and became frustrated with Bailey's ridigity. Blanchardians market themselves as disinterest truthseekers, but a lot of what they're actually doing is providing a counternarrative to social justice.
+ * There's an analogy between Tail's antipathy for Bailey and my antipathy for Yudkowsky: I still largely agree with "the rationalists", but the way especially Yudkowsky markets himself as a uniquely sane thinker