check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 39ba69c..c056546 100644 (file)
@@ -1,65 +1,55 @@
-slotted TODO blocks—
-✓ psychiatric disaster
-✓ "Agreeing With Stalin" intro recap
-✓ recap of crimes, cont'd
-✓ Dolphin War finish
-✓ lead-in to Sept. 2021 Twitter altercation
-✓ out of patience email
-- Michael Vassar and the Theory of Optimal Gossip
-_ plan to reach out to Rick / Michael on creepy men/crazy men
-_ State of Steven
-_ reaction to Ziz
-_ complicity and friendship
-_ repair pt. 5 dath ilan transition
-- Eliezerfic fight conclusion
+first edit pass bookmark: "I received a Twitter DM from"
 
 blocks to fit somewhere—
-_ the hill he wants to die on (insert somewhere in "Standing")
-_ Tail vs. Bailey / Davis vs. Yudkowsky analogy (new block somewhere)
+_ the hill he wants to die on (conclusion for "Zevi's Choice"??)
+_ Tail vs. Bailey / Davis vs. Yudkowsky analogy (new block somewhere—or a separate dialogue post??)
 _ mention that "Not Man for the Categories" keeps getting cited
 
-
 pt. 3 edit tier—
-_ fullname Taylor and Hoffman at start of pt. 3
-_ footnote clarifying that "Riley" and Sarah weren't core members of the group, despite being included on some emails?
-_ be more specific about Ben's anti-EA and Jessica's anti-MIRI things, perhaps in footnotes
-_ Ben on "locally coherent coordination": use direct quotes for Ben's language—maybe rewrite in my own language (footnote?) as an understanding test
-_ set context for "EA Has a Lying Problem" (written by Sarah, likely with Michael's influence—maybe ask Sarah)
-_ clarify schism (me and Vassar bros leaving the EA/rat borg?)
-_ set context for Anna on first mention in the post
-_ more specific on "mostly pretty horrifying" and group conversation with the whole house
-_ paragraph to explain the cheerful price bit
-_ cut words from the "Yes Requires" slapfight?
-_ better introduction of Steven Kaas
+✓ fullname Taylor and Hoffman at start of pt. 3
+✓ footnote clarifying that "Riley" and Sarah weren't core members of the group, despite being included on some emails?
+✓ be more specific about Ben's anti-EA and Jessica's anti-MIRI things
+✓ weird that Kelsey thought the issue was that we were trying to get Yudkowsky to make a statement
+✓ set context for Anna on first mention in the post
+✓ more specific on "mostly pretty horrifying" and group conversation with the whole house
+✓ cut words from the "Yes Requires" slapfight?
+✓ cut words from "Social Reality" scuffle
+✓ examples of "bitter and insulting" comments about rationalists
+✓ Scott got comas right in the same year as "Categories"
+✓ "I" statements
+✓ we can go stronger than "I definitely don't think Yudkowsky thinks of himself
+✓ cut words from December 2019 blogging spree
+✓ mention "Darkest Timeline" and Skyrms somewhere
+
+pt. 3 content fills—
+_ the skeptical family friend's view
+_ in a footnote, defend the "cutting my dick off" rhetorical flourish
+_ footnote explaining quibbles on clarification
 _ "Not the Incentives"—rewrite given that I'm not shielding Ray
-_ cut many words from "Social Reality" scuffle
-_ is "long May 2020" link still good?
+_ I still mostly feel like being more detailed than "fraud"; later thoughts on jump to evaluation, translating between different groups' language
+_ FTX validated Ben's view of EA!!
+
+pt. 3 minor—
+_ Ben on "locally coherent coordination": use direct quotes for Ben's language—maybe rewrite in my own language (footnote?) as an understanding test
+_ do I have a better identifier than "Vassarite"?
+_ maybe I do want to fill in a few more details about the Sasha disaster, conditional on what I end up writing regarding Scott's prosecution?—and conditional on my separate retro email—also the Zolpidem thing
+_ link to protest flyer
+_ "it was the same thing here"—most readers are not going to understand what I see as the obvious analogy
+_ better explanation of MOPs in "Social Reality" scuffle
 _ better context on "scam" &c. earlier
-_ meeting with Ray
-_ Ben's "financial fraud don't inquire as to the conscious motives of the perp" claim may be false
-_ later thoughts on jump to evaluation, translating between different groups' language
 _ mention that I was miffed about "Boundaries?" not getting Curated, while one of Euk's animal posts did
-_ examples of "bitter and insulting" comments about rationalists
-_ cut words from descriptions of other posts! (if people want to read them, they can click through)
+_ establish usage of "coordination group" vs. "posse"? 
+_ LessWrong vs. GreaterWrong for comment links?
+_ cut words from descriptions of other posts! (if people want to read them, they can click through ... but on review, these descriptions seem pretty reasonable?)
+_ try to clarify Abram's categories view (Michael didn't get it) (but it still seems clear to me on re-read?)
 _ explicitly mention http://benjaminrosshoffman.com/bad-faith-behavior-not-feeling/
-_ cut words from NRx denouncement Jessica discussion
-_ "I" statements
-_ we can go stronger than "I definitely don't think Yudkowsky _thinks of himself_ as having given up on Speech _in those words_"
-_ try to clarify Abram's categories view (Michael didn't get it)
-_ cut lots of words from December 2019 blogging spree
-_ in a footnote, defend the "cutting my dick off" rhetorical flourish
-_ choice quotes in "end of the Category War" thank you note
-_ do I have a better identifier than "Vassarite"?
-_ maybe I do want to fill in a few more details about the Sasha disaster, conditional on what I end up writing regarding Scott's prosecution?—and conditional on my separate retro email—also the Zolpidem thing
-_ mention "Darkest Timeline" and Skyrms somewhere
-_ footnote explaining quibbles? (the first time I tried to write this, I hesitated, not sure if necessary)
+_ meeting with Ray (maybe?)
 
 pt. 4 edit tier—
 _ mention Nick Bostrom email scandal (and his not appearing on the one-sentence CAIS statement)
 _ revise and cut words from "bad faith" section since can link to "Assume Bad Faith"
 _ cut words from January 2020 Twitter exchange (after war criminal defenses)
-_ revise reply to Xu
-
+_ everyone *who matters* prefers to stay on the good side
 
 pt. 5 edit tier—
 _ quote specific exchange where I mentioned 10,000 words of philosophy that Scott was wrong—obviously the wrong play
@@ -71,20 +61,58 @@ _ "deep causal structure" argument needs to be crystal clear, not sloopy
 _ it's a relevant detail whether the optimization is coming from Nate
 _ probably cut the vaccine polarization paragraphs? (overheard at a party is not great sourcing, even if technically admissible)
 _ elaborate on how 2007!Yudkowsky and 2021!Xu are saying the opposite things if you just take a plain-language reading and consider, not whether individual sentences can be interpreted as "true", but what kind of _optimization_ the text is doing to the behavior of receptive readers
-_ Scott got comas right in the same year as "Categories"
+_ revise reply to Xu
 _ cite Earthling/postrat sneers
 _ cite postYud Tweet
 _ when EY put a checkmark on my Discord message characterizing his strategy as giving up on intellectual honesty
 _ cut lots of words from Scotts comments on Jessica's MIRI post (keep: "attempting to erase the agency", Scott blaming my troubles on Michael being absurd)
-
-dath ilan ancillary tier—
-_ Who are the 9 most important legislators called?
+_ sucking Scott's dick is helpful because he's now the main gateway instead of HPMOR
+_ Sarah's point that Scott gets a lot of undeserved deference, too: https://twitter.com/s_r_constantin/status/1435609950303162370
+_ clarify that Keltham infers there are no mascochists, vs. Word of God
+_ "Doublethink" ref in Xu discussion should mention that Word of God Eliezerfic clarification that it's not about telling others
+_ https://www.greaterwrong.com/posts/vvc2MiZvWgMFaSbhx/book-review-the-bell-curve-by-charles-murray/comment/git7xaE2aHfSZyLzL
 
 
 things to discuss with Michael/Ben/Jessica—
 _ Anna on Paul Graham
-_ compression of Yudkowsky thinking reasoning wasn't useful
-_ Michael's SLAPP against REACH
+_ Yudkowsky thinking reasoning wasn't useful
+_ Michael's SLAPP against REACH (new)
+_ Michael on creepy and crazy men (new)
+_ elided Sasha disaster (new)
+
+
+pt. 3–5 prereaders—
+_ paid hostile prereader (first choice: April)
+_ Iceman
+_ Scott? (cursory notification)
+_ Kelsey (what was that 1 year statute of limitations about??)
+_ Steven Kaas
+_ David Xu
+_ Ray
+_ Ruby
+_ Alicorner #drama ("Is anyone interested in offering political advice or 'hostile advice'")
+
+
+-------
+
+later prereaders—
+_ afford various medical procedures
+
+slotted TODO blocks for pt. 6 and dath ilan ancillary—
+- Eliezerfic fight conclusion
+_ Keltham's section in dath ilan ancillary
+_ objections and replies in dath ilan ancillary
+_ kitchen knife section in dath ilan ancillary
+
+dath ilan ancillary tier—
+_ Who are the 9 most important legislators called?
+_ collect Earth people sneers
+_ what kind of person wants to delete history? History would tell you
+_ psyops don't require people taking them seriously, only that they make people think the govenment is doing psyops
+_ the reason "truth is better than lies; knowledge is better than ignorance" is general; can assert by authorial fiat whatever details are needed to make it all turn out for the greater good, but _that's not how anything works in real life_.
+_ "telling people things would be meddling" moral needs work; obvious objection is that different rules apply to Keepers
+_ "obligate" is only Word of God, right?—I should probably cite this
+
 
 
 ------
@@ -269,38 +297,13 @@ _ backlink only seen an escort once before (#confided-to-)
 _ backlink Yudkowsky's implicit political concession
 _ backlink "again grateful" for doctor's notes
 
-pt. 1½ posterity tier (probably not getting published)—
-_ "People": say something about the awkward racial/political dynamics of three of my four anecdotes being about black people? Salient because rare? Salient because of my NRx-pilling?
-_ Re: on legitimacy and the entrepreneur; or, continuing the attempt to spread my sociopathic awakening onto Scott [pt. 2 somewhere]
-_ include Wilhelm "Gender Czar" conversation? [pt. 2]
-_ emailing Blanchard/Bailey/Hsu/Lawrence [pt. 2]
-
-
-
-terms to explain on first mention—
-_ inpatient/outpatient
-_ NRx
-_ TERF?
-_ Civilization (context of dath ilan)
-_ Valinor (probably don't name it, actually)
-_ "Caliphate"
-_ "rationalist"
-_ Center for Applied Rationality
-_ MIRI
-_ "egregore"
-_ eliezera
-
-
-
-
 people to consult before publishing, for feedback or right of objection—
 _ Iceman
 _ Scott
 _ hostile prereader (April—if not, J. Beshir, Swimmer, someone else from Alicorner #drama)
-_ Kelsey
+_ Kelsey (what was that 1 year statute of limitations about??)
 _ NRx Twitter bro
-_ maybe SK (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
-_ Megan (that poem could easily be about some other entomologist named Megan) ... I'm probably going to cut that §, though
+_ Steven Kaas (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
 _ David Xu? (Is it OK to name him in his LW account?)
 _ afford various medical procedures
 _ Buck? (get the story about Michael being escorted from events)
@@ -1408,13 +1411,6 @@ If you _have_ intent-to-inform and occasionally end up using your megaphone to s
 
 If you _don't_ have intent-to-inform, but make sure to never, ever say false things (because you know that "lying" is wrong, and think that as long as you haven't "lied", you're in the clear), but you don't feel like you have an obligation to acknowledge criticisms (for example, because you think you and your flunkies are the only real people in the world, and anyone who doesn't want to become one of your flunkies can be disdained as a "post-rat"), that's potentially a much worse situation, because the errors don't cancel.
 
-----
-
-bitter comments about rationalists—
-https://www.greaterwrong.com/posts/qXwmMkEBLL59NkvYR/the-lesswrong-2018-review-posts-need-at-least-2-nominations/comment/d4RrEizzH85BdCPhE
-https://www.lesswrong.com/posts/qaYeQnSYotCHQcPh8/drowning-children-are-rare?commentId=Nhv9KPte7d5jbtLBv
-https://www.greaterwrong.com/posts/tkuknrjYCbaDoZEh5/could-we-solve-this-email-mess-if-we-all-moved-to-paid/comment/ZkreTspP599RBKsi7
-
 ------
 
 https://trevorklee.substack.com/p/the-ftx-future-fund-needs-to-slow
@@ -2804,3 +2800,20 @@ On 27 September 2023, Yudkowsky told Quentin Pope, "If I was given to your sort
 Was he subtweeting me?? (Because I was defending criticism against tone policing, and this is saying tone is a valid cue.) If it was a subtweet, I take that as vindication that my reply was a good use of bandwidth.
 
 -----
+
+In particular, I think the conspiracy theory "Yudkowsky sometimes avoids nuanced arguments that he doesn't trust people to understand" is true, because ... you've said so (e.g., "without getting into any weirdness that I don't expect Earthlings to think about validly"). https://www.greaterwrong.com/posts/2NncxDQ3KBDCxiJiP/cosmopolitan-values-don-t-come-free/comment/dMHdWcxgSpcdyG4hb
+
+----
+
+(He responded to me in this interaction, which is interesting.)
+
+https://twitter.com/ESYudkowsky/status/1708587781424046242
+> Zack, you missed this point presumably because you're losing your grasp of basic theory in favor of conspiracy theory.
+
+https://www.lesswrong.com/posts/qbcuk8WwFnTZcXTd6/thomas-kwa-s-miri-research-experience
+> The model was something like: Nate and Eliezer have a mindset that's good for both capabilities and alignment, and so if we talk to other alignment researchers about our work, the mindset will diffuse into the alignment community, and thence to OpenAI, where it would speed up capabilities.
+
+27 January 2020—
+> I'm also afraid of the failure mode where I get frame-controlled by the Michael/Ben/Jessica mini-egregore (while we tell ourselves a story that we're the real rationalist coordination group and not an egregore at all). Michael says that the worldview he's articulating would be the one that would be obvious to me if I felt that I was in danger. Insofar as I trust that my friends' mini-egregore is seeing something but I don't trust the details, the obvious path forward is to try to do original seeing while leaning into fear—trusting Michael's meta level advice, but not his detailed story.
+
+Weird tribalist praise for Scott: https://www.greaterwrong.com/posts/GMCs73dCPTL8dWYGq/use-normal-predictions/comment/ez8xrquaXmmvbsYPi