check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 476bf5f..0d06420 100644 (file)
@@ -7,7 +7,8 @@ slotted TODO blocks—
 ✓ out of patience email
 ✓ Michael Vassar and the Theory of Optimal Gossip
 ✓ complicity and friendship
-_ plan to reach out to Rick / Michael on creepy men/crazy men
+✓ plan to reach out to "Ethan"
+✓ Michael on creepy men/crazy men
 _ State of Steven
 _ reaction to Ziz
 _ repair pt. 5 dath ilan transition
@@ -18,7 +19,6 @@ _ the hill he wants to die on (insert somewhere in "Standing")
 _ Tail vs. Bailey / Davis vs. Yudkowsky analogy (new block somewhere)
 _ mention that "Not Man for the Categories" keeps getting cited
 
-
 pt. 3 edit tier—
 _ fullname Taylor and Hoffman at start of pt. 3
 _ footnote clarifying that "Riley" and Sarah weren't core members of the group, despite being included on some emails?
@@ -54,13 +54,14 @@ _ maybe I do want to fill in a few more details about the Sasha disaster, condit
 _ mention "Darkest Timeline" and Skyrms somewhere
 _ footnote explaining quibbles? (the first time I tried to write this, I hesitated, not sure if necessary)
 _ "it was the same thing here"—most readers are not going to understand what I see as the obvious analogy
+_ first mention of Jack G. should introduce him properly
 
 pt. 4 edit tier—
 _ mention Nick Bostrom email scandal (and his not appearing on the one-sentence CAIS statement)
 _ revise and cut words from "bad faith" section since can link to "Assume Bad Faith"
 _ cut words from January 2020 Twitter exchange (after war criminal defenses)
 _ revise reply to Xu
-
+_ everyone *who matters* prefers to stay on the good side
 
 pt. 5 edit tier—
 _ quote specific exchange where I mentioned 10,000 words of philosophy that Scott was wrong—obviously the wrong play
@@ -77,16 +78,21 @@ _ cite Earthling/postrat sneers
 _ cite postYud Tweet
 _ when EY put a checkmark on my Discord message characterizing his strategy as giving up on intellectual honesty
 _ cut lots of words from Scotts comments on Jessica's MIRI post (keep: "attempting to erase the agency", Scott blaming my troubles on Michael being absurd)
+_ sucking Scott's dick is helpful because he's now the main gateway instead of HPMOR
+_ Sarah's point that Scott gets a lot of undeserved deference, too: https://twitter.com/s_r_constantin/status/1435609950303162370
+
 
 dath ilan ancillary tier—
 _ Who are the 9 most important legislators called?
 _ collect Earth people sneers
+_ psyops don't require people taking them seriously, only that they make people think the govenment is doing psyops
 
 
 things to discuss with Michael/Ben/Jessica—
 _ Anna on Paul Graham
 _ compression of Yudkowsky thinking reasoning wasn't useful
 _ Michael's SLAPP against REACH
+_ Michael on creepy and crazy men
 
 
 ------
@@ -2818,3 +2824,6 @@ https://twitter.com/ESYudkowsky/status/1708587781424046242
 
 https://www.lesswrong.com/posts/qbcuk8WwFnTZcXTd6/thomas-kwa-s-miri-research-experience
 > The model was something like: Nate and Eliezer have a mindset that's good for both capabilities and alignment, and so if we talk to other alignment researchers about our work, the mindset will diffuse into the alignment community, and thence to OpenAI, where it would speed up capabilities.
+
+27 January 2020—
+> I'm also afraid of the failure mode where I get frame-controlled by the Michael/Ben/Jessica mini-egregore (while we tell ourselves a story that we're the real rationalist coordination group and not an egregore at all). Michael says that the worldview he's articulating would be the one that would be obvious to me if I felt that I was in danger. Insofar as I trust that my friends' mini-egregore is seeing something but I don't trust the details, the obvious path forward is to try to do original seeing while leaning into fear—trusting Michael's meta level advice, but not his detailed story.
\ No newline at end of file