check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index df70f6d..a452bad 100644 (file)
@@ -81,13 +81,19 @@ _ sucking Scott's dick is helpful because he's now the main gateway instead of H
 _ Sarah's point that Scott gets a lot of undeserved deference, too: https://twitter.com/s_r_constantin/status/1435609950303162370
 _ clarify that Keltham infers there are no mascochists, vs. Word of God
 _ "Doublethink" ref in Xu discussion should mention that Word of God Eliezerfic clarification that it's not about telling others
+_ https://www.greaterwrong.com/posts/vvc2MiZvWgMFaSbhx/book-review-the-bell-curve-by-charles-murray/comment/git7xaE2aHfSZyLzL
 
+pt. 6 edit tier—
 
 dath ilan ancillary tier—
 _ Who are the 9 most important legislators called?
 _ collect Earth people sneers
+_ what kind of person wants to delete history? History would tell you
 _ psyops don't require people taking them seriously, only that they make people think the govenment is doing psyops
 _ the reason "truth is better than lies; knowledge is better than ignorance" is general; can assert by authorial fiat whatever details are needed to make it all turn out for the greater good, but _that's not how anything works in real life_.
+_ "telling people things would be meddling" moral needs work; obvious objection is that different rules apply to Keepers
+_ "obligate" is only Word of God, right?—I should probably cite this
+
 
 things to discuss with Michael/Ben/Jessica—
 _ Anna on Paul Graham
@@ -2826,4 +2832,8 @@ https://www.lesswrong.com/posts/qbcuk8WwFnTZcXTd6/thomas-kwa-s-miri-research-exp
 > The model was something like: Nate and Eliezer have a mindset that's good for both capabilities and alignment, and so if we talk to other alignment researchers about our work, the mindset will diffuse into the alignment community, and thence to OpenAI, where it would speed up capabilities.
 
 27 January 2020—
-> I'm also afraid of the failure mode where I get frame-controlled by the Michael/Ben/Jessica mini-egregore (while we tell ourselves a story that we're the real rationalist coordination group and not an egregore at all). Michael says that the worldview he's articulating would be the one that would be obvious to me if I felt that I was in danger. Insofar as I trust that my friends' mini-egregore is seeing something but I don't trust the details, the obvious path forward is to try to do original seeing while leaning into fear—trusting Michael's meta level advice, but not his detailed story.
\ No newline at end of file
+> I'm also afraid of the failure mode where I get frame-controlled by the Michael/Ben/Jessica mini-egregore (while we tell ourselves a story that we're the real rationalist coordination group and not an egregore at all). Michael says that the worldview he's articulating would be the one that would be obvious to me if I felt that I was in danger. Insofar as I trust that my friends' mini-egregore is seeing something but I don't trust the details, the obvious path forward is to try to do original seeing while leaning into fear—trusting Michael's meta level advice, but not his detailed story.
+
+Weird tribalist praise for Scott: https://www.greaterwrong.com/posts/GMCs73dCPTL8dWYGq/use-normal-predictions/comment/ez8xrquaXmmvbsYPi
+
+