check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index cfeeb40..a46f776 100644 (file)
@@ -2815,3 +2815,6 @@ In particular, I think the conspiracy theory "Yudkowsky sometimes avoids nuanced
 
 https://twitter.com/ESYudkowsky/status/1708587781424046242
 > Zack, you missed this point presumably because you're losing your grasp of basic theory in favor of conspiracy theory.
+
+https://www.lesswrong.com/posts/qbcuk8WwFnTZcXTd6/thomas-kwa-s-miri-research-experience
+> The model was something like: Nate and Eliezer have a mindset that's good for both capabilities and alignment, and so if we talk to other alignment researchers about our work, the mindset will diffuse into the alignment community, and thence to OpenAI, where it would speed up capabilities.