check in
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 7de2d76..f33f585 100644 (file)
@@ -1,15 +1,7 @@
-on deck—
-_ Let's recap
-_ If he's reading this ...
-_ Perhaps if the world were at stake
-_ ¶ about social justice and defying threats
-_ ¶ about body odors
-_ regrets and wasted time
-_ talk about the 2019 Christmas party
-_ excerpt 2nd "out of patience" email
-
-
 with internet available—
+_ https://www.lesswrong.com/posts/QB9eXzzQWBhq9YuB8/rationalizing-and-sitting-bolt-upright-in-alarm#YQBvyWeKT8eSxPCmz
+_ Ben on "community": http://benjaminrosshoffman.com/on-purpose-alone/
+_ check date of univariate fallacy Tweet and Kelsey Facebook comment
 _ Soares "excited" example
 _ EA Has a Lying Problem
 _ when did I ask Leon about getting easier tasks?
@@ -37,9 +29,11 @@ _ retrieve comment on pseudo-lies post in which he says its OK for me to comment
 
 
 far editing tier—
+_ tie off Anna's plot arc?
 _ quote one more "Hill of Meaning" Tweet emphasizing fact/policy distinction
 _ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ context of his claim to not be taking a stand
+_ clarify "Merlin didn't like Vassar" example about Mike's name
 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
 _ when I'm too close to verbatim-quoting someone's email, actually use a verbatim quote and put it in quotes
@@ -1253,11 +1247,11 @@ Yudkowsky did [quote-Tweet Colin Wright on the univariate fallacy](https://twitt
 "Univariate fallacy" also a concession
 (which I got to cite in  which I cited in "Schelling Categories")
 
-https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/
+
 
 "Yes Requires the Possibility of No" 19 May https://www.lesswrong.com/posts/WwTPSkNwC89g3Afnd/comment-section-from-05-19-2019
 
-scuffle on LessWrong FAQ 31 May https://www.lesswrong.com/posts/MqrzczdGhQCRePgqN/feedback-requested-draft-of-a-new-about-welcome-page-for#iqEEme6M2JmZEXYAk
+scuffle on LessWrong FAQ 31 May 
 
 "epistemic defense" meeting
 
@@ -1297,11 +1291,27 @@ I was _furious_ at "Against Lie Inflation"—oh, so _now_ you agree that making
 
 ]
 
-[TODO: Yudkowsky throwing NRx under the bus; tragedy of recursive silencing
-15 Sep Glen Weyl apology
-]
 
 Scott said he liked "monastic rationalism _vs_. lay rationalism" as a frame for the schism Ben was proposing.
 
 (I wish I could use this line)
-I really really want to maintain my friendship with Anna despite the fact that we're de facto political enemies now. (And similarly with, e.g., Kelsey, who is like a sister-in-law to me (because she's Merlin Blume's third parent, and I'm Merlin's crazy racist uncle).)
\ No newline at end of file
+I really really want to maintain my friendship with Anna despite the fact that we're de facto political enemies now. (And similarly with, e.g., Kelsey, who is like a sister-in-law to me (because she's Merlin Blume's third parent, and I'm Merlin's crazy racist uncle).)
+
+
+https://twitter.com/esyudkowsky/status/1164332124712738821
+> I unfortunately have had a policy for over a decade of not putting numbers on a few things, one of which is AGI timelines and one of which is *non-relative* doom probabilities.  Among the reasons is that my estimates of those have been extremely unstable.
+
+
+I don't, actually, know how to prevent the world from ending. Probably we were never going to survive. (The cis-human era of Earth-originating intelligent life wasn't going to last forever, and it's hard to exert detailed control over what comes next.) But if we're going to die either way, I think it would be _more dignified_ if Eliezer Yudkowsky were to behave as if he wanted his faithful students to be informed. Since it doesn't look like we're going to get that, I think it's _more dignified_ if his faithful students _know_ that he's not behaving like he wants us to be informed. And so one of my goals in telling you this long story about how I spent (wasted?) the last six years of my life, is to communicate the moral that 
+
+and that this is a _problem_ for the future of humanity, to the extent that there is a future of humanity.
+
+Is that a mean thing to say about someone to whom I owe so much? Probably. But he didn't create me to not say mean things. If it helps—as far as _I_ can tell, I'm only doing what he taught me to do in 2007–9: [carve reality at the joints](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries), [speak the truth even if your voice trembles](https://www.lesswrong.com/posts/pZSpbxPrftSndTdSf/honesty-beyond-internal-truth), and [make an extraordinary effort](https://www.lesswrong.com/posts/GuEsfTpSDSbXFiseH/make-an-extraordinary-effort) when you've got [Something to Protect](https://www.lesswrong.com/posts/SGR4GxFK7KmW7ckCB/something-to-protect).
+
+ReACT seems similar to Visible Thoughts Project: https://arxiv.org/abs/2210.03629
+
+
+https://www.lesswrong.com/posts/jAToJHtg39AMTAuJo/evolutions-are-stupid-but-work-anyway?commentId=HvGxrASYAyfbiPwQt#HvGxrASYAyfbiPwQt
+> I've noticed that none of my heroes, not even Douglas Hofstadter or Eric Drexler, seem to live up to my standard of perfection. Always sooner or later they fall short. It's annoying, you know, because it means _I_ have to do it.
+
+But he got it right in 2009; he only started to fall short _later_ for political reasons
\ No newline at end of file