harvest some net resources on a cable-in day
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 23c00b0..044e646 100644 (file)
@@ -18,15 +18,13 @@ With internet available—
 ✓ Ray and D. Xu's comments on "The Incentives"
 ✓ comments on "Self-Consciousness wants to make"
 ✓ tussle with Ruby on "Causal vs. Social Reality"
-_ Charles Krauthammer, "Be Afraid", weeklystandard.com/be-afraid/article/9802
-_ David Xu correct link
+✓ The End (of Sequences)
+_ No such thing as a tree
+_ Yudkowsky on AlphaGo
+_ quote other Eliezer Yudkowsky facts
 _ footnote about Scott writing six times faster than me
-_ include "Actually, I Was Just Crazy" in archive.is spree
 _ include Eric Weinstein in archive.is spree
-_ did my archive.is spree include https://twitter.com/ESYudkowsky/status/1435618825198731270 and https://twitter.com/ESYudkowsky/status/1356812143849394176?
 _ link to Kay Brown's summary of the "Social Desirability Response Set" paper, and footnote paper link and my brief methodology explanation
-_ "Alexander once joked"—include the year
-_ one more significant figure in reporting 2011 Less Wrong male %, to match 2020
 _ something to support Metz being a pro for decades
 _ "not taking into account considerations" → rephrase to quote "God's dictionary"
 _ Aaron Terrell and Corina Cohn
@@ -749,11 +747,10 @@ https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-scien
 https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus
 
 
+
 If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
 
-> [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT.  I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but...
->
-> [...too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it.  I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
+> [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT. I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but [too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it. I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
 
 Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
@@ -1561,7 +1558,7 @@ I assume starting a detransition market would be not-OK
 
 -----
 
-FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this additional email.
+FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this one additional email.
 
 I'm planning on publishing the drafts linked below on [dates].
 
@@ -1570,7 +1567,10 @@ I'm planning on publishing the drafts linked below on [dates].
  * "Agreeing with Stalin in Ways That Exhibit Generally Rationalist Principles" (19K words)
  * **"Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty"** (1.5K word summary of the parts of the Whole Dumb Story that are specifically an attack on your reputation)
 
-**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. End transmission.
+**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. 
+
+(Or if you had something to say privately, I would _listen_; it just doesn't seem like a good use of time. I think it's undignified that I have reason to publish a post titled "Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty", but you seem very committed to not meeting my standards of intellectual honesty, so I have an interest in telling everyone else that.)
+
 
 [13 November: #drama discussion today (https://discord.com/channels/401181628015050773/458419017602826260/1041586188961714259) makes me feel like I don't want to put a "Why I Don't Trust ..." post, like it would be too cruel]
 
@@ -1705,3 +1705,20 @@ https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc
 
 
 > Everyone. (Including organizers of science fiction conventions.) Has a problem of "We need to figure out how to exclude evil bullies." We also have an inevitable Kolmogorov Option issue but that should not be confused with the inevitable Evil Bullies issue, even if bullies attack through Kolmogorov Option issues.
+
+----
+
+Someone else's Dumb Story that you can read about on someone else's blog
+
+all he does these days is sneer about Earth people, but he _is_ from Earth—carrying on the memetic legacy of Richard Feynmann and Douglas Hofstadter and Greg Egan
+
+"Robust Cooperation in the Prisoner's Dilemma" https://arxiv.org/abs/1401.5577
+
+https://www.lesswrong.com/posts/anCubLdggTWjnEvBS/your-rationality-is-my-business
+> One of those interests is the human pursuit of truth, which has strengthened slowly over the generations (for there was not always Science). I wish to strengthen that pursuit further, in _this_ generation. That is a wish of mine, for the Future. For we are all of us players upon that vast gameboard, whether we accept the responsibility or not.
+
+https://www.washingtonexaminer.com/weekly-standard/be-afraid-9802
+
+https://www.lesswrong.com/posts/TQSb4wd6v5C3p6HX2/the-pascal-s-wager-fallacy-fallacy#pART2rjzcmqATAZio
+> egoists, but not altruists, should immediately commit suicide in case someone is finishing their AI project in a basement, right now.
+(I remembered this as suggesting some plausibility in sudden Singularity even then, but in context it's more clearly in thought-experimental mode)
\ No newline at end of file