memoir: pt. 5 bullet expansion—xrisk, SJ, Dolphin War
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 537d65b..beb5f30 100644 (file)
@@ -18,6 +18,24 @@ With internet available—
 ✓ Ray and D. Xu's comments on "The Incentives"
 ✓ comments on "Self-Consciousness wants to make"
 ✓ tussle with Ruby on "Causal vs. Social Reality"
+_ No such thing as a tree
+_ Tweet about it being wise to say "no comment"
+_ my Tweet about not buying the vibe shift for AlphaGo, but buying it for GPT
+_ Yudkowsky on AlphaGo
+_ quote about "it's possible that someone is finishing up their project right now"
+_ quote about "humanity's attachment to Truth" in "Your Rationality Is My Business"
+_ The End (of Sequences)
+_ quote other Eliezer Yudkowsky facts
+_ Charles Krauthammer, "Be Afraid", weeklystandard.com/be-afraid/article/9802
+_ David Xu correct link
+_ footnote about Scott writing six times faster than me
+_ include "Actually, I Was Just Crazy" in archive.is spree
+_ include Eric Weinstein in archive.is spree
+_ did my archive.is spree include https://twitter.com/ESYudkowsky/status/1435618825198731270 and https://twitter.com/ESYudkowsky/status/1356812143849394176?
+_ link to Kay Brown's summary of the "Social Desirability Response Set" paper, and footnote paper link and my brief methodology explanation
+_ "Alexander once joked"—include the year
+_ one more significant figure in reporting 2011 Less Wrong male %, to match 2020
+_ something to support Metz being a pro for decades
 _ "not taking into account considerations" → rephrase to quote "God's dictionary"
 _ Aaron Terrell and Corina Cohn
 _ more examples of Yudkowsky's arrogance (MIRI dialogues, knew how to say anything at all)
@@ -29,7 +47,8 @@ _ examples of snarky comments about "the rationalists"
 _ 13th century word meanings
 _ weirdly hostile comments on "... Boundaries?"
 _ Anna's claim that Scott was a target specifically because he was good, my counterclaim that payment can't be impunity
-
+_ larger Extropy quote than "otherwise identical"
+_ Yudkowsky's LW moderation policy
 
 far editing tier—
 _ footnote previous race-IQ baiting on "why do I keep bringing this up"
@@ -95,6 +114,8 @@ _ "Common Interest of Many Causes" and "Kolmogorov Complicity" offer directly co
 _ Vassar's about-face on gender
 _ risk of people bouncing off progressivism
 _ an AGP teen boy could at least consent to transition, and make plans based on knowing what the thing is (you'd actually want to go through a little bit of male puberty)
+_ figure out full timeline of which of my Less Wrong posts to mention
+_ update "80,000 words" refs with the near-final wordcount
 
 
 terms to explain on first mention—
@@ -149,7 +170,6 @@ cross-referenced with my dayjob schedule implies ... finished draft ms. on 15 De
 
 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
 
-https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
@@ -468,6 +488,8 @@ But I wasn't always this way. It's an adaptive response to years of trolling. Th
 You want concise? Meghan Murphy got it down to four words: "Men aren't women tho."
 
 
+
+
 > If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
 https://twitter.com/ESYudkowsky/status/1435618825198731270
 
@@ -735,11 +757,10 @@ https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-scien
 https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus
 
 
+
 If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
 
-> [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT.  I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but...
->
-> [...too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it.  I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
+> [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT. I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but [too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it. I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
 
 Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
@@ -1547,7 +1568,7 @@ I assume starting a detransition market would be not-OK
 
 -----
 
-FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this additional email.
+FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this one additional email.
 
 I'm planning on publishing the drafts linked below on [dates].
 
@@ -1556,7 +1577,10 @@ I'm planning on publishing the drafts linked below on [dates].
  * "Agreeing with Stalin in Ways That Exhibit Generally Rationalist Principles" (19K words)
  * **"Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty"** (1.5K word summary of the parts of the Whole Dumb Story that are specifically an attack on your reputation)
 
-**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. End transmission.
+**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. 
+
+(Or if you had something to say privately, I would _listen_; it just doesn't seem like a good use of time. I think it's undignified that I have reason to publish a post titled "Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty", but you seem very committed to not meeting my standards of intellectual honesty, so I have an interest in telling everyone else that.)
+
 
 [13 November: #drama discussion today (https://discord.com/channels/401181628015050773/458419017602826260/1041586188961714259) makes me feel like I don't want to put a "Why I Don't Trust ..." post, like it would be too cruel]
 
@@ -1688,6 +1712,14 @@ https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc
 
 > Zack, and many others, I think you have a vulnerability where you care way too much about the reasons that bullies give for bullying you, and the bullies detect that and exploit it.
 
-https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc312SMvoCrNep4smg41S3G874saF2ZRSQl?comment_id=10159410429909228&reply_comment_id=10159410753284228
+
 
 > Everyone. (Including organizers of science fiction conventions.) Has a problem of "We need to figure out how to exclude evil bullies." We also have an inevitable Kolmogorov Option issue but that should not be confused with the inevitable Evil Bullies issue, even if bullies attack through Kolmogorov Option issues.
+
+----
+
+Someone else's Dumb Story that you can read about on someone else's blog
+
+all he does these days is sneer about Earth people, but he _is_ from Earth—carrying on the memetic legacy of Richard Feynmann and Douglas Hofstadter and Greg Egan
+
+"Robust Cooperation in the Prisoner's Dilemma" https://arxiv.org/abs/1401.5577
\ No newline at end of file