memoir: Challenges to Yudkowsky's Personality Cult
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 4ab8a07..fc5d71c 100644 (file)
@@ -1,50 +1,92 @@
-battle stations—
-✓ outline NYT defense/prelude to pronouns
-_ flesh out prelude to pronouns I
-_ flush out prelude to pronouns II
-_ outlining existential stakes and social justice FDT
-_ outlining Dolphin War II
-_ flesh out existential stakes and social justice FDT
-_ flesh out Dolphin War II
+marked TODO blocks—
+✓ AlphaGo seemed deeper [pt. 5]
+- "Agreeing with Stalin" recap intro [pt. 5]
+- social justice and defying threats [pt. 5]
+_ last email and not bothering him [pt. 5]
+_ scuffle on "Yes Requires the Possibility" [pt. 4]
+_ confronting Olivia [pt. 2]
+_ "Lesswrong.com is dead to me" [pt. 4]
+_ AI timelines scam [pt. 4]
+_ secret thread with Ruby [pt. 4]
+_ progress towards discussing the real thing [pt. 4]
+_ epistemic defense meeting [pt. 4]
+_ State of Steven [pt. 4]
+_ Somni [pt. 4]
+_ rude maps [pt. 4]
+_ culture off the rails; my warning points to Vaniver [pt. 4]
+_ December 2019 winter blogging vacation [pt. 4]
+_ plan to reach out to Rick [pt. 4]
+_ complicity and friendship [pt. 4]
+_ pandemic starts [pt. 4]
+_ autogenderphilia is common [pt. 4]
+_ out of patience email [pt. 4]
+_ "Unnatural Categories Are Optimized for Deception" [pt. 4]
+_ recap of crimes, cont'd [pt. 5]
+_ lead-in to Sept. 2021 Twitter altercation [pt. 5]
+_ Jessica's experience at MIRI and CfAR [pt. 5]
+_ the Death With Dignity era [pt. 5]
+_ regrets, wasted time, conclusion [pt. 5]
+_ include Wilhelm "Gender Czar" conversation? [pt. 2]
+
+not even blocked—
+_ Re: on legitimacy and the entrepreneur; or, continuing the attempt to spread my sociopathic awakening onto Scott [pt. 2 somewhere]
+_ running away to Burlingame; Hamilton tickets
+
+bigger blocks—
+_ dath ilan and Eliezerfic fight
+_ Dolphin War finish
+_ Michael Vassar and the Theory of Optimal Gossip
+_ psychiatric disaster 
+_ the story of my Feb. 2017 Facebook crusade [pt. 2]
+_ the story of my Feb./Apr. 2017 recent madness [pt. 2]
+_ reaction to Ziz
 
 
-dedicated day?—
-_ Michael Vassar and the Theory of Optimal Gossip
-_ Sasha disaster 
+
+New (bad) time estimate:
+35 smaller TODO blocks × 3/day = 12 days
+7 bigger blocks × day/2.5 = 17.5 days
+= 29.5 workdays × 7 sidereal days / 6 workdays = 34.4 sidereal days
+= gapless draft on 17 February??
+
 
 With internet available—
-_ dolphin thread also referenced Georgia on trees, which also cited "Not Man for the Categories"
-_ commit patch URL for my slate_starchive script
-_ double-check on exact pre-edit wording of Brennan denunciation
-_ Wentworth specifically doesn't want people's John-models to overwrite their own models
-_ footnote Charles Murray's caveats
-_ record of Yudkowsky citing TDT as part of decision to prosecute Emerson?
-_ university library sells borrowing privileges
+_ "When you strike at a king"
+_ real-name blog post: jr. member of save/destroy/take-over the world conspiracy
+_ Sequences post making fun of "just make a really big neural net"
+_ DeepMind June 2022 Twitter archive?
+_ January 2021 Capitol riot
+_ No Fire Alarm
+_ "not hard to find": link to more /r/itsafetish-like anecdotes
+_ Keltham's masochism insight
+_ stats of SIAI vs. SingInst hits (for ^siai footnote)
+_ quote other Eliezer Yudkowsky facts
+_ footnote about Scott writing six times faster than me
+_ include Eric Weinstein in archive.is spree
+_ link to Kay Brown's summary of the "Social Desirability Response Set" paper, and footnote paper link and my brief methodology explanation
+_ something to support Metz being a pro for decades
+_ "not taking into account considerations" → rephrase to quote "God's dictionary"
 _ Aaron Terrell and Corina Cohn
-_ Eddie Izzard
 _ more examples of Yudkowsky's arrogance (MIRI dialogues, knew how to say anything at all)
-_ rational-ist/physics-ist analogy (and link to Yudkowsky Tweet where I think I got this from)
-_ "linking to K-complicity in my replies", link the specific reply
-_ Wentworth on mutual information being on the right track?
-_ "20% of the ones with penises" someone in the comments saying, "It is a woman's body", and Yudkowsky saying "duly corrected"
-_ "not taking into account considerations" → rephrase to quote "God's dictionary"
-_ except when it's net bad to have concluded Y: https://www.greaterwrong.com/posts/BgEG9RZBtQMLGuqm7/[Error%20communicating%20with%20LW2%20server]/comment/LgLx6AD94c2odFxs4
 _ my history of sniping in Yudkowsky's mentions
-_ comments on "Self-Consciousness wants to make"
-_ Scott vs. Ben on Drowning Children
-_ Ray and D. Xu's comments on "The Incentives"
 _ my comment about having changed my mind about "A Fable of Science and Politics"
 _ more Yudkowsky Facebook comment screenshots
 _ that neuroscience paper backing the two-types
-_ compile Categories references from the Dolphin War Twitter thread
-_ tussle with Ruby on "Causal vs. Social Reality"
 _ examples of snarky comments about "the rationalists" 
 _ 13th century word meanings
 _ weirdly hostile comments on "... Boundaries?"
 _ Anna's claim that Scott was a target specifically because he was good, my counterclaim that payment can't be impunity
-
+_ Yudkowsky's LW moderation policy
 
 far editing tier—
+_ explain the "if the world were at stake" Sword of Good reference better
+_ D. also acknowledged AGP
+_ "no one else would have spoken" should have been a call-to-action to read more widely
+_ explain who Kay Brown is
+_ "Great Common Task" is probably capitalized
+_ mention Will MacAskill's gimped "longtermism" somehow
+_ re-read a DALL-E explanation and decide if I think it's less scary now
+_ Scott Aaronson on the blockchain of science https://scottaaronson.blog/?p=6821
 _ footnote previous race-IQ baiting on "why do I keep bringing this up"
 _ mention my "trembling hand" history with secrets, not just that I don't like it
 _ https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to as part of December 2019 blogging streak
@@ -54,12 +96,10 @@ _ the function of privacy norms is to protect you from people who want to select
 _ pull "agreeing with Stalin" quote earlier in ms. to argue that Yudkowsky apparently doesn't disagree with my "deliberately ambiguous"
 _ is the title of pt. 4 OK? (agreeing with Stalin _is_ correct when Stalin is right; the problem is that Stalin isn't right about gender)
 _ illustrate "student dysphoria is worse" with anecdote about leaving physics class and going to the counselor to see if I could graduate earlier?
-_ as an author and a critic, I expect to lose status when my critics make good points, and expect to gain status when my criticism makes good points; communism analogy: you wouldn't expect credibly helpful work to be unpaid; and I have to make this kind of analysis even he didn't _say_ "I'm a communist"
 _ hate for secrecy probably correlates with autogynephilia blogging
 _ mention Said rigor check somewhere, nervousness about Michael's gang being a mini-egregore
 _ at some point, speculate on causes of brain damage
 _ the "reducing negativity" post does obliquely hint at the regression point being general ("Let's say that the true level of negativity"), does that seriously undermine my thesis, or does it only merit a footnote?
-_ worth footnoting the "some sort of communist" joke?
 _ elaborate on why I'm not leaking sensitive bits, by explaining what can be inferred by what was and wasn't said in public
 _ footnote on "no one would even consider" 
 _ post-Christmas conversation should do a better job of capturing the war, that Jessica thinks Scott is Bad for being a psychiatrist
@@ -106,10 +146,24 @@ _ notice the symmetry where _both_ E and I want to partition the discussion with
 _ contract-drafting em, SSC blogroll is most of my traffic
 _ "Common Interest of Many Causes" and "Kolmogorov Complicity" offer directly contradictory strategies
 _ Vassar's about-face on gender
-
-
+_ better introduction of S.K.
+_ risk of people bouncing off progressivism
+_ an AGP teen boy could at least consent to transition, and make plans based on knowing what the thing is (you'd actually want to go through a little bit of male puberty)
+_ "tossed in a bucket" is ignoring advice from Sept. 2022 clarification to be clear about the type distinction
+_ explicitly explain "Hill of Validity" title inversion
+_ figure out full timeline of which of my Less Wrong posts to mention
+_ update "80,000 words" refs with the near-final wordcount
+_ the "outright bad faith" clause in "Your Price for Joining"
+_ less afraid of hurting O.
+_ better explain "lie inflation" ambiguity
+_ backlink "I've decided to drop the pseudonym" to pen name drop post
+_ backlink (/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/)
+_ backlink "I again refer to" Happy Price
+_ backlink "(again) whether he accepted the Cheerful Price"
+_ backlink "alter the beacon"
 
 terms to explain on first mention—
+_ Valinor
 _ "Caliphate"
 _ "rationalist"
 _ Center for Applied Rationality
@@ -118,17 +172,18 @@ _ "egregore"
 
 
 people to consult before publishing, for feedback or right of objection—
+_ Tail (pt. 2 AGP discussion)
 _ Iceman
 _ Ben/Jessica (Michael)
+_ "Wilhelm"
 _ Scott
 _ Anna
 _ secret posse member
 _ Katie (pseudonym choice)
 _ Alicorn: about privacy, and for Melkor Glowfic reference link
 _ hostile prereader (April, J. Beshir, Swimmer, someone else from Alicorner #drama)
-_ maybe Kelsey (very briefly, just about her name)?
+_ Kelsey (briefly)
 _ maybe SK (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
-_ maybe Big Yud (ask #drama about the politics/ettiquitte)
 
 marketing—
 _ Twitter
@@ -142,26 +197,10 @@ _ dropping "and Scott" in Jessica's description of attacking narcissim
 _ I think it's OK to copy my friends' language from emails; plagiarism instincts
 
 
--------
-
-4 November progress assessment: My 113 word TODO bullets on "discrediting to the community" bloated up into 563 words of prose, a decompression ratio of 5. Taking this at face value—
-
-My remaining TODO notes in the pt. 3 ms. are about 1400 words—does that mean they become 7000 words, with the finished pt. 3 weighing in at 46K words??
-
-For pt. 2, does 970 words of TODO inflate into 5K words of prose, for a finished pt. 2 at 16K words? Feels more likely to be an underestimate due to these notes being sparser on average? An additional 7K words, to finish at 18K??
-
-For pt. 4, I have 617 words of TODO notes, but those also feel pretty sparse and should expand at a higher ratio than 5. An additional 5K words, to finish at 19K??
-
-Projected post lengths: 18K + 46K + 19K = 83K??
-Projected additional words: 17K??
-Projected additional drafting: 17K / 750 K/day = 23 days??
-cross-referenced with my dayjob schedule implies ... finished draft ms. on 15 December?
-
 -------
 
 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
 
-https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
@@ -242,22 +281,11 @@ I'm not optimistic about the problem being fixable, either. Our robot cult _alre
 
 ----
 
-Because of the particular historical moment in which we live, we end up facing pressure from progressives, because—whatever our _object-level_ beliefs about (say) [sex, race, and class differences](/2020/Apr/book-review-human-diversity/)—and however much many of us would prefer not to talk about them—on the _meta_ level, our creed requires us to admit _it's an empirical question_, not a moral one—and that [empirical questions have no privileged reason to admit convenient answers](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
-
-I view this conflict as entirely incidental, something that [would happen in some form in any place and time](https://www.lesswrong.com/posts/cKrgy7hLdszkse2pq/archimedes-s-chronophone), rather than having to do with American politics or "the left" in particular. In a Christian theocracy, our analogues would get in trouble for beliefs about evolution; in the old Soviet Union, our analogues would get in trouble for [thinking about market economics](https://slatestarcodex.com/2014/09/24/book-review-red-plenty/) (as a [positive technical discipline](https://en.wikipedia.org/wiki/Fundamental_theorems_of_welfare_economics#Proof_of_the_first_fundamental_theorem) adjacent to game theory, not yoked to a particular normative agenda).
-
-Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful what they say in public. (I am not smart.)
-
 
 (which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/):
 
-
-
 Becuase of the conflict, and because all the prominent high-status people are running a Kolmogorov Option strategy, and because we happen to have to a _wildly_ disproportionate number of _people like me_ around, I think being "pro-trans" ended up being part of the community's "shield" against external political pressure, of the sort that perked up after [the February 2021 _New York Times_ hit piece about Alexander's blog](https://archive.is/0Ghdl). (The _magnitude_ of heat brought on by the recent _Times_ piece and its aftermath was new, but the underlying dynamics had been present for years.)
 
-Jacob Falkovich noted (on 23 June 2020, just after _Slate Star Codex_ went down), ["The two demographics most over-represented in the SlateStarCodex readership according to the surveys are transgender people and Ph.D. holders."](https://twitter.com/yashkaf/status/1275524303430262790) [Scott Aaronson noted (in commentary on the _Times_ article)](https://www.scottaaronson.com/blog/?p=5310) "the rationalist community's legendary openness to alternative gender identities and sexualities" as something that would have "complicated the picture" of our portrayal as anti-feminist.
-
-Even the _haters_ grudgingly give Alexander credit for "... Not Man for the Categories": ["I strongly disagree that one good article about accepting transness means you get to walk away from writing that is somewhat white supremacist and quite fascist without at least awknowledging you were wrong."](https://archive.is/SlJo1)
 
 Given these political realities, you'd think that I _should_ be sympathetic to the Kolmogorov Option argument, which makes a lot of sense. _Of course_ all the high-status people with a public-facing mission (like building a movement to prevent the coming robot apocalypse) are going to be motivatedly dumb about trans stuff in public: look at all the damage [the _other_ Harry Potter author did to her legacy](https://en.wikipedia.org/wiki/Politics_of_J._K._Rowling#Transgender_people).
 
@@ -349,10 +377,6 @@ I guess I feel pretty naïve now, but—I _actually believed our own propoganda_
 
 I got a pingback to "Optimized Propaganda" from in an "EDIT 5/21/2021" on https://www.lesswrong.com/posts/qKvn7rxP2mzJbKfcA/persuasion-tools-ai-takeover-without-agi-or-agency after Scott Alexander linked it—evidence for Scott having Power to shape people's attention
 
-
-https://twitter.com/HiFromMichaelV/status/1221771020534788098
-"Rationalism starts with the belief that arguments aren't soldiers, and ends with the belief that soldiers are arguments."
-
 The Eliezer Yudkowsky I remember wrote about [how facts are tightly-woven together in the Great Web of Causality](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies), such that [people who are trying to believe something false have an incentive to invent and spread fake epistemology lessons](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology), and about the [high competence threshold that _forces_ correct conclusions](http://sl4.org/archive/0602/13903.html).
 
 A culture where there are huge catastrophic consequences for [questioning religion](https://www.lesswrong.com/posts/u6JzcFtPGiznFgDxP/excluding-the-supernatural), is a culture where it's harder to train alignment researchers that genuinely understand Occam's razor on a _deep_ level, when [the intelligent social web](https://www.lesswrong.com/posts/AqbWna2S85pFTsHH4/the-intelligent-social-web) around them will do anything to prevent them from applying the parsimony skill to the God hypothesis. 
@@ -481,18 +505,35 @@ back in 'aught-nine, Anna commented that no one in our circle was that old, as i
 Really, self-respecting trans people who care about logical consistency should abhor Scott and Eliezer's opinions—you should want people to use the right pronouns _because_ of your gender soul or _because_ your transition actually worked, not because categories are flexible and pronouns shouldn't imply gender
 
 
-
-
+-------
 
 Yudkowsky complains—not entirely without justification—that I ["do not know how to come to a point, because [I am] too horrified by the thought that a reader might disagree with [me] if [I] don't write even more first."](https://twitter.com/ESYudkowsky/status/1435605868758765568)
 
 But I wasn't always this way. It's an adaptive response to years of trolling. The reason I write even more to get out ahead of the objections I can forsee, is because I've been _at this for six years_. I tried being concise _first_.
 
-You want concise? Meghan Murphy got it down to four words: "Men aren't women tho."
+You want concise? Meghan Murphy got it down to four words, which could have been three[^contraction]: "Men aren't women tho."
 
+[^contraction]: I think the contraction [_aren't_](https://en.wiktionary.org/wiki/aren%27t) counts as one word in this context; the _tho_ (though) can be dropped to get down to three.
+
+Men aren't women! Men aren't women tho!
+
+It's only _after_ people pretended to disagree with _that_, that I started recusively digging into the details—why adult human males on hormone replacement therapy still aren't adult human females, why 'adult human male' and 'adult human female' are natural categories that it makes sense for Meghan McCarthy to want short codewords to point to, how words can be used in different ways depending on context (such that we can understand Meghan McCarthy's claim as it was meant, even if the words _woman_ and _man_ can also be used in other senses), what it means for something to be a natural cateogry, what it means to say that _X_'s aren't _Y_'s ...
+
+It is more than a little insulting to be told, after all this, that the problem is that _I_ don't know how to come to a point, rather than everyone in Berkeley not knowing how to accept a point that contradicts their religion. It's such a stupidly simple stonewalling strategy: when the critic makes their point simply (men aren't women! men aren't women tho!), sneer at them for being ontologically confused, and then when they spend years of their life writing up the exhaustively detailed rigorous version, sneer at them for not being able to come to a point.
+
+Does the elephant in his brain really expect to get away with that? Are Earth people really that gullible?
+
+------
+
+[Yudkowsky writes](https://twitter.com/ESYudkowsky/status/1435618825198731270):
 
 > If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
-https://twitter.com/ESYudkowsky/status/1435618825198731270
+
+And if _you_ don't think you can politically afford to acknowledge your faithful student's proof that 6 + 7 = 13 [(because Stalin doesn't like it when people use the number 13)](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to), it can feel like safety or self-justification to issue a Pronouncement that the answer to 6 + 7 depends on what base you're working in[^base]; but it doesn't feel as good to engage with your faithful student's allegation that the only reason you're issuing Pronouncements about alternate bases for arithmetic, is to win favor with the Party by standing by and letting them cite you as a credible authority when they claim that 6 + 7 = 15, while thinking yourself "honest" because you've sold yourself a story about how _you_ were just teaching those vile _kulaks_ an important lesson about place–value arithmetic, and never technically said yourself that 6 + 7 = 15 _in base ten_.
+
+[^base]: For example, in base 8, one would write 6 + 7 = 15, where the symbol "15" represents the number **1** · 8<sup>1</sup> + **5** · 8<sup>0</sup>, which is equal to **1** · 10<sup>1</sup> + **3** · 10<sup>0</sup>, which we normally (in base 10) write as "13".
+
+------
 
 > The Other's theory of themselves usually does not make them look terrible.  And you will not have much luck just yelling at them about how they must *really* be doing terrible_thing instead.  That's woke filter bubble thinking.  I stopped talking to Michael when he went that way.
 https://twitter.com/ESYudkowsky/status/1435619618052214787
@@ -529,8 +570,8 @@ Respect needs to be updateable. No one can think fast enough to think all their
 
 I think it's a problem for our collective epistemology that Scott has the power to sneeze his mistakes onto everyone else—that our 2021 beliefs about dolphins (literally, dolphins in particular!) is causally downstream of Scott's political incentives in 2014, even if Scott wasn't consciously lying and Nate wasn't thinking about gender politics. I think this is the problem that Eliezer identified as dark side epistemology: people invent fake epistemology lessons to force a conclusion that they can't get on the merits, and the fake lessons can spread, even if the meme-recipients aren't trying to force anything themselves. I would have expected people with cultural power to be interested in correcting the problem once it was pointed out.
 
-https://twitter.com/esyudkowsky/status/1374161729073020937
-> Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements. There are a *lot* of good reasons to have "no comments" about things. Anybody who tells you otherwise has no life experience, or is lying.
+
+
 
 "Speak out in order to make it clear how not alt-right you are; nothing wrong with that because I'm not lying" is being inconsistent about whether signaling and mood-affiliation matters—it's trying to socially profit by signaling pro-Stalin-ness, while simultaneously denying that anyone could object (because you didn't lie—pivoting to a worldview where only literal meanings matter and signals aren't real). Can I sketch this out mathematically?
 
@@ -565,6 +606,10 @@ It's a _problem_ if public intellectuals in the current year need to pretend to
 https://www.readthesequences.com/
 > Because it is all, in the end, one thing. I talked about big important distant problems and neglected immediate life, but the laws governing them aren't actually different.
 
+Is that not true?
+
+Can you lie about immediate life for political convenience
+
 > the challenge is almost entirely about high integrity communication by small groups
 https://twitter.com/HiFromMichaelV/status/1486044326618710018
 
@@ -589,8 +634,6 @@ https://www.lesswrong.com/posts/PG8i7ZiqLxthACaBi/do-fandoms-need-awfulness
 
 https://graymirror.substack.com/p/the-journalist-rationalist-showdown?s=r
 
-contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard (supposedly for the benefit of people with your sexuality), you don't take it lying down
-
 Keltham contradicts himself inside of a single tag! Using the words "shape" and "covert" both times!!
 
 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
@@ -755,14 +798,15 @@ the Extropians post _explicitly_ says "may be a common sexual fantasy"
 https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
 > I'm not sure that human beings realistically _can_ trust and think at the same time.
 
+"Why Quantum" has another reference to "doesn't seem possible to think and trust"
+
 https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus
 
 
+
 If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
 
-> [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT.  I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but...
->
-> [...too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it.  I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
+> [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT. I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but [too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it. I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
 
 Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
@@ -881,8 +925,6 @@ subject: "nothing left to lose; or, the end of my rope"
 Anna thinks trust and integrity is an important resource
 https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
 
-The HEXACO personality model considers "honesty" and "humility" a single factor
-
 (You might group things together _on the grounds_ of their similarly positive consequences—that's what words like _good_ do—but that's distinct from choosing _the categorization itself_ because of its consequences.)
 
 —and would be unforgivable if it weren't so _inexplicable_.
@@ -1570,7 +1612,7 @@ I assume starting a detransition market would be not-OK
 
 -----
 
-FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this additional email.
+FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this one additional email.
 
 I'm planning on publishing the drafts linked below on [dates].
 
@@ -1579,7 +1621,14 @@ I'm planning on publishing the drafts linked below on [dates].
  * "Agreeing with Stalin in Ways That Exhibit Generally Rationalist Principles" (19K words)
  * **"Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty"** (1.5K word summary of the parts of the Whole Dumb Story that are specifically an attack on your reputation)
 
-**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. End transmission.
+**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. 
+
+(Or if you had something to say privately, I would _listen_; it just doesn't seem like a good use of time. I think it's undignified that I have reason to publish a post titled "Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty", but you seem very committed to not meeting my standards of intellectual honesty, so I have an interest in telling everyone else that.)
+
+
+[13 November: #drama discussion today (https://discord.com/channels/401181628015050773/458419017602826260/1041586188961714259) makes me feel like I don't want to put a "Why I Don't Trust ..." post, like it would be too cruel]
+
+[no awareness that people like me or Michael or Jessica would consider this a betrayal coming from the author of the Sequences (even if it wouldn't be a betrayal coming from a generic public intellectual)]
 
 ----
 
@@ -1591,19 +1640,11 @@ https://www.lesswrong.com/posts/BbM47qBPzdSRruY4z/instead-of-technical-research-
 
 I hate that my religion is bottlenecked on one guy
 
-https://forum.effectivealtruism.org/posts/fStCX6RXmgxkTBe73/towards-a-weaker-longtermism?commentId=Kga3KGx6WAhkNM3qY
-> I am broadly fine with people devoting 50%, 25% or 75% of themselves to longtermism, in that case, as opposed to tearing themselves apart with guilt and ending up doing nothing much, which seems to be the main alternative. 
-
 https://twitter.com/zackmdavis/status/1405032189708816385
 > Egregore psychology is much easier and more knowable than individual human psychology, for the same reason macroscopic matter is more predictable than individual particles. But trying to tell people what the egregore is doing doesn't work because they don't believe in egregores!!
 
-https://glowfic.com/replies/1882395#reply-1882395
-> the stranger from dath ilan never pretended to be anyone's friend after he stopped being their friend.
-Similarly, you should stop pretending to be a rationality teacher if you're going to be corrupted by politics
-
 20 June 2021, "The egregore doesn't care about the past", thematic moments at Valinor
 
-
 You don't want to have a reputation that isn't true; I've screwed up confidentiality before, so I don't want a "good at keeping secrets" reputation; if Yudkowsky doesn't want to live up to the standard of "not being a partisan hack", then ...
 
 Extended analogy between "Scott Alexander is always right" and "Trying to trick me into cutting my dick off"—in neither case would any sane person take it literally, but it's pointing at something important (Scott and EY are trusted intellectual authorities, rats are shameless about transition cheerleading)
@@ -1659,3 +1700,346 @@ effects on my social life—calculating what I'm allowed to say; making sure I c
 
 https://forum.effectivealtruism.org/posts/FKJ8yiF3KjFhAuivt/impco-don-t-injure-yourself-by-returning-ftxff-money-for
 when that happens, in EA, I often do suspect that nobody else will dare to speak the contrary viewpoint, if not me.
+
+Michael, June 2019
+> If clarity seems like death to them and like life to us, and we don't know this, IMHO that's an unpromising basis for friendship
+
+------
+
+Piper and Yudkowsky on privacy norms—
+
+https://twitter.com/KelseyTuoc/status/1591996891734376449
+> if such promises were made, they should be kept, but in practice in the present day, they often aren't made, and if you haven't explicitly promised a source confidentiality and then learn of something deeply unethical from them you should absolutely whistleblow.
+
+https://twitter.com/ESYudkowsky/status/1592002777429180416
+> I don't think I'd go for "haven't explicitly promised" here but rather "if you're pretty sure there was no such informal understanding on which basis you were granted that access and information".
+
+------
+
+14 November conversation, he put a checkmark emoji on my explanation of why giving up on persuading people via methods that discriminate true or false amounts to giving up on the concept of intellectual honesty and choosing instead to become a propaganda AI, which made me feel much less ragey https://discord.com/channels/401181628015050773/458419017602826260/1041836374556426350
+
+The problem isn't just the smugness and condescension; it's the smugness and condescension when he's in the wrong and betraying the principles he laid out in the Sequences and knows it; I don't want to be lumped in with anti-arrogance that's not sensitive to whether the arrogance is in the right
+
+My obsession must look as pathetic from the outside as Scott Aaronson's—why doesn't he laugh it off, who cares what SneerClub thinks?—but in my case, the difference is that I was betrayed
+
+-----
+
+dath ilan on advertising (https://www.glowfic.com/replies/1589520#reply-1589520)—
+> So, in practice, an ad might look like a picture of the product, with a brief description of what the product does better that tries to sound very factual and quantitative so it doesn't set off suspicions.  Plus a much more glowing quote from a Very Serious Person who's high enough up to have a famous reputation for impartiality, where the Very Serious Person either got paid a small amount for their time to try that product, or donated some time that a nonprofit auctioned for much larger amounts; and the Very Serious Person ended up actually impressed with the product, and willing to stake some of their reputation on recommending it in the name of the social surplus they expect to be thereby produced.
+
+
+I wrote a Python script to replace links to _Slate Star Codex_ with archive links: http://unremediatedgender.space/source?p=Ultimately_Untrue_Thought.git;a=commitdiff;h=21731ba6f1191f1e8f9#patch23
+
+John Wentworth—
+> I chose the "train a shoulder advisor" framing specifically to keep my/Eliezer's models separate from the participants' own models.
+https://www.greaterwrong.com/posts/Afdohjyt6gESu4ANf/most-people-start-with-the-same-few-bad-ideas#comment-zL728sQssPtXM3QD9
+
+https://twitter.com/ESYudkowsky/status/1355712437006204932
+> A "Physics-ist" is trying to engage in a more special human activity, hopefully productively, where they *think* about light in order to use it better.
+
+Wentworth on my confusion about going with the sqaured-error criterion in "Unnatural Categories"—
+> I think you were on the right track with mutual information. They key insight here is not an insight about what metric to use, it's an insight about the structure of the world and our information about the world. [...]  If we care more about the rough wall-height than about brick-parity, that’s because the rough wall-height is more relevant to the other things which we care about in the world. And that, in turn, is because the rough wall-height is more relevant to more things in general. Information about brick-parity just doesn’t propagate very far in the causal graph of the world; it's quickly wiped out by noise in other variables. Rough wall-height propagates further.
+
+not interested in litigating "lying" vs. "rationalizing" vs. "misleading-by-implicature"; you can be _culpable_ for causing people to be misled in a way that isn't that sensitive to what exactly was going on in your head
+
+-----
+
+https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc312SMvoCrNep4smg41S3G874saF2ZRSQl?comment_id=10159410429909228&reply_comment_id=10159410748194228
+
+> Zack, and many others, I think you have a vulnerability where you care way too much about the reasons that bullies give for bullying you, and the bullies detect that and exploit it.
+
+
+
+> Everyone. (Including organizers of science fiction conventions.) Has a problem of "We need to figure out how to exclude evil bullies." We also have an inevitable Kolmogorov Option issue but that should not be confused with the inevitable Evil Bullies issue, even if bullies attack through Kolmogorov Option issues.
+
+----
+
+Someone else's Dumb Story that you can read about on someone else's blog
+
+all he does these days is sneer about Earth people, but he _is_ from Earth—carrying on the memetic legacy of Richard Feynmann and Douglas Hofstadter and Greg Egan
+
+"Robust Cooperation in the Prisoner's Dilemma" https://arxiv.org/abs/1401.5577
+
+https://www.lesswrong.com/posts/anCubLdggTWjnEvBS/your-rationality-is-my-business
+> One of those interests is the human pursuit of truth, which has strengthened slowly over the generations (for there was not always Science). I wish to strengthen that pursuit further, in _this_ generation. That is a wish of mine, for the Future. For we are all of us players upon that vast gameboard, whether we accept the responsibility or not.
+
+https://www.washingtonexaminer.com/weekly-standard/be-afraid-9802
+
+https://www.lesswrong.com/posts/TQSb4wd6v5C3p6HX2/the-pascal-s-wager-fallacy-fallacy#pART2rjzcmqATAZio
+> egoists, but not altruists, should immediately commit suicide in case someone is finishing their AI project in a basement, right now.
+(I remembered this as suggesting some plausibility in sudden Singularity even then, but in context it's more clearly in thought-experimental mode)
+
+from "Go Forth and Create the Art"—
+> To the best of my knowledge there is _no_ true science that draws its strength from only one person. To the best of my knowledge that is _strictly_ an idiom of cults. A true science may have its heroes, it may even have its lonely defiant heroes, but _it will have more than one_. 
+
+contrast Sequences-era "Study Science, Not Just Me" with dath ilan sneering at Earth
+
+I have no objection to the conspiracies in Brennan's world! Because Brennan's world was just "here's a fictional world with a different social structure" (Competitive Conspiracy, Cooperative Conspiracy, &c.); sure, there was a post about how Eld Science failed, but that didn't seem like _trash talk_ in the same way
+
+contrast the sneering at Earth people with the attitude in "Whining-Based Communities"
+
+from "Why Quantum?" (https://www.lesswrong.com/posts/gDL9NDEXPxYpDf4vz/why-quantum)
+> But would you believe that I had such strong support, if I had not shown it to you in full detail? Ponder this well. For I may have other strong opinions. And it may seem to you that _you_ do't see any good reason to form such strong beliefs. Except this is _not_ what you will see; you will see simply that there _is_ no good reason for the strong belief, that there _is_ no strong support one way or the other. For our first-order beliefs are how the world seems to _be_. And you may think, "Oh, Eliezer is just opinionated—forming strong beliefs in the absence of lopsided support." And I will not have time to do another couple of months worth of blog posts.
+>
+> I am _very_ far from infallible, but I do not hold strong opinions at random.
+
+Another free speech exchange with S.K. in 2020: https://www.lesswrong.com/posts/YE4md9rNtpjbLGk22/open-communication-in-the-days-of-malicious-online-actors?commentId=QoYGQS52HaTpeF9HB
+
+https://www.lesswrong.com/posts/hAfmMTiaSjEY8PxXC/say-it-loud
+
+Maybe lying is "worse" than rationalizing, but if you can't hold people culpable for rationalization, you end up with a world that's bad for broadly the same reasons that a world full of liars is bad: we can't steer the world to good states if everyone's map is full of falsehoods that locally benefitted someone
+
+http://benjaminrosshoffman.com/bad-faith-behavior-not-feeling/
+
+------
+
+https://discord.com/channels/936151692041400361/1022006828718104617/1047796598488440843
+
+I'm still pretty annoyed by how easily people are falling for this _ludicrous_ "Ah, it would be bad if people _on Earth_ tried to do this, but it's OK _in dath ilan_ because of how sane, cooperative, and kind they are" excuse.
+
+Exception Handling is depicted as _explicitly_ having a Fake Conspiracy section (<https://glowfic.com/replies/1860952#reply-1860952>). Why is that any more okay, than if FTX or Enron explicitly had a Fake Accounting department?
+
+Isn't dath ilan just very straightforwardly being _more_ corrupt than Earth here? (Because FTX and Enron were _subverting_ our usual governance and oversight mechanisms, as contrasted to the usual governance mechanisms in dath ilan _explicitly_ being set up to deceive the public.)
+
+I understand that you can _assert by authorial fiat_ that, "it's okay; no one is 'really' being deceived, because 'everybody knows' that the evidence for Sparashki being real is too implausible", and you can _assert by authorial fiat_ that it's necessary to save their world from AGI and mad science.
+
+But someone writing a story about "Effective Altruism" (instead of "Exception Handling") on "Earth" (instead of "dath ilan") could just as easily _assert by authorial fiat_, "it's okay, no one is 'really' being defrauded, because 'everybody knows' that crypto is a speculative investment in which you shouldn't invest anything you can't afford to lose".
+
+What's the difference? Are there _generalizable reasons_ why fraud isn't worth it (not in expectation, and not in reality), or is it just that Sam and Caroline weren't sane, cooperative, and kind enough to pull it off successfully?
+
+What is "It would be OK in dath ilan, but it's not OK on Earth" even supposed to _mean_, if it's not just, "It's OK for people who genetically resemble Eliezer Yudkowsky to deceive the world as long as they have a clever story for why it's all for the greater good, but it's not OK for you, because you're genetically inferior to him"?
+
+https://discord.com/channels/936151692041400361/1022006828718104617/1047374488645402684
+
+A. J. Vermillion seems to be complaining that by not uncritically taking the author assertions at face value, I'm breaking the rules of the literary-criticism game—that if the narrator _says_ Civilization was designed to be trustworthy, I have no license to doubt that is "actually" is.
+
+And I can't help but be reminded of a great short story that I remember reading back in—a long time ago
+
+I think it must have been 'aught-nine?
+
+yeah, it had to have been _late_ in 'aught-nine, because I remember discussing it with some friends when I was living in a group house on Benton street in Santa Clara
+
+anyway, there was this story about a guy who gets transported to a fantasy world where he has a magic axe that yells at him sometimes and he's prophecied to defeat the bad guy and choose between Darkness and Light, and they have to defeat these ogres to reach the bad guy's lair
+
+and when they get there, the bad guy (spoilers) ||_accuses them of murder_ for killing the ogres on the way there!!||
+
+and the moral was—or at least, the simpler message I extracted from it was—there's something messed-up about the genre convention of fantasy stories where readers just naïvely accept the author's frame, instead of looking at the portrayed world with fresh eyes and applying their _own_ reason and their _own_ morality to it—
+
+That if it's wrong to murder people with a different racial ancestry from you _on Earth_, it's _also_ wrong when you're in a fantasy kingdom setting and the race in question are ogres.
+
+And that if it's wrong to kill people and take their stuff _on Earth_, it's _also_ wrong when you're in a period piece about pirates on the high seas.
+
+And (I submit) if it's wrong to decieve the world by censoring scientific information about human sexuality _on Earth_, it's _also_ wrong when you're in a social-science-fiction setting about a world called dath ilan.
+
+(You can _assert by authorial fiat_ that Keltham doesn't mind and is actually grateful, but you could also _assert by authorial fiat_ that the ogres were evil and deserved to die.)
+
+but merely human memory fades over 13 years and merely human language is such a lossy medium; I'm telling you about the story _I_ remember, and the moral lessons _I_ learned from it, which may be very different what was actually written, or what the author was trying to teach
+
+maybe I should make a post on /r/tipofmytongue/, to ask them—
+
+_What was the name of that story?_
+
+_What was the name of that author?_
+
+(What was the name of the _antagonist_ of that story?—actually, sorry, that's a weird and random question; I don't know why my brain generated that one.)
+
+but somehow I have a premonition that I'm not going to like the answer, if I was hoping for more work from the same author in the same spirit
+
+that the author who wrote "Darkness and Light" (or whatever the story was called) died years ago
+
+or has shifted in her emphases in ways I don't like
+
+------
+
+"the absolute gall of that motherfucker"
+https://www.lesswrong.com/posts/8KRqc9oGSLry2qS9e/what-motte-and-baileys-are-rationalists-most-likely-to?commentId=qFHHzAXnGuMjqybEx
+
+In a discussion on the Eliezerfic Discord server, I've been arguing that the fact that dath ilan tries to prevent obligate sexual sadists from discovering this fact about themselves (because the unattainable rarity of corresponding masochists would make them sad) contradicts the claim that dath ilan's art of rationality is uniformly superior to that of Earth's: I think that readers of _Overcoming Bias_ in 2008 had a concept of it being virtuous to face comfortable truths, and therefore would have overwhelmingly rejected utilitarian rationales for censoring scientific information about human sexuality.
+
+------
+
+https://archive.vn/hlaRG
+
+> Bankman-Fried has been going around on a weird media tour whose essential message is "I made mistakes and was careless, sorry," presumably thinking that that is a _defense_ to fraud charges, that "carelessness" and "fraud" are entirely separate categories [...] If you attract customers and investors by saying that you have good risk management, and then you lose their money, and then you say "oh sorry we had bad risk management," that is not a defense against fraud charges! That is a confession!
+
+https://twitter.com/ESYudkowsky/status/1602215046074884097
+> If you could be satisfied by mortal men, you would be satisfied with mortal reasoning and mortal society, and would not have gravitated toward the distant orbits of my own presence.
+
+it's just so weird that, this cult that started out with "People can stand what is true, because they are already doing so", has progressed to, "But what if a prediction market says they can't??"
+
+"The eleventh virtue is scholarship! Study many sciences and absorb their power as your own ... unless a prediction market says that would make you less happy" just doesn't have the same ring to it, you know?
+"The first virtue is curiosity! A burning itch to know is higher than a solemn vow to pursue truth. But higher than both of those, is trusting your Society's institutions to tell you which kinds of knowledge will make you happy" also does not have the same ring to it, even if you stipulate by authorial fiat that your Society's institutions are super-competent, such that they're probably right about the happiness thing
+
+------
+
+so, I admitted to being a motivated critic (having a social incentive to find fault with dath ilan), but that I nevertheless only meant to report real faults rather than fake faults, and Yudkowsky pointed out that that's not good enough (you also need to be looking for evidence on the other side), and that therefore didn't consider the criticism to be coming from a peer, and challenged me to say things about how the text valorizes truth
+(and I didn't point out that whether or not I'm a "peer"—which I'm clearly not if you're measuring IQ or AI alignment contributions or fiction-writing ability—shouldn't be relevant because https://www.lesswrong.com/posts/5yFRd3cjLpm3Nd6Di/argument-screens-off-authority, because I was eager to be tested and eager to pass the test)
+and I thought I wrote up some OK answers to the query
+(I definitely didn't say, "that's impossible because Big Yud and Linta are lying liars who hate truth")
+but he still wasn't satisifed on grounds of me focusing too much on what the characters said, and not what the universe said, and then when I offered one of those, he still wasn't satisfied (because the characters had already remarked on it)
+and I got the sense that he wanted Original Seeing, and I thought, and I came up with some Original Philosophy that connected the universe of godagreements to some of my communication theory ideas, and I was excited about it
+so I ran with it
+
+[...]
+
+Zack M. Davis — Today at 10:18 PM
+but the Original Philosophy that I was legitimately proud of, wasn't what I was being tested on; it legitimately looks bad in context
+
+--------
+
+OK, so I'm thinking my main takeaways from the Eliezerfic fight is that I need to edit my memoir draft to be both _less_ "aggressive" in terms of expressing anger (which looks bad and _far more importantly_ introduces distortions), and _more_ "aggressive" in terms of calling Yudkowsky intellectually dishonest (while being _extremely clear_ about explaining _exactly_ what standards I think are not being met and why that's important, without being angry about it).
+
+The standard I'm appealing to is, "It's intellectually dishonest to make arguments and refuse to engage with counterarguments on political grounds." I think he's made himself very clear that he doesn't give a sh—
+
+(no, need to avoid angry language)
+
+—that he doesn't consider himself bound by that standard.
+
+----
+
+
+Fool! There is no Equilibrium
+
+and you'd think that people who are so obsessed with prediction markets (whose trustworthiness does not stem from individual traders having unimpeachably perfect cognition) would be able to appreciate the value of the somewhat older social technology of ... debate
+
+> god i feel like writing this all out is explaining something that's always felt weird to me about the whole concept of stories and science fiction stories in particular. *i have been living inside a science fiction story written by eliezer yudkowsky*
+https://twitter.com/QiaochuYuan/status/1542781304621518848
+
+Said Achmiz on Eliezer's degeneration—
+https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=kS4BfYJuZ8ZcwuwfB
+https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=4kLTSanNyhn5H8bHv
+
+> What I'm saying is that, in the discussion as a whole, which is constituted by the post itself, plus comments thereon, plus related posts and comments, etc., an author has an obligation to respond to reader inquiries of this sort.
+>
+> As for where said obligation comes from—why, from the same place as the obligation to provide evidence for your claims, or the obligation to cite your sources, or the obligation not to be logically rude, or the obligation to write comprehensibly, or the obligation to acknowledge and correct factual errors, etc., etc.—namely, from the fact that acknowledging and satisfying this obligation reliably leads to truth, and rejecting this obligation reliably leads to error. In short: it is _epistemically rational_.
+
+Namespace on standing and warrant—
+https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=c7Xt5AnHwhfgYY67K
+
+I've been playing a Dagny Taggart strategy
+https://twitter.com/zackmdavis/status/1606718513267486721
+
+Michael 19 April 2019—
+> Intellectualism to survive, has to distinguish between having been betrayed and having been defeated. The difference is frequently known as "courage".  It's absence causes people like Aaronson, without ever becoming complicit, to nonetheless transition directly from denial of a crisis to advocacy of "The Kolmagorov Option".  
+
+during the dispute with James, Jonah said it seemed like the future beyond a year wasn't real to me (this also explains my behavior in college)
+
+you can't trust his behavior, even if you can trust his "conscious intent" which conveniently doesn't do anything
+
+https://twitter.com/ben_r_hoffman/status/1608191251991662592
+> Keeping a secret is like casting the killing curse—it might be the best option available in a conflict, but even when it's the least bad option it tears your soul a bit regardless.
+
+https://twitter.com/ESYudkowsky/status/1599889168234336257
+> One of the retrospective less-obvious lessons of the #FTX blowup:  We should have been more worried about the early split in Alameda where half the people left with @Tara_MacAulay to run a less wild trading company.  In retrospect that probably evaporated off everyone sane!
+
+Likewise, we should have been more worried about the Vassar split; in retrospect that probably evaporated off everyone principled
+
+The thing that makes Earth bad is that everyone is lying about everything all the time, and when you challenge them on it, they have some clever rationalization for why it isn't really bad.
+
+https://manifold.markets/Alicorn/will-my-son-successfully-get-a-bath#
+I'm not allowed to say, "Which one?"—it's known that I'm the sort of person who believes that, but I'm not allowed to puncture the shared reality
+
+I said I perceived a nearest-unblocked-strategy pattern, where I'm trying to optimize my goals subject to the constraint of maintaining good diplomatic relations. But Anna points out that if I internalized "good diplomatic relations" as my own goal
+
+Speaking of coordination: you know what's useful for coordination? Principles! Common knowledge!
+
+the post introducing the litany of Gendlin was literally titled "You _Can_ Face Reality"
+https://www.lesswrong.com/posts/HYWhKXRsMAyvRKRYz/you-can-face-reality
+
+Re: "it's deception aimed at crazy people"—but if you're so casual about deceiving crazy people, you probably don't care much about sane non-Keepers, either. (Same energy: if your date is rude to the waiter, he won't be a good partner, either. Or parents who lie to their kids for convenience.)—and in fact, empathy towards crazy people _is_ shown in the section on Thellim's mother in "but hurting people is wrong"
+
+"Criticism not welcome, it's just a story; if you don't like it, don't read it" works for normal glowfic, but it doesn't work when you're earnestly spreading memes about how your fictional Society is superior to our Earth; if you're going to make _that_ claim in earnest, you should expect people to subject your fictional Society to scrutiny to check whether it holds together
+
+Clara says to just roll your eyes and ignore him, but in a way, that seems _more_ disrespectful—to just _write someone off_, rather than having faith that they can be reached by argument
+
+There's a difference between jokes where the audience is supposed to "get the joke" (and you're willing to accept collateral damage to people who didn't get the joke), and political moves where 
+
+When he says "no one but Zack M. Davis would have said anything where you could hear it", I regard that as an abject failure of the community, but he regards it has "working as intended"?
+
+Vassar had once praised me as "Zack is pretty much always right" (when I express an opinion; he still thought I was dumb/unperceptive), and I accepted the praise that it wasn't meant literally—but if someone had a longstanding dispute with me and objected to the praise, I would fundamentally "get" why they were objecting (they don't want Vassar encouraging people to defer to me), rather than assuming _they_ thought it was meant literally
+
+I did "get what I needed" out of the Eliezerfic fight (before, I still had anxiety about whether I should email him before publishing this memoir; and now, I don't)
+
+He could have saved, like, six years of my life, if the March 2016 post had said, "I think 30% of males are gender-dysphoric and might benefit from transitioning"
+
+Fri 14 Jul 2017
+(03:54:42 PM) alicorn24: holy fuck that is a lot of money
+(03:54:53 PM) alicorn24: when I read that blog post I was imagining you'd like, throw fifty bucks at some people
+(03:55:06 PM) zackmdavis@yahoo.com: what? that would be insulting
+(03:57:46 PM) zackmdavis@yahoo.com: there's a calibration thing about being a San Francisco software engineer; and, April could have been really really much worse if I didn't have friends
+
+"probably won't understand" self-comments—
+https://www.greaterwrong.com/posts/vjmw8tW6wZAtNJMKo/which-parts-are-me/comment/gYSsBbZ6xvaf2b3Eh
+https://www.greaterwrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions/comment/pK9JHSTTnnpjbbqZp
+https://www.greaterwrong.com/posts/WijMw9WkcafmCFgj4/do-scientists-already-know-this-stuff/comment/EFg4p7KRbthgH3SnR
+https://www.greaterwrong.com/posts/r5H6YCmnn8DMtBtxt/you-are-a-brain/comment/CsqYAeCPnsAsdQb7d
+https://www.greaterwrong.com/posts/QB9eXzzQWBhq9YuB8/rationalizing-and-sitting-bolt-upright-in-alarm/comment/2FfTFrA7iKK6kxqMq
+
+I should have said: _You_ are a product of your time. _Eliezer_ has no integrity. Or rather, he's forgotten that you can't define the word "integrity" any way you want.
+
+I talked in #drama _about_ talking in Eliezerfic because it seemed like a free action, but the fact that I felt crummy/depressed afterwards suggests that it wasn't actually a free action (but still a substantial discount compared to screwing up in a Yudkowsky-hosted space)
+
+my father's men's group kicked out a gay man (who was at least still male!); women are too nice to eject MtFs
+
+"Something to Protect" says: "you should never _actually_ end up deliberately believing a useful false statement" (but it's OK for Civilization to end up engineering that you do)
+
+explainxkcd.com/wiki/index.php/1425:_Tasks  "I'll need a research team and five years" September 2014
+
+May 2019: David MacIver is in on it, too! https://www.drmaciver.com/2019/05/the-inner-sense-of-gender/#comment-366840
+
+"whosever lies _in a journal article_ is guilty of utter heresy"
+
+first I ordered _Nevada_ 24 March 2016; first ordered _MTiMB_ on 6 August 2016
+ordered additional copies of MTiMB 14 September 2016 and 19 December 2016 
+
+> We passed word to the Fake Conspiracy section of Exception Handling, and they've spent the last few hours quickly planting evidence consistent with how Civilization should look if the Sparashki are real.  The notion being that their apparent fictional status and licensing is just a cover, so Sparashki can walk around if they have to and just get compliments on their incredible cosplay.  Since this event is medium-secret, the CEO of Yattel's Less Expensive Tunneling Machines has been photographed by surprise through a window, looking like a Sparashki, to explain why conspiracy-theoretic research is suddenly focusing there and turning up the evidence we've planted."
+https://glowfic.com/replies/1860952#reply-1860952
+
+the generic experience is that the future is more capable but less aligned, and we basically expect this to continue
+people from the past would envy our refrigeration, vaccines, infinite food, &c., but that doesn't mean they would regard our value-drifted-with-respect-to-them culture as superior
+paperclipping is just that turned up to 11 (well, 10¹¹)
+
+Bostrom's apology for an old email—who is this written for?? Why get ahead, when you could just not comment?
+
+[TODO:
+
+https://twitter.com/ESYudkowsky/status/1404697716689489921
+> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
+
+If you think it "sometimes personally prudent and not community-harmful" to go out of your way to say positive things about Republican candidates and never, ever say positive things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
+
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
+
+https://twitter.com/ESYudkowsky/status/1404821285276774403
+> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
+]
+
+the rats were supposed to be an alternative to academic orthodoxy (such that we could just jump to the correct decision theory without the political fighting needing to dethrone CDT), but we're still under the authority of the egregore
+
+(from October 2016 email to Scott)
+This is not an advanced rationalist skill! This is the "distinguishing fantasy from reality" skill! People will quote your "Categories Were Made for the Man" in defense of the idea that someone can be biologically male, think of themselves as a boy, be thought of by others as a boy, and yet still actually have been a girl at the time by virtue of deciding to transition years later. I've been told that "Gender is a floating tag which has one substantial consequence, which is comfort of the people being addressed"!
+
+https://www.glowfic.com/replies/1612937#reply-1612937
+> Citizens can't control processes they can't see.  For that clever-reason it was then illegal for any of the Nine Legislators to meet with each other, or speak with any Representative, except as a matter of public record.
+
+November 5, 2019
+11/5/19, 2:09 AM
+Ziz
+Ziz
+To your memory, am I under any confidentiality agreements with you? Or did we mutually release each other from the only one that one time?
+November 5, 2019
+11/5/19, 9:24 AM
+You sent
+you are not under any confidentiality agreements with me
+
+https://www.glowfic.com/replies/1764946#reply-1764946
+> This is Keltham desperately pretending not to be at all starstruck, because he was not previously way into the Merrin fandom but even he has heard of the Ordinary Merrin Conspiracy, wherein Merrin has some weird psychological hangup about believing she is a totally normal and ordinary person or even something of a struggling low achiever, and everybody in Civilization is coordinating to pretend around her that ordinary normal people totally get their weird Exception Handling training scenarios televised to a million watchers on a weekly basis.
+
+> It makes her - simultaneously an ultra-high-achieving role model who's much more famous than you are, and also, somebody who's committing this very large cognitive error where you know better than her about it.  Which is not usually something you can say about a major public figure, you would not usually expect to be in a position where you would ever know about a cognitive error a public figure was committing, because they'd already have advisors much much smarter than you.  But if you screw Merrin, you're not, like, just some strictly vastly inferior being that she's allowed into her cuddleroom.  There is at least one topic you could totally win an argument with her about, as judged by impartial judges: namely, is she in fact a fairly ordinary person really.  But you must never ever mention it in front of her.
+
+https://forum.effectivealtruism.org/posts/fStCX6RXmgxkTBe73/towards-a-weaker-longtermism?commentId=Kga3KGx6WAhkNM3qY
+>  I am broadly fine with people devoting 50%, 25% or 75% of themselves to longtermism, in that case, as opposed to tearing themselves apart with guilt and ending up doing nothing much, which seems to be the main alternative.
+
+for normal people, when your favorite author gets worse, you just shrug and accept it and enjoy the classics, but when your favorite author is also the Pope of your religion and also in several Discord servers with you, you end up wasting a lot of time scrutinizing their emoji-reacts