make sure to include Twitter links in recap
[Ultimately_Untrue_Thought.git] / content / 2024 / agreeing-with-stalin-in-ways-that-exhibit-generally-rationalist-principles.md
1 Title: Agreeing With Stalin in Ways That Exhibit Generally Rationalist Principles
2 Author: Zack M. Davis
3 Date: 2024-03-02 13:45
4 Category: commentary
5 Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, Scott Alexander, epistemic horror, my robot cult, personal, sex differences, two-type taxonomy, whale metaphors
6
7 > It was not the sight of Mitchum that made him sit still in horror. It was the realization that there was no one he could call to expose this thing and stop it—no superior anywhere on the line, from Colorado to Omaha to New York. They were in on it, all of them, they were doing the same, they had given Mitchum the lead and the method. It was Dave Mitchum who now belonged on this railroad and he, Bill Brent, who did not.
8 >
9 > —_Atlas Shrugged_ by Ayn Rand
10
11 Quickly recapping my Whole Dumb Story so far: [ever since puberty, I've had this obsessive sexual fantasy about being magically transformed into a woman](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), which got contextualized by these life-changing Sequences of blog posts by Eliezer Yudkowsky that taught me (amongst many other things) how fundamentally disconnected from reality my fantasy was. [So it came as a huge surprise when](/2023/Jul/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/), around 2016, the "rationalist" community that had formed around the Sequences seemingly unanimously decided that guys like me might actually be women in some unspecified metaphysical sense. A couple years later, having strenuously argued against the popular misconception that the matter could be resolved by simply redefining the word _woman_ (on the grounds that you can define the word any way you like), [I flipped out when Yudkowsky prevaricated about](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/) how his own philosophy of language says that you can't define a word any way you like, prompting me to join with allies to persuade him to clarify. When that failed, my attempts to cope with the "rationalists" being fake [led to a series of small misadventures](/2023/Dec/if-clarity-seems-like-death-to-them/) culminating in Yudkowsky eventually clarifying the philosophy-of-language issue after I ran out of patience and yelled at him over email.
12
13 Really, that should have been the end of the story—with a relatively happy ending, too: that it's possible to correct straightforward philosophical errors, at the cost of almost two years of desperate effort by someone with [Something to Protect](https://www.lesswrong.com/posts/SGR4GxFK7KmW7ckCB/something-to-protect).
14
15 That wasn't the end of the story, which does not have such a relatively happy ending.
16
17 [TOC]
18
19 ### _The New York Times_'s Other Shoe Drops (February 2021)
20
21 On 13 February 2021, ["Silicon Valley's Safe Space"](https://archive.ph/zW6oX), the [anticipated](/2023/Dec/if-clarity-seems-like-death-to-them/#the-new-york-times-pounces-june-2020) _New York Times_ piece on _Slate Star Codex_, came out. It was ... pretty lame? (_Just_ lame, not a masterfully vicious hit piece.) Cade Metz did a mediocre job of explaining what our robot cult is about, while [pushing hard on the subtext](https://scottaaronson.blog/?p=5310) to make us look racist and sexist, occasionally resorting to odd constructions that were surprising to read from someone who had been a professional writer for decades. ("It was nominally a blog", Metz wrote of _Slate Star Codex_. ["Nominally"](https://en.wiktionary.org/wiki/nominally)?) The article's claim that Alexander "wrote in a wordy, often roundabout way that left many wondering what he really believed" seemed more like a critique of the many's reading comprehension than of Alexander's writing.
22
23 Although that poor reading comprehension may have served a protective function for Scott. A mob that attacks over things that look bad when quoted out of context can't attack you over the meaning of "wordy, often roundabout" text that they can't read. The _Times_ article included this sleazy guilt-by-association attempt:
24
25 > In one post, [Alexander] [aligned himself with Charles Murray](https://slatestarcodex.com/2016/05/23/three-great-articles-on-poverty-and-why-i-disagree-with-all-of-them/), who proposed a link between race and I.Q. in "The Bell Curve." In another, he pointed out that Mr. Murray believes Black people "are genetically less intelligent than white people."[^sloppy]
26
27 [^sloppy]: It was unevenly sloppy of the _Times_ to link the first post, ["Three Great Articles On Poverty, And Why I Disagree With All Of Them"](https://slatestarcodex.com/2016/05/23/three-great-articles-on-poverty-and-why-i-disagree-with-all-of-them/), but not the second, ["Against Murderism"](https://slatestarcodex.com/2017/06/21/against-murderism/)—especially since "Against Murderism" is specifically about Alexander's skepticism of _racism_ as an explanatory concept and therefore contains objectively more damning sentences to quote out of context than a passing reference to Charles Murray. Apparently, the _Times_ couldn't even be bothered to smear Scott with misconstruals of his actual ideas, if guilt by association did the trick with less effort on the part of both journalist and reader.
28
29 But Alexander only "aligned himself with Murray" in ["Three Great Articles On Poverty, And Why I Disagree With All Of Them"](https://slatestarcodex.com/2016/05/23/three-great-articles-on-poverty-and-why-i-disagree-with-all-of-them/) in the context of a simplified taxonomy of views on the etiology of poverty. This doesn't imply agreement with Murray's views on heredity! (A couple of years earlier, Alexander had written that ["Society Is Fixed, Biology Is Mutable"](https://slatestarcodex.com/2014/09/10/society-is-fixed-biology-is-mutable/): pessimism about our Society's ability to intervene to alleviate poverty does not amount to the claim that poverty is "genetic.")
30
31 [Alexander's reply statement](https://astralcodexten.substack.com/p/statement-on-new-york-times-article) pointed out the _Times_'s obvious chicanery, but (I claim) introduced a distortion of its own—
32
33 > The Times points out that I agreed with Murray that poverty was bad, and that also at some other point in my life noted that Murray had offensive views on race, and heavily implies this means I agree with Murray's offensive views on race. This seems like a weirdly brazen type of falsehood for a major newspaper.
34
35 It _is_ a weirdly brazen invalid inference. But by calling it a "falsehood", Alexander heavily implies he disagrees with Murray's offensive views on race: in invalidating the _Times_'s charge of guilt by association with Murray, Alexander validates Murray's guilt.
36
37 But anyone who's read _and understood_ Alexander's work should be able to infer that Scott probably finds it plausible that there exist genetically mediated differences in socially relevant traits between ancestry groups (as a value-free matter of empirical science with no particular normative implications). For example, his [review of Judith Rich Harris on his old LiveJournal](https://archive.ph/Zy3EL) indicates that he accepts the evidence from [twin studies](/2020/Apr/book-review-human-diversity/#twin-studies) for individual behavioral differences having a large genetic component, and section III of his ["The Atomic Bomb Considered As Hungarian High School Science Fair Project"](https://slatestarcodex.com/2017/05/26/the-atomic-bomb-considered-as-hungarian-high-school-science-fair-project/) indicates that he accepts genetics as an explanation for group differences in the particular case of Ashkenazi Jewish intelligence.[^murray-alignment]
38
39 [^murray-alignment]: As far as aligning himself with Murray more generally, it's notable that Alexander had tapped Murray for Welfare Czar in [a hypothetical "If I were president" Tumblr post](https://archive.vn/xu7PX).
40
41 There are a lot of standard caveats that go here which Alexander would no doubt scrupulously address if he ever chose to tackle the subject of genetically-mediated group differences in general: [the mere existence of a group difference in a "heritable" trait doesn't imply a genetic cause of the group difference (because the groups' environments could also be different)](/2020/Apr/book-review-human-diversity/#heritability-caveats). It is entirely conceivable that the Ashkenazi IQ advantage is real and genetic, but black–white IQ gap is fake and environmental.[^bet] Moreover, group averages are just that—averages. They don't imply anything about individuals and don't justify discrimination against individuals.
42
43 [^bet]: It's just—how much do you want to bet on that? How much do you think _Scott_ wants to bet?
44
45 But anyone who's read _and understood_ Charles Murray's work, knows that [Murray also includes the standard caveats](/2020/Apr/book-review-human-diversity/#individuals-should-not-be-judged-by-the-average)![^murray-caveat] (Even though the one about group differences not implying anything about individuals is [technically wrong](/2022/Jun/comment-on-a-scene-from-planecrash-crisis-of-faith/).) The _Times_'s insinuation that Scott Alexander is a racist _like Charles Murray_ seems like a "[Gettier](https://en.wikipedia.org/wiki/Gettier_problem) attack": the charge is essentially correct, even though the evidence used to prosecute the charge before a jury of distracted _New York Times_ readers is completely bogus.
46
47 [^murray-caveat]: For example, the introductory summary for Ch. 13 of _The Bell Curve_, "Ethnic Differences in Cognitive Ability", states: "Even if the differences between races were entirely genetic (which they surely are not), it should make no practical difference in how individuals deal with each other."
48
49 ### The Politics of the Apolitical
50
51 Why do I [keep](/2023/Dec/if-clarity-seems-like-death-to-them/#tragedy-of-recursive-silencing) [bringing](/2023/Dec/if-clarity-seems-like-death-to-them/#literally-a-white-supremacist) up the claim that "rationalist" leaders almost certainly believe in cognitive race differences (even if it's hard to get them to publicly admit it in a form that's easy to selectively quote in front of _New York Times_ readers)?
52
53 It's because one of the things I noticed while trying to make sense of why my entire social circle suddenly decided in 2016 that guys like me could become women by means of saying so, is that in the conflict between the "rationalists" and mainstream progressives, the defensive strategy of the "rationalists" is one of deception.
54
55 In this particular historical moment, we end up facing pressure from progressives, because—whatever our object-level beliefs about (say) [sex, race, and class differences](/2020/Apr/book-review-human-diversity/), and however much most of us would prefer not to talk about them—on the _meta_ level, our creed requires us to admit it's an empirical question, not a moral one—and that [empirical questions have no privileged reason to admit convenient answers](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
56
57 I view this conflict as entirely incidental, something that [would happen in some form in any place and time](https://www.lesswrong.com/posts/cKrgy7hLdszkse2pq/archimedes-s-chronophone), rather than being specific to American politics or "the left". In a Christian theocracy, our analogues would get in trouble for beliefs about evolution; in the old Soviet Union, our analogues would get in trouble for [thinking about market economics](https://slatestarcodex.com/2014/09/24/book-review-red-plenty/) (as a positive [technical](https://en.wikipedia.org/wiki/Fundamental_theorems_of_welfare_economics#Proof_of_the_first_fundamental_theorem) [discipline](https://www.lesswrong.com/posts/Gk8Dvynrr9FWBztD4/what-s-a-market) adjacent to game theory, not yoked to a particular normative agenda).[^logical-induction]
58
59 [^logical-induction]: I've wondered how hard it would have been to come up with MIRI's [logical induction result](https://arxiv.org/abs/1609.03543) (which describes an asymptotic algorithm for estimating the probabilities of mathematical truths in terms of a betting market composed of increasingly complex traders) in the Soviet Union.
60
61 Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful about what they say in public. (I am not smart.)
62
63 So _The New York Times_ implicitly accuses us of being racists, like Charles Murray, and instead of pointing out that being a racist _like Charles Murray_ is the obviously correct position that sensible people will tend to reach in the course of being sensible, we disingenuously deny everything.[^deny-everything]
64
65 [^deny-everything]: In January 2023, when Nick Bostrom [preemptively apologized for a 26-year-old email to the Extropians mailing list](https://nickbostrom.com/oldemail.pdf) that referenced the IQ gap and mentioned a slur, he had [some](https://forum.effectivealtruism.org/posts/Riqg9zDhnsxnFrdXH/nick-bostrom-should-step-down-as-director-of-fhi) [detractors](https://forum.effectivealtruism.org/posts/8zLwD862MRGZTzs8k/a-personal-response-to-nick-bostrom-s-apology-for-an-old) and a [few](https://ea.greaterwrong.com/posts/Riqg9zDhnsxnFrdXH/nick-bostrom-should-step-down-as-director-of-fhi/comment/h9gdA4snagQf7bPDv) [defenders](https://forum.effectivealtruism.org/posts/NniTsDNQQo58hnxkr/my-thoughts-on-bostrom-s-apology-for-an-old-email), but I don't recall seeing much defense of the 1996 email itself.
66
67     But if you're [familiar with the literature](/2020/Apr/book-review-human-diversity/#the-reason-everyone-and-her-dog-is-still-mad) and understand the [use–mention distinction](https://en.wikipedia.org/wiki/Use%E2%80%93mention_distinction), the literal claims in [the original email](https://nickbostrom.com/oldemail.pdf) are entirely reasonable. (There are additional things one could say about [what prosocial functions are being served by](/2020/Apr/book-review-human-diversity/#schelling-point-for-preventing-group-conflicts) the taboos against what the younger Bostrom called "the provocativeness of unabashed objectivity", which would make for fine mailing-list replies, but the original email can't be abhorrent simply for failing to anticipate all possible counterarguments.)
68
69     I didn't speak up at the time of the old-email scandal, either. I had other things to do with my attention and Overton budget.
70
71 It works surprisingly well. I fear my love of Truth is not so great that if I didn't have Something to Protect, I would have happily participated in the cover-up.
72
73 As it happens, in our world, the defensive cover-up consists of _throwing me under the bus_. Facing censure from the progressive egregore for being insufficiently progressive, we can't defend ourselves ideologically. (We think we're egalitarians, but progressives won't buy that because we like markets too much.) We can't point to our racial diversity. (Mostly white if not Jewish, with a handful of East and South Asians, exactly as you'd expect from chapters 13 and 14 of _The Bell Curve_.) [Subjectively](https://en.wikipedia.org/wiki/Availability_heuristic), I felt like the sex balance got a little better after we hybridized with Tumblr and Effective Altruism (as [contrasted with the old days](/2017/Dec/a-common-misunderstanding-or-the-spirit-of-the-staircase-24-january-2009/)) but survey data doesn't unambiguously back this up.[^survey-data]
74
75 [^survey-data]: We go from 89.2% male in the [2011 _Less Wrong_ survey](https://www.lesswrong.com/posts/HAEPbGaMygJq8L59k/2011-survey-results) to a virtually unchanged 88.7% male on the [2020 _Slate Star Codex_ survey](https://slatestarcodex.com/2020/01/20/ssc-survey-results-2020/)—although the [2020 EA survey](https://forum.effectivealtruism.org/posts/ThdR8FzcfA8wckTJi/ea-survey-2020-demographics) says only 71% male, so it depends on how you draw the category boundaries of "we."
76
77 But _trans!_ We have plenty of those! In [the same blog post in which Scott Alexander characterized rationalism as the belief that Eliezer Yudkowsky is the rightful caliph](https://slatestarcodex.com/2016/04/04/the-ideology-is-not-the-movement/), he also named "don't misgender trans people" as one of the group's distinguishing norms. Two years later, he joked that ["We are solving the gender ratio issue one transition at a time"](https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup).
78
79 The benefit of having plenty of trans people is that high-ranking members of the [progressive stack](https://en.wikipedia.org/wiki/Progressive_stack) can be trotted out as a shield to prove that we're not counterrevolutionary right-wing Bad Guys. Thus, [Jacob Falkovich noted](https://twitter.com/yashkaf/status/1275524303430262790) (on 23 June 2020, just after _Slate Star Codex_ went down), "The two demographics most over-represented in the SlateStarCodex readership according to the surveys are transgender people and Ph.D. holders", and Scott Aaronson [noted (in commentary on the February 2021 _New York Times_ article) that](https://www.scottaaronson.com/blog/?p=5310) "the rationalist community's legendary openness to alternative gender identities and sexualities" should have "complicated the picture" of our portrayal as anti-feminist.
80
81 Even the haters grudgingly give Alexander credit for ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/): "I strongly disagree that one good article about accepting transness means you get to walk away from writing that is somewhat white supremacist and quite fascist without at least acknowledging you were wrong", [wrote one](https://archive.is/SlJo1).
82
83 <a id="dump-stats"></a>Under these circumstances, dethroning the supremacy of gender identity ideology is politically impossible. All our [Overton margin](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting) is already being spent somewhere else; sanity on this topic is our [dump stat](https://tvtropes.org/pmwiki/pmwiki.php/Main/DumpStat).
84
85 But this being the case, _I have no reason to participate in the cover-up_. What's in it for me? Why should I defend my native subculture from external attack, if the defense preparations themselves have already rendered it uninhabitable to me?
86
87 ### A Leaked Email Non-Scandal (February 2021)
88
89 On 17 February 2021, Topher Brennan, disapproving of Scott and the community's defense against the _Times_, [claimed that](https://web.archive.org/web/20210217195335/https://twitter.com/tophertbrennan/status/1362108632070905857) Scott Alexander "isn't being honest about his history with the far-right", and published [an email he had received from Scott in February 2014](https://emilkirkegaard.dk/en/2021/02/backstabber-brennan-knifes-scott-alexander-with-2014-email/) on what Scott thought some neoreactionaries were getting importantly right.
90
91 I think that to people who have read _and understood_ Alexander's work, there is nothing surprising or scandalous about the contents of the email. He said that biologically mediated group differences are probably real and that neoreactionaries were the only people discussing the object-level hypotheses or the meta-level question of why our Society's intelligentsia is obfuscating the matter. He said that reactionaries as a whole generate a lot of garbage but that he trusted himself to sift through the noise and extract the novel insights. The email contains some details that Alexander hadn't blogged about—most notably the section headed "My behavior is the most appropriate response to these facts", explaining his social strategizing _vis á vis_ the neoreactionaries and his own popularity. But again, none of it is surprising if you know Scott from his writing.
92
93 I think the main reason someone _would_ consider the email a scandalous revelation is if they hadn't read _Slate Star Codex_ that deeply—if their picture of Scott Alexander as a political writer was "that guy who's so committed to charitable discourse that he [wrote up an explanation of what _reactionaries_ (of all people) believe](https://slatestarcodex.com/2013/03/03/reactionary-philosophy-in-an-enormous-planet-sized-nutshell/)—and then [turned around and wrote up the definitive explanation of why they're totally wrong and you shouldn't pay them any attention](https://slatestarcodex.com/2013/10/20/the-anti-reactionary-faq/)." As a first approximation, it's not a terrible picture. But what it misses—what _Scott_ knows—is that charity isn't about putting on a show of superficially respecting your ideological opponent before concluding (of course) that they're wrong. Charity is about seeing what the other guy is getting _right_.
94
95 The same day, Yudkowsky published [a Facebook post](https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc312SMvoCrNep4smg41S3G874saF2ZRSQl) that said[^brennan-condemnation-edits]:
96
97 > I feel like it should have been obvious to anyone at this point that anybody who openly hates on this community generally or me personally is probably also a bad person inside and has no ethics and will hurt you if you trust them, but in case it wasn't obvious consider the point made explicitly. (Subtext: Topher Brennan. Do not provide any link in comments to Topher's publication of private emails, explicitly marked as private, from Scott Alexander.)
98
99 [^brennan-condemnation-edits]: The post was subsequently edited a number of times in ways that I don't think are relevant to my discussion here.
100
101 I was annoyed at how the discussion seemed to be ignoring the obvious political angle, and the next day, 18 February 2021, I wrote [a widely Liked comment](/images/davis-why_they_say_they_hate_us.png): I agreed that there was a grain of truth to the claim that our detractors hate us because they're evil bullies, but stopping the analysis there seemed incredibly shallow and transparently self-serving.
102
103 If you listened to why _they_ said they hated us, it was because we were racist, sexist, transphobic fascists. The party-line response seemed to be trending toward, "That's obviously false: Scott voted for Elizabeth Warren, look at all the social democrats on the _Less Wrong_/_Slate Star Codex_ surveys, _&c._ They're just using that as a convenient smear because they like bullying nerds."
104
105 But if "sexism" included "It's an empirical question whether innate statistical psychological sex differences of some magnitude exist, it empirically looks like they do, and this has implications about our social world" (as articulated in, for example, Alexander's ["Contra Grant on Exaggerated Differences"](https://slatestarcodex.com/2017/08/07/contra-grant-on-exaggerated-differences/)), then the "_Slate Star Codex_ _et al._ are crypto-sexists" charge was absolutely correct. (Crypto-racist, crypto-fascist, _&c._ left as an exercise for the reader.)
106
107 You could plead, "That's a bad definition of sexism," but that's only convincing if you've been trained in using empiricism and open discussion to discover policies with utilitarian-desirable outcomes. People whose education came from California public schools plus Tumblr didn't already know that. ([I didn't know that](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#antisexism) at age 18 back in 'aught-six, and we didn't even have Tumblr then.) In that light, you could see why someone who was more preöccupied with eradicating bigotry than protecting the right to privacy might find "blow the whistle on people who are claiming to be innocent but are actually guilty (of thinking bad thoughts)" to be a more compelling consideration than "respect confidentiality requests".[^no-promises]
108
109 [^no-promises]: It seems notable (though I didn't note it at the time of my comment) that Brennan didn't break any promises. In [Brennan's account](https://web.archive.org/web/20210217195335/https://twitter.com/tophertbrennan/status/1362108632070905857), Alexander "did not first say 'can I tell you something in confidence?' or anything like that." Scott unilaterally said in the email, "I will appreciate if you NEVER TELL ANYONE I SAID THIS, not even in confidence. And by 'appreciate', I mean that if you ever do, I'll probably either leave the Internet forever or seek some sort of horrible revenge", but we have no evidence that Topher agreed.
110
111     To see why the lack of a promise is potentially significant, imagine if someone were guilty of a serious crime (like murder or [stealing billions of dollars of their customers' money](https://www.vox.com/future-perfect/23462333/sam-bankman-fried-ftx-cryptocurrency-effective-altruism-crypto-bahamas-philanthropy)) and unilaterally confessed to an acquaintance but added, "Never tell anyone I said this, or I'll seek some sort of horrible revenge." In that case, I think more people's moral intuitions would side with the reporter.
112
113 Here, I don't think Scott has anything to be ashamed of—but that's because I don't think learning from right-wingers is a crime. If our actual problem was "Genuinely consistent rationalism is realistically always going to be an enemy of the state, because [the map that fully reflects the territory is going to include facts that powerful coalitions would prefer to censor, no matter what specific ideology happens to be on top in a particular place and time](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting)", but we thought our problem was "We need to figure out how to exclude evil bullies", then we were in trouble!
114
115 Yudkowsky [replied that](/images/yudkowsky-we_need_to_exclude_evil_bullies.png) everyone had a problem of figuring out how to exclude evil bullies. We also had an inevitable [Kolmogorov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/) problem, but that shouldn't be confused with the evil bullies issue, even if bullies attack via Kolmogorov issues.
116
117 I'll agree that the problems shouldn't be confused. I can easily believe that Brennan was largely driven by bully-like motives even if he told himself a story about being a valiant whistleblower defending Cade Metz's honor against Scott's deception.
118
119 But I think it's important to notice both problems, instead of pretending that the only problem was Brennan's disregard for Alexander's privacy. Without defending Brennan's actions, there's a non-evil-bully case for wanting to reveal information, rather than participate in a cover-up to protect the image of the "rationalists" as non-threatening to the progressive egregore. If the orchestrators of the cover-up can't even acknowledge to themselves that they're orchestrating a cover-up, they're liable to be confusing themselves about other things, too.
120
121 As it happened, I had another social media interaction with Yudkowsky that same day, 18 February 2021. Concerning the psychology of people who hate on "rationalists" for alleged sins that don't particularly resemble anything we do or believe, [he wrote](https://twitter.com/ESYudkowsky/status/1362514650089156608):
122
123 > Hypothesis: People to whom self-awareness and introspection come naturally, put way too much moral exculpatory weight on "But what if they don't know they're lying?" They don't know a lot of their internals! And don't want to know! That's just how they roll.
124
125 In reply, Michael Vassar tagged me. "Michael, I thought you weren't talking to me [(after my failures of 18–19 December)](/2023/Dec/if-clarity-seems-like-death-to-them/#a-private-catastrophe-december-2020)?" [I said](https://twitter.com/zackmdavis/status/1362549606538641413). "But yeah, I wrote a couple blog posts about this thing", linking to ["Maybe Lying Doesn't Exist"](https://www.lesswrong.com/posts/bSmgPNS6MTJsunTzS/maybe-lying-doesn-t-exist) and ["Algorithmic Intent: A Hansonian Generalized Anti-Zombie Principle"](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)
126
127 After a few moments, I decided it was better if I [explained the significance of Michael tagging me](https://twitter.com/zackmdavis/status/1362555980232282113):
128
129 > Oh, maybe it's relevant to note that those posts were specifically part of my 21-month rage–grief campaign of being furious at Eliezer all day every day for lying-by-implicature about the philosophy of language? But, I don't want to seem petty by pointing that out! I'm over it!
130
131 And I think I _would_ have been over it ...
132
133 —except that Yudkowsky reopened the conversation four days later, on 22 February 2021, with [a new Facebook post](https://www.facebook.com/yudkowsky/posts/10159421750419228) explaining the origins of his intuitions about pronoun conventions. It concludes that "the simplest and best protocol is, '"He" refers to the set of people who have asked us to use "he", with a default for those-who-haven't-asked that goes by gamete size' and to say that this just _is_ the normative definition. Because it is _logically rude_, not just socially rude, to try to bake any other more complicated and controversial definition _into the very language protocol we are using to communicate_."
134
135 (Why!? Why reopen the conversation, from the perspective of his chessboard? Wouldn't it be easier to just stop digging? Did my highly-Liked Facebook comment and Twitter barb about him lying by implicature temporarily bring my concerns to the top of his attention, despite the fact that I'm generally not that important?)
136
137 ### Yudkowsky Doubles Down (February 2021)
138
139 I eventually explained what was wrong with Yudkowsky's new arguments at the length of 12,000 words in March 2022's ["Challenges to Yudkowsky's Pronoun Reform Proposal"](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/),[^challenges-title]. Briefly: given a conflict over pronoun conventions, there's not going to be a "right answer", but we can at least be objective in describing what the conflict is about, and Yudkowsky wasn't doing that. Given that we can't coordinate a switch to universal singular _they_, the pronouns _she_ and _he_ continue to have different meanings in the minds of native English speakers, in the sense that your mind forms different probabilistic expectations of someone taking feminine or masculine pronouns. That's _why_ trans people want to be referred to by the pronoun corresponding to their chosen gender: if there were literally no difference in meaning, there would be no reason to care. Thus, making the distinction on the basis of gender identity rather than sex [has consequences](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences); by proclaiming his "simplest and best protocol" without acknowledging the ways in which it's _not_ simple and not _unambiguously_ the best, Yudkowsky was [falsely portraying the policy debate as one-sided](https://www.lesswrong.com/posts/PeSzc9JTBxhaYRp9b/policy-debates-should-not-appear-one-sided). Furthermore, this misrepresentation would have harmful effects insofar as anyone was dumb enough to believe it: gender-dysphoric people deciding whether or not to socially transition need a correct model of how English pronouns work in the real world in order to perform an accurate cost–benefit analysis.
140
141 [^challenges-title]: The title is an allusion to Yudkowsky's ["Challenges to Christiano's Capability Amplification Proposal"](https://www.lesswrong.com/posts/S7csET9CgBtpi7sCh/challenges-to-christiano-s-capability-amplification-proposal).
142
143 I have more to say here (that I decided to cut from "Challenges") about the meta-level political context. The February 2021 post on pronouns is a fascinating document, in its own way—a penetrating case study on the effects of politics on a formerly great mind.
144
145 Yudkowsky begins by setting the context of "[h]aving received a bit of private pushback" on his willingness to declare that asking someone to use a different pronoun is not lying.
146
147 But the reason he got a bit [("a bit")](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/) of private pushback was because the November 2018 Twitter thread in question was so blatantly optimized to intimidate and delegitimize people who want to use language to reason about biological sex. The pushback wasn't about using trans people's preferred pronouns (I do that, too), or about not wanting pronouns to imply sex (sounds fine, if we were defining a conlang from scratch); the problem is using an argument that's ostensibly about pronouns to sneak in an implicature (["Who competes in sports segregated around an Aristotelian binary is a policy question [ ] that I personally find very humorous"](https://twitter.com/ESYudkowsky/status/1067490362225156096)) that it's dumb and wrong to want to talk about the sense in which trans women are male and trans men are female, as a fact about reality that continues to be true even if it hurts someone's feelings, and even if policy decisions made on the basis of that fact are not themselves facts (as if anyone had doubted this).
148
149 In that context, it's revealing that in this February 2021 post attempting to explain why the November 2018 thread seemed like a reasonable thing to say, Yudkowsky doubles down on going out of his way to avoid acknowledging the reality of biological sex. He learned nothing! We're told that the default pronoun for those who haven't asked goes by "gamete size", on the grounds that it's "logically rude to demand that other people use only your language system and interpretation convention in order to communicate, in advance of them having agreed with you about the clustering thing."
150
151 But I've never measured how big someone's gametes are, have you? We only infer whether strangers' bodies are configured to produce small or large gametes by observing [a variety of correlated characteristics](https://en.wikipedia.org/wiki/Secondary_sex_characteristic). Thus, the complaint that sex-based pronoun conventions rudely demand that people "agree[ ] [...] about the clustering thing" is hypocritical, because Yudkowsky's proposal also expects people to agree about the clustering thing. Furthermore, for trans people who don't pass but are visibly trying to (without having explicitly asked for pronouns), one presumes that we're supposed to use the pronouns corresponding to their gender presentation, not their natal sex.
152
153 Thus, Yudkowsky's "gamete-size default" proposal can't be taken literally. The only way I can make sense of it is to interpret it as a flail at the prevailing reality that people are good at noticing what sex other people are, but that we want to be kind to people who are trying to appear to be the other sex.
154
155 One could argue that this is hostile nitpicking on my part: that the use of "gamete size" as a metonym for sex here is either an attempt to provide an unambiguous definition (because if you said _sex_, _female_, or _male_, someone could ask what you meant by that), or that it's at worst a clunky choice of words, not an intellectually substantive decision.
156
157 But the post seems to suggest that the motive isn't simply to avoid ambiguity. Yudkowsky writes:
158
159 > In terms of important things? Those would be all the things I've read—from friends, from strangers on the Internet, above all from human beings who are people—describing reasons someone does not like to be tossed into a Male Bucket or Female Bucket, as it would be assigned by their birth certificate, or perhaps at all.
160 >
161 > And I'm not happy that the very language I use, would try to force me to take a position on that; not a complicated nuanced position, but a binarized position, _simply in order to talk grammatically about people at all_.
162
163 What does the "tossed into a bucket" metaphor refer to, though? I can think of many things that might be summarized that way, and my sympathy for the one who does not like to be tossed into a bucket depends on exactly what real-world situation is being mapped to the bucket.
164
165 If we're talking about overt gender role enforcement—things like, "You're a girl, therefore you need to learn to keep house for your future husband," or "You're a man, therefore you need to toughen up"—then indeed, I strongly support people who don't want to be tossed into that kind of bucket.
166
167 (There are [historical reasons for the buckets to exist](/2020/Jan/book-review-the-origins-of-unfairness/), but I'm eager to bet on modern Society being rich enough and smart enough to either forgo the buckets, or at least let people opt out of the default buckets without causing too much trouble.)
168
169 But importantly, my support for people not wanting to be tossed into gender role buckets is predicated on their reasons having genuine merit—things like "The fact that I'm a juvenile female human doesn't mean I'll have a husband; I'm actually planning to become a nun", or "Your expectation that I be able to toughen up is not reasonable given the individuating information you have about me in particular being huge crybaby, even if most adult human males are tougher than me". I don't think people have a general right to prevent others from using sex categories to make inferences or decisions about them, _because that would be crazy_. If a doctor were to recommend I get a prostate cancer screening on account of my being male and therefore at risk for prostate cancer, it would be _bonkers_ for me to reply that I don't like being tossed into a Male Bucket like that.
170
171 When piously appealing to the feelings of people describing reasons they do not want to be tossed into a Male Bucket or a Female Bucket, Yudkowsky does not seem to be distinguishing between reasons that have merit, and reasons that do not. The post continues (bolding mine):
172
173 > In a wide variety of cases, sure, ["he" and "she"] can clearly communicate the unambiguous sex and gender of something that has an unambiguous sex and gender, much as a different language might have pronouns that sometimes clearly communicated hair color to the extent that hair color often fell into unambiguous clusters.
174 >
175 > But if somebody's hair color is halfway between two central points? If their civilization has developed stereotypes about hair color they're not comfortable with, such that they feel that the pronoun corresponding to their outward hair color is something they're not comfortable with because they don't fit key aspects of the rest of the stereotype and they feel strongly about that? If they have dyed their hair because of that, or **plan to get hair surgery, or would get hair surgery if it were safer but for now are afraid to do so?** Then it's stupid to try to force people to take complicated positions about those social topics _before they are allowed to utter grammatical sentences_.
176
177 I agree that a language convention in which pronouns map to hair color seems pretty bad. The people in this world should probably coordinate on switching to a better convention, if they can figure out how.
178
179 But taking the convention as given, a demand to be referred to as having a hair color _that one does not have_ seems outrageous to me!
180
181 It makes sense to object to the convention forcing a binary choice in the "halfway between two central points" case. That's an example of genuine nuance brought on by a genuine complication to a system that _falsely_ assumes discrete hair colors.
182
183 But "plan to get hair surgery"? "Would get hair surgery if it were safer but for now are afraid to do so"? In what sense do these cases present a challenge to the discrete system and therefore call for complication and nuance? There's nothing ambiguous about these cases: if you haven't, in fact, changed your hair color, then your hair is, in fact, its original color. The decision to get hair surgery does not _propagate backwards in time_. The decision to get hair surgery cannot be _imported from a counterfactual universe in which it is safer_. People who, today, do not have the hair color that they would prefer are, today, going to have to deal with that fact _as a fact_.[^pronoun-roles]
184
185 [^pronoun-roles]: If the problem is with the pronoun implying stereotypes and social roles in the language as spoken, such that another pronoun should be considered more correct despite the lack of corresponding hair color, you should be making that case on the empirical merits, not appealing to hypothetical surgeries.
186
187 Is the idea that we want to use the same pronouns for the same person over time, so that if we know someone is going to get hair surgery—they have an appointment with the hair surgeon at this-and-such date—we can go ahead and switch their pronouns in advance? Okay, I can buy that.
188
189 But extending that to the "would get hair surgery if it were safer" case is absurd. No one treats _conditional plans assuming speculative future advances in medical technology_ the same as actual plans. I don't think this case calls for any complicated, nuanced position, and I don't see why Eliezer Yudkowsky would suggest that it would, unless the real motive is obfuscation—unless, at some level, Eliezer Yudkowsky doesn't expect his followers to deal with facts?
190
191 ### It Matters Whether People's Beliefs About Themselves Are Actually True
192
193 Maybe the problem is easier to see in the context of a non-gender example. My _previous_ [hopeless ideological war](/2020/Feb/if-in-some-smothering-dreams-you-too-could-pace/) was [against the conflation of _schooling_ and _education_](/2022/Apr/student-dysphoria-and-a-previous-lifes-war/): I hated being tossed into the Student Bucket, as it would be assigned by my school course transcript, or perhaps at all.
194
195 I sometimes describe myself as mildly "gender dysphoric", because our culture doesn't have better widely understood vocabulary for my [beautiful pure sacred self-identity thing](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#beautiful-pure-sacred-self-identity). But if we're talking about suffering and emotional distress, my "student dysphoria" was vastly worse than any "gender dysphoria" I've ever felt.
196
197 (I remember being particularly distraught one day at the end of community college physics class, and stumbling to the guidance counselor to inquire urgently about just escaping this place with an associate's degree, rather than transferring to a university to finish my bachelor's as planned. I burst into tears again when the counselor mentioned that there would be a physical education requirement. It wasn't that a semester of P.E. would be difficult; it was the indignity of being subject to such meaningless requirements before Society would see me as a person.)
198
199 But crucially, my tirades against the Student Bucket described reasons not just that I didn't like it, but that the bucket was wrong on the empirical merits: people can and do learn important things by studying and practicing out of their own curiosity and ambition. The system was in the wrong for assuming that nothing you do matters unless you do it on the command of a designated "teacher" while enrolled in a designated "course".
200
201 And because my war footing was founded on the empirical merits, I knew that I had to update to the extent that the empirical merits showed that _I_ was in the wrong. In 2010, I took a differential equations class "for fun" at the local community college, expecting to do well and thereby prove that my previous couple years of math self-study had been the equal of any schoolstudent's.
202
203 In fact, I did very poorly and scraped by with a _C_. (Subjectively, I felt like I "understood the concepts" and kept getting surprised when that understanding somehow didn't convert into passing quiz scores.) That hurt. That hurt a lot.
204
205 _It was supposed to hurt_. One could imagine a less reflective person doubling down on his antagonism to everything school-related in order to protect himself from being hurt—to protest that the teacher hated him, that the quizzes were unfair, that the answer key must have had a printing error—in short, that he had been right in every detail all along and that any suggestion otherwise was credentialist propaganda.
206
207 I knew better than to behave like that. My failure didn't mean I had been wrong about everything, that I should humbly resign myself to the Student Bucket forever and never dare to question it again—but it did mean that I must have been wrong about _something_. I could [update myself incrementally](https://www.lesswrong.com/posts/627DZcvme7nLDrbZu/update-yourself-incrementally)—but I _did_ need to update. (Probably, that "math" encompasses different subskills, and that my glorious self-study had unevenly trained some skills and not others: there was nothing contradictory or unreal about my [successfully generalizing one of the methods in the differential equations textbook to arbitrary numbers of variables](https://math.stackexchange.com/questions/15143/does-the-method-for-solving-exact-des-generalize-like-this) while also [struggling with the class's assigned problem sets](https://math.stackexchange.com/questions/7984/automatizing-computational-skills).)
208
209 Someone who uncritically validated my dislike of the Student Bucket rather than assessing my reasons, would be hurting me, not helping me—because in order to navigate the real world, I need a map that reflects the territory, not a map that reflects my narcissistic fantasies. I'm a better person for straightforwardly facing the shame of getting a _C_ in community college differential equations, rather than denying it or claiming that it didn't mean anything. Part of updating myself incrementally was that I would get _other_ chances to prove that my autodidacticism could match the standard set by schools, even if it hadn't that time. (My professional and open-source programming career obviously does not owe itself to the two Java courses I took at community college. When I audited honors analysis at UC Berkeley "for fun" in 2017, I did fine on the midterm. When I interviewed for a new dayjob in 2018, the interviewer, noting my lack of a degree, said he was going to give a version of the interview without a computer science theory question. I insisted on the "college" version of the interview, solved a dynamic programming problem, and got the job. And so on.)
210
211 If you can see why uncritically affirming people's current self-image isn't the solution to "student dysphoria", it should be clear why the same applies to gender dysphoria. There's a general underlying principle: it matters whether that self-image is true.
212
213 In an article titled ["Actually, I Was Just Crazy the Whole Time"](https://somenuanceplease.substack.com/p/actually-i-was-just-crazy-the-whole), FtMtF detransitioner Michelle Alleva contrasts her current beliefs with those when she decided to transition. While transitioning, she accounted for many pieces of evidence about herself ("dislikes attention as a female", "obsessive thinking about gender", "doesn't fit in with the girls", _&c_.) in terms of the theory "It's because I'm trans." But now, Alleva writes, she thinks she has a variety of better explanations that, all together, cover the original list: "It's because I'm autistic," "It's because I have unresolved trauma," "It's because women are often treated poorly" ... including "That wasn't entirely true" (!).
214
215 This is a rationality skill. Alleva had a theory about herself, which she revised upon further consideration of the evidence. Beliefs about oneself aren't special and can—must—be updated using the _same_ methods that you would use to reason about anything else—[just as a recursively self-improving AI would reason the same about transistors "inside" the AI and transistors "in the environment."](https://www.lesswrong.com/posts/TynBiYt6zg42StRbb/my-kind-of-reflection)[^the-form-of-the-inference]
216
217 [^the-form-of-the-inference]: Note, I'm specifically praising the _form_ of the inference, not necessarily the conclusion to detransition. If someone else in different circumstances weighed up the evidence about themself, and concluded that they _are_ trans in some specific objective sense on the empirical merits, that would also be exhibiting the skill. For extremely sex-atypical same-natal-sex-attracted transsexuals, you can at least see why the "born in the wrong body" story makes some sense as a handwavy [first approximation](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/). It's just that for males like me, and separately for females like Michelle Alleva, the story doesn't [pay rent](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences).
218
219 This also isn't a particularly advanced rationality skill. This is basic—something novices should grasp during their early steps along the Way.
220
221 Back in 2009, in the early days of _Less Wrong_, when I hadn't yet grown out of [my teenage ideological fever dream of psychological sex differences denialism](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#antisexism), there was a poignant exchange in the comment section between me and Yudkowsky. Yudkowsky had claimed that he had ["never known a man with a true female side, and [...] never known a woman with a true male side, either as authors or in real life."](https://www.lesswrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/K8YXbJEhyDwSusoY2) Offended at our leader's sexism, I [passive-aggressively asked him to elaborate](https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/AEZaakdcqySmKMJYj). In [his response](https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/W4TAp4LuW3Ev6QWSF), he mentioned that he "sometimes wish[ed] that certain women would appreciate that being a man is at least as complicated and hard to grasp and a lifetime's work to integrate, as the corresponding fact of feminity [_sic_]."
222
223 [I replied](https://www.lesswrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/7ZwECTPFTLBpytj7b) (bolding added):
224
225 > I sometimes wish that certain men would appreciate that not all men are like them—**or at least, that not all men _want_ to be like them—that the fact of masculinity is [not _necessarily_ something to integrate](https://www.lesswrong.com/posts/vjmw8tW6wZAtNJMKo/which-parts-are-me).**
226
227 _I knew_. Even then, _I knew_ I had to qualify my not liking to be tossed into a Male Bucket. I could object to Yudkowsky speaking as if men were a collective with shared normative ideals ("a lifetime's work to integrate"), but I couldn't claim to somehow not be male, or even that people couldn't make probabilistic predictions about me given the fact that I'm male ("the fact of masculinity"), _because that would be crazy_. The culture of early _Less Wrong_ wouldn't have let me get away with that.
228
229 It would seem that in the current year, that culture is dead—or if it has any remaining practitioners, they do not include Eliezer Yudkowsky.
230
231 ### A Filter Affecting Your Evidence
232
233 At this point, some readers might protest that I'm being too uncharitable in harping on the "not liking to be tossed into a [...] Bucket" paragraph. The same post also explicitly says that "[i]t's not that no truth-bearing propositions about these issues can possibly exist." I agree that there are some interpretations of "not lik[ing] to be tossed into a Male Bucket or Female Bucket" that make sense, even though biological sex denialism does not make sense. Given that the author is Eliezer Yudkowsky, should I not give him the benefit of the doubt and assume that he meant to communicate the reading that does make sense, rather than the reading that doesn't make sense?
234
235 I reply: _given that the author is Eliezer Yudkowsky_—no, obviously not. I have been ["trained in a theory of social deception that says that people can arrange reasons, excuses, for anything"](https://www.glowfic.com/replies/1820866#reply-1820866), such that it's informative ["to look at what _ended up_ happening, assume it was the _intended_ result, and ask who benefited."](http://www.hpmor.com/chapter/47) If Yudkowsky just wanted to post about how gendered pronouns are unnecessary and bad as an apolitical matter of language design, he could have written a post just making that narrow point. What ended up happening is that he wrote a post featuring sanctimonious flag-waving about the precious feelings of people "not lik[ing] to be tossed into a Male Bucket or Female Bucket", and concluding with a policy proposal that gives the trans activist coalition everything they want, proclaiming this "the simplest and best protocol" without so much as acknowledging the arguments on [the other side of the policy debate](https://www.lesswrong.com/posts/PeSzc9JTBxhaYRp9b/policy-debates-should-not-appear-one-sided). I don't think it's crazy for me to assume this was the intended result, and to ask who benefited.
236
237 When smart people act dumb, it's often wise to conjecture that their behavior represents [_optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some channel other than their words straightforwardly reflecting reality. Someone who was actually stupid wouldn't be able to generate text so carefully fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning. Where the text is ambiguous about whether biological sex is a real thing that people should be able to talk about, I think the point is to pander to biological sex denialists without technically saying anything unambiguously false that someone could call out as a "lie."
238
239 On a close reading of the comment section, we see hints that Yudkowsky does not obviously disagree with this interpretation of his behavior? First, we get [a disclaimer comment](/images/yudkowsky-the_disclaimer.png):
240
241 > It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. That is, in the logical counterfactual universe where I knew of very strong arguments against freedom of pronouns, I would have probably stayed silent on the issue, as would many other high-profile community members, and only Zack M. Davis would have said anything where you could hear it.
242 >
243 > This is a filter affecting your evidence; it has not to my own knowledge filtered out a giant valid counterargument that invalidates this whole post. I would have kept silent in that case, for to speak then would have been dishonest.
244 >
245 > Personally, I'm used to operating without the cognitive support of a civilization in controversial domains, and have some confidence in my own ability to independently invent everything important that would be on the other side of the filter and check it myself before speaking. So you know, from having read this, that I checked all the speakable and unspeakable arguments I had thought of, and concluded that this speakable argument would be good on net to publish, as would not be the case if I knew of a stronger but unspeakable counterargument in favor of Gendered Pronouns For Everyone and Asking To Leave The System Is Lying.
246 >
247 > But the existence of a wide social filter like that should be kept in mind; to whatever quantitative extent you don't trust your ability plus my ability to think of valid counterarguments that might exist, as a Bayesian you should proportionally update in the direction of the unknown arguments you speculate might have been filtered out.
248
249 The explanation of [the problem of political censorship filtering evidence](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting) here is great, but the part where Yudkowsky claims "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter" is laughable. The point I articulated at length in ["Challenges"](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/) (that _she_ and _he_ have existing meanings that you can't just ignore, given that the existing meanings are what motivate people to ask for new pronouns in the first place) is obvious.
250
251 It would arguably be less embarrassing for Yudkowsky if he were lying about having tried to think of counterarguments. The original post isn't that bad if you assume that Yudkowsky was writing off the cuff, that he just didn't put any effort into thinking about why someone might disagree. I don't have a problem with selective argumentation that's clearly labeled as such: there's no shame in being an honest specialist who says, "I've mostly thought about these issues though the lens of ideology _X_, and therefore can't claim to be comprehensive or even-handed; if you want other perspectives, you'll have to read other authors and think it through for yourself."
252
253 But if he _did_ put in the effort to aspire to [the virtue of evenness](https://www.readthesequences.com/The-Twelve-Virtues-Of-Rationality)—enough that he felt comfortable bragging about his ability to see the other side of the argument—and still ended up proclaiming his "simplest and best protocol" without mentioning any of its obvious costs, that's discrediting. If Yudkowsky's ability to explore the space of arguments is that bad, why would you trust his opinion about anything?
254
255 Furthermore, the claim that only I "would have said anything where you could hear it" is also discrediting of the community. Transitioning or not is a _major life decision_ for many of the people in this community. People in this community _need the goddamned right answers_ to the questions I've been asking in order to make that kind of life decision sanely [(whatever the sane decisions turn out to be)](/2021/Sep/i-dont-do-policy/). If the community is so bad at exploring the space of arguments that I'm the only one who can talk about the obvious decision-relevant considerations that code as "anti-trans" when you project into the one-dimensional subspace corresponding to our Society's usual culture war, why would you pay attention to the community _at all_? Insofar as the community is successfully marketing itself to promising young minds as the uniquely best place in the world for reasoning and sensemaking, then "the community" is _fraudulent_ (misleading people about what it has to offer in a way that's optimized to move resources to itself). It needs to either rebrand—or failing that, disband—or failing that, _be destroyed_.
256
257 The "where you could hear it" clause is particularly bizarre—as if Yudkowsky assumes that people in "the community" _don't read widely_. It's gratifying to be acknowledged by my caliph—or it would be, if he were still my caliph—but I don't think the points I've been making since 2016, about the relevance of autogynephilia to male-to-female transsexualism, and the reality of biological sex (!), are particularly novel.
258
259 I think I _am_ unusual in the amount of analytical rigor I can bring to bear on these topics. Similar points are often made by authors such as [Kathleen Stock](https://en.wikipedia.org/wiki/Kathleen_Stock) or [Corinna Cohn](https://corinnacohn.substack.com/) or [Aaron Terrell](https://aaronterrell.substack.com/p/the-truth-about-my-agp-normalization)—or for that matter [Steve Sailer](https://www.unz.com/isteve/dont-mention-the-autogynephilia/)—but those authors don't have the background to formulate it [in the language of probabilistic graphical models](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/) the way I do. _That_ part is a genuine value-add of the "rationalist" memeplex—something I wouldn't have been able to do without [the influence of Yudkowsky's Sequences](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), and all the math books I studied afterwards because the vibe of the _Overcoming Bias_ comment section in 2008 made that seem like an important and high-status thing to do.
260
261 But the promise of the Sequences was in offering a discipline of thought that could be applied to everything you would have read and thought about anyway. This notion that if someone in the community didn't say something, then Yudkowsky's faithful students wouldn't be able to hear it, would have been rightfully seen as absurd: _Overcoming Bias_ was a gem of the blogoshere, not a substitute for the rest of it. (Nor was the blogosphere a substitute for the University library, which escaped the autodidact's [resentment of the tyranny of schools](/2022/Apr/student-dysphoria-and-a-previous-lifes-war/) by [selling borrowing privileges to the public for $100 a year](https://www.lib.berkeley.edu/about/access-library-collections-by-external-users).) To the extent that the Yudkowsky of the current year takes for granted that his faithful students _don't read Steve Sailer_, he should notice that he's running a cult or a fandom rather than an intellectual community.
262
263 Yudkowsky's disclaimer comment mentions "speakable and unspeakable arguments"—but what, one wonders, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue as to what's going on here](/images/yudkowsky-people_might_be_able_to_speak_that.png):
264
265 > People might be able to speak that. A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
266
267 (As an aside, the wording of "we might well hear about it from _the other side_" (emphasis mine) is very interesting, suggesting that the so-called "rationalist" community is, in fact, a partisan institution. An intellectual community dedicated to refining the art of human rationality would not have an _other side_.)
268
269 I think (a) and (b) as stated are clearly false, so "we" (who?) aren't losing much by allegedly not being able to speak them. But what about some similar hypotheses, that might be similarly unspeakable for similar reasons?
270
271 Instead of (a), consider the claim that (a′) self-reports about gender dysphoria are substantially distorted by [socially-desirable responding tendencies](https://en.wikipedia.org/wiki/Social-desirability_bias)—as a notable example, heterosexual males with [sexual fantasies about being female](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html) [often falsely deny or minimize the erotic dimension of their desire to change sex](/papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf).[^motivatedly-inaccurate]
272
273 [^motivatedly-inaccurate]: The idea that self-reports can be motivatedly inaccurate without the subject consciously "lying" should not be novel to someone who co-blogged with [Robin Hanson](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain) for years!
274
275 And instead of (b), consider the claim that (b′) transitioning is socially rewarded within particular subcultures (although not Society as a whole), such that many of the same people wouldn't think of themselves as trans if they lived in a different subculture.
276
277 I claim that (a′) and (b′) are overwhelmingly likely to be true. Can "we" talk about _that_? Are (a′) and (b′) "speakable", or not? We're unlikely to get clarification from Yudkowsky, but based on the Whole Dumb Story [I've](/2023/Jul/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/) [been](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/) [telling](/2023/Dec/if-clarity-seems-like-death-to-them/) you about how I wasted the last eight years of my life on this, I'm going to guess that the answer is broadly No: "we" can't talk about that. (I can say it, and people can debate me in a private Discord server where the general public isn't looking, but it's not something someone of Yudkowsky's stature can afford to acknowledge.)
278
279 But if I'm right that (a′) and (b′) should be live hypotheses and that Yudkowsky would consider them "unspeakable", that means "we" can't talk about what's actually going on with gender dysphoria and transsexuality, which puts the whole post in a different light: making sense of the discussion requires analyzing what isn't being said.
280
281 In another comment, Yudkowsky lists some gender-transition interventions he named in his [November 2018 "hill of meaning in defense of validity" Twitter thread](https://twitter.com/ESYudkowsky/status/1067183500216811521)—using a different bathroom, changing one's name, asking for new pronouns, and getting sex reassignment surgery—and notes that none of these are calling oneself a "woman". [He continues](/images/yudkowsky-wrong_place_to_pack_it.png):
282
283 > [Calling someone a "woman"] _is_ closer to the right sort of thing _ontologically_ to be true or false. More relevant to the current thread, now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to _debate_ whether this sentence is indeed true or false, and have people express their nuanced opinions by uttering this sentence, or perhaps a more complicated sentence using a bunch of caveats, or maybe using the original sentence uncaveated to express their belief that this is a bad place for caveats. Policies about who uses what bathroom also have consequences and we can debate the goodness or badness (not truth or falsity) of those policies, and utter sentences to declare our nuanced or non-nuanced position before or after that debate.
284 >
285 > Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
286
287 Sure, if we were designing a constructed language from scratch with the understanding that a person's "gender" is a contested social construct rather than their sex being an objective and undisputed fact, then yes: in that situation _which we are not in_, you definitely wouldn't want to pack sex or gender into pronouns. But it's a disingenuous derailing tactic to grandstand about how people need to alter the semantics of their existing native language so that we can discuss the real issues under an allegedly superior pronoun convention when, by your own admission, you have _no intention whatsoever of discussing the real issues!_
288
289 (Lest the "by your own admission" clause seem too accusatory, I should note that given constant behavior, admitting it is much better than not admitting it, so huge thanks to Yudkowsky for the transparency on this point.)
290
291 [As discussed in "Challenges"](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/#t-v-distinction), there's an instructive comparison to languages that have formality-based second person pronouns, like [_tú_ and _usted_ in Spanish](https://en.wikipedia.org/wiki/Spanish_personal_pronouns#T%C3%BA/vos_and_usted). It's one thing to advocate for collapsing the distinction and just settling on one second-person singular pronoun for the Spanish language. That's principled.
292
293 It's another thing altogether to try to prevent a speaker from using _tú_ to indicate disrespect towards a social superior (on the stated rationale that the _tú_/_usted_ distinction is dumb and shouldn't exist) while also refusing to entertain the speaker's arguments for why their interlocutor is unworthy of the deference that would be implied by _usted_ (because such arguments are "unspeakable" for political reasons). That's psychologically abusive.
294
295 If Yudkowsky actually possessed (and felt motivated to use) the "ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking", it would be obvious to him that "Gendered Pronouns for Everyone and Asking To Leave the System Is Lying" isn't the hill anyone would care about dying on [if it weren't a Schelling point](/2019/Dec/more-schelling/). A lot of TERF-adjacent folk would be overjoyed to concede the (boring, insubstantial) matter of pronouns as a trivial courtesy if it meant getting to address their real concerns of "Biological Sex Actually Exists" and ["Biological Sex Cannot Be Changed With Existing or Foreseeable Technology"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and "Biological Sex Is Sometimes More Relevant Than Subjective Gender Identity." The reason so many of them are inclined to stand their ground and not even offer the trivial courtesy of pronouns is because they suspect, correctly, that pronouns are being used as a rhetorical wedge to keep people from talking or thinking about sex.
296
297 ### The Stated Reasons Not Being the Real Reasons Is a Form of Community Harm
298
299 Having analyzed the ways in which Yudkowsky is playing dumb here, what's still not entirely clear is why. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
300
301 Of course, presumably he doesn't think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](/images/yudkowsky-personally_prudent_and_not_community-harmful.png):
302
303 > I think that in a half-Kolmogorov-Option environment where people like Zack haven't actually been shot and you get away with attaching explicit disclaimers like this one, it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment [...] I think people are better off at the end of that.
304
305 Ah, _prudence_! He continues:
306
307 > I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
308
309 The problem with trying to "exhibit generally rationalist principles" in a line of argument that you're constructing in order to be prudent and not community-harmful is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to others after the fact.
310
311 The best explanation of this I know of was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
312
313 > As a campaign manager reading a book on rationality, one question lies foremost on your mind: "How can I construct an impeccable rational argument that Mortimer Q. Snodgrass is the best candidate for Mayor of Hadleyburg?"
314 >
315 > Sorry. It can't be done.
316 >
317 > "What?" you cry. "But what if I use only valid support to construct my structure of reason? What if every fact I cite is true to the best of my knowledge, and relevant evidence under Bayes's Rule?"
318 >
319 > Sorry. It still can't be done. You defeated yourself the instant you specified your argument's conclusion in advance.
320
321 The campaign manager is in possession of a survey of mayoral candidates on which Snodgrass compares favorably to others, except for one question. The post continues (bolding mine):
322
323 > So you are tempted to publish the questionnaire as part of your own campaign literature ... with the 11th question omitted, of course.
324 >
325 > **Which crosses the line between _rationality_ and _rationalization_.** It is no longer possible for the voters to condition on the facts alone; they must condition on the additional fact of their presentation, and infer the existence of hidden evidence.
326 >
327 > Indeed, **you crossed the line at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it.** "What!" you cry. "A campaign should publish facts unfavorable to their candidate?" But put yourself in the shoes of a voter, still trying to select a candidate—why would you censor useful information? You wouldn't, if you were genuinely curious. If you were flowing _forward_ from the evidence to an unknown choice of candidate, rather than flowing _backward_ from a fixed candidate to determine the arguments.
328
329 The post then briefly discusses the idea of a "logical" argument, one whose conclusions follow from its premises. "All rectangles are quadrilaterals; all squares are quadrilaterals; therefore, all squares are rectangles" is given as an example of illogical argument, even though both premises are true (all rectangles and squares are in fact quadrilaterals) and the conclusion is true (all squares are in fact rectangles). The problem is that the conclusion doesn't follow from the premises; the reason all squares are rectangles isn't _because_ they're both quadrilaterals. If we accepted arguments of the general form "all A are C; all B are C; therefore all A are B", we would end up believing nonsense.
330
331 Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's conception in 2007, which the Yudkowsky of the current year seems to disagree with—has a similar flavor: the stated reasons should be the real reasons. The post concludes:
332
333 > If you really want to present an honest, rational argument _for your candidate_, in a political campaign, there is only one way to do it:
334 >
335 > * _Before anyone hires you_, gather up all the evidence you can about the different candidates.
336 > * Make a checklist which you, yourself, will use to decide which candidate seems best.
337 > * Process the checklist.
338 > * Go to the winning candidate.
339 > * Offer to become their campaign manager.
340 > * When they ask for campaign literature, print out your checklist.
341 >
342 > Only in this way can you offer a _rational_ chain of argument, one whose bottom line was written flowing _forward_ from the lines above it. Whatever _actually_ decides your bottom line is the only thing you can _honestly_ write on the lines above.
343
344 I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset, that you somehow "can't" argue for something! It's a shockingly high standard for anyone to aspire to—but what made Yudkowsky's Sequences so life-changing was that they articulated the existence of such a standard. For that, I will always be grateful.
345
346 ... which is why it's bizarre that the Yudkowsky of the current year acts like he's never heard of it! If your actual bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
347
348 "I don't see what the alternative is besides getting shot," Yudkowsky muses (where, presumably, "getting shot" is a metaphor for any undesirable consequence, like being unpopular with progressives). Yes, an astute observation. And any other partisan hack could say exactly the same, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot (being fired from the campaign).
349
350 Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low." If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is so terrifying to you that it seems analogous to getting shot, then sure—say whatever you need to say to keep your job or your popularity, as is personally prudent. You've set your price.
351
352 I just—would have hoped that abandoning the intellectual legacy of his Sequences, would be a price too high for such a paltry benefit?
353
354 Michael Vassar [said](https://twitter.com/HiFromMichaelV/status/1221771020534788098), "Rationalism starts with the belief that arguments aren't soldiers, and ends with the belief that soldiers are arguments." By accepting that soldiers are arguments ("I don't see what the alternative is besides getting shot"), Yudkowsky is accepting the end of rationalism in this sense. If the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
355
356 Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But [as Zvi Mowshowitz points out, the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used to justify deception: if "everybody knows" that we can't talk about biological sex, then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex even when it's extremely relevant.
357
358 But if everybody knew, then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because [the appeal of censorship to dictators like Stalin is precisely to maintain a state of not everyone knowing](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech).
359
360 [For the savvy people in the know, it would certainly be convenient if everyone secretly knew](https://www.lesswrong.com/posts/DpTexwqYtarRLRBYi/conflict-theory-of-bounded-distrust): then the savvy people wouldn't have to face the tough choice between acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
361
362 [Policy debates should not appear one-sided.](https://www.lesswrong.com/posts/PeSzc9JTBxhaYRp9b/policy-debates-should-not-appear-one-sided) Faced with this dilemma, I can't say that defying Power is necessarily the right choice: if there really were no options besides deceiving your readers and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers is the right thing to do.
363
364 But if you cared about not deceiving your readers, you would want to be sure that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore politically unfavorable counterarguments_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion".
365
366 I think he's playing dumb here. In other contexts, he's written about ["attack[s] performed by selectively reporting true information"](https://twitter.com/ESYudkowsky/status/1634338145016909824) and ["[s]tatements which are technically true but which deceive the listener into forming further beliefs which are false"](https://hpmor.com/chapter/97). He's undoubtedly familiar with the motte-and-bailey doctrine as [described by Nicholas Shackel](https://philpapers.org/archive/SHATVO-2.pdf) and [popularized by Scott Alexander](https://slatestarcodex.com/2014/11/03/all-in-all-another-brick-in-the-motte/). I think that if he wanted to, Eliezer Yudkowsky could think of some relevant differences between "2 + 2 = 4" and "the simplest and best protocol is, "_He_ refers to the set of people who have asked us to use _he_".
367
368 If you think it's "sometimes personally prudent and not community-harmful" to go out of your way to say positive things about Republican candidates and never, ever say positive things about Democratic candidates (because you live in a red state and "don't see what the alternative is besides getting shot"), you can see why people might regard you as a Republican shill, even if every sentence you said was true.[^the-wizard-metz] If you tried to defend yourself against the charge of being a Republican shill by pointing out that you've never told any specific individual, "You should vote Republican," that's a nice motte, but you shouldn't expect devoted rationalists to fall for it.
369
370 [^the-wizard-metz]: It's instructive to consider that [Cade Metz could just as credibly offer the same excuse](https://www.greaterwrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly/comment/9YkXk43b4LC4vaCTs).
371
372 Similarly, when Yudkowsky [wrote in June 2021](https://twitter.com/ESYudkowsky/status/1404697716689489921), "I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much", it was a great motte. I don't doubt the literal motte stated literally.
373
374 And yet it seems worth noting that shortly after proclaiming in March 2016 that he was "over 50% probability at this point that at least 20% of the ones with penises are actually women", he made [a followup post celebrating having caused someone's transition](https://www.facebook.com/yudkowsky/posts/10154110278349228):
375
376 > Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."  
377 > ==DOES ALL OF THE HAPPY DANCE FOREVER==
378
379 He [later clarified on Twitter](https://twitter.com/ESYudkowsky/status/1404821285276774403), "It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy."
380
381 But if Stalin is committed to convincing gender-dysphoric males that they need to cut their dicks off, and you're committed to not disagreeing with Stalin, you _shouldn't_ mostly believe it when gender-dysphoric males thank you for providing the final piece of evidence they needed to realize that they need to cut their dicks off, for the same reason a self-aware Republican shill shouldn't uncritically believe it when people thank him for warning them against Democrat treachery. We know—he's told us very clearly—that Yudkowsky isn't trying to be a neutral purveyor of decision-relevant information on this topic; he's not going to tell us about reasons not to transition. He's playing on a different chessboard.
382
383 ### People Who Are Trying to Be People Want to Improve Their Self-Models
384
385 "[P]eople do _know_ they're living in a half-Stalinist environment," Yudkowsky claims. "I think people are better off at the end of that," he says. But who are "people", specifically? One of the problems with utilitarianism is that it doesn't interact well with game theory. If a policy makes most people better off, at the cost of throwing a few others under the bus, is enacting that policy the right thing to do?
386
387 Depending on the details, maybe—but you probably shouldn't expect the victims to meekly go under the wheels without a fight. That's why I've [been](/2023/Jul/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/) [telling](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/) [you](/2023/Dec/if-clarity-seems-like-death-to-them/) this 85,000-word sob story about how _I_ didn't know, and _I'm_ not better off.
388
389 <a id="thellim-vs-jane-austen"></a>In [one of Yudkowsky's roleplaying fiction threads](https://www.glowfic.com/posts/4508), Thellim, a woman hailing from [a saner alternate version of Earth called dath ilan](https://www.lesswrong.com/tag/dath-ilan), [expresses horror and disgust at how shallow and superficial the characters in Jane Austen's _Pride and Prejudice_ are, in contrast to what a human being _should_ be](https://www.glowfic.com/replies/1592898#reply-1592898):
390
391 > [...] the author has made zero attempt to even try to depict Earthlings as having reflection, self-observation, a fire of inner life; most characters in _Pride and Prejudice_ bear the same relationship to human minds as a stick figure bears to a photograph. People, among other things, have the property of trying to be people; the characters in _Pride and Prejudice_ have no visible such aspiration. Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves. It's impossible to imagine any of these people, even Elizabeth, as doing that thing Thellim did a few hours ago, where she noticed she was behaving like Verrez and snapped out of it. Just like any particular Verrez always learns to notice he is being Verrez and snap out of it, by the end of any of his alts' novels.
392
393 When someone else doesn't see the problem with Jane Austen's characters, Thellim [redoubles her determination to explain the problem](https://www.glowfic.com/replies/1592987#reply-1592987): "_She is not giving up that easily. Not on an entire planet full of people._"
394
395 Thellim's horror at the fictional world of Jane Austen is basically how I feel about "trans" culture in the current year. It actively discourages self-modeling! People who have cross-sex fantasies are encouraged to reify them into a gender identity which everyone else is supposed to unquestioningly accept. Obvious critical questions about what's actually going on etiologically, what it means for an identity to be true, _&c._ are strongly discouraged as hateful and hurtful.
396
397 The problem is not that I think there's anything wrong with fantasizing about being the other sex and wanting the fantasy to be real—just as Thellim's problem with _Pride and Prejudice_ is not her seeing anything wrong with wanting to marry a suitable bachelor. These are perfectly respectable goals.
398
399 The _problem_ is that people who are trying to be people, people who are trying to achieve their goals _in reality_, do so in a way that involves having concepts of their own minds, and trying to improve both their self-models and their selves, and that's not possible in a culture that tries to ban as heresy the idea that it's possible for someone's self-model to be wrong.
400
401 A trans woman I follow on Twitter complained that a receptionist at her workplace said she looked like some male celebrity. "I'm so mad," she fumed. "I look like this right now"—there was a photo attached to the Tweet—"how could anyone ever think that was an okay thing to say?"
402
403 It is genuinely sad that the author of those Tweets didn't get perceived in the way she would prefer! But the thing I want her to understand, a thing I think any sane adult (on Earth, and not just dath ilan) should understand—
404
405 _It was a compliment!_ That receptionist was almost certainly thinking of someone like [David Bowie](https://en.wikipedia.org/wiki/David_Bowie) or [Eddie Izzard](https://en.wikipedia.org/wiki/Eddie_Izzard), rather than being hateful. The author should have graciously accepted the compliment and _done something to pass better next time_.[^limitations-of-passing] The horror of trans culture is that it's impossible to imagine any of these people doing that—noticing that they're behaving like a TERF's [hostile](/2019/Dec/the-strategy-of-stigmatization/) [stereotype](/2022/Feb/link-never-smile-at-an-autogynephile/) of a narcissistic, gaslighting trans-identified man and snapping out of it.
406
407 [^limitations-of-passing]: Also, passing as a woman isn't the same thing as actually being female. But expecting people to accept an imitation as the real thing _without the imitation even succeeding at resembling the real thing_ is seriously nuts.
408
409 In a sane world, people would understand that the way to ameliorate the sadness of people who aren't being perceived how they prefer is through things like better and cheaper facial feminization surgery, not [emotionally blackmailing](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/) people out of their ability to report what they see. I don't _want_ to relinquish [my ability to notice what women's faces look like](/papers/bruce_et_al-sex_discrimination_how_do_we_tell.pdf), even if that means noticing that mine isn't one. I can endure being sad about that if the alternative is forcing everyone to doublethink around their perceptions of me.
410
411 In a world where surgery is expensive, but some people desperately want to change sex and other people want to be nice to them, there are incentives to relocate our shared concept of "gender" onto things like [ornamental clothing](http://web.archive.org/web/20210513192331/http://thetranswidow.com/2021/02/18/womens-clothing-is-always-drag-even-on-women/) that are easier to change than secondary sex characteristics.
412
413 But I would have expected people with an inkling of self-awareness and honesty to notice the incentives, and the problems being created by them, and to talk about the problems in public so that we can coordinate on the best solution, [whatever that turns out to be](/2021/Sep/i-dont-do-policy/)?
414
415 And if that's too much to expect of the general public—
416
417 And if it's too much to expect garden-variety "rationalists" to figure out on their own without prompting from their betters—
418
419 Then I would have at least expected Eliezer Yudkowsky to take actions _in favor of_ rather than _against_ his faithful students having these basic capabilities for reflection, self-observation, and ... speech? I would have expected Eliezer Yudkowsky to not _actively exert optimization pressure in the direction of transforming me into a Jane Austen character_.
420
421 ### Criticism of Public Statements Is About the Public Statements, Not Subjective Intent
422
423 This is the part where Yudkowsky or his flunkies accuse me of being uncharitable, of [failing at perspective-taking](https://twitter.com/ESYudkowsky/status/1435617576495714304) and [embracing conspiracy theories](https://twitter.com/ESYudkowsky/status/1708587781424046242). Obviously, Yudkowsky doesn't _think of himself_ as trying to transform his faithful students into Jane Austen characters. Perhaps, then, I have failed to understand his position? [As Yudkowsky put it](https://twitter.com/ESYudkowsky/status/1435618825198731270):
424
425 > The Other's theory of themselves usually does not make them look terrible. And you will not have much luck just yelling at them about how they must really be doing `terrible_thing` instead.
426
427 But the substance of my complaints is [not about Yudkowsky's conscious subjective narrative](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie). I don't have a lot of uncertainty about Yudkowsky's theory of himself, because he told us that, very clearly: "it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment." I don't doubt that that's [how the algorithm feels from the inside](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside).
428
429 But my complaint is about the work the algorithm is _doing_ in Stalin's service, not about how it feels; I'm talking about a pattern of publicly visible _behavior_ stretching over years, not claiming to be a mind-reader. (Thus, "take actions" in favor of/against, rather than "be"; "exert optimization pressure in the direction of", rather than "try".) I agree that everyone has a story in which they don't look terrible, and that people mostly believe their own stories, but it does not therefore follow that no one ever does anything terrible.
430
431 I agree that you won't have much luck yelling at the Other about how they must really be doing `terrible_thing`. But if you have the receipts of the Other repeatedly doing the thing in public from 2016 to 2021, maybe yelling about it to everyone else might help _them_ stop getting suckered by the Other's empty posturing.
432
433 Let's recap.
434
435 ### Recap of Yudkowsky's History of Public Statements on Transgender Identity
436
437 In January 2009, Yudkowsky published ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions), essentially a revision of [a 2004 mailing list post responding to a man who said that after the Singularity, he'd like to make a female but "otherwise identical" copy of himself](https://archive.is/En6qW). "Changing Emotions" insightfully points out [the deep technical reasons why](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard) men who sexually fantasize about being women can't achieve their dream with foreseeable technology—and not only that, but that the dream itself is conceptually confused: a man's fantasy about it being fun to be a woman isn't part of the female distribution; there's a sense in which it _can't_ be fulfilled.
438
439 It was a good post! Yudkowsky was merely using the sex change example to illustrate [a more general point about the difficulties of applied transhumanism](https://www.lesswrong.com/posts/EQkELCGiGQwvrrp3L/growing-up-is-hard), but "Changing Emotions" was hugely influential on me; I count myself much better off for having understood the argument.
440
441 But seven years later, in a March 2016 Facebook post, Yudkowsky [proclaimed that](https://www.facebook.com/yudkowsky/posts/10154078468809228) "for people roughly similar to the Bay Area / European mix, I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women." 
442
443 This seemed like a huge and surprising reversal from the position articulated in "Changing Emotions". The two posts weren't _necessarily_ inconsistent, if you assume gender identity is a real property synonymous with "brain sex", and that the harsh (almost mocking) skepticism of the idea of true male-to-female sex change in "Changing Emotions" was directed at the sex-change fantasies of cis men (with a male gender-identity/brain-sex), whereas the 2016 Facebook post was about trans women (with a female gender-identity/brain-sex), which are a different thing.
444
445 But this potential unification seemed dubious to me, especially given how the 2016 Facebook post posits that trans women are "at least 20% of the ones with penises" (!) in some population, while the 2004 mailing list post notes that "spending a week as a member of the opposite sex may be a common sexual fantasy". After it's been pointed out, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female but 'otherwise identical' copy of himself" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. So in October 2016, [I wrote to Yudkowsky noting the apparent reversal and asking to talk about it](/2023/Jul/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price). Because of the privacy rules I'm adhering to in telling this Whole Dumb Story, I can't confirm or deny whether any such conversation occurred.
446
447 Then, in November 2018, while criticizing people who refuse to use trans people's preferred pronouns, Yudkowsky [proclaimed that](https://twitter.com/ESYudkowsky/status/1067291243728650243) "Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying" [and that](https://twitter.com/ESYudkowsky/status/1067198993485058048) "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning." But _that_ seemed like a huge and surprising reversal from the position articulated in ["37 Ways Words Can Be Wrong"](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong).
448
449 (And this November 2018 reversal on the philosophy of language was much more inexplicable than the March 2016 reversal on the psychology of sex, because the latter is a complicated empirical question about which reasonable people might read new evidence differently and change their minds. In contrast, there's no plausible good reason for him to have reversed course on whether words can be wrong.)
450
451 After attempts to clarify via email failed, I eventually wrote ["Where to Draw the Boundaries?"](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) to explain the relevant error in general terms, and Yudkowsky eventually [clarified his position in September 2020](https://www.facebook.com/yudkowsky/posts/10158853851009228).
452
453 But then in February 2021, he reopened the discussion to proclaim that "the simplest and best protocol is, '_He_ refers to the set of people who have asked us to use _he_, with a default for those-who-haven't-asked that goes by gamete size' and to say that this just _is_ the normative definition", the problems with which post I explained in March 2022's ["Challenges to Yudkowsky's Pronoun Reform Proposal"](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/) and above.
454
455 End recap.
456
457 ### An Adversarial Game
458
459 At this point, the nature of the game is clear. Yudkowsky wants to make sure he's on peaceful terms with the progressive _zeitgeist_, subject to the constraint of [not writing any sentences he knows to be false](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases#2__The_law_of_no_literal_falsehood_). Meanwhile, I want to make sense of what's actually going on in the world as regarding sex and gender, because _I need the correct answer to decide whether or not to cut my dick off_.
460
461 On "his turn", he comes up with some pompous proclamation that's obviously optimized to make the "pro-trans" faction look smart and good and the "anti-trans" faction look dumb and bad, "in ways that exhibit generally rationalist principles."
462
463 On "my turn", I put in an absurd amount of effort explaining in exhaustive, _exhaustive_ detail why Yudkowsky's pompous proclamation, while [perhaps not technically making any unambiguously false atomic statements](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly), was substantively misleading compared to what any serious person would say if they were trying to make sense of the world without worrying what progressive activists would think of them.
464
465 At the start, I never expected to end up arguing about the minutiæ of pronoun conventions, which no one would care about if contingencies of the English language hadn't made them a Schelling point for things people do care about. The conversation only ended up here after a series of derailings. At the start, I was trying to say something substantive about the psychology of straight men who wish they were women.
466
467 In the context of AI alignment theory, Yudkowsky has written about a "nearest unblocked strategy" phenomenon: if you prevent an agent from accomplishing a goal via some plan that you find undesirable, the agent will search for ways to route around that restriction, and probably find some plan that you find similarly undesirable for similar reasons.
468
469 Suppose you developed an AI to [maximize human happiness subject to the constraint of obeying explicit orders](https://arbital.greaterwrong.com/p/nearest_unblocked#exampleproducinghappiness). It might first try forcibly administering heroin to humans. When you order it not to, it might switch to administering cocaine. When you order it to not to forcibly administer any kind of drug, it might switch to forcibly implanting electrodes in humans' brains, or just _paying_ the humans to take heroin, _&c._
470
471 It's the same thing with Yudkowsky's political risk minimization subject to the constraint of not saying anything he knows to be false. First he comes out with ["I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women"](https://www.facebook.com/yudkowsky/posts/10154078468809228) (March 2016). When you point out that his own writings from seven years before [explain why that's not true](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions), then the next time he revisits the subject, he switches to ["you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning"](https://archive.is/Iy8Lq) (November 2018). When you point out that his earlier writings also explain why [_that's_ not true either](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong), he switches to "It is Shenanigans to try to bake your stance on how clustered things are [...] _into the pronoun system of a language and interpretation convention that you insist everybody use_" (February 2021). When you point out that [that's not what's going on](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/), he switches to ... I don't know, but he's a smart guy; in the unlikely event that he sees fit to respond to this post, I'm sure he'll be able to think of something—but at this point, _I have no reason to care_. Talking to Yudkowsky on topics where getting the right answer would involve acknowledging facts that would make you unpopular in Berkeley is a waste of everyone's time; he has a [bottom line](https://www.lesswrong.com/posts/34XxbRFe54FycoCDw/the-bottom-line) that doesn't involve trying to inform you.
472
473 Accusing one's interlocutor of bad faith is frowned upon for a reason. We would prefer to live in a world where we have intellectually fruitful object-level discussions under the assumption of good faith, rather than risk our fora degenerating into accusations and name-calling, which is unpleasant and (more importantly) doesn't make any intellectual progress.
474
475 Accordingly, I tried the object-level good-faith argument thing first. I tried it for _years_. But at some point, I think I should be allowed to notice the nearest-unblocked-strategy game which is obviously happening. I think there's some number of years and some number of thousands of words of litigating the object level (about gender) and the meta level (about the philosophy of categorization) after which there's nothing left to do but jump up to the meta-meta level of politics and explain, to anyone capable of hearing it, why I think I've accumulated enough evidence for the assumption of good faith to have been empirically falsified.[^symmetrically-not-assuming-good-faith]
476
477 [^symmetrically-not-assuming-good-faith]: Obviously, if we're abandoning the norm of assuming good faith, it needs to be abandoned symmetrically. I _think_ I'm adhering to standards of intellectual conduct and being transparent about my motivations, but I'm not perfect, and, unlike Yudkowsky, I'm not so absurdly mendaciously arrogant to claim "confidence in my own ability to independently invent everything important" (!) about my topics of interest. If Yudkowsky or anyone else thinks they have a case that _I'm_ being culpably intellectually dishonest, they of course have my blessing and encouragement to post it for the audience to evaluate.
478
479 What makes all of this especially galling is that _all of my heretical opinions are literally just Yudkowsky's opinions from the 'aughts!_ My thing about how changing sex isn't possible with existing or foreseeable technology because of how complicated humans (and therefore human sex differences) are? Not original to me! I [filled in a few technical details](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard), but again, this was in the Sequences as ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions). My thing about how you can't define concepts any way you want because there are mathematical laws governing which category boundaries [compress](https://www.lesswrong.com/posts/mB95aqTSJLNR9YyjH/message-length) your [anticipated experiences](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences)? Not original to me! I [filled in](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [a few technical details](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception), but [_we had a whole Sequence about this._](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)
480
481 Seriously, do you think I'm smart enough to come up with all of this independently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts _when he still cared about telling the truth_. (Actively telling the truth, and not just technically not lying.) The things I'm hyperfocused on that he thinks are politically impossible to say in the current year are almost entirely things he already said, that anyone could just look up!
482
483 I guess the egregore doesn't have the reading comprehension for that?—or rather, the egregore has no reason to care about the past; if you get tagged by the mob as an Enemy, your past statements will get dug up as evidence of foul present intent, but if you're playing the part well enough today, no one cares what you said in 2009?
484
485 Does he expect the rest of us not to _notice_? Or does he think that "everybody knows"?
486
487 But I don't think that everybody knows. And I'm not giving up that easily. Not on an entire subculture full of people.
488
489 ### The Battle That Matters
490
491 In February 2021, Yudkowsky [defended his behavior](https://twitter.com/ESYudkowsky/status/1356812143849394176) (referring back to [his November 2018 Tweets](https://twitter.com/ESYudkowsky/status/1067183500216811521)):
492
493 > I think that some people model civilization as being in the middle of a great battle in which this tweet, even if true, is giving comfort to the Wrong Side, where I would not have been as willing to tweet a truth helping the Right Side. From my perspective, this battle just isn't that close to the top of my priority list. I rated nudging the cognition of the people-I-usually-respect, closer to sanity, as more important; who knows, those people might matter for AGI someday. And the Wrong Side part isn't as clear to me either.
494
495 There are a number of things that could be said to this,[^number-of-things] but most importantly: the battle that matters—the battle with a Right Side and a Wrong Side—isn't "pro-trans" _vs._ "anti-trans". (The central tendency of the contemporary trans rights movement is firmly on the Wrong Side, but that's not the same thing as all trans people as individuals.) That's why Jessica Taylor [joined our posse to try to argue with Yudkowsky in early 2019](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/#jessica-joins). (She wouldn't have if my objection had been, "Trans is Wrong; trans people Bad.") That's why Somni—one of the trans women who [infamously protested the 2019 CfAR reunion](https://www.ksro.com/2019/11/18/new-details-in-arrests-of-masked-camp-meeker-protesters/) for (among other things) CfAR allegedly discriminating against trans women—[understands what I've been saying](https://somnilogical.tumblr.com/post/189782657699/legally-blind).
496
497 [^number-of-things]: Note the striking contrast between ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument), in which the Yudkowsky of 2007 wrote that a campaign manager "crossed the line [between rationality and rationalization] at the point where [they] considered whether the questionnaire was favorable or unfavorable to [their] candidate, before deciding whether to publish it", and these 2021 Tweets, in which Yudkowsky seems nonchalant about "not hav[ing] been as willing to tweet a truth helping" one side of a cultural dispute, because "this battle just isn't that close to the top of [his] priority list". Well, sure! Any hired campaign manager could say the same: helping the electorate make an optimally informed decision just isn't that close to the top of their priority list, compared to getting paid.
498
499     Yudkowsky's claim to have been focused on nudging people's cognition towards sanity seems dubious: if you're focused on sanity, you should be spontaneously noticing sanity errors in both political camps. (Moreover, if you're living in what you yourself describe as a "half-Stalinist environment", you should expect your social environment to make proportionately more errors on the "pro-Stalin" side, because Stalinists aren't facing social pressure to avoid errors.) As for the rationale that "those people might matter to AGI someday", [judging by local demographics](/2017/Jan/from-what-ive-tasted-of-desire/), it seems much more likely to apply to trans women themselves than their critics!
500
501 The battle that matters—and I've been explicit about this, for years—is over this proposition eloquently [stated by Scott Alexander in November 2014](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (redacting the irrelevant object-level example):
502
503 > I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if it'll save someone's life. There's no rule of rationality saying that I shouldn't, and there are plenty of rules of human decency saying that I should.
504
505 This is a battle between Feelings and Truth, between Politics and Truth.
506
507 In order to take the side of Truth, you need to be able to [tell Joshua Norton that he's not actually Emperor of the United States (even if it hurts him)](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/#emperor-norton).
508
509 You need to be able to tell a prideful autodidact that the fact that he's failing quizzes in community college differential equations class is evidence that his study methods aren't doing what he thought they were (even if it hurts him).
510
511 And you need to be able to say, in public, that trans women are male and trans men are female with respect to a concept of binary sex that encompasses the many traits that aren't affected by contemporary surgical and hormonal interventions (even if it hurts someone who does not like to be tossed into a Male Bucket or a Female Bucket as it would be assigned by their birth certificate, and—yes—even if it probabilistically contributes to that person's suicide).
512
513 If you don't want to say those things because hurting people is wrong, then you have chosen Feelings.
514
515 Scott Alexander chose Feelings, but I can't hold that against him, because Scott is [explicit about only speaking in the capacity of some guy with a blog](https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/).[^hexaco] You can tell that he never wanted to be a religious leader; it just happened because he writes faster than everyone else. I like Scott. Scott is alright. I feel sad that such a large fraction of my interactions with him over the years have taken such an adversarial tone.
516
517 [^hexaco]: The authors of the [HEXACO personality model](https://en.wikipedia.org/wiki/HEXACO_model_of_personality_structure) may have gotten something importantly right in [grouping "honesty" and "humility" as a single factor](https://en.wikipedia.org/wiki/Honesty-humility_factor_of_the_HEXACO_model_of_personality).
518
519 Eliezer Yudkowsky did not _unambiguously_ choose Feelings. He's been very careful with his words to strategically mood-affiliate with the side of Feelings, without consciously saying anything that he knows to be unambiguously false. And the reason I can hold it against _him_ is because Eliezer Yudkowsky does not identify as just some guy with a blog. Eliezer Yudkowsky is _absolutely_ trying to be a religious leader. He markets himself a rationality master so superior to mere Earthlings that he might as well be from dath ilan, who ["aspires to make sure [his] departures from perfection aren't noticeable to others"](https://twitter.com/ESYudkowsky/status/1384671335146692608). He [complains that "too many people think it's unvirtuous to shut up and listen to [him]"](https://twitter.com/ESYudkowsky/status/1509944888376188929).
520
521 In making such boasts, I think Yudkowsky is opting in to being held to higher standards than other mortals. If Scott Alexander gets something wrong when I was trusting him to be right, that's disappointing, but I'm not the victim of false advertising, because Scott Alexander doesn't claim to be anything more than some guy with a blog. If I trusted him more than that, that's on me.
522
523 If Eliezer Yudkowsky gets something wrong when I was trusting him to be right, and refuses to acknowledge corrections (in the absence of an unsustainable 21-month nagging campaign), and keeps inventing new galaxy-brained ways to be wrong in the service of his political agenda of being seen to agree with Stalin without technically lying, then I think I _am_ the victim of false advertising.[^gould-analogy] His marketing bluster was designed to trick people like me into trusting him, even if my being dumb enough to believe him is on me.[^gullible]
524
525 [^gould-analogy]: Yudkowsky [once wrote of Stephen Jay Gould](https://www.lesswrong.com/posts/BahoNzY2pzSeM2Dtk/beware-of-stephen-j-gould) that "[c]onsistently self-serving scientific 'error', in the face of repeated correction and without informing others of the criticism, blends over into scientific fraud." I think the same standard applies here.
526
527 [^gullible]: Perhaps some readers will consider this point to be more revealing about my character rather than Yudkowsky's: that [everybody knows](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) his bluster wasn't supposed to be taken seriously, so I have no more right to complain about "false advertising" than purchasers of a ["World's Best"](https://en.wikipedia.org/wiki/Puffery) ice-cream who are horrified (or pretending to be) that it may not objectively be the best in the world.
528
529     Such readers may have a point. If _you_ [already knew](https://www.lesswrong.com/posts/tSgcorrgBnrCH8nL3/don-t-revere-the-bearer-of-good-info) that Yudkowsky's pose of epistemic superiority was phony (because everyone knows), then you are wiser than I was. But I think there are a lot of people in the "rationalist" subculture who didn't know (because we weren't anyone). This post is for their benefit.
530
531 Perhaps he thinks it's unreasonable for someone to hold him to higher standards. As he [wrote](https://twitter.com/ESYudkowsky/status/1356493883094441984) [on](https://twitter.com/ESYudkowsky/status/1356494097511370752) [Twitter](https://twitter.com/ESYudkowsky/status/1356494399945854976) in February 2021:
532
533 > It's strange and disingenuous to pretend that the master truthseekers of any age of history, must all have been blurting out everything they knew in public, at all times, on pain of not possibly being able to retain their Art otherwise. I doubt Richard Feynman was like that. More likely is that, say, he tried to avoid telling outright lies or making public confusions worse, but mainly got by on having a much-sharper-than-average dividing line in his mine between peer pressure against saying something, and that thing being _false_.
534
535 I've read _Surely You're Joking, Mr. Feynman_. I cannot imagine Richard Feynman trying to get away with the "sometimes personally prudent and not community-harmful" excuse. I think if there were topics Richard Feynman didn't think he could afford to be honest about, he—or really, anyone who valued their intellectual integrity more than their image as a religious authority fit to issue proclamations about all areas of life—would just not issue sweeping public statements on that topic while claiming the right to ignore counterarguments on the grounds of having "some confidence in [their] own ability to independently invent everything important that would be on the other side of the filter and check it [themself] before speaking".
536
537 The claim to not be making public confusions worse might be credible if there were no comparable public figures doing better. But other science educators in the current year such as [Richard Dawkins](https://www.theguardian.com/books/2021/apr/20/richard-dawkins-loses-humanist-of-the-year-trans-comments), University of Chicago professor [Jerry Coyne](https://whyevolutionistrue.com/2023/08/27/on-helen-joyces-trans/), or ex-Harvard professor [Carole Hooven](https://www.thefp.com/p/carole-hooven-why-i-left-harvard) _have_ been willing to stand up for the scientific truth that biological sex continues to be real even when it hurts people's feelings.
538
539 If Yudkowsky thinks he's too important for that (because his popularity with progressives has much greater impact on the history of Earth-originating intelligent life than Carole Hooven's), that might be the right act-consequentialist decision, but one of the consequences he should be tracking is that he's forfeiting the trust of everyone who expected him to live up to the basic epistemic standards successfully upheld by biology professors.
540
541 It [looks foolish in retrospect](http://benjaminrosshoffman.com/discursive-warfare-and-faction-formation/), but I did trust him much more than that. Back in 2009 when _Less Wrong_ was new, we had a thread of hyperbolic ["Eliezer Yudkowsky Facts"](https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts) (in the style of [Chuck Norris facts](https://en.wikipedia.org/wiki/Chuck_Norris_facts)). ["Never go in against Eliezer Yudkowsky when anything is on the line"](https://www.greaterwrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts/comment/Aq9eWJmK6Liivn8ND), said one of the facts—and back then, I didn't think I would _need_ to.
542
543 Part of what made him so trustworthy back then was that he wasn't asking for trust. He clearly _did_ think it was [unvirtuous to just shut up and listen to him](https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus): "I'm not sure that human beings realistically _can_ trust and think at the same time," [he wrote](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science). He was always arrogant, but it was tempered by the expectation of being held to account by arguments rather than being deferred to as a social superior. "I try in general to avoid sending my brain signals which tell it that I am high-status, just in case that causes my brain to decide it is no longer necessary," [he wrote](https://www.lesswrong.com/posts/cgrvvp9QzjiFuYwLi/high-status-and-stupidity-why).
544
545 He visibly [cared about other people being in touch with reality](https://www.lesswrong.com/posts/anCubLdggTWjnEvBS/your-rationality-is-my-business). "I've informed a number of male college students that they have large, clearly detectable body odors. In every single case so far, they say nobody has ever told them that before," [he wrote](https://www.greaterwrong.com/posts/kLR5H4pbaBjzZxLv6/polyhacking/comment/rYKwptdgLgD2dBnHY). (I can testify that this is true: while sharing a car ride with Anna Salamon in 2011, he told me I had B.O.)[^bo-heroism]
546
547 [^bo-heroism]: A lot of the epistemic heroism here is just in [noticing](https://www.lesswrong.com/posts/SA79JMXKWke32A3hG/original-seeing) the conflict between Feelings and Truth, between Politeness and Truth, rather than necessarily acting on it. If telling a person they smell bad would predictably meet harsh social punishment, I couldn't blame someone for consciously choosing silence and safety over telling the truth.
548
549     What I can and do blame someone for is actively fighting for Feelings while misrepresenting himself as the rightful caliph of epistemic rationality. There are a lot of trans people who would benefit from feedback that they don't pass but aren't getting that feedback by default. I wouldn't necessarily expect Yudkowsky to provide it. (I don't, either.) I _would_ expect the person who wrote the Sequences not to proclaim that the important thing is the feelings of people who do not like to be tossed into a Smells Bad bucket, which don't bear on the factual question of whether someone smells bad.
550
551 That person is dead now, even if his body is still breathing. Without disclosing any specific content from private conversations that may or may not have happened, I think he knows it.
552
553 If the caliph has lost his [belief in](https://www.lesswrong.com/posts/duvzdffTzL3dWJcxn/believing-in-1) the power of intellectual honesty, I can't necessarily say he's wrong on the empirical merits. It is written that our world is [beyond the reach of God](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god); there's no law of physics that says honesty must yield better consequences than propaganda.
554
555 But since I haven't lost my belief in honesty, I have the responsibility to point out that the formerly rightful caliph has relinquished his Art and lost his powers.
556
557 The modern Yudkowsky [writes](https://twitter.com/ESYudkowsky/status/1096769579362115584):
558
559 > When an epistemic hero seems to believe something crazy, you are often better off questioning "seems to believe" before questioning "crazy", and both should be questioned before shaking your head sadly about the mortal frailty of your heroes.
560
561 I notice that this advice fails to highlight the possibility that the "seems to believe" is a deliberate show (judged to be personally prudent and not community-harmful), rather than a misperception on your part. I am left shaking my head in a [weighted average of](https://www.lesswrong.com/posts/y4bkJTtG3s5d6v36k/stupidity-and-dishonesty-explain-each-other-away) sadness about the mortal frailty of my former hero, and disgust at his duplicity. **If Eliezer Yudkowsky can't _unambiguously_ choose Truth over Feelings, _then Eliezer Yudkowsky is a fraud_.**
562
563 A few clarifications are in order here. First, this usage of "fraud" isn't a meaningless [boo light](https://www.lesswrong.com/posts/dLbkrPu5STNCBLRjr/applause-lights). I specifically and [literally mean it](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) in [_Merriam-Webster_'s sense 2.a., "a person who is not what he or she pretends to be"](https://www.merriam-webster.com/dictionary/fraud)—and I think I've made my case. (The "epistemic hero" posturing isn't compatible with the "sometimes personally prudent and not community-harmful" prevarication; he needs to choose one or the other.) Someone who disagrees with my assessment needs to argue that I've gotten some specific thing wrong, [rather than objecting to character attacks on procedural grounds](https://www.lesswrong.com/posts/pkaagE6LAsGummWNv/contra-yudkowsky-on-epistemic-conduct-for-author-criticism).
564
565 Second, it's a conditional: _if_ Yudkowsky can't unambiguously choose Truth over Feelings, _then_ he's a fraud. If he wanted to come clean, he could do so at any time.
566
567 He probably won't. We've already seen from his behavior that he doesn't give a shit what people like me think of his intellectual integrity. Why would that change?
568
569 Third, given that "fraud" is a semantically meaningful description rather than an emotive negative evaluation, I should stress that evaluation is a separate step. If being a fraud were necessary for saving the world, maybe being a fraud would be the right thing to do? More on this in the next post. (To be continued.)