check in
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
index d44d876..7f3d746 100644 (file)
@@ -8,315 +8,764 @@ Status: draft
 >
 > —Zora Neale Hurston
 
-In a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I told the story about how I've "always" (since puberty) had this obsessive erotic fantasy about being transformed into a woman and used to think it was immoral to believe in psychological sex differences, until I read these Sequences of _super great_ blog posts about how reasoning works by some guy named Eliezer Yudkowsky—where one _particularly_ influential-to-me post was [the one that explained](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) why the idea of "changing sex" is much easier said than done, [because the tantalizingly short English phrase doesn't capture the complex implementation details of the real physical universe](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard).
+Recapping our story so far—in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I told the the part about how I've "always" (since puberty) had this obsessive sexual fantasy about being magically transformed into a woman and also thought it was immoral to believe in psychological sex differences, until I got set straight by these really great Sequences of blog posts by Eliezer Yudkowsky, which taught me (incidentally, among many other things) how absurdly unrealistic my obsessive sexual fantasy was given merely human-level technology, and that it's actually immoral _not_ to believe in psychological sex differences given that psychological sex differences are actually real. In a subsequent post, ["Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer"](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/), I told the part about how, in 2016, everyone in my systematically-correct-reasoning community up to and including Eliezer Yudkowsky suddenly starting claiming that guys like me might actually be women in some unspecified metaphysical sense, and insisted on playing dumb when confronted with alternative explanations of the relevant phenomena or even just asked what that means, until I eventually had a stress- and sleep-deprivation-induced delusional nervous breakdown, got sent to psychiatric jail once, and then went crazy again a couple months later.
 
-At the time, this was my weird personal thing, which I did not anticipate there being any public interest in blogging about. In particular, I didn't think of myself as being "transgender." The whole time—the dozen years I spent reading everything I could about sex and gender and transgender and feminism and evopsych and doing various things with my social presentation (sometimes things I regretted and reverted after a lot of pain, like [trying to use my initials as a name](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#literary-initials)) to try to seem not-masculine—I had been _assuming_ that my gender problems were not of the same kind as people who were _actually_ transgender, because the standard narrative said that that was about people whose ["internal sense of their own gender does not match their assigned sex at birth"](https://www.vox.com/identities/21332685/trans-rights-pronouns-bathrooms-sports), whereas my thing was obviously at least partially an outgrowth of my weird sex fantasy—I had never interpreted the beautiful pure sacred self-identity thing as an "internal sense of my own gender".
+That's not the really egregious part of the story. The thing is, psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—[not just as an obligatory profession of humility, but _actually_ wrong in the real world](https://www.lesswrong.com/posts/GrDqnMjhqoxiqpQPw/the-proper-use-of-humility). If my fellow rationalists merely weren't sold on the autogynephilia and transgender thing, I would certainly be disappointed, but it's definitely not grounds to denounce the entire community as a failure or a fraud. And indeed, I _did_ [end up moderating my views](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/) compared to the extent to which my thinking in 2016–7 took Blanchard–Bailey–Lawrence as received truth. At the same time, I don't particularly regret saying what I said in 2016–7, because Blanchard–Bailey–Lawrence is still very obviously _directionally_ correct compared to the nonsense everyone else was telling me.
 
-_Why would I?_ In the English of my youth, "gender" (as a single word, rather than part of the phrase "gender role") was understood as a euphemism for _sex_ for people who were squeamish about the potential ambiguity betweeen _sex_-as-in-biological-sex and _sex_-as-in-intercourse. (Judging by this blog's domain name, I am not immune to this.) In that language, my "gender"—my sex—is male. Not because I'm necessarily happy about it (and I [used to](/2017/Jan/the-erotic-target-location-gift/) be pointedly insistent that I wasn't), but as an observable biological fact that, whatever my pure beautiful sacred self-identity feelings, _I am not delusional about_.
+But a striking pattern in my attempts to argue with people about the two-type taxonomy in late 2016 and early 2017 was the tendency for the conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a November 2014 post by Scott Alexander arguing that because categories exist in our model of the world rather than the world itself, there's nothing wrong with simply _defining_ trans people to be their preferred gender, in order to alleviate their dysphoria.
 
-Okay, so trans people aren't delusional about their [developmental sex](/2019/Sep/terminology-proposal-developmental-sex/); the claim is that their internal sense of their own gender is in some sense more real or more relevant and should take precedence. So where does that leave me? In ["Sexual Dimorphism ..."](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I wrote about my _own_ experiences, and not anyone else's (which I obviously don't have access to). I _mentioned_ transgenderedness a number of times, but I tried to cast it as explanation that one might be tempted to apply to my case, but which I don't think fits. Everything I said is _consistent_ with a world in which Ray Blanchard (who coined "autogynephilia" as the obvious and perfect word for my thing while studying actual transsexuals) was dumb and wrong, a world where my idiosyncratic weird sex perversion and associated beautiful pure sacred self-identity feelings are taxonomically and etiologically distinct from whatever brain-intersex condition causes _actual_ trans women. That's the world I _thought_ I lived in for the ten years after encountering the obvious and perfect word.
+After Yudkowsky had stepped away from full-time writing, Alexander had emerged as our subculture's preeminent writer. Most people in an intellectual scene "are writers" in some sense, but Alexander was the one "everyone" reads: you could reference a _Slate Star Codex_ post in conversation and expect people to familiar with the idea, either from having read it, or by osmosis via other people having referenced the idea in conversation. The frequency with which "... Not Man for the Categories" was cited at me, seemed to suggest it had become our subculture's "party line" on trans issues.
 
-My first clue that I wasn't living in that world came from—Eliezer Yudkowsky. (Well, not my first _clue_. In retrospect, there were lots of _clues_. My first wake-up call.) In [a 26 March 2016 Facebook post](https://www.facebook.com/yudkowsky/posts/10154078468809228), he wrote—
+But the post is very wrong in very obvious ways. To be clear, it's true _that_ categories exist in our model of the world, rather than the world itself—categories are "map", not "territory"—and it's true that trans women might be women _with respect to_ some genuinely useful definition of the word "woman." However, Alexander goes much further, claiming that we can redefine gender categories _in order to make trans people feel better_:
 
-> I'm not sure if the following generalization extends to all genetic backgrounds and childhood nutritional backgrounds. There are various ongoing arguments about estrogenlike chemicals in the environment, and those may not be present in every country ...
+> I ought to accept an unexpected man or two deep inside the conceptual boundaries of what would normally be considered female if it'll save someone's life. There's no rule of rationality saying that I shouldn't, and there are plenty of rules of human decency saying that I should.
 
-> Still, for people roughly similar to the Bay Area / European mix, I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women.
+This is wrong because categories exist in our model of the world _in order to_ capture empirical regularities in the world itself: the map is supposed to _reflect_ the territory, and there _are_ "rules of rationality" governing what kinds of word and category usages correspond to correct probabilistic inferences. [Yudkowsky wrote a whole Sequence about this](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb) back in 'aught-eight, as part of the original Sequences. Alexander cites [a post](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside) from that Sequence in support of the (true) point about how categories are "in the map" ... but if you actually read the Sequence, another point that Yudkowsky pounds home _over and over and over again_, is that word and category definitions are nevertheless _not_ arbitrary: you can't define a word any way you want, because there are [at least 37 ways that words can be wrong](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)—principles that make some definitions _perform better_ than others as "cognitive technology."
 
-(***!?!?!?!?***)
+In the case of Alexander's bogus argument about gender categories, the relevant principle ([#30](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) on [the list of 37](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)) is that if group things together in your map that aren't actually similar in the territory, you're going to confuse yourself.
 
-> A lot of them don't know it or wouldn't care, because they're female-minds-in-male-bodies but also cis-by-default (lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities). Or they don't know it because they haven't heard in detail what it feels like to be gender dysphoric, and haven't realized 'oh hey that's me'. See, e.g., <https://sinesalvatorem.tumblr.com/post/141690601086/15-regarding-the-4chan-thing-4chans> and <https://slatestarcodex.com/2013/02/18/typical-mind-and-gender-identity/>
+Importantly, this is a very general point about how language itself works _that has nothing to do with gender_. No matter what you believe about politically-controversial empirical questions, intellectually honest people should be able to agree that "I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if [positive consequence]" is not the correct philosophy of language, _independently of the particular values of X and Y_.
 
-(Reading _that_ post, I _did_ realize "oh hey that's me"—it's hard to believe that I'm not one of the "20% of the ones with penises" Yudkowsky is talking about here—but I wasn't sure how to reconcile that with the "are actually women" (***!?!?!?!?***) characterization, coming _specifically_ from the guy who taught me [how blatantly, ludicrously untrue and impossible that is](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard).)
+Also, this ... really wasn't what I was trying to talk about. _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory of psychology of late-onset gender dysphoria in males, the truth or falsity of which obviously cannot be altered by changing the meanings of words. But at this point I still trusted people in my robot cult to be basically intellectually honest, rather than fucking with me because of their political incentives, so I endeavored to respond to the category-boundary argument as if it were a serious argument: when I quit my dayjob in March 2017 in order to have more time to study and work on this blog, the capstone of my sabbatical was an exhaustive response to Alexander, ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (which Alexander [graciously included in his next links post](https://archive.ph/irpfd#selection-1625.53-1629.55)). A few months later, I followed it up with ["Reply to _The Unit of Caring_ on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/), responding to a similar argument. I'm proud of those posts: I think Alexander's and _Unit of Caring_'s arguments were incredibly dumb, and with a lot of effort, I think I did a pretty good job of explaining exactly why to anyone who was interested and didn't, at some level, prefer not to understand.
 
-> But I'm kinda getting the impression that when you do normalize transgender generally and MtF particularly, like not "I support that in theory!" normalize but "Oh hey a few of my friends are transitioning and nothing bad happened to them", there's a _hell_ of a lot of people who come out as trans.
+Of course, a pretty good job of explaining by one niche blogger wasn't going to put much of a dent in the culture, which is the sum of everyone's blogposts; despite the mild boost from the _Slate Star Codex_ links post, my megaphone just wasn't very big. At this point, I was _disappointed_ with the limited impact of my work, but not to the point of bearing much hostility to "the community". People had made their arguments, and I had made mine; I didn't think I was _entitled_ to anything more than that.
 
-> If that starts to scale up, we might see a really, really interesting moral panic in 5–10 years or so. I mean, if you thought gay marriage was causing a moral panic, you just wait and see what comes next ...
+... and, really, that _should_ have been the end of the story. Not much of a story at all. If I hadn't been further provoked, I would have still kept up this blog, and I still would have ended up arguing about gender with people occasionally, but this personal obsession of mine wouldn't have been the occasion of a full-on robot-cult religious civil war.
 
-Indeed—here we are six years later, and _I am panicking_. (As 2007–9 Sequences-era Yudkowsky [taught me](https://www.yudkowsky.net/other/fiction/the-sword-of-good), and 2016 Facebook-shitposting-era Yudkowsky seemed to ignore, the thing that makes a moral panic _really_ interesting is how hard it is to know you're on the right side of it—and the importance of [panicking](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative) [sideways](https://www.overcomingbias.com/2007/05/policy_tugowar.html) when the "maximize the number of trans people" and "minimize the number of trans people" coalitions are both wrong.)
+The _causis belli_ for the religious civil war happened on 28 November 2018. I was at my new dayjob's company offsite event in Austin. Coincidentally, I had already spent much of the afternoon arguing trans issues with other "rationalists" on Discord. [TODO: review Discord logs; email to Dad suggests that offsite began on the 26th, contrasted to first shots on the 28th]
 
-But at the time, this was merely _very confusing_. I left [a careful comment in the Facebook thread](/images/facebook_etle_comment.png) (with the obligatory "speaking only for myself; I obviously know that I can't say anything about anyone else's experience" [disclaimer](https://www.overcomingbias.com/2008/06/against-disclai.html)), quietly puzzled at what Yudkowsky could _possibly_ be thinking ...
+Just that month, I had started a Twitter account in my own name, inspired in an odd way by the suffocating [wokeness of the open-source software scene](/2018/Oct/sticker-prices/) where I [occasionally contributed diagnostics patches to the compiler](https://github.com/rust-lang/rust/commits?author=zackmdavis). My secret plan/fantasy was to get more famous and established in the that world (one of compiler team membership, or conference talk accepted, preferably both), get some corresponding Twitter followers, and _then_ bust out the [@BlanchardPhd](https://twitter.com/BlanchardPhD) retweets and links to this blog. In the median case, absolutely nothing would happen (probably because I failed at being famous), but I saw an interesting tail of scenarios in which I'd get to be a test case in the Code of Conduct wars.
 
-A month later, I moved out of my mom's house in [Walnut Creek](https://en.wikipedia.org/wiki/Walnut_Creek,_California) to go live with a new roommate in an apartment on the correct side of the [Caldecott tunnel](https://en.wikipedia.org/wiki/Caldecott_Tunnel), in [Berkeley](https://en.wikipedia.org/wiki/Berkeley,_California): closer to other people in the robot-cult scene and with a shorter train ride to my coding dayjob in San Francisco.
+So, now having a Twitter account, I was browsing Twitter in the bedroom at the rental house for the dayjob retreat, when I happened to come across [this thread by @ESYudkowsky](https://twitter.com/ESYudkowsky/status/1067183500216811521):
 
-(I would later change my mind about which side of the tunnel is the correct one.)
+> Some people I usually respect for their willingness to publicly die on a hill of facts, now seem to be talking as if pronouns are facts, or as if who uses what bathroom is necessarily a factual statement about chromosomes. Come on, you know the distinction better than that!
+>
+> _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
+>
+> In saying this, I am not taking a stand for or against any Twitter policies. I am making a stand on a hill of meaning in defense of validity, about the distinction between what is and isn't a stand on a hill of facts in defense of truth.
+>
+> I will never stand against those who stand against lies. But changing your name, asking people to address you by a different pronoun, and getting sex reassignment surgery, Is. Not. Lying. You are _ontologically_ confused if you think those acts are false assertions.
 
-In Berkeley, I met some really interesting people who seemed quite similar to me along a lot of dimensions, but also very different along some other dimensions having to do with how they were currently living their life! (I see where the pattern-matching faculties in Yudkowsky's brain got that 20% figure from.) This prompted me to do a little bit more reading in some corners of the literature that I had certainly _heard of_, but hadn't already mastered and taken seriously in the previous twelve years of reading everything I could about sex and gender and transgender and feminism and evopsych. (Kay Brown's blog, [_On the Science of Changing Sex_](https://sillyolme.wordpress.com/), was especially helpful.)
+Some of the replies tried explain the problem—and [Yudkowsky kept refusing to understand](https://twitter.com/ESYudkowsky/status/1067291243728650243)—
 
-Between the reading, and a series of increasingly frustrating private conversations, I gradually became increasingly persuaded that Blanchard _wasn't_ dumb and wrong, that his taxonomy of male-to-female transsexualism is _basically_ correct, at least as a first approximation. So far this story has just been about _my_ experience, and not anyone's theory of transsexualism (which I had assumed for years couldn't possibly apply to me), so let me take a moment to explain the theory now.
+> Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
 
-(With the caveated understanding that psychology is complicated and there's more to be said about what "as a first approximation" is even supposed to mean, but I need a few paragraphs to talk about the _simple_ version of the theory that makes _pretty good_ predictions on _average_, before I can elaborate on more complicated theories that might make even better predictions including on cases that diverge from average.)
+—[repeatedly](https://twitter.com/ESYudkowsky/status/1067198993485058048):
 
-The idea is that male-to-female transsexualism isn't actually one phenomenon; it's two completely different phenomena that don't actually have anything to do with each other, except for the (perhaps) indicated treatment of HRT, surgery, and social transition. (Compare to how different medical conditions might happen to respond to the same drug.)
+> You're mistaken about what the word means to you, I demonstrate thus: https://en.wikipedia.org/wiki/XX_male_syndrome
+>
+> But even ignoring that, you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning.
 
-In one taxon, the "early-onset" type, you have same-sex-attracted males who have just been extremely feminine (in social behavior, interests, _&c._) their entire lives, in a way that causes huge social problems for them—the far tail of effeminate gay men who end up fitting into Society better as straight women. _That's_ where the "woman trapped inside a man's body" trope comes from. [This one probably _is_ a brain-intersex condition.](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3180619/)
+Dear reader, this is the moment where I _flipped the fuck out_. Let me explain.
 
-That story is pretty intuitive. Were an alien AI to be informed of the fact that, among humans, some fraction of males elect to undergo medical interventions to resememble females and aspire to be perceived as females socially, "brain-intersex condition such that they already behave like females" would probably be its top hypothesis for the cause of such behavior, just on priors.
+This "hill of meaning in defense of validity" proclamation was just such a striking contrast to the Eliezer Yudkowsky I remembered—the Eliezer Yudkowsky whom I had variously described as having "taught me everything I know" and "rewritten my personality over the internet"—who didn't hesitate to criticize uses of language that he thought were failing to carve reality at the joints, even going so far as to [call them "wrong"](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong):
 
-Suppose our alien AI were to be informed that many of the human males seeking to become female (as far as the technology can manage) do _not_ fit the clinical profile of the early-onset type—it looks like there's a separate "late-onset" type or types. If you [didn't have enough data to _prove_ anything, but you had to guess](https://www.lesswrong.com/posts/xTyuQ3cgsPjifr7oj/faster-than-science), what would be your _second_ hypothesis for how this behavior might arise?
+> [S]aying "There's no way my choice of X can be 'wrong'" is nearly always an error in practice, whatever the theory. You can always be wrong. Even when it's theoretically impossible to be wrong, you can still be wrong. There is never a Get-Out-Of-Jail-Free card for anything you do. That's life.
 
-What's the _usual_ reason for males to be obsessed with female bodies?
+[Similarly](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary):
 
-So, yeah. Basically, I think a _substantial majority_ of trans women under modern conditions in Western countries are, essentially, guys like me who were _less self-aware about what the thing actually is_.
+> Once upon a time it was thought that the word "fish" included dolphins. Now you could play the oh-so-clever arguer, and say, "The list: {Salmon, guppies, sharks, dolphins, trout} is just a list—you can't say that a list is _wrong_. I can prove in set theory that this list exists. So my definition of _fish_, which is simply this extensional list, cannot possibly be 'wrong' as you claim."
+>
+> Or you could stop playing nitwit games and admit that dolphins don't belong on the fish list.
+>
+> You come up with a list of things that feel similar, and take a guess at why this is so. But when you finally discover what they really have in common, it may turn out that your guess was wrong. It may even turn out that your list was wrong.
+>
+> You cannot hide behind a comforting shield of correct-by-definition. Both extensional definitions and intensional definitions can be wrong, can fail to carve reality at the joints.
 
-So, I realize this is an inflamatory and (far more importantly) _surprising_ claim. Obviously, I don't have introspective access into other people's minds. If someone claims to have an internal sense of her own gender that doesn't match her assigned sex at birth, on what evidence could I _possibly_ have the _astounding_ arrogance to reply, "No, I think you're really just a perverted male like me"?
+One could argue the "Words can be wrong when your definition draws a boundary around things that don't really belong together" moral doesn't apply to Yudkowsky's new Tweets, which only mentioned pronouns and bathroom policies, not the [extensions](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions) of common nouns.
 
-Actually, lots. To arbitrarily pick one particularly vivid exhibit, in April 2018, the [/r/MtF subreddit](https://www.reddit.com/r/MtF/) (which currently has 100,000 subscribers) [posted a link to a poll: "Did you have a gender/body swap/transformation "fetish" (or similar) before you realised you were trans?"](https://archive.is/uswsz). The [results](https://strawpoll.com/5p7y96x2/r): [_82%_ said Yes](/images/did_you_have-reddit_poll.png). [Top comment in the thread](https://archive.is/c7YFG), with over 230 karma: "I spent a long time in the 'it's probably just a fetish' camp".
+But this seems pretty unsatisfying in the context of his claim to ["not [be] taking a stand for or against any Twitter policies"](https://twitter.com/ESYudkowsky/status/1067185907843756032). One of the Tweets that had recently led to radical feminist Meghan Murphy getting [kicked off the platform](https://quillette.com/2018/11/28/twitters-trans-activist-decree/) read simply, ["Men aren't women tho."](https://archive.is/ppV86) This doesn't seem like a policy claim; rather, Murphy was using common language to express the fact-claim that members of the natural category of adult human males, are not, in fact, members of the natural category of adult human females.
 
-Certainly, 82% is not 100%! (But 82% is evidence for my claim that a _substantial majority_ of trans women under modern conditions in Western countries are essentially guys like me.) Certainly, you could argue that Reddit has a sampling bias such that poll results and karma scores from /r/MtF fail to match the distribution of opinion among real-world MtFs. But if you don't take the gender-identity story as a _axiom_ and [_actually look_](https://www.lesswrong.com/posts/SA79JMXKWke32A3hG/original-seeing) at the _details_ of what people say and do, these kinds of observations are _not hard to find_. You could [fill an entire subreddit with them](https://archive.is/ezENv) (and then move it to [independent](https://ovarit.com/o/ItsAFetish/) [platforms](https://saidit.net/s/itsafetish/) when the original gets [banned for "promoting hate"](https://www.reddit.com/r/itsafetish/)).
+If the extension of common words like 'woman' and 'man' is an issue of epistemic importance that rationalists should care about, then presumably so was Twitter's anti-misgendering policy—and if it _isn't_ (because you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning) then I wasn't sure what's _left_ of the "Human's Guide to Words" sequence if the [37-part grand moral](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) needed to be retracted.
 
-Reddit isn't "scientific" enough for you? Fine. The scientific literature says the same thing. [Blanchard 1985](/papers/blanchard-typology_of_mtf_transsexualism.pdf): 73% of non-exclusively-androphilic transsexuals acknowledged some history of erotic cross-dressing. (Unfortunately, a lot of the classic studies specifically asked about cross-_dressing_, but the underlying desire isn't about clothes.) [Lawrence 2005](/papers/lawrence-sexuality_before_and_after_mtf_srs.pdf): of trans women who had female partners before sexual reassignment surgery, 90% reported a history of autogynephilic arousal. [Smith _et al._ 2005](/papers/smith_et_al-transsexual_subtypes_clinical_and_theoretical_significance.pdf): 64% of non-homosexual MtFs (excluding the "missing" and "N/A" responses) reported arousal while cross-dressing during adolescence. (A lot of the classic literature says "non-homosexual", which is with respect to natal sex; the idea is that self-identified bisexuals are still in the late-onset taxon.) [Nuttbrock _et al._ 2011](/papers/nuttbrock_et_al-a_further_assessment.pdf): lifetime prevalence of transvestic fetishism among non-homosexual MtFs was 69%. (For a more detailed literature review, see [Kay Brown's blog](https://sillyolme.wordpress.com/faq-on-the-science/) or the first two chapters of [Anne Lawrence's _Men Trapped in Men's Bodies: Narratives of Autogynephilic Transsexualism_](https://surveyanon.files.wordpress.com/2017/07/men-trapped-in-mens-bodies_book.pdf).)
+I think I _am_ standing in defense of truth if have an _argument_ for _why_ my preferred word usage does a better job at "carving reality at the joints", and the one bringing my usage explicitly into question doesn't have such an argument. As such, I didn't see the _practical_ difference between "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning", and "I can define a word any way I want." About which, again, a previous Eliezer Yudkowsky had written:
 
-Peer-reviewed scientific papers aren't enough for you? (They could be cherry-picked; there are lots of scientific journals, and no doubt a lot of bad science slips through the cracks of the review process.) Want something more indicative of a consensus among practitioners? Fine. The [_Diagnostic and Statistical Manual of Mental Disorders, Fifth Edition_](https://en.wikipedia.org/wiki/DSM-5) (the definitive taxonomic handbook of the American Psychiatric Association) [says the same thing](https://sillyolme.wordpress.com/2021/02/06/american-psychiatric-association-supports-the-two-type-transsexual-taxonomy/) in [its section on gender dysphoria](/papers/DSM-V-gender_dysphoria_section.pdf) ([ICD-10-CM codes](https://en.wikipedia.org/wiki/ICD-10-CM) F64.1 and F64.2):
+> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
+>
+> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+>
+> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+>
+> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
+>
+> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
+>
+> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+>
+> ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
+>
+> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
+>
+> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
+>
+> ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
 
-> In both adolescent and adult natal males, there are two broad trajectories for development of gender dysphoria: early onset and late onset. _Early-onset gender dysphoria_ starts in childhood and continues into adolescence and adulthood; or, there is an intermittent period in which the gender dysphoria desists and these individuals self-identify as gay or homosexual, followed by recurrence of gender dysphoria. _Late-onset gender dysphoria_ occurs around puberty or much later in life. Some of these individuals report having had a desire to be of the other gender in childhood that was not expressed verbally to others. Others do not recall any signs of childhood gender dysphoria. For adolescent males with late-onset gender dysphoria, parents often report surprise because they did not see signs of gender dysphoria in childhood. Adolescent and adult natal males with early-onset gender dysphoria are almost always sexually attracted to men (androphilic). Adolescents and adults with late-onset gender dysphoria **frequently engage in transvestic behavior with sexual excitement.**
+One could argue that this is unfairly interpreting Yudkowsky's Tweets as having a broader scope than was intended—that Yudkowsky _only_ meant to slap down the specific false claim that using "he" for someone with a Y chromosome is "lying", without intending any broader implications about trans issues or the philosophy of language. It wouldn't be realistic or fair to expect every public figure to host a truly exhaustive debate on all related issues every time a fallacy they encounter in the wild annoys them enough for them to Tweet about that specific fallacy.
 
-(Bolding mine.)
+However, I don't think this "narrow" reading is the most natural one. Yudkowsky had previously written of what he called [the fourth virtue of evenness](http://yudkowsky.net/rational/virtues/): "If you are selective about which arguments you inspect for flaws, or how hard you inspect for flaws, then every flaw you learn how to detect makes you that much stupider." He had likewise written [of reversed stupidity](https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence) (bolding mine):
 
-Or consider Anne Vitale's ["The Gender Variant Phenomenon—A Developmental Review"](http://www.avitale.com/developmentalreview.htm), which makes the _same_ observations as Blanchard-and-friends and arrives at essentially the _same_ two-type taxonomy of MtF, but dressed up in socially-desirable language—
+> **To argue against an idea honestly, you should argue against the best arguments of the strongest advocates**. Arguing against weaker advocates proves _nothing_, because even the strongest idea will attract weak advocates.
 
-> As sexual maturity advances, Group Three, cloistered gender dysphoric boys, often combine excessive masturbation (one individual reported masturbating up to 5 and even 6 times a day) with an increase in secret cross-dressing activity to release anxiety.
+Relatedly, Scott Alexander had written about how ["weak men are superweapons"](https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/): speakers often selectively draw attention to the worst arguments in favor of a position, in an attempt to socially discredit people who have better arguments for the position (which the speaker ignores). In the same way, by _just_ slapping down a weak man from the "anti-trans" political coalition without saying anything else in a similarly prominent location, Yudkowsky was liable to mislead his readers (who trusted him to argue against ideas honestly) into thinking that there were no better arguments from the "anti-trans" side.
 
-Got that? They _often combine excessive masturbation_ with an _increase in secret cross-dressing activity_ to _release anxiety_—their terrible, terrible _gender expression deprivation anxiety!_
+To be sure, it imposes a cost on speakers to not be able to Tweet about one specific annoying fallacy and then move on with their lives without the need for [endless disclaimers](http://www.overcomingbias.com/2008/06/against-disclai.html) about related but stronger arguments that they're _not_ addressing. But the fact that [Yudkowsky disclaimed that](https://twitter.com/ESYudkowsky/status/1067185907843756032) he wasn't taking a stand for or against Twitter's anti-misgendering policy demonstrates that he _didn't_ have an aversion to spending a few extra words to prevent the most common misunderstandings.
 
-Don't trust scientists or clinicians? Me neither! (Especially [not clinicians](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/).) Want first-person accounts from trans women themselves? Me too! And there's lots!
+Given that, it's hard to read the Tweets Yudkowsky published as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity. [For example](https://twitter.com/ESYudkowsky/status/1067490362225156096), deeper in the thread, Yudkowsky wrote:
 
-Consider this passage from Dierdre McCloskey's memoir _Crossing_, writing in the third person about her decades identifying as a heterosexual crossdresser before transitioning at age 53 (bolding mine):
+> The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
 
-> He had been doing it ten times a month through four decades, whenever possible, though in the closet. The quantifying economist made the calculation: _About five thousand episodes_. [...] At fifty-two Donald accepted crossdressing as part of who he was. True, if before the realization that he could cross all the way someone had offered a pill to stop the occasional cross-dressing, he would have accepted, since it was mildly distracting—though hardly time consuming. **Until the spring of 1995 each of the five thousand episodes was associated with quick, male sex.**
+Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not itself take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
 
-Or consider this passage from Julia Serano's _Whipping Girl_ (I know I [keep](/2017/Dec/lesser-known-demand-curves/) [referencing](/2020/Dec/crossing-the-line/) [this](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#whipping-girl) book, but it's _so representative_ of the dominant strain of trans activism, and I'm never going to get over the [Fridge Logic](https://tvtropes.org/pmwiki/pmwiki.php/Main/FridgeLogic) of the all [the blatant clues that I somehow missed in 2007](/2016/Sep/apophenia/))—
+The _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different: men are taller, and stronger, and faster, and have bigger lungs. If you just had one integrated league, females wouldn't be competitive (in the vast majority of sports, with a few exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/) that happen to sample an unusually female-favorable corner of sportspace).
 
-> There was also a period of time when I embraced the word "pervert" and viewed my desire to be female as some sort of sexual kink. But after exploring that path, it became obvious that explanation could not account for the vast majority of instances when I thought about being female in a nonsexual context.
+Given the empirical reality of the different trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine. Including male people in female sports leagues undermines the point of having a separate female league, and [_empirically_, hormone replacement therapy after puberty](https://link.springer.com/article/10.1007/s40279-020-01389-3) [doesn't substantially change the picture here](https://bjsm.bmj.com/content/55/15/865).
 
-"It became obvious that explanation could not account." I don't doubt Serano's reporting of her own phenomenal experiences, but "that explanation could not account" is _not an experience_; it's a _hypothesis_ about psychology, about the _causes_ of the experience.
+(Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
 
-I could go on ... but do I need to? After having seen enough of these _laughable_ denials of autogynephilia, the main question in my mind has become not, _Is the two-type androphilic/autogynephilic taxonomy of MtF transsexualism approximately true?_ (answer: yes, obviously) and more, _How dumb do you (proponents of gender-identity theories) think we (the general public) are?_ (answer: very, but this assessment is accurate).
+In light of these empirical observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions."
 
-An important caveat must be made: [different causal/etiological stories could be compatible with the same _descriptive_ taxonomy.](/2021/Feb/you-are-right-and-i-was-wrong-reply-to-tailcalled-on-causality/) You shouldn't confuse my mere ridicule with a serious and rigorous critique of the strongest possible case for "gender expression deprivation anxiety" as a theoretical entity, which would be more work. But hopefully I've shown _enough_ work here, that the reader can perhaps empathize with the temptation to resort to ridicule?
+I'm picking on the "sports segregated around an Aristotelian binary" remark because sports is a case where the relevant effect sizes are _so_ large as to make the point [hard for all but the most ardent gender-identity partisans to deny](/2017/Jun/questions-such-as-wtf-is-wrong-with-you-people/), but the point is very general: biological sex actually exists and is sometimes decision-relevant. People who want to be able to talk about sex and make policy decisions on the basis of sex are not making an ontology error, because the ontology in which sex "actually" "exists" continues to make very good predictions in our current tech regime.
 
-Everyone's experience is different, but the human mind still has a _design_. If I hurt my ankle while running and I (knowing nothing of physiology or sports medicine) think it might be a stress fracture, a competent doctor (who's studied the literature and seen many more cases) is going to ask followup questions about my experiences to pin down whether it's stress fracture or a sprain. I can't be wrong about the fact _that_ my ankle hurts (that's a privileged first-person experience), but I can easily be wrong about my _theory about_ why my ankle hurts.
+Yudkowsky's claim to merely have been standing up for the distinction between facts and policy questions doesn't seem credible. It is, of course, true that pronoun and bathroom conventions are policy decisions rather than a matter of fact, but it's _bizarre_ to condescendingly point this out _as if it were the crux of contemporary trans-rights debates_. Conservatives and gender-critical feminists _know_ that trans-rights advocates aren't falsely claiming that trans women have XX chromosomes. If you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
 
-Even if human brains vary more than human ankles, the basic epistemological principle applies to a mysterious desire to be female. The question is, do the trans women whose reports I'm considering have a relevantly _different_ psychological condition than me, or do we have "the same" condition, and (at least) one of us is misdiagnosing it?
+If any concrete negative consequence of gender self-identity categories is going to be waved away with, "Oh, but that's a mere _policy_ decision that can be dealt with on some basis other than gender, and therefore doesn't count as an objection to the new definition of gender words", then it's not clear what the new definition is _for_.
 
-The _safe_ answer—the answer that preserves everyone's current stories about themselves without any need for modification—is "different." That's what I thought before 2016. I think a lot of trans activists would say "the same". And on _that_ much, we can agree.
+An illustration: like many gender-dysphoric males, I [cosplay](/2016/Dec/joined/) [female](/2017/Oct/a-leaf-in-the-crosswind/) [characters](/2019/Aug/a-love-that-is-out-of-anyones-control/) at fandom conventions sometimes. And, unfortunately, like many gender-dysphoric males, I'm _not very good at it_. I think someone looking at some of my cosplay photos and trying to describe their content in clear language—not trying to be nice to anyone or make a point, but just trying to use language as a map that reflects the territory—would say something like, "This is a photo of a man and he's wearing a dress." The word _man_ in that sentence is expressing _cognitive work_: it's a summary of the [lawful cause-and-effect evidential entanglement](https://www.lesswrong.com/posts/6s3xABaXKPdFwA3FS/what-is-evidence) whereby the photons reflecting off the photograph are correlated with photons reflecting off my body at the time the photo was taken, which are correlated with my externally-observable secondary sex characteristics (facial structure, beard shadow, _&c._), from which evidence an agent using an [efficient naïve-Bayes-like model](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes) can assign me to its "man" category and thereby make probabilistic predictions about some of my traits that aren't directly observable from the photo, and achieve a better [score on those predictions](http://yudkowsky.net/rational/technical/) than if the agent had assigned me to its "adult human female" category, where by "traits" I mean not (just) particularly sex chromosomes ([as Yudkowsky suggested on Twitter](https://twitter.com/ESYudkowsky/status/1067291243728650243)), but the _conjunction_ of dozens or hundreds of measurements that are [_causally downstream_ of sex chromosomes](/2021/Sep/link-blood-is-thicker-than-water/): reproductive organs _and_ muscle mass (sex difference effect size of [Cohen's _d_](https://en.wikipedia.org/wiki/Effect_size#Cohen's_d) ≈ 2.6) _and_ Big Five Agreeableness (_d_ ≈ 0.5) _and_ Big Five Neuroticism (_d_ ≈ 0.4) _and_ short-term memory (_d_ ≈ 0.2, favoring women) _and_ white-to-gray-matter ratios in the brain _and_ probable socialization history _and_ [any number of other things](https://en.wikipedia.org/wiki/Sex_differences_in_human_physiology)—including differences we might not necessarily currently know about, but have prior reasons to suspect exist: no one _knew_ about sex chromosomes before 1905, but given all the other systematic differences between women and men, it would have been a reasonable guess (that turned out to be correct!) to suspect the existence of some sort of molecular mechanism of sex determination.
 
-How weasely am I being with these "approximately true" and "as a first approximation" qualifiers and hedges? I claim: not _more_ weasely than anyone who tries to reason about psychology given the knowledge and methodology our civilization has managed to accumulate.
+Forcing a speaker to say "trans woman" instead of "man" in that sentence depending on my verbally self-reported self-identity may not be forcing them to _lie_, exactly. (Because it's understood, "openly and explicitly and with public focus on the language and its meaning", what _trans women_ are; no one is making a false-to-fact claim about them having ovaries, for example.) But it _is_ forcing the speaker to obfuscate the probabilistic inference they were trying to communicate with the original sentence (about modeling the person in the photograph as being sampled from the "man" [cluster in configuration space](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace)), and instead use language that suggests a different cluster-structure ("trans women", two words, are presumably a subcluster within the "women" cluster). Crowing in the public square about how people who object to being forced to "lie" must be ontologically confused is _ignoring the interesting part of the problem_. Gender identity's [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) mostly functions as a way to [avoid the belief's real weak points](https://www.lesswrong.com/posts/dHQkDNMhj692ayx78/avoiding-your-belief-s-real-weak-points).
 
-Reality has a single level (physics), but [our models of reality have multiple levels](https://www.lesswrong.com/posts/gRa5cWWBsZqdFvmqu/reductive-reference). To get maximally precise predictions about everything, you would have to model the underlying quarks, _&c._, which is impossible. (As [it is](https://www.lesswrong.com/posts/tPqQdLCuxanjhoaNs/reductionism) [written](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression): the map is not the territory, but you can't roll up the territory and put in your glove compartment.)
+To this one might reply that I'm giving too much credit to the "anti-trans" faction for how stupid they're not being: that _my_ careful dissection of the hidden probabilistic inferences implied by words (including pronoun choices) is all well and good, but that calling pronouns "lies" is not something you do when you know how to use words.
 
-Psychology is very complicated; every human is their own unique snowflake, but it would be impossible to navigate the world using the "every human is their own unique _maximum-entropy_ snowflake; you can't make _any_ probabilistic inferences about someone's mind based on your experiences with other humans" theory. Even if someone were to _verbally endorse_ something like that—and at age sixteen, I might have—their brain is still going to go on to make predictions inferences about people's minds using _some_ algorithm whose details aren't available to introspection. Much of this predictive machinery is going to be instinct bequeathed by natural selection (because predicting the behavior of conspecifics was very useful in the environment of evolutionary adaptedness), but some of it is the cultural accumulation of people's attempts to organize their experience into categories, clusters, diagnoses, taxons. (The cluster-learning capability is _also_ bequeathed by natural selection, of course, but it's worth distinguishing more "learned" from more "innate" content.)
+But I'm _not_ giving them credit for _for understanding the lessons of "A Human's Guide to Words"_; I just think there's a useful sense of "know how to use words" that embodies a lower standard of philosophical rigor. If a person-in-the-street says of my cosplay photos, "That's a man! I _have eyes_ and I can _see_ that that's a man! Men aren't women!"—well, I _probably_ wouldn't want to invite such a person-in-the-street to a _Less Wrong_ meetup. But I do think the person-in-the-street is _performing useful cognitive work_. Because _I_ have the hidden-Bayesian-structure-of-language-and-cognition-sight (thanks to Yudkowsky's writings back in the 'aughts), _I_ know how to sketch out the reduction of "Men aren't women" to something more like "This [cognitive algorithm](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms) detects secondary sex characteristics and uses it as a classifier for a binary female/male 'sex' category, which it uses to make predictions about not-yet-observed features ..."
 
-There could be situations in psychology where a good theory (not a perfect theory, but a good theory to the precision that our theories about engineering bridges are good) would be described by (say) a 70-node [causal graph](https://www.lesswrong.com/posts/hzuSDMx7pd2uxFc5w/causal-diagrams-and-causal-models), but it turns out that some of [the more "important" variables in the graph happen to anti-correlate with each other](https://surveyanon.wordpress.com/2019/10/27/the-mathematical-consequences-of-a-toy-model-of-gender-transition/), such that stupid humans who don't know how to discover the correct 70-node graph, do manage to pattern-match their way to a two-type typology that actually is better, as a first approximation, than pretending not to have a theory. No one matches any particular clinical-profile stereotype _exactly_, but [the world makes more sense when you have language for theoretical abstractions](https://astralcodexten.substack.com/p/ontology-of-psychiatric-conditions) like ["comas"](https://slatestarcodex.com/2014/08/11/does-the-glasgow-coma-scale-exist-do-comas/) or "depression" or "bipolar disorder"—or "autogynephilia".
+But having _done_ the reduction-to-cognitive-algorithms, it still looks like the person-in-the-street _has a point_ that I shouldn't be allowed to ignore just because I have 30 more IQ points and better philosophy-of-language skills? As Yudkowsky had once written of [the fourth virtue of evenness](https://www.yudkowsky.net/rational/virtues): "Intelligence, to be useful, must be used for something other than defeating itself."
 
-(In some sense it's a matter of "luck" when the relevant structure in the world happens to simplify so much; [friend of the blog](/tag/tailcalled/) Tailcalled argues that [there's no discrete typology for FtM](https://www.reddit.com/r/Blanchardianism/comments/jp9rmn/there_is_probably_no_ftm_typology/) as there is for the two types of MtF, because the various causes of gender problems in females vary more independently and aren't as stratified by age.)
+I bring up my bad cosplay photos as an edge case that helps illustrate the problem I'm trying to point out, much like how people love to bring up [complete androgen insensitivity syndrome](https://en.wikipedia.org/wiki/Complete_androgen_insensitivity_syndrome) to illustrate why "But chromosomes!" isn't the correct reduction of sex classification. But to differentiate what I'm saying from mere blind transphobia, let me note that I predict that most people-in-the-street would be comfortable using feminine pronouns for someone like [Blaire White](http://msblairewhite.com/) (an androphilic transsexual who passes very well). That's evidence about the kind of cognitive work people's brains are doing when they use English language singular third-person pronouns! Certainly, English is not the only language; ours is not the only culture; maybe there is a way to do gender categories that would be more accurate and better for everyone! But to _find_ what that better way is, I think we need to be able to _talk_ about these kinds of details in public. And _in practice_, the attitude evinced in Yudkowsky's Tweets seemed to function as a [semantic stopsign](https://www.lesswrong.com/posts/FWMfQKG3RpZx6irjm/semantic-stopsigns) to get people to stop talking about the details.
 
-So, if some particular individual trans woman writes down her life story, and swears up and down that she doesn't match the feminine/early-onset type, but _also_ doesn't empathize at all with the experiences I've grouped under the concept of "autogynephilia", I don't have any definitive knockdown proof with which to accuse her of lying, because I don't _know_ her, and the true diversity of human psychology is no doubt richer and stranger than my fuzzy low-resolution model of it.
+If you were actually interested in having a real discussion (instead of a fake discussion that makes you look good to progressives), why would you slap down the "But, but, chromosomes" fallacy and then not engage with the _drop-dead obvious_ "But, but, clusters in [high-dimensional](https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy-1) [configuration space](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) that [aren't actually changeable with contemporary technology](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions)" steelman, [which was, in fact, brought up in the replies](https://twitter.com/EnyeWord/status/1068983389716385792)?
 
-But [the fuzzy low-resolution model is _way too good_](https://surveyanon.wordpress.com/2019/04/27/predictions-made-by-blanchards-typology/) not to be pointing to _some_ regularity in the real world, and I expect honest people who are exceptions that aren't well-predicted by the model, to at least notice how well it performs on all the _non_-exceptions. If you're a magical third type of trans woman (where, again, _magical_ is a term of art indicating phenomena not understood) who isn't super-feminine but whose identity definitely isn't ultimately rooted in a fetish, [you should be _confused_](https://www.lesswrong.com/posts/5JDkW4MYXit2CquLs/your-strength-as-a-rationalist) by the 230 upvotes on that /r/MtF comment about the "it's probably just a fetish" camp—if the person who wrote that comment has experiences like yours, why did they ever single out "it's probably just a fetish" [as a hypothesis to pay attention to in the first place](https://www.lesswrong.com/posts/X2AD2LgtKgkRNPj2a/privileging-the-hypothesis)? And there's allegedly a whole "camp" of these people? What could _that_ possibly be about?!
+Satire is a very weak form of argument: the one who wishes to doubt will always be able to find some aspect in which the obviously-absurd satirical situation differs from the real-world situation being satirized, and claim that that difference destroys the relevence of the joke. But on the off-chance that it might help _illustrate_ my objection, imagine you lived in a so-called "rationalist" subculture where conversations like this happened—
 
-I _do_ have a _lot_ of uncertainty about what the True Causal Graph looks like, even if it seems obvious that the two-type taxonomy coarsely approximates it. Gay femininity and autogynephilia are obviously very important nodes in the True Graph, but there's going to be more detail to the whole story: what _other_ factors influence people's decision to transition, including [incentives](/2017/Dec/lesser-known-demand-curves/) and cultural factors specific to a given place and time?
+<div class="dialogue">
+<p><span class="dialogue-character-label">Bob</span>: Look at this <a href="https://twitter.com/mydogiscutest/status/1079125652282822656">adorable cat picture</a>!</p>
+<p><span class="dialogue-character-label">Alice</span>: Um, that looks like a dog to me, actually.</p>
+<p><span class="dialogue-character-label">Bob</span>: <a href="https://twitter.com/ESYudkowsky/status/1067198993485058048">You're not standing</a> in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning. <a href="https://twitter.com/ESYudkowsky/status/1067294823000887297">Now, maybe as a matter of policy</a>, you want to make a case for language being used a certain way. Well, that's a separate debate then.</p>
+</div>
 
-Cultural attitudes towards men and maleness have shifted markedly in our feminist era. It feels gauche to say so, but ... as a result, conscientious boys taught to disdain the crimes of men may pick up an internalized misandry? I remember one night at the Univerity in Santa Cruz when I had the insight that it was possible to make generalizations about groups of people while allowing for exceptions (in contrast to my previous stance that generalizations about people were _always morally wrong_)—and immediately, eagerly proclaimed that _men are terrible_.
+If you were Alice, and a _solid supermajority_ of your incredibly smart, incredibly philosophically sophisticated friend group _including Eliezer Yudkowsky_ (!!!) seemed to behave like Bob (and reaped microhedonic social rewards for it in the form of, _e.g._, hundreds of Twitter likes), that would be a _pretty worrying_ sign about your friends' ability to accomplish intellectually hard things (_e.g._, AI alignment), right? Even if there isn't any pressing practical need to discriminate between dogs and cats, the _problem_ is that Bob is [_selectively_](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) using his sophisticated philosophy-of-language insight to try to _undermine Alice's ability to use language to make sense of the world_, even though Bob _obviously knows goddamned well what Alice was trying to say_; it's _incredibly_ obfuscatory in a way that people would not tolerate in almost _any_ other context.
 
-Or consider computer scientist Scott Aaronson's account (in his infamous [Comment 171](https://www.scottaaronson.com/blog/?p=2091#comment-326664)) that his "recurring fantasy, through this period, was to have been born a woman, or a gay man [...] [a]nything, really, other than the curse of having been born a heterosexual male, which [...] meant being consumed by desires that one couldn't act on or even admit without running the risk of becoming an objectifier or a stalker or a harasser or some other creature of the darkness."
+Imagine an Islamic theocracy in which one Meghan Murphee had recently gotten kicked off the dominant microblogging platform for speaking disrespectfully about the prophet Muhammad. Suppose that [Yudkowsky's analogue in that world](/2020/Aug/yarvin-on-less-wrong/) then posted that Murphee's supporters were ontologically confused to object on free inquiry grounds: saying "peace be unto him" after the name of the prophet Muhammad is a _speech act_, not a statement of fact: Murphee wasn't being forced to lie.
 
-Or there's a piece that makes the rounds on social media occasionally: ["I Am A Transwoman. I Am In The Closet. I Am Not Coming Out"](https://medium.com/@jencoates/i-am-a-transwoman-i-am-in-the-closet-i-am-not-coming-out-4c2dd1907e42), which (in part) discusses the author's frustration at having one's feelings and observations being dismissed on account of being perceived as a cis male. "I hate that the only effective response I can give to 'boys are shit' is 'well I'm not a boy,'" the author laments. And: "Do I even _want_ to convince someone who will only listen to me when they're told by the rules that they have to see me as a girl?"
+I think the atheists of our world, including Yudkowsky, would not have any trouble seeing the problem with this scenario, nor hesitate to agree that it _is_ a problem for that Society's rationality. It is, of course, true as an isolated linguistics fact that saying "peace be unto him" is a speech act rather than a statement of fact, but it's _bizarre_ to condescendingly point this out _as if it were the crux of debates about religious speech codes_. The _function_ of the speech act is to signal the speaker's affirmation of Muhammad's divinity. That's _why_ the Islamic theocrats want to mandate that everyone says it: it's a lot harder for atheism to get any traction if no one is allowed to _talk_ like an atheist.
 
-(The "told by the rules that they have to see me" (!) phrasing in the current revision is _very_ telling; [the originally published version](https://archive.is/trslp) said "when they find out I'm a girl".)
+And that's exactly why trans advocates want to mandate against misgendering people on social media: it's harder for trans-exclusionary ideologies to get any traction if no one is allowed to _talk_ like someone who believes that sex (sometimes) matters and gender identity does not.
 
-If boys are shit, and the rules say that you have to see someone as a girl if they _say_ they're a girl, that provides an incentive [on the margin](https://www.econlib.org/library/Enc/Marginalism.html) to disidentify with maleness. Like in another one of my teenage song-fragments—
+Of course, such speech restrictions aren't necessarily "irrational", depending on your goals! If you just don't think "free speech" should go that far—if you _want_ to suppress atheism or gender-critical feminism—speech codes are a perfectly fine way to do it! And _to their credit_, I think most theocrats and trans advocates are intellectually honest about the fact that this is what they're doing: atheists or transphobes are _bad people_, and we want to make it harder for them to spread their lies or their hate.
 
-> _Look in the mirror  
-> What's a_ white guy _doing there?  
-> I'm just a spirit  
-> I'm just a spirit  
-> Floating in air, floating in air, floating in air!_
+In contrast, by claiming to be "not taking a stand for or against any Twitter policies" while insinuating that people who oppose the policy are ontologically confused, Yudkowsky was being either (somewhat implausibly) stupid or (more plausibly) intellectually dishonest: of _course_ the point of speech codes is suppress ideas! Given that the distinction between facts and policies is so obviously _not anyone's crux_—the smarter people in the "anti-trans" faction already know that, and the dumber people in the faction wouldn't change their alignment if they were taught—it's hard to see what the _point_ of harping on the fact/policy distiction would be, _except_ to be seen as implicitly taking a stand for the "pro-trans" faction, while [putting on a show of being politically "neutral."](https://www.lesswrong.com/posts/jeyvzALDbjdjjv5RW/pretending-to-be-wise)
 
-This culturally-transmitted attitude could intensify the interpretation of autogynephilic attraction as a [ego-syntonic](https://en.wikipedia.org/wiki/Egosyntonic_and_egodystonic) beautiful pure sacred self-identity thing (rather than an ego-dystonic sex thing to be ashamed of), or be a source of gender dysphoria in males who aren't autogynephilic at all.
+It makes sense that Yudkowsky might perceive political constraints on what he might want to say in public—especially when you look at [what happened to the _other_ Harry Potter author](https://en.wikipedia.org/wiki/Politics_of_J._K._Rowling#Transgender_people). (Despite my misgivings—and the fact that at this point it's more of a genre convention or a running joke, rather than any attempt at all to conceal my identity—this blog _is_ still published under a pseudonym; it would be hypocritical of me to accuse someone of cowardice about what they're willing to attach their real name to.)
 
-To the extent that "cognitive" things like internalized misandry manifesting as cross-gender identification is common (or has recently _become_ more common in the cultural environment of the current year), then maybe the two-type taxonomy isn't androphilic/autogynephilic so much as it is androphilic/"not-otherwise-specified": the early-onset type is very behaviorally distinct and has a very straightforward motive to transition (in some ways, it would be _less_ weird not to); in contrast, it might not be as easy to distinguish autogynephilia from _other_ sources of gender problems in the grab-bag of all males showing up to the gender clinic for any other reason.
+But if Yudkowsky didn't want to get into a distracting political fight about a topic, then maybe the responsible thing to do would have been to just not say anything about the topic, rather than engaging with the _stupid_ version of the opposition and stonewalling with "That's a policy question" when people tried to point out the problem?!
 
-Whatever the True Causal Graph looks like—however my remaining uncertainty turns out to resolve in the limit of sufficiently advanced psychological science, I think I _obviously_ have more than enough evidence to reject the mainstream ["inner sense of gender"](https://www.drmaciver.com/2019/05/the-inner-sense-of-gender/) story as _not adding up_.
+------
 
-Okay, so the public narrative about transness is obviously, _obviously_ false. That's a problem, because almost no matter what you want, true beliefs are more useful than false beliefs for making decisions that get you what you want.
+... I didn't have all of that criticism collected and carefully written up on 28 November 2018. But that, basically, is why I _flipped the fuck out_ when I saw that Twitter thread. If the "rationalists" didn't [click](https://www.lesswrong.com/posts/R3ATEWWmBhMhbY2AL/that-magical-click) on the autogynephilia thing, that was disappointing, but forgivable. If the "rationalists", on Scott Alexander's authority, were furthermore going to get our own philosophy of language wrong over this, that was—I don't want to say _forgivable_ exactly, but it was—tolerable. I had learned from my misadventures the previous year that I had been wrong to trust "the community" as a reified collective and put it on a pedastal—that had never been a reasonable mental stance in the first place.
 
-Fortunately, Yudkowsky's writing had brought together a whole community of brilliant people dedicated to refining the art of human rationality—the methods of acquiring true beliefs and using them to make decisions that get you what you want. So now that I _know_ the public narrative is obviously false, and that I have the outlines of a better theory (even though I could use a lot of help pinning down the details, and [I don't know what the social policy implications are, because the optimal policy computation is a complicated value trade-off](/2021/Sep/i-dont-do-policy/)), all I _should_ have to do is carefully explain why the public narrative is delusional, and then because my arguments are so much better, all the intellectually serious people will either agree with me (in public), or at least be eager to _clarify_ (in public) exactly where they disagree and what their alternative theory is, so that we can move the state of humanity's knowledge forward together, in order to help the great common task of optimizing the universe in accordance with humane values.
+But trusting Eliezer Yudkowsky—whose writings, more than any other single influence, had made me who I am—_did_ seem reasonable. If I put him on a pedastal, it was because he had earned the pedastal, for supplying me with my criteria for how to think—including, as a trivial special case, how to think about what things to put on pedastals.
 
-Of course, this is kind of a niche topic—if you're not a male with this psychological condition, or a woman who doesn't want to share all female-only spaces with them, you probably have no reason to care—but there are a _lot_ of males with this psychological condition around here! If this whole "rationality" subculture isn't completely fake, then we should be interested in getting the correct answers in public _for ourselves_.
+So if the rationalists were going to get our own philosophy of language wrong over this _and Eliezer Yudkowsky was in on it_ (!!!), that was intolerable, inexplicable, incomprehensible—like there _wasn't a real world anymore_.
 
-(It later turned out that this whole "rationality" subculture is completely fake, but I didn't realize this at the time.)
+But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help. (And I hadn't intended to talk about gender on that account yet, although that seemed unimportant in light of the present cause for flipping out.)
 
-Straight men who fantasize about being women do not particularly resemble actual women! We just—don't? This seems kind of obvious, really? _Telling the difference between fantasy and reality_ is kind of an important life skill?! Notwithstanding that some males might want to make use of medical interventions like surgery and hormone replacement therapy to become facsimiles of women as far as our existing technology can manage, and that a free and enlightened transhumanist Society should support that as an option—and notwithstanding that _she_ is obviously the correct pronoun for people who _look_ like women—it's probably going to be harder for people to figure out what the optimal decisions are if no one is ever allowed to use language like "actual women" that clearly distinguishes the original thing from imperfect facsimiles?!
+It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232)—and that, because I cared very much about correcting what I claimed were confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time—and that, if he liked the post, he might consider Tweeting a link—and that I was cc'ing my friends Anna Salamon and Michael Vassar as a character reference (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)"). Then I texted Anna and Michael begging them to chime in and vouch for my credibility.
 
-I think most people in roughly my situation (of haboring these gender-feelings for many years, but thinking that it's obviously not the same thing as being "actually trans", only to later discover that it's _not_ obviously not the same thing) tend to conclude that they were "actually trans" all along, and sometimes express intense bitterness at Ray Blanchard and all the other cultural forces that let them ever doubt.
+The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
 
-I ... [went the other direction](https://www.gwern.net/Modus). In slogan form: "Holy shit, _almost no one_ is actually trans!"
+Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ one of your posts? What? Why? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that, along with tagging in Anna and Michael, who I thought Yudkowsky respected, it was a way to signal that I _really really really didn't want to be ignored_, which I assumed was the default outcome. Surely a simple person such as me was as a mere _worm_ in the presence of the great Eliezer Yudkowsky. I wouldn't have had the audacity to contact him at _all_, about _anything_, if I didn't have Something to Protect.
 
-Okay, that slogan isn't right. Again, I'm a transhumanist. I believe in morphological freedom! If someone wants to change sex, that's a totally valid desire that Society should try to accomodate as much as feasible given currently-existing technology! In that sense, anyone can [_choose_ to](https://thingofthings.wordpress.com/2016/04/11/1327/) become trans.
+Anna didn't reply, but I apparently did interest Michael, who chimed in on the email thread to Yudkowsky. We had a long phone conversation the next day lamenting how the "rationalists" were dead as an intellectual community.
 
-The _problem_ is that the public narrative of trans rights doesn't seem to be _about_ making a principled case for morphological freedom, or engaging with the complicated policy question of what accomodations are feasible given the imperfections of currently-existing technology. Instead, we're told that everyone has an internal sense of their own gender, which for some people (who "are trans") does not match their assigned sex at birth.
+[TODO: section about the policy I'm following here respecting Yudkowsky's privacy]
 
-Okay, but what does that _mean_? Are the things about me that I've been attributing to autogynephilia actually an internal gender identity, or did I [get it right the first time](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)? How could I tell? No one seems interested in clarifying!
+As for the attempt to intervene on Yudkowsky—well, [again](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-privacy-constraint), I don't think I should say whether he replied to Michael's and my emails, or whether he accepted the money, because any conversation that may or may not have occured would have been private. But what I _can_ say, because it was public, is we saw [this addition to the Twitter thread](https://twitter.com/ESYudkowsky/status/1068071036732694529):
 
-My shift in belief, from thinking the narrative is true about other people but not me, to thinking that the narrative is just a lie, happened gradually over the course of 2016 as the evidence kept piling up, partially from my reading, but also as I kept initiating conversations with local trans women to try to figure out what was going on.
+> I was sent this (by a third party) as a possible example of the sort of argument I was looking to read: [http://unremediatedgender.space/2018/Feb/the-categories-were-made-for-man-to-make-predictions/](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/). Without yet judging its empirical content, I agree that it is not ontologically confused. It's not going "But this is a MAN so using 'she' is LYING."
 
-[Someone I talked to](https://sinceriously.fyi/intersex-brains-and-conceptual-warfare/) denied experiencing autogynephilia at all, and I believe her. (This person was unusual along a lot of other dimensions, and again, I don't think a psychological theory needs to predict _every_ case in order to be broadly useful for understanding the world.)
+Look at that! The great Eliezer Yudkowsky said that my position is not ontologically confused. That's _probably_ high praise coming from him! You might think that should have been the end of the matter. Yudkowsky denounced a particular philosophical confusion, I already had a related objection written up, and he acknowledged my objection as not being the confusion he was trying to police. I _should_ be satisfied, right?
 
-But many of the people I talked to seemed to report similar experiences to me—at least, to the low resolution of the conversation; talking about this stuff _at all_ was hard enough, that I wasn't going to press people for the specific details of their sexual fantasies—but seemed to me to be either pretty delusional, or privately pretty sane but (from my view) oddly indifferent to the state of public knowledge.
+I wasn't, in fact, satisfied. This little "not ontologically confused" clarification buried in the replies was _much less visible_ than the bombastic, arrogant top level pronouncement insinuating that resistance to gender-identity claims _was_ confused. (1 Like on this reply, _vs._ 140 Likes/21 Retweets on start of thread.) I expected that the typical reader who had gotten the impression from the initial thread that Yudkowsky thought that gender-identity skeptics didn't have a leg to stand on, would not, actually, be disabused of this impression by the existence of this little follow-up. Was it greedy of me to want something _louder_?
 
-One trans woman told me that autogynephilia is a typical element of cis woman sexuality. (This, I had learned, was a [standard cope](https://sillyolme.wordpress.com/2010/01/05/the-gostak-distims-the-doshes/), but one I have [never found remotely plausible](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#am-i-supposed-to-claim).) She told me that if I don't feel like a boy, I'm probably not one. (Okay, but again, _what does that mean?_ There needs to be some underlying truth condition for that "probably" to _point to_. If it's not sex and it's not sex-atypical behavior, then _what is it?_)
+Greedy or not, I wasn't done flipping out. On 1 December, I wrote to Scott Alexander (cc'ing a few other people), asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
 
-Another wrote a comment in one discussion condemning "autogynephilia discourse" and expressing skepticism at the idea that someone would undergo a complete medical and social transition because of a fetish: it might be _possible_, she admitted, but it must be extremely rare. Elsewhere on the internet, the _same goddamned person_ reported being into gender-bender manga and finding it arousing at the same time when she was first seriously questioning her gender identity.
+The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to [draw your category boundaries such that](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes) of short words on the simplest and most wide-rangingly useful categories.
 
-Was it rude of me to confront her on the contradiction in her PMs? Yes, it was extremely rude; all else being equal, I would prefer _not_ to probe into other people's private lives and suggest that they're lying to themselves. But when they lie to the public, that affects _me_, and my attempts to figure out _my_ life. Is it a conscious political ploy, I asked her, or are people _really_ unable to entertain the hypothesis that their beautiful pure self-identity feelings are causally related to the fetish? If it's a conscious political ploy, [I wished someone would just say, "Congratulations, you figured out the secret, now keep quiet about it or else,"](/2016/new-clothes/) rather than trying to _undermine my connection of reality_; I wasn't trying to hurt anyone, but this was _really personally disturbing_.
+It's true that [the reason _I_ was continuing to freak out about this](/2019/Jul/the-source-of-our-power/) to the extent of sending him this obnoxious email telling him what to write (seriously, who does that?!) had to with transgender stuff, but wasn't the reason _Scott_ should care.
 
-She said that she had to deal with enough invalidation already, that she had her own doubts and concerns but would only discuss them with people who shared her views. Fair enough—I can't blame anyone for prioritizing their mental health, even if I personally find it pathetic that grown adults in the so-called "rationalist" community need to be protect themselves from "invalidation".
+The other year, Alexander had written a post, ["Kolmogorov Complicity and the Parable of Lightning"](http://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/), explaining the consequences of political censorship by means of an allegory about a Society with the dogma that thunder occurs before lightning. The problem isn't so much the sacred dogma itself (it's not often that you need to _directly_ make use of the fact that thunder comes first), but that the need to _defend_ the sacred dogma _destroys everyone's ability to think_.
 
-The privately-sane responses were more interesting. "People are crazy about metaphysics," one told me. "That's not new. Compare with transubstantiation and how much scholarly work went in to trying to square it with natural materialism. As for causality, I think it's likely that the true explanation will not take the shape of an easily understood narrative."
+It was the same thing here. It wasn't that I had any direct practical need to misgender anyone in particular. It still wasn't okay that trying to talk about the reality of biological sex to so-called "rationalists" got you an endless deluge of—polite! charitable! non-ostracism-threatening!—_bullshit nitpicking_. (What about [complete androgen insensitivity syndrome](https://en.wikipedia.org/wiki/Complete_androgen_insensitivity_syndrome)? Why doesn't this ludicrous misinterpretation of what you said [imply that lesbians aren't women](https://thingofthings.wordpress.com/2018/06/18/man-should-allocate-some-more-categories/)? _&c. ad infinitum_.) With enough time, I thought the nitpicks could and should be satisfactorily answered. (Any ones that couldn't would presumably be fatal criticisms rather than bullshit nitpicks.) But while I was in the process of continuing to write all that up, I hoped Alexander could see why I feel somewhat gaslighted.
 
-Later, she told me, "It's kind of funny how the part where you're being annoying isn't where you're being all TERFy and socially unacceptable, but where you make very strong assumptions about truth due to being a total nerd and positivist—mind you, the vast majority of times people deviate from this the consequences are terrible."
+(I had been told by others that I wasn't using the word "gaslighting" correctly. _Somehow_ no one seemed to think I had the right to define _that_ category boundary for my convenience.)
 
-Someone else I talked to was less philosophical. "I'm an AGP trans girl who really likes anime, 4chan memes, and the like, and who hangs around a lot with ... AGP trans girls who like anime, 4chan memes, and the like," she said. "It doesn't matter to me all that much if some specific group doesn't take me seriously. As long as trans women are pretty OK at respectability politics and cis people in general don't hate us, then it's probably not something I have to worry about."
+If our vaunted rationality techniques result in me having to spend dozens of hours patiently explaining why I don't think that I'm a woman and that [the person in this photograph](https://daniellemuscato.startlogic.com/uploads/3/4/9/3/34938114/2249042_orig.jpg) isn't a woman, either (where "isn't a woman" is a _convenient rhetorical shorthand_ for a much longer statement about [naïve Bayes models](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes) and [high-dimensional configuration spaces](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) and [defensible Schelling points for social norms](https://www.lesswrong.com/posts/Kbm6QnJv9dgWsPHQP/schelling-fences-on-slippery-slopes)), then our techniques are _worse than useless_.
 
-[TODO: ↑ rework and revise whole section in light of "The Two-Type Taxonomy Is a Useful Approximation for ..." after that's written and published]
+If Galileo ever muttered "And yet it moves", there's a long and nuanced conversation you could have about the consequences of using the word "moves" in Galileo's preferred sense or some other sense that happens to result in the theory needing more epicycles. It may not have been obvious in November 2014, but in retrospect, _maybe_ it was a _bad_ idea to build a [memetic superweapon](https://archive.is/VEeqX) that says that the number of epicycles _doesn't matter_.
 
-------
+And the reason to write this as a desperate email plea to Scott Alexander when I could be working on my own blog, was that I was afraid that marketing is a more powerful force than argument. Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Alexander and Yudkowsky rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't [win the talent lottery](http://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) but think they see a flaw in the _Zeitgeist_, the winning move is "persuade Scott Alexander."
 
-As the tension continued to mount through mid-2016 between what I was seeing and hearing, and the socially-acceptable public narrative, [my](http://zackmdavis.net/blog/2016/07/concerns/) [frustration](http://zackmdavis.net/blog/2016/07/identity/) [started](http://zackmdavis.net/blog/2016/07/apostasy/) [to](http://zackmdavis.net/blog/2016/07/wicked-transcendence/) [subtly](http://zackmdavis.net/blog/2016/08/ineffective-deconversion-pitch/) [or](http://zackmdavis.net/blog/2016/08/falself/) [not-so-much](http://zackmdavis.net/blog/2016/08/prescription/) [leak](http://zackmdavis.net/blog/2016/09/the-world-by-gaslight/) [out](http://zackmdavis.net/blog/2016/09/the-roark-quirrell-effect/) [in](http://zackmdavis.net/blog/2016/09/book-recommendations-i/) [my](http://zackmdavis.net/blog/2016/09/wicked-transcendence-ii/) [blog](http://zackmdavis.net/blog/2016/09/concerns-ii/), but I wanted to write more directly about what I thought was going on.
+Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we didn't. If Scott didn't want to cite my creepy blog about my creepy fetish, that was _totally fine_; I _liked_ getting credit, but the important thing is that this "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming _that!_—it's just that utilitarianism implies that the _social_ property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needed to _die_, and he alone could kill it.
 
-At first I was imagining a post on my existing blog, but a couple of my very smart and cowardly friends recommended a pseudonym, which I reluctantly agreed was probably a good idea. So I made up a pen name and [started this blog](/2016/Sep/apophenia/) (with [loving attention to technology choices, rather than just using WordPress](/2020/Apr/dont-read-the-comments/)).
+... Scott didn't get it. We agreed that self-identity, natal-sex, and passing-based gender categories each had their own pros and cons, and that it's uninteresting to focus on whether something "really" belongs to a category, rather than on communicating what you mean. Scott took this to mean that what convention to use is a pragmatic choice that we can make on utilitarian grounds, and that being nice to trans people is worth a little bit of clunkiness.
 
-... the pseudonymity is kind of a joke at this point. It turned out that my need for openness and a unified identity was far stronger than my grasp of what my very smart and cowardly friends think is prudence, such that I ended up frequently linking to and claiming ownership of the blog from my real name, _and_ otherwise [leaking](/2019/Apr/link-where-to-draw-the-boundaries/) [entropy](/2021/Jan/link-unnatural-categories-are-optimized-for-deception/) [through](/2021/Sep/link-blood-is-thicker-than-water/) a sieve on this side. Given the world of the current year (such that this blog was even _necessary_), it's _probably_ a smarter play if the _first_ page of my real-name Google search results isn't my gender [and worse](/2020/Apr/book-review-human-diversity/) heterodoxy blog?—so I _guess_ I'll keep the Saotome-Westlake byline on this site, even though it's definitely a mere differential-visibility market-segmentation pen name, like how everyone knows that Robert Galbraith is actually J. K. Rowling, and not an Actually Secret pen name. Plus, after having made the mistake (?) of listening to my very smart and cowardly friends at the start, I'd face a backwards-compatibility problem if I wanted to unwind the pseudonym: there are _already_ a lot of references to this blog being written by Saotome-Westlake, and I don't want to throw away or rewrite that history—this is also one of several reasons I'm not transitioning.
+But I considered myself to be prosecuting _not_ the object-level question of which gender categories to use, but the meta-level question of the cognitive function of categorization, for which, "whatever, it's a pragmatic choice, just be nice" wasn't adequate. I didn't have a simple, [mistake-theoretic](https://slatestarcodex.com/2018/01/24/conflict-vs-mistake/) characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I could do was try to objectively predict the consequences of different possible conventions—and of _conflicts_ over possible conventions.
 
-(Separately, I'm not entirely without misgivings about the exact naming choices I made, although I don't actively regret it, the way I regret [my attempted nickname switch in the late 'aughts](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#literary-initials). For the pen name: a hyphenated last name (a feminist tradition), abbreviated-first-initial + gender-neutral middle name (as if suggesting a male ineffectually trying to avoid having an identifiably male byline), "Saotome" from [a thematically-relevant Japanese graphic novel series](https://en.wikipedia.org/wiki/Ranma_%C2%BD), "West" (+ an extra syllable) after a character in a serial novel whose catchphrase is ["Somebody has to and no one else will"](https://unsongbook.com/chapter-6-till-we-have-built-jerusalem/). For the blog name: I had already imagined that if I ever did stoop to the depravity of starting one of my own one of those [transformation/bodyswap captioned-photo erotica blogs](/2016/Oct/exactly-what-it-says-on-the-tin/), I would call it _The Titillating But Ultimately Untrue Thought_, and in fact had already claimed _ultimatelyuntruethought@gmail.com_ in 2014, to participate in [a captioning contest](http://celebbodyswap.blogspot.com/2014/02/magic-remote-caption-contest.html), but since this was to be a serious autogynephilia _science_ blog, rather than tawdry _object-level_ autogynephilia blogging, I picked "Scintillating" as a more wholesome adjective. In retrospect, it may have been a mistake to choose a URL different from the blog's title—people seem to remember the URL more than the title, and as far as the URL goes, to be led by the dot before the TLD to interpret "space" as a separate word, rather than my intent of "genderspace" being analogous to "configuration space"—but it doesn't bother me that much.)
+["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) had concluded with a section on Emperor Norton, a 19th century San Francisco resident who declared himself Emperor of the United States. Certainly, it's not hard for the citizens of San Francisco to _address_ Norton as "Your Majesty". But there's more to being the Emperor of the United States than people calling you "Your Majesty." Unless we abolish Congress and have the military enforce Norton's decrees, he's not _actually_ functioning in the role of emperor—at least not according to the currently generally-understood meaning of the word "emperor."
 
-Besides writing to tell everyone else about it, another obvious consequence of my Blanchardian enlightenment was that I decided to try hormone replacement therapy. Not to actually socially _transition_, which seemed as impossible (to actually pull off) and dishonest (to try) as ever, but just [to try as a gender-themed drug experiment](/2017/Sep/interlude-ix/). Everyone else was doing it—why should I have to miss out just for being more self-aware?
+What are you going to do if Norton takes you literally? Suppose he says, "I ordered the Imperial Army to invade Canada last week; where are the troop reports? And why do the newspapers keep talking about this so-called 'President' Rutherford B. Hayes? Have this pretender Hayes executed at once and bring his head to me!"
 
-A friend who once worked for [our local defunct medical research company](https://en.wikipedia.org/wiki/MetaMed) still offered lit-reviews as a service, so I paid her $5,000 to do [a post about the effects of hormone replacement therapy](https://srconstantin.github.io/2016/10/06/cross-sex-hormone-therapy.html), in case the depths of the literature had any medical insight to offer that wasn't already on the informed-constent paperwork. Meanwhile, I made the requisite gatekeeping appointments with [my healthcare provider](http://kp.org/) to get approved for HRT, first with a psychologist that I had seen before, then with a couple of licensed clinical social workers before finally getting approved for an HRT perscription.
+You're not really going to bring him Rutherford B. Hayes's head. So what are you going to tell him? "Oh, well, you're not a _cis_ emperor who can command executions. But don't worry! Trans emperors are emperors"?
 
-I got the sense that the shrinks didn't quite know what to make of me. In the process of drafting this post, I was happy to discover that the [notes from the appointments](TODO: compile ancillary page and linky) were later made available to me via the provider's website [(despite this practice introducing questionable incentives for the shrinks going forward)](https://www.reddit.com/r/slatestarcodex/comments/jia4ox/has_scott_written_about_this_im_curious_what_his/ga6vhke/); it's very amusing to read (for example) the note about one of the LCSWs discussing my case with the department director and "explor[ing] ways in which pt's [patient's] neurodiversity may be impacting his ability to think about desired gender changes and communicate to therapists".
+... Scott still didn't get it.
 
-I was happy to sit through the sessions as standard procedure rather than [going DIY](https://diytrans.wiki/How_to_Begin_HRT), but I was pretty preoccupied with the thing about how [_everyone had been lying to me about the most important thing in my life for fourteen years_](/2017/Jan/im-sick-of-being-lied-to/) and the professionals were _in on it_, and spent a lot of the sessions ranting about that. I gave the psychologist and one of the LCSWs a copy of _Men Trapped in Men's Bodies: Narratives of Autogynephilic Transsexualism_. (The psychologist said she wasn't allowed to accept gifts with a monetary value of over $25, so I didn't tell her that it actually cost $40.)
+Anyway, I _did_ end up in more conversation with Michael Vassar, Ben Hoffman, and Sarah Constantin, who were game to help me with reaching out to Yudkowsky again to explain the problem in more detail—and to appeal to the conscience of someone who built their career on [higher standards](https://www.lesswrong.com/posts/DoLQN5ryZ9XkZjq5h/tsuyoku-naritai-i-want-to-become-stronger).
 
-Actually, it's worse than if they were in on it; [in some ways, it would be _better_](/2016/new-clothes/) if the professionals secretly agreed with me about the typology and were cynically lying in order to rake in that sweet pharma cash. But they're not—lying. They just, have this whole paradigm of providing ["equitable" and "compassionate" "gender-affirming care"](https://thrive.kaiserpermanente.org/care-near-you/northern-california/eastbay/departments/gender-affirming-care/) which is transparently garbage-tier epistemology ([for a belief that needs to be affirmed is not a belief at all](/2020/peering-through-reverent-fingers/)), but is so pervasive within its adherents' milieu, that they don't even know how to interpret observations someone not buying it even when you state your objections very clearly. Before one of my appointments with the LCSW, I wrote to the psychologist expressing frustration about the culture of lying, while noting that I needed to chill out and get to a point of emotional stability. (It's important to have all of one's ducks in a row before doing biochemistry experiments on the ducks.) She wrote back:
+Yudkowsky probably didn't think much of _Atlas Shrugged_ (judging by [a remark in _Harry Potter and the Methods_](http://www.hpmor.com/chapter/20)), but I kept thinking of the part where Dagny entreats the great Dr. Robert Stadler to denounce [a not-technically-lying statement](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly) by the State Science Institute. Stadler has become cynical in his old age, and demurrs: "How can one deal with truth when one deals with the public?" I expected Yudkowsky to do better than that.
 
-> I agree with you entirely, both about your frustration with people wanting to dictate to you what you are and how you feel, and with the importance of your being emotionally stable prior to starting hormones. Please explain to those who argue with you that it is only YOUR truth that matter when it comes to you, your body and what makes you feel whole. No one else has the right to dictate this.
+If we had this entire posse, I felt bad and guilty and ashamed about focusing too much on my special interest except insofar as it was geniunely a proxy for "Has Eliezer and/or everyone else [lost the plot](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/), and if so, how do we get it back?" But the group seemed to agree that my philosophy-of-language grievance was a useful test case for prosecuting deeper maladies affecting our subculture.
 
-I replied:
+There were times during these weeks where it felt like my mind shut down with the only thought, "What am I _doing_? This is _absurd_. Why am I running around picking fights about the philosophy of language—and worse, with me arguing for the _Bad_ Guys' position? Maybe I'm wrong and should stop making a fool out of myself. After all, using Aumann-like reasoning, in a dispute of 'me and Michael Vassar vs. _everyone fucking else_', wouldn't I want to bet on 'everyone else'? Obviously."
 
-> I'm not sure you do! I know condescending to patients is part of your usual script, but I hope I've shown that I'm smarter than that. This solipsistic culture of "it is only YOUR truth that matters" is _exactly_ what I'm objecting to! People can have false beliefs about themselves! As a psychologist, you shouldn't be encouraging people's delusions; you should be using your decades of study and experience to help people understand the actual psychological facts of the matter so that they can make intelligent choices about their own lives! If you think the Blanchard taxonony is _false_, you should _tell_ me that I'm wrong and that it's false and why!
+Except ... I had been raised back in the 'aughts to believe that you're you're supposed to concede arguments on the basis of encountering a superior counterargument that makes you change your mind, and I couldn't actually point to one. "Maybe I'm making a fool out of myself by picking fights with all these high-status people" is _not a counterargument_.
 
-Similarly, the notes from my first call to the gender department claim that I was "exploring gender identity" and that I was "interested in trying [hormones] for a few months to see if they fit with his gender identity". That's not how I remember that conversation! _I_ distinctly remember asking if the department would help me if I wanted to experiment with HRT _without_ socially transitioning: that is, I was asking if they would provide medical services _not_ on the basis of "gender identity". Apparently my existence is so far out-of-distribution that the nurse on the phone wasn't capable of writing down what I actually said.
+Meanwhile, Anna continued to be disinclined to take a side in the brewing Category War, and it was beginning to put a strain on our friendship, to the extent that I kept ending up crying at some point during our occasional meetings. She told me that my "You have to pass my philosophy-of-language litmus test or I lose all respect for you as a rationalist" attitude was psychologically coercive. I agreed—I was even willing to go up to "violent"—in the sense that I'd cop to [trying to apply social incentives towards an outcome rather than merely exchanging information](http://zackmdavis.net/blog/2017/03/an-intuition-on-the-bayes-structural-justification-for-free-speech-norms/). But sometimes you need to use violence in defense of self or property, even if violence is generally bad. If we think of the "rationalist" label as intellectual property, maybe it's property worth defending, and if so, then "I can define a word any way I want" isn't obviously a terrible time to start shooting at the bandits?
 
-However weird I must have seemed, I have trouble imagining what anyone else tells the shrinks, given the pile of compelling evidence summarized earlier that most trans women are, in fact, guys like me. If I _wanted to_, I could cherry-pick pieces of evidence from my life to weave a more congruent narrative about always having been a girl on the inside. (Whatever than means! It still seems kind of sexist for that to mean something!) As a very small child, I remember asking for (and receiving, because I had good '90s liberal parents) [Polly Pocket](https://en.wikipedia.org/wiki/Polly_Pocket), and a pink-and-purple girl's scooter with hearts; I could talk about how [sensitive](/2020/Sep/link-wells-for-boys/) I am; I could go on about [my beautiful pure sacred self-identity thing](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#beautiful-pure-sacred-self-identity) that emerged shortly after puberty ...
+My _hope_ was that it was possible to apply just enough "What kind of rationalist are _you_?!" social pressure to cancel out the "You don't want to be a Bad (Red) person, do you??" social pressure and thereby let people look at the arguments—though I wasn't sure if that actually works, and I was growing exhausted from all the social aggression I was doing about it. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)
 
-But (as I told the LCSW) I would _know_ that I was cherry-picking. HSTS-taxon boys are identified as effiminate _by others_. [You know it when you see it, even when you're ideologically prohibited from _knowing_ that you know.](/2022/May/gaydar-jamming/) That's—not me. I [don't even _want_ that to be me](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#if-i-have-to-choose). I definitely have a gender _thing_, but I have a pretty detailed model of what I think the thing actually is in the real physical universe, and my model doesn't _fit_ in the ever-so-compassionate and -equitable ontology of "gender identity", which presupposes that what's going on when I report _wishing_ I were female is the _same thing_ as what's going on with actual women who (objectively correctly) report being female. [I don't think it's the same thing](TODO: linky autogenderphilia reply?), and I think you'd have to be [crazy or a liar](https://www.lesswrong.com/posts/y4bkJTtG3s5d6v36k/stupidity-and-dishonesty-explain-each-other-away) to say it's plausibly the same thing.
+There's a view that assumes that as long as everyone is being cordial, our truthseeking public discussion must be basically on-track: if no one overtly gets huffily offended and calls to burn the heretic, then the discussion isn't being warped by the fear of heresy.
 
-Another consequence of my Blanchardian enlightenment is that around this time was my [break with progressive morality](http://zackmdavis.net/blog/2016/10/late-onset/). I had never _really_ been progressive, as such. (I was registered to vote as a Libertarian, the legacy of a teenage dalliance with Ayn Rand and the [greater](https://web.archive.org/web/20070531085902/http://www.reason.com/blog/) [libertarian](https://praxeology.net/unblog07-06.htm) [blogosphere](https://cafehayek.com/).) But there was still an embedded cultural assumption, reflected in [my antisexist faith](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#antisexism), that, as far as America's culture wars went, I was unambiguously on the right (_i.e._, left) side of history, [the Blue Team and not the Red Team](http://zackmdavis.net/blog/2017/03/brand-rust/).
+I do not hold this view. I think there's a _subtler_ failure mode where people know what the politically-favored bottom line is, and collude to ignore, nitpick, or just be targetedly _uninterested_ in any fact or line of argument that doesn't fit the party line. I want to distinguish between direct ideological conformity enforcement attempts, and "people not living up to their usual epistemic standards in response to ideological conformity enforcement in the general culture they're embedded in."
 
-Even after years of devouring heresies on the internet—I remember fascinatedly reading everything I could about race and IQ in the wake of [the James Waton affair back in 'aught-seven](https://www.gnxp.com/blog/2007/10/james-watson-tells-inconvenient-truth_296.php)—I had never really questioned my coalitional alignment.
+Especially compared to normal Berkeley, I had to give the Berkeley "rationalists" credit for being _very good_ at free speech norms. (I'm not sure I would be saying this in the world where Scott Alexander didn't have a [traumatizing experience with social justice in college](https://slatestarcodex.com/2014/01/12/a-response-to-apophemi-on-triggers/), causing him to dump a ton of anti-social-justice, pro-argumentative-charity antibodies in the "rationalist" collective "water supply" after he became our subculture's premier writer. But it was true in _our_ world.) I didn't want to fall into the [bravery-debate](http://slatestarcodex.com/2013/05/18/against-bravery-debates/) trap of, "Look at me, I'm so heroically persecuted, therefore I'm right (therefore you should have sex with me)". I wasn't angry at the "rationalists" for being silenced or shouted down (which I wasn't); I was angry at them for _making bad arguments_ and systematically refusing to engage with the obvious counterarguments when they're made.
 
-With some prompting from a right-wing friend (a self-aware autogynephile who I had gone crossdressing in public once with back in the early 'tens, who had gone trad and started lifting weights in the intervening few years and felt good about his AGP starting to abate), I was starting to question it now.
+Ben thought I was wrong to think of this as non-ostracisizing. The deluge of motivated nitpicking _is_ an implied marginalization threat, he explained: the game people are playing when they do that is to force me to choose between doing arbitarily large amounts of interpretive labor, or being cast as never having answered these construed-as-reasonable objections, and therefore over time losing standing to make the claim, being thought of as unreasonable, not getting invited to events, _&c._
 
-Among many works which I had previously skimmed in the process of skimming lots of things on the internet was Mencius Moldbug's anti-democratic (!) political theory blog [_Unqualified Reservations_](https://www.unqualified-reservations.org/), which caught my renewed interest in light of my recent troubles.
+I saw the dynamic he was pointing at, but as a matter of personality, I was more inclined to respond, "Welp, I guess I need to write faster and more clearly", rather than to say, "You're dishonestly demanding arbitrarily large amounts of interpretive labor from me." I thought Ben was far too quick to give up on people who he modeled as trying not to understand, whereas I continued to have faith in the possibility of _making_ them understand if I just never gave up. Not to be _so_ much of a scrub as to play chess with a pigeon (which shits on the board and then struts around like it's won), or wrestle with a pig (which gets you both dirty, and the pig likes it), or dispute what the Tortise said to Achilles—but to hold out hope that people in "the community" could only be _boundedly_ motivatedly dense, and anyway that giving up wouldn't make me a stronger writer.
 
-Moldbug paints a picture in which, underneath the fiction of "democracy", the United States is better modeled as an oligarchic theocracy ruled by universities and the press and the civil service. The apparent symmetry between the Democrats and Republicans is fake: the Democrats represent an alliance of the professional–managerial ruling class and their black and Latino underclass clients; the Republicans, representing the white majority and the last vestiges of the old ruling elite, can sometimes demagogue their way into high offices, but the left's ownership of the institutions prevents them "conserving" anything for very long.  The reason it ended up this way is because power abhors a vacuum: if you ostensibly put the public mind in charge of the state, that just creates an incentive for power-seeking agents to _control the public mind_; if you have a nominal separation of church and state, but all the incentives that lead to the establishment of a state religion in other Societies are still in play, you've just created selection pressure for a _de facto_ state religion that sheds the ideological trappings of "God" in favor of "progress" and "equality" in order to sidestep the [Establishment Clause](TODO linky). Moldbug contends that all of this is Bad insofar as the oligarchic theocracy, for all its lofty rhetoric, is structurally incapable of good governance; it's not a coincidence that all functional _non_-government organizations are organized as monarchies, with an owner or CEO (possibly supervised by a board of directors who can fire the leader but not meddle in day-to-day operations) with the joint authority and responsibility to hand down sane decisions, rather than being hamstrung by the insanity of politics (which, as Moldbug frequently notes, is synonymous with _democracy_). [TODO: linky UR refs]
+(Picture me playing Hermione Granger in a post-Singularity [holonovel](https://memory-alpha.fandom.com/wiki/Holo-novel_program) adaptation of _Harry Potter and the Methods of Rationality_ (Emma Watson having charged me [the standard licensing fee](/2019/Dec/comp/) to use a copy of her body for the occasion): "[We can do anything if we](https://www.hpmor.com/chapter/30) exert arbitrarily large amounts of interpretive labor!")
 
-(Some of Moldbug's claims about the nature of the American order that seemed outlandish or crazy when _Unqualified Reservations_ was being written in the late 'aughts and early 'tens, now seem much more obvious after Trump and Brexit and the summer of George Floyd. I remember that in senior year of high school back in 'aught-five, on [Coming Out Day](https://en.wikipedia.org/wiki/National_Coming_Out_Day), my physics teacher said that she was coming out as a Republican. Even then, I got the joke, but I didn't realize the implications.)
+Ben thought that making them understand was hopeless and that becoming a stronger writer was a boring goal; it would be a better use of my talents to jump up an additional meta level and explain _how_ people were failing to engage. That is, I had a model of "the rationalists" that kept making bad predictions. What's going on there? Something interesting might happen if I try to explain _that_.
 
-In one part of his [_Gentle Introduction to Unqualified Reservations_](https://www.unqualified-reservations.org/2009/01/gentle-introduction-to-unqualified_22/), Moldbug compares the social and legal status of black people in the contemporary United States to hereditary nobility (!!).
+(I guess I'm only now, after spending an additional three years exhausting every possible line of argument, taking Ben's advice on this by writing this memoir. Sorry, Ben—and thanks.)
 
-Moldbug asks us to imagine a Society with asymmetric legal and social rules for nobles and commoners: it's socially deviant for commoners to be rude to nobles, but permitted for nobles to be rude to commoners; violence of nobles against commoners is excused on the presumption that the commoners must have done something to provoke it; nobles are officially preferred in employment and education, and are allowed to organize to advance their collective interests, whereas any organization of commoners _qua_ commoners is outlawed or placed under extreme suspicion.
+One thing I regret about my behavior during this period was the extent to which I was emotionally dependent on my posse, and in some ways particularly Michael, for validation. I remembered Michael as a high-status community elder back in the _Overcoming Bias_ era (to the extent that there was a "community" in those early days). I had been somewhat skeptical of him, then: the guy makes a lot of stridently "out there" assertions by the standards of ordinary social reality, in a way that makes you assume he must be speaking metaphorically. (He always insists that he's being completely literal.) But he had social proof as the President of the Singularity Institute—the "people person" of our world-saving effort, to complement Yudkowsky's anti-social mad scientist personality—which inclined me to take his "crazy"-sounding assertions more charitably than I otherwise would have.
 
-Moldbug claims that the status of non-Asian minorities in contemporary America is analogous to that of the nobles in his parable. But separately from denouncing the system as unfair, Moldbug furthermore claims that the asymmetric rules have deleterious effects _on the beneficiaries themselves_:
+Now, the memory of that social proof was a lifeline. Dear reader, if you've never been in the position of disagreeing with the entire weight of Society's educated opinion, _including_ your idiosyncratic subculture that tells itself a story about being smarter than the surrounding the Society—well, it's stressful. [There was a comment on /r/slatestarcodex around this time](https://old.reddit.com/r/slatestarcodex/comments/anvwr8/experts_in_any_given_field_how_would_you_say_the/eg1ga9a/) that cited Yudkowsky, Alexander, Ozy, _The Unit of Caring_, and Rob Bensinger as leaders of the "rationalist" community—just an arbitrary Reddit comment of no significance whatsoever—but it was salient indicator of the _Zeitgeist_ to me, because _[every](https://twitter.com/ESYudkowsky/status/1067183500216811521) [single](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) [one](https://thingofthings.wordpress.com/2018/06/18/man-should-allocate-some-more-categories/) of [those](https://theunitofcaring.tumblr.com/post/171986501376/your-post-on-definition-of-gender-and-woman-and) [people](https://www.facebook.com/robbensinger/posts/10158073223040447?comment_id=10158073685825447&reply_comment_id=10158074093570447)_ had tried to get away with some variant on the "word usage is subjective, therefore you have no gounds to object to the claim that trans women are women" _mind game_.
 
-> applied to the cream of America's actual WASP–Ashkenazi aristocracy, genuine genetic elites with average IQs of 120, long histories of civic responsibility and productivity, and strong innate predilections for delayed gratification and hard work, I'm confident that this bizarre version of what we can call _ignoble privilege_ would take no more than two generations to produce a culture of worthless, unredeemable scoundrels. Applied to populations with recent hunter-gatherer ancestry and no great reputation for sturdy moral fiber, _noblesse sans oblige_ is a recipe for the production of absolute human garbage.
+In the face of that juggernaut of received opinion, I was already feeling pretty gaslighted. ("We ... we had a whole Sequence about this. Didn't we? And, and ... [_you_ were there](https://tvtropes.org/pmwiki/pmwiki.php/Main/AndYouWereThere), and _you_ were there ... It—really happened, right? I didn't just imagine it? The [hyperlinks](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) [still](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) [work](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace) ...") I don't know how I would have held up intact if I were just facing it alone; it's hard to imagine what I would have done in that case. I definitely wouldn't have had the impudence to pester Scott and Eliezer the way I did—especially Eliezer—if it was just me alone against everyone else.
 
-This is the sort of right-wing heresy that I could read about on the internet (as I read lots of things on the internet without necessarily agreeing), and see the argument abstractly, without really putting any serious weight on it.
+But _Michael thought I was in the right_—not just intellectually on the philosophy issue, but morally in the right to be _prosecuting_ the philosophy issue with our leaders, and not accepting stonewalling as an answer. That social proof gave me a lot of bravery that I otherwise wouldn't have been able to muster up—even though it would have been better if I could have propagated the implications of the observation that my dependence on him was self-undermining, because Michael himself said that the thing that made me valuable was my ability to think independently.
 
-It wasn't my place. I'm not a woman or a racial minority; I don't have their lived experience; I _don't know what it's like_ to face the challenges they face. So while I could permissibly _read blog posts_ skeptical of the progressive story about redressing wrongs done to designated sympathetic victim groups, I didn't think of myself as having standing to seriously doubt the story.
+The social proof was probably more effective in my own head, than it was with anyone we were arguing with. _I remembered_ Michael as a high-status community elder back in the _Overcoming Bias_ era, but that was a long time ago. (Luke Muelhauser had taken over leadership of the Singularity Institute in 2011; some sort of rift between Michael and Eliezer had widened in recent years, the details of which had never been explained to me.) Michael's status in "the community" of 2019 was much more mixed. He was intensely critical of the rise of Effective Altruism, which he saw as preying on the energies of the smartest and most scrupulous people with bogus claims about how to do good in the world. (I remember at a party in 2015, on asking Michael what else I should spend my San Francisco software engineer money on, if not the EA charities I was considering, being surprised that his answer was, "You.")
 
-Until suddenly, in what was then the current year of 2016, it was now seeming that the designated sympathetic victim group of our age was ... _straight boys who wish they were girls_. And suddenly, [_I had standing_](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/). When a political narrative is being pushed for _your_ alleged benefit, it's much easier to make the call that it's obviously full of lies.
+Another blow to Michael's "community" reputation was dealt on 27 February, when Anna [published a comment badmouthing Michael and suggesting that talking to him was harmful](https://www.lesswrong.com/posts/u8GMcpEN9Z6aQiCvp/rule-thinkers-in-not-out?commentId=JLpyLwR2afav2xsyD), which I found pretty disappointing—more so as I began to realize the implications.
 
-The claim that political privileges are inculcating "a culture of worthless, unredeemable scoundrels" in some _other_ group is easy to dimiss as bigotry, but it hits differently when you can _see it happening to people like you_. Notwithstanding whether the progressive story had been right about the trevails of blacks and women, I _know_ that straight boys who wish they were girls are not actually as fragile and helpless as we were being portrayed—that we _weren't_ that fragile, if anyone still remembers the world of 2006, when straight boys who wished they were girls knew that they were, in fact, straight boys, and didn't think the world owed them deference for their perversion. And this experience _did_ raise further questions about whether previous iterations of progressive ideology had been entirely honest with me. (If nothing else, I couldn't help but notice that my update from "Blanchard is probably wrong because trans women's self-reports say it's wrong" to "Self-reports are pretty crazy" probably had implications for "[Red Pill](https://heartiste.org/the-sixteen-commandments-of-poon/) is probably wrong because women's self-reports say it's wrong".)
+I agreed with her point about how "ridicule of obviously-fallacious reasoning plays an important role in discerning which thinkers can (or can't) help fill these functions." That's why I was so heartbroken about about the "categories are arbitrary, therefore trans women are women" thing, which deserved to be _laughed out the room_. Why was she trying to ostracize the guy who was one of the very few to back me up on this incredibly obvious thing!? The reasons to discredit Michael given in the comment seemed incredibly weak. (He ... flatters people? He ... _didn't_ tell people to abandon their careers? What?) And the evidence against Michael she offered in private didn't seem much more compelling (_e.g._, at a CfAR event, he had been insistent on continuing to talk to someone who Anna thought was looking sleep-deprived and needed a break).
 
-While I was in this flurry of excitement about my recent updates and the insanity around me, I thought back to that "at least 20% of the ones with penises are actually women" Yudkowsky post from back in March that had been my wake-up call to all this. What _was_ going on there?
+It made sense for Anna to not like Michael, because of his personal conduct, or because he didn't like EA. (Expecting all of my friends to be friends with _each other_ would be [Geek Social Fallacy #4](http://www.plausiblydeniable.com/opinion/gsf.html).) If she didn't want to invite him to CfAR stuff, fine; that's her business not to invite him. But what did she gain from _escalating_ to publicly denouncing him as someone whose "lies/manipulations can sometimes disrupt [people's] thinking for long and costly periods of time"?! She said that she was trying to undo the effects of her previous endorsements of him, and that the comment seemed like it ought to be okay by Michael's standards (which didn't include an expectation that people should collude to protect each other's reputation).
 
-Under ordinary circumstances, I wouldn't have dared bother Eliezer Yudkowsky (who I considered to be the most important person in the world) on _any_ topic, let alone this weird personal obsession of mine. But ... Yudkowsky _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about he trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation. Cheap, right?!
+-----
 
-I had his email address from previous contract work I had done for MIRI back in '12, so I wrote him offering $1,000 to talk about sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228) what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality, mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong."
+Anyway, I wasn't the only one whose life was being disrupted by political drama in early 2019. On 22 February, Scott Alexander [posted that the /r/slatestarcodex Culture War Thread was being moved](https://slatestarcodex.com/2019/02/22/rip-culture-war-thread/) to a new non–_Slate Star Codex_–branded subreddit in the hopes that it would hope help curb some of the harrassment he had been receiving. According to poll data and Alexander's personal impressions, the Culture War Thread featured a variety of ideologically diverse voices, but had nevertheless acquired a reputation as being a hive of right-wing scum and villainy.
 
-[TODO: I can't actually confirm or deny whether he accepted the happy price offer because if we did talk, it would have been a private conversation]
+[Yudkowsky Tweeted](https://twitter.com/ESYudkowsky/status/1099134795131478017):
 
-(It was also around this time that I snuck a copy of _Men Trapped in Men's Bodies_ into the [MIRI](https://intelligence.org/) office library, which was sometimes possible for community members to visit. It seemed like something Harry Potter-Evans-Verres would do—and ominously, I noticed, not like something Hermione Granger would do.)
+> Your annual reminder that Slate Star Codex is not and never was alt-right, every real stat shows as much, and the primary promoters of this lie are sociopaths who get off on torturing incredibly nice targets like Scott A.
 
-Gatekeeping sessions finished, I finally started HRT at the end of December 2016. In an effort to not let my anti–autogynephilia-denialism crusade take over my life, earlier that month, I promised myself (and [published the SHA256 hash of the promise](https://www.facebook.com/zmdavis/posts/10154596054540199)) not to comment on gender issues under my real name through June 2017—_that_ was what my new pseudonymous blog was for.
+I found Yudkowsky's use of the word "lie" here interesting given his earlier eagerness to police the use of the word "lie" by gender-identity skeptics. With the support of my posse, wrote to him again, a third time (Subject: "on defending against 'alt-right' categorization").
 
-... the promise didn't take. There was just too much gender-identity nonsense on my Facebook feed; I _had_ to push back on some of it.
+Imagine if one of Alexander's critics were to reply: "Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (explicit advocacy of a white ethnostate?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret. You're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning. Now, maybe as a matter of policy, you want to make a case for language like 'alt-right' being used a certain way. Well, that's a separate debate then. But you're not making a stand for Truth in doing so, and your opponents aren't tricking anyone or trying to."
 
-"Folks, I'm not sure it's feasible to have an intellectually-honest real-name public conversation about the etiology of MtF," I wrote in one thread. "If no one is willing to mention some of the key relevant facts, maybe it's less misleading to just say nothing."
+How would Yudkowsky react, if someone said that? _My model_ of Sequences-era 2009!Yudkowsky would say, "This is an incredibly intellectually dishonest attempt to [sneak in connotations](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations) by performing a categorization and trying to avoid the burden of having to justify it with an [appeal-to-arbitrariness conversation-halter](https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters); go read ['A Human's Guide to Words.'](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb)"
 
-As a result of that, I got a PM from a woman whose marriage had fallen apart after (among other things) her husband transitioned. She told me about the parts of her husband's story that had never quite made sense to her (but which sounded like a textbook case from my reading). In her telling, the husband was always more emotionally tentative and less comfortable with the standard gender role and status stuff, but in the way of like, a geeky nerd guy, not in the way of someone feminine. He was into crossdressing sometimes, but she had thought that was just a weird and insignificant kink, not that he didn't like being a man—until they moved to the Bay Area and he fell in with a social-justicey crowd. When I linked her to Kay Brown's article on ["Advice for Wives and Girlfriends of Autogynephiles"](https://sillyolme.wordpress.com/advice-for-wivesgirlfriends-of-autogynephiles/), her response was, "Holy shit, this is _exactly_ what happened with me."
+But I had no idea what 2019!Yudkowsky would say. If the moral of the "hill of meaning in defense of validity" thread had been that the word "lie" should be reserved for _per se_ direct falsehoods, well, what direct falsehood was being asserted by Scott's detractors? I didn't think anyone was _claiming_ that, say, Scott _identifies_ as alt-right (not even privately), any more than anyone was claiming that trans women have two X chromosomes. Commenters on /r/SneerClub had been pretty explicit in [their](https://old.reddit.com/r/SneerClub/comments/atgejh/rssc_holds_a_funeral_for_the_defunct_culture_war/eh0xlgx/) [criticism](https://old.reddit.com/r/SneerClub/comments/atgejh/rssc_holds_a_funeral_for_the_defunct_culture_war/eh3jrth/) that the Culture War thread harbored racists (_&c._) and possibly that Scott himself was a secret racist, _with respect to_ a definition of racism that includeed the belief that there exist genetically-mediated population differences in the distribution of socially-relevant traits and that this probably has decision-relevant consequences that should be discussable somewhere.
 
-[TODO: the story of my Facebook crusade, going off the rails, getting hospitalized]
+And this was just _correct_. For example, Alexander's ["The Atomic Bomb Considered As Hungarian High School Science Fair Project"](https://slatestarcodex.com/2017/05/26/the-atomic-bomb-considered-as-hungarian-high-school-science-fair-project/) favorably cites Cochran _et al._'s genetic theory of Ashkenazi achievement as "really compelling." Scott was almost certainly "guilty" of the category-membership that the speech against him was meant to convey—it's just that Sneer Club got to choose the category. The correct response to the existence of a machine-learning classifer that returns positive on both Scott Alexander and Richard Spencer is not that the classifier is "lying" (what would that even mean?), but that the classifier is not very useful for understanding Scott Alexander's effects on the world.
 
-A striking pattern from my attempts to argue with people about the two-type taxonomy was the tendency for the conversation to get derailed on some variation of "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander arguing that because categories exist in our model of the world rather than the world itself, there's nothing wrong with simply _defining_ trans people to be their preferred gender, in order to alleviate their dysphoria.
+Of course, Scott is great, and we should defend him from the bastards trying to ruin his reputation, and it was plausible that the most politically convenient way to do that was to pound the table and call them lying sociopaths rather than engaging with the substance of their claims—much as how someone being tried under an unjust law might dishonestly plead "Not guilty" to save their own skin rather than tell the whole truth and hope for jury nullification.
 
-This ... really wasn't what I was trying to talk about. _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory of psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words.
+But, I argued, political convenience came at a dire cost to [our common interest](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes). There was a proverb Yudkowsky [had once failed to Google](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings), which ran something like, "Once someone is known to be a liar, you might as well listen to the whistling of the wind."
 
-Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—[not just as an obligatory profession of humility, but _actually_ wrong in the real world](https://www.lesswrong.com/posts/GrDqnMjhqoxiqpQPw/the-proper-use-of-humility). If my fellow rationalists weren't sold on the autogynephilia and transgender thing, I might be a bit disappointed, but it's definitely not grounds to denounce the entire community as a failure or a fraud.
+Similarly, once someone is known to [vary](https://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) the epistemic standards of their public statements for political convenience—if they say categorizations can be lies when that happens to help their friends, but seemingly deny the possibility of categorizations being lies when that happens to make them look good politically ...
 
-But this "I can define the word _woman_ any way I want" mind game? _That_ part was _absolutely_ clear-cut. That part of the argument, I knew I could win.
+Well, you're still _somewhat_ better off listening to them than the whistling of the wind, because the wind in various possible worlds is presumably uncorrelated with most of the things you want to know about, whereas [clever arguers](https://www.lesswrong.com/posts/kJiPnaQPiy4p9Eqki/what-evidence-filtered-evidence) who [don't tell explicit lies](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/) are constrained in how much they can mislead you. But it seems plausible that you might as well listen to any other arbitrary smart person with a bluecheck and 20K followers. I know you're very busy; I know your work's important—but it might be a useful exercise, for Yudkowsky to think of what he would _actually say_ if someone with social power _actually did this to him_ when he was trying to use language to reason about Something he had to Protect?
 
-To be clear, it's _true_ that categories exist in our model of the world, rather than the world itself—the "map", not the "territory"—and it's true that trans women might be women _with respect to_ some genuinely useful definition of the word "woman." However, the Scott Alexander piece that people kept linking to me goes further, claiming that we can redefine gender categories _in order to make trans people feel better_:
+(Note, my claim here is _not_ that "Pronouns aren't lies" and "Scott Alexander is not a racist" are similarly misinformative. Rather, I'm saying that whether "You're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning" makes sense _as a response to_ "X isn't a Y" shouldn't depend on the specific values of X and Y. Yudkowsky's behavior the other month made it look like he thought that "You're not standing in defense of truth if ..." _was_ a valid response when, say, X = "Caitlyn Jenner" and Y = "woman." I was saying that, whether or not it's a valid response, we should, as a matter of [local validity](https://www.lesswrong.com/posts/WQFioaudEH8R7fyhm/local-validity-as-a-key-to-sanity-and-civilization), apply the _same_ standard when X = "Scott Alexander" and Y = "racist.")
 
-> I ought to accept an unexpected man or two deep inside the conceptual boundaries of what would normally be considered female if it'll save someone's life. There's no rule of rationality saying that I shouldn't, and there are plenty of rules of human decency saying that I should.
+Anyway, without disclosing any _specific content_ from private conversations with Yudkowsky that may or may not have happened, I think I _am_ allowed to say that our posse did not get the kind of engagement from Yudkowsky that we were hoping for. (That is, I'm Glomarizing over whether Yudkowsky just didn't reply, or whether he did reply and our posse was not satisfied with the response.)
 
-But this is just wrong. Categories exist in our model of the world _in order to_ capture empirical regularities in the world itself: the map is supposed to _reflect_ the territory, and there _are_ "rules of rationality" governing what kinds of word and category usages correspond to correct probabilistic inferences. [We had a whole Sequence about this](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) back in 'aught-eight. Alexander cites [a post](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside) from that Sequence in support of the (true) point about how categories are "in the map" ... but if you actually read the Sequence, another point that Yudkowsky pounds home _over and over and over again_, is that word and category definitions are nevertheless _not_ arbitrary, because there are criteria that make some definitions _perform better_ than others as "cognitive technology"—
+Michael said that it seemed important that, if we thought Yudkowsky wasn't interested, we should have common knowledge among ourselves that we consider him to be choosing to be a cult leader.
 
-> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
+Meanwhile, my email thread with Scott got started back up again, although I wasn't expecting anything to come out of it. I expressed some regret that all the times I had emailed him over the past couple years had been when I was upset about something (like psych hospitals, or—something else) and wanted something from him, which was bad, because it was treating him as a means rather than an end—and then, despite that regret, continued prosecuting the argument (Subject: "twelve short stories about language").
 
-> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+One of Alexander's [most popular _Less Wrong_ posts ever had been about the noncentral fallacy, which Alexander called "the worst argument in the world"](https://www.lesswrong.com/posts/yCWPkLi8wJvewPbEp/the-noncentral-fallacy-the-worst-argument-in-the-world): for example, those who crow that abortion is _murder_ (because murder is the killing of a human being), or that Martin Luther King, Jr. was a _criminal_ (because he defied the segregation laws of the South), are engaging in a dishonest rhetorical maneuver in which they're trying to trick their audience into attributing attributes of the typical "murder" or "criminal" onto what are very noncentral members of those categories.
 
-> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+_Even if_ you're opposed to abortion, or have negative views about the historical legacy of Dr. King, this isn't the right way to argue. If you call Janie a _murderer_, that causes me to form a whole bunch of implicit probabilistic expectations—about Janie's moral character, about the suffering of victim whose hopes and dreams were cut short, about Janie's relationship with the law, _&c._—most of which get violated when you subsequently reveal that the murder victim was a four-week-old fetus.
 
-> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
+Thus, we see that Alexander's own "The Worst Argument in the World" is really complaining about the _same_ category-gerrymandering move that his "... Not Man for the Categories" comes out in favor of. We would not let someone get away with declaring, "I ought to accept an unexpected abortion or two deep inside the conceptual boundaries of what would normally not be considered murder if it'll save someone's life." Maybe abortion _is_ wrong and relevantly similar to the central sense of "murder", but you need to make that case _on the merits_, not by linguistic fiat.
 
-> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
+... Scott still didn't get it. He said that he didn't see why he shouldn't accept one unit of categorizational awkwardness in exchange for sufficiently large utilitarian benefits. I started drafting a long reply—but then I remembered that in recent discussion with my posse about what we might have done wrong in our attempted outreach to Yudkowsky, the idea had come up that in-person meetings are better for updateful disagreement-resolution. Would Scott be up for meeting in person some weekend? Non-urgent. Ben would be willing to moderate, unless Scott wanted to suggest someone else, or no moderator.
 
-> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+... Scott didn't want to meet. At this point, I considered resorting to the tool of cheerful prices again, which I hadn't yet used against Scott—to say, "That's totally understandable! Would a financial incentive change your decision? For a two-hour meeting, I'd be happy to pay up to $4000 to you or your preferred charity. If you don't want the money, then sure, yes, let's table this. I hope you're having a good day." But that seemed sufficiently psychologically coercive and socially weird that I wasn't sure I wanted to go there. I emailed my posse asking what they thought—and then added that maybe they shouldn't reply until Friday, because it was Monday, and I really needed to focus on my dayjob that week.
 
-> ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
+This is the part where I began to ... overheat. I tried ("tried") to focus on my dayjob, but I was just _so angry_. Did Scott _really_ not understand the rationality-relevant distinction between "value-dependent categories as a result of caring about predicting different variables" (as explained by the _dagim_/water-dwellers _vs._ fish example) and "value-dependent categories _in order to not make my friends sad_"? I thought I was pretty explicit about this? Was Scott _really_ that dumb?? Or is it that he was only verbal-smart and this is the sort of thing that only makes sense if you've ever been good at linear algebra?? (Such that the language of "only running your clustering algorithm on the subspace of the configuration space spanned by the variables that are relevant to your decisions" would come naturally.) Did I need to write a post explaining just that one point in mathematical detail? (With executable code and a worked example with entropy calculations.)
 
-> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
+My dayjob boss made it clear that he was expecting me to have code for my current Jira tickets by noon the next day, so I resigned myself to stay at the office late to finish that.
 
-> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
+But I was just in so much (psychological) pain. Or at least—as I noted in one of a series of emails to my posse that night—I felt motivated to type the sentence, "I'm in so much (psychological) pain." I'm never sure how to intepret my own self-reports, because even when I'm really emotionally trashed (crying, shaking, randomly yelling, _&c_.), I think I'm still noticeably _incentivizable_: if someone were to present a credible threat (like slapping me and telling me to snap out of it), then I would be able to calm down: there's some sort of game-theory algorithm in the brain that subjectively feels genuine distress (like crying or sending people too many hysterical emails) but only when it can predict that it will be either rewarded with sympathy or at least tolerated. (Kevin Simler: [tears are a discount on friendship](https://meltingasphalt.com/tears/).)
 
-> ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
+I [tweeted a Sequences quote](https://twitter.com/zackmdavis/status/1107874587822297089) (the mention of @ESYudkowsky being to attribute credit, I told myself; I figured Yudkowsky had enough followers that he probably wouldn't see a notification):
+
+> "—and if you still have something to protect, so that you MUST keep going, and CANNOT resign and wisely acknowledge the limitations of rationality— [1/3]
+>
+> "—then you will be ready to start your journey[.] To take sole responsibility, to live without any trustworthy defenses, and to forge a higher Art than the one you were once taught. [2/3]
+>
+> "No one begins to truly search for the Way until their parents have failed them, their gods are dead, and their tools have shattered in their hand." —@ESYudkowsky (https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) [end/3]
+
+Only it wasn't quite appropriate. The quote is about failure resulting in the need to invent new methods of rationality, better than the ones you were taught. But ... the methods I had been taught were great! I don't have a pressing need to improve on them! I just couldn't cope with everyone else having _forgotten!_
+
+I did, eventually, get some dayjob work done that night, but I didn't finish the whole thing my manager wanted done by the next day, and at 4 _a.m._, I concluded that I needed sleep, the lack of which had historically been very dangerous for me (being the trigger for my [2013](http://zackmdavis.net/blog/2013/04/prodrome/) and [2017](/2017/Mar/fresh-princess/) psychotic breaks and subsequent psych imprisonments). We didn't want another bad outcome like that; we really didn't. There was a couch in the office, and probably another four hours until my coworkers started to arrive. The thing I needed to do was just lie down on the couch in the dark and have faith that sleep will come. Meeting my manager's deadline wasn't _that_ important. When people come in to the office, I might ask for help getting an Uber home? Or help buying melatonin? The important thing was to be calm.
+
+I sent an email explaining this to Scott and my posse and two other friends (Subject: "predictably bad ideas").
+
+Lying down didn't work. So at 5:26 _a.m._, I sent an email to Scott cc my posse plus Anna about why I was so mad (both senses). I had a better draft sitting on my desktop at home, but since I was here and couldn't sleep, I might as well type this version (Subject: "five impulsive points, hastily written because I just can't even (was: Re: predictably bad ideas)"). Scott had been continuing to insist that it's okay to gerrymander category boundaries for trans people's mental health, but there were a few things I didn't understand. If creatively reinterpreting the meanings of words because the natural interpretation would make people sad is okay ... why doesn't that just generalize to an argument in favor of _outright lying_ when the truth would make people sad? The mind games seemed much crueler to me than a simple lie. Also, if "mental health benefits for trans people" matter so much, then, why didn't _my_ mental health matter? Wasn't I trans, sort of? Getting shut down by appeal-to-utilitarianism (!?!?) when I was trying to use reason to make sense of the world was observably really bad for my sanity! Did that matter at all? Also, Scott had asked me if it wouldn't be embarrassing, if the community solved Friendly AI and went down in history as the people who created Utopia forever, and I had rejected it because of gender stuff? But the _original reason_ it had ever seemed _remotely_ plausible that we would create Utopia forever wasn't "because we're us, the self-designated world-saving good guys", but because we were going to perfect an art of _systematically correct reasoning_. If we're not going to do systematically correct reasoning because that would make people sad, then that undermines the _reason_ that it was plausible that we would create Utopia forever; you can't just forfeit the mandate of Heaven like that and still expect to still rule China. Also, Scott had proposed a super-Outside View of the culture war as an evolutionary process that produces memes optimized to trigger PTSD syndromes in people, and suggested that I think of _that_ as what was happening to me. But, depending on how much credence Scott put in social proof, mightn't the fact that I managed to round up this whole posse to help me repeatedly argue with (or harrass) Yudkowsky shift his estimate over whether my concerns had some objective merit that other people could see, too? It could simultaneously be the case that I had the culture-war PTSD that he propsed, _and_ that my concerns had merit.
+
+Michael replied at 5:58 _a.m._, saying that everyone's first priority should be making sure that I could sleep—that given that I was failing to adhere to my commitments to sleep almost immediately after making them, I should be interpreted as immediately needing help, and that Scott had comparative advantage in helping, given that my distress was most centrally over Scott gaslighting me.
+
+That seemed a little harsh on Scott to me. At 6:14 _a.m._ and 6:21 _a.m._, I wrote a couple emails to everyone that my plan was to get a train to get back to my own apartment to sleep, that I was sorry for making such a fuss despite being incentivizable while emotionally distressed, that I should be punished in accordance with the moral law for sending too many hysterical emails because I thought I could get away with it, that I didn't need Scott's help and that I thought Michael was being a little aggressive about that, but I guessed that's also kind of Michael's style?
+
+Michael was _furious_ with me, and he emailed and called me to say so. He seemed to have a theory that people who are behaving badly, as Scott was, will only change when they see a victim who is being harmed. Me escalating and then deescalating just after he came to help was undermining the attempt to force an honest confrontation, such that we could _get_ to the point of having a Society with morality or punishment.
+
+Anyway, I did successfully get to my apartment and get a few hours of sleep. One of the other friends I had cc'd on some of the emails came to visit me later than morning with her young son—I mean, her son at the time.
+
+(Incidentally, the code that I wrote intermittently between 11 _p.m._ and 4 _a.m._ was a horrible bug-prone mess, and the company has been paying for it ever since, every time someone needs to modify that function and finds it harder to make sense of than it would be if I had been less emotionally overwhelmed in March 2019 and written something sane instead.)
+
+I think at some level, I wanted Scott to know how frustrated I was about his use of "mental health for trans people" as an Absolute Denial Macro. But then when Michael started advocating on my behalf, I started to minimize my claims because I had a generalized attitude of not wanting to sell myself as a victim. Ben pointed out that [making oneself mentally ill in order to extract political concessions](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/) only works if you have a lot of people doing it in a visibly coordinated way. And even if it did work, getting into a dysphoria contest with trans people didn't seem like it led anywhere good.
+
+I supposed that, in Michael's worldview, aggression is more honest than passive-aggression. That seemed obviously true, but I was psychologically limited in how much overt aggression I was willing to deploy against my friends. (And particularly Yudkowsky, who I still hero-worshipped.) But clearly, the tension between "I don't want to do too much social aggression" and "losing the Category War within the rationalist community is _absolutely unacceptable_" was causing me to make wildly inconsistent decisions. (Emailing Scott at 4 a.m., and then calling Michael "aggressive" when he came to defend me was just crazy: either one of those things could make sense, but not _both_.)
+
+Was the answer just that I needed to accept that there wasn't such a thing in the world as a "rationalist community"? (Sarah had told me as much two years ago, at BABSCon, and I just hadn't made the corresponing mental adjustments.)
+
+On the other hand, a possible reason to be attached to the "rationalist" brand name and social identity that wasn't just me being stupid was that _the way I talk_ had been trained really hard on this subculture for _ten years_. Most of my emails during this whole campaign had contained multiple Sequences or _Slate Star Codex_ links that I could just expect people to have read. I could spontaneously use [the phrase "Absolute Denial Macro"](https://www.lesswrong.com/posts/t2NN6JwMFaqANuLqH/the-strangest-thing-an-ai-could-tell-you) in conversation and expect to be understood. That's a massive "home field advantage." If I just gave up on the "rationalists" being a thing, and went out into the world to make friends with _Quillette_ readers or arbitrary University of Chicago graduates, then I would lose all that accumulated capital.
+
+The language I spoke was _mostly_ educated American English, but I relied on subculture dialect for a lot. My sister has a chemistry doctorate from MIT (and so speaks the language of STEM intellectuals generally), and when I showed her ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), she reported finding it somewhat hard to read, likely because I casually use phrases like "thus, an excellent [motte](https://slatestarcodex.com/2014/11/03/all-in-all-another-brick-in-the-motte/)", and expect to be understood without the reader taking 10 minutes to read the link. That essay, which was me writing from the heart in the words that came most naturally to me, could not be published in _Quillette_. The links and phraseology were just too context-bound.
+
+Maybe that's why I felt like I had to stand my ground and fight for the world I was made in, even though the contradiction between the war effort and my general submissiveness was having me making crazy decisions.
+
+As it happened, the next day, Wednesday, we saw these Tweets from @ESYudkowsky:
+
+> [Everything more complicated than](https://twitter.com/ESYudkowsky/status/1108277090577600512) protons tends to come in varieties. Hydrogen, for example, has isotopes. Gender dysphoria involves more than one proton and will probably have varieties.
+
+> [To be clear, I don't](https://twitter.com/ESYudkowsky/status/1108280619014905857) know much about gender dysphoria. There's an allegation that people are reluctant to speciate more than one kind of gender dysphoria. To the extent that's not a strawman, I would say only in a generic way that GD seems liable to have more than one species.
+
+(Why now? Maybe he saw the tag in my "tools have shattered" Tweet on Monday, or maybe the _Quillette_ article was just timely?)
+
+The most obvious reading of this is as a "concession" to my agenda. The two-type taxonomy of MtF was the thing I was _originally_ trying to talk about, back in 2016–2017, before getting derailed onto the present philosophy-of-language war, and here Yudkowsky was backing up "my side" on that by publicly offering an argument that there's probably a more-than-one-type typology.
+
+At this point, some people might think that should have been the end of the matter, that I should have been satisfied. I had started the recent drama flare-up because Yudkowsky had Tweeted something unfavorable to my agenda. Now, Yudkowsky was Tweeting something favorable to my agenda—a major concession! Wouldn't it be greedy and ungrateful for me to keep criticizing him about the pronouns and language thing, given that he'd thrown me a bone here? Shouldn't I "call it even"?
+
+That's not how it works. The entire concept of there being "sides" to which one can make "concessions" is an artifact of human coalitional instincts; it's not something that _actually makes sense_. My posse and I were trying to get a clarification about a philosophy-of-language claim Yudkowsky had made a few months prior ("you're not standing in defense of truth if [...]"), which I claimed was substantively misleading.
+
+Why would I 
+
+That was 
+
+
+
+
+
+[TODO bookmark: finish section explaining why concessions are not the Way ...]
+
+This thing about transgender typology was _not the thing we were trying to clarify!_
+
+Moreover, 
+
+["On the Argumentative Form 'Super-Proton Things Tend to Come in Varieties'"](/2019/Dec/on-the-argumentative-form-super-proton-things-tend-to-come-in-varieties/)
+
+[TODO proton concession
+ * A concession! In the war frame, you'd think this would make me happy
+  * "I did you a favor by Tweeting something obliquely favorable to your object-level crusade, and you repay me by criticizing me? How dare you?!" My model of Sequences-era Eliezer-2009 would never do that, because the species-typical arguments-as-social-exchange
+ * do you think Eliezer is thinking, "Fine, if I tweet something obliquely favorable towards Zack's object-level agenda, maybe Michael's gang will leave me alone now"
+ * If there's some other reason you suspect there might by multiple species of dysphoria, but you tell people your suspicion is because dysphoria has more than one proton, then you're still kind of misinforming them for political reasons, which is the generalized problem that we're worried about?
+ * Michael's take: not worth the digression; we need to confront the actual crisis
+ * We need to figure out how to win against bad faith arguments
+
+
+As I explained in ["On the Argumentative Form 'Super-Proton Things Tend to Come In Varieties'"](/2019/Dec/on-the-argumentative-form-super-proton-things-tend-to-come-in-varieties/), this argument that "gender dysphoria involves more than one proton and will probably have varieties" is actually _wrong_. The _reason_ I believe in the two-type taxonomy of MtF is because of [the _empirical_ case that androphilic and non-exclusively-androphilic MtF transsexualism actually look like different things](https://sillyolme.wordpress.com/faq-on-the-science/), enough so for the two-type clustering to [pay the rent](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences) [for its complexity](https://www.lesswrong.com/posts/mB95aqTSJLNR9YyjH/message-length).
+
+But Yudkowsky can't afford to acknowledge the empirical case for the two-type taxonomy—that really _would_ get him in trouble with progressives. So in order to throw me a bone while maintaining his above-it-all [pretending to be wise](https://www.lesswrong.com/posts/jeyvzALDbjdjjv5RW/pretending-to-be-wise) centerist pose, he needs to come up with some other excuse that "exhibit[s] generally rationalist principles".
+
+The lesson here that I wish Yudkowsky would understand is that when you invent rationality lessons in response to political pressure, you probably end up with _fake rationality lessons_ (because the reasoning that _generated_ the lesson differs from the reasoning that the lesson presents). I think this is bad, and that it's _equally_ bad even when the political pressure is coming from _me_.
+
+If you "project" my work into the "subspace" of contemporary political conflicts, it usually _codes as_ favoring "anti-trans" faction more often than not, but [that's really not what I'm trying to do](/2021/Sep/i-dont-do-policy/). From my perspective, it's just that the "pro-trans" faction happens to be very wrong about a lot of stuff that I care about. But being wrong about a lot of stuff isn't the same thing as being wrong about everything; it's _important_ that I spontaneously invent and publish pieces like ["On the Argumentative Form"](/2019/Dec/on-the-argumentative-form-super-proton-things-tend-to-come-in-varieties/) and ["Self-Identity Is a Schelling Point"](/2019/Oct/self-identity-is-a-schelling-point/) that "favor" the "pro-trans" faction. That's how you know (and how I know) that I'm not a _partisan hack_.
+
+
+]
+
+[TODO: Jessica joins the coalition; she tell me about her time at MIRI (link to Zoe-piggyback and Occupational Infohazards);
+Michael said that me and Jess together have more moral authority]
+
+[TODO section: wrapping up with Scott; Kelsey; high and low Church https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/]
+
+[SECTION: treachery, faith, and the great river
+
+I concluded that further email prosecution was not useful at this time. My revised Category War to-do list was:
+
+ * Send a _brief_ wrapping-up/end-of-conversation email to Scott (with the anecdote from Discord and commentary on his orc story).
+ * Mentally write-off Scott, Eliezer, and the so-called "rationalist" community as a loss so that I wouldn't be in horrible emotional pain from cognitive dissonance all the time.
+ * Write up the long, engaging, depoliticized mathy version of the categories argument for _Less Wrong_ (which I thought might take a few months—I had a dayjob, and write slowly, and might need to learn some new math, which I'm also slow at).
+ * _Then_ email the link to Scott and Eliezer asking for a signal-boost and/or court ruling.
+
+Ben didn't think the mathematically precise categories argument was the most important thing for _Less Wrong_ readers to know about: a similarly careful explanation of why I've written off Scott, Eliezer, and the "rationalists" would be way more valuable.
+
+I could see the value he was pointing at, but something in me balked at the idea of _attacking my friends in public_ (Subject: "treachery, faith, and the great river (was: Re: DRAFTS: 'wrapping up; or, Orc-ham's razor' and 'on the power and efficacy of categories')").
+
+Ben had previously written (in the context of the effective altruism movement) about how [holding criticism to a higher standard than praise distorts our collective map](http://benjaminrosshoffman.com/honesty-and-perjury/#A_tax_on_criticism).
+
+He was obviously correct that this was a distortionary force relative to what ideal Bayesian agents would do, but I was worried that when we're talking about criticism of _people_ rather than ideas, the removal of the distortionary force would just result in an ugly war (and not more truth). Criticism of institutions and social systems _should_ be filed under "ideas" rather than "people", but the smaller-scale you get, the harder this distinction is to maintain: criticizing, say, "the Center for Effective Altruism", somehow feels more like criticizing Will MacAskill personally than criticizing "the United States" does, even though neither CEA nor the U.S. is a person.
+
+This is was I felt like I couldn't give up faith that [honest discourse _eventually_ wins](https://slatestarcodex.com/2017/03/24/guided-by-the-beauty-of-our-weapons/). Under my current strategy and consensus social norms, I could criticize Scott or Kelsey or Ozy's _ideas_ without my social life dissolving into a war of all against all, whereas if I were to give in to the temptation to flip a table and say, "Okay, now I _know_ you guys are just fucking with me," then I didn't see how that led anywhere good, even if they really _are_ just fucking with me.
+
+Jessica explained what she saw as the problem with this. What Ben was proposing was _creating clarity about behavioral patterns_. I was saying that I was afraid that creating such clarity is an attack on someone. But if so, then my blog was an attack on trans people. What was going on here?
+
+Socially, creating clarity about behavioral patterns _is_ construed as an attack and _can_ make things worse for someone: for example, if your livelihood is based on telling a story about you and your flunkies being the only sane truthseeking people in the world, then me demonstrating that you don't care about the truth when it's politically inconvenient for you is a threat to your marketing story and therefore a threat to your livelihood. As a result, it's easier to create clarity down power gradients than up power gradients: it was easy for me to blow the whistle on trans people's narcissistic delusions, but hard to blow the whistle on Eliezer Yudkowsky's narcissistic delusions.
+
+But _selectively_ creating clarity down but not up power gradients just reinforces existing power relations—just like how selectively criticizing arguments with politically unfavorable conclusions only reinforces your current political beliefs. I shouldn't be able to get away with claiming that [calling non-exclusively-androphilic trans women delusional perverts](/2017/Mar/smart/) is okay on the grounds that that which can be destroyed by the truth should be, but that calling out Alexander and Yudkowsky would be unjustified on the grounds of starting a war or whatever. If I was being cowardly or otherwise unprincipled, I should own that instead of generating spurious justifications. Jessica was on board with a project to tear down narcissistic fantasies in general, but not on board with a project that starts by tearing down trans people's narcissistic fantasies, but then emits spurious excuses for not following that effort where it leads.
+
+Somewhat apologetically, I replied that the distinction between truthfully, publicly criticizing group identities and _named individuals_ still seemed very significant to me? I would be way more comfortable writing [a scathing blog post about the behavior of "rationalists"](/2017/Jan/im-sick-of-being-lied-to/), than about a specific person not adhering to good discourse norms in an email conversation that they had good reason to expect to be private. I thought I was consistent about this: contrast my writing to the way that some anti-trans writers name-and-shame particular individuals. (The closest I had come was [mentioning Danielle Muscato as someone who doesn't pass](/2018/Dec/untitled-metablogging-26-december-2018/#photo-of-danielle-muscato)—and even there, I admitted it was "unclassy" and done in desperation of other ways to make the point having failed.) I had to acknowledge that criticism of non-exclusively-androphilic trans women in general _implied_ criticism of Jessica, and criticism of "rationalists" in general _implied_ criticism of Yudkowsky and Alexander and me, but the extra inferential step and "fog of probability" seemed useful for making the speech act less of an attack? Was I wrong?
+
+Michael said this was importantly backwards: less precise targeting is more violent. If someone said, "Michael Vassar is a terrible person", he would try to be curious, but if they don't have an argument, he would tend to worry more "for" them and less "about" them, whereas if someone said, "The Jews are terrible people", he saw that more serious threat to his safety. (And rationalists and trans women are exactly the sort of people that get targeted by the same people who target Jews.)
+
+]
+
+
+[SECTION about monastaries (with Ben and Anna in April 2019)
+
+I complained to Anna: "Getting the right answer in public on topic _X_ would be too expensive, so we won't do it" is _less damaging_ when the set of such <em>X</em>es is _small_. It looked to me like we added a new forbidden topic in the last ten years, without rolling back any of the old ones.
+
+"Reasoning in public is too expensive; reasoning in private is good enough" is _less damaging_ when there's some sort of _recruiting pipeline_ from the public into the monasteries: lure young smart people in with entertaining writing and shiny math, _then_ gradually undo their political brainwashing once they've already joined your cult. (It had [worked on me](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)!)
+
+I would be sympathetic to "rationalist" leaders like Anna or Yudkowsky playing that strategy if there were some sort of indication that they had _thought_, at all, about the pipeline problem—or even an indication that there _was_ an intact monastery somewhere.
+
+]
+
+[TODO: Jessica on corruption—
+
+> I am reminded of someone who I talked with about Zack writing to you and Scott to request that you clarify the category boundary thing.  This person had an emotional reaction described as a sense that "Zack should have known that wouldn't work" (because of the politics involved, not because Zack wasn't right).  Those who are savvy in high-corruption equilibria maintain the delusion that high corruption is common knowledge, to justify expropriating those who naively don't play along, by narratizing them as already knowing and therefore intentionally attacking people, rather than being lied to and confused.
+]
+
+
+[TODO: after some bouncing off the posse, what was originally an email draft became a public _Less Wrong_ post, "Where to Draw the Boundaries?" (note, plural)
+ * Wasn't the math overkill?
+ * math is important for appeal to principle—and as intimidation https://slatestarcodex.com/2014/08/10/getting-eulered/
+ * four simulacra levels got kicked off here
+ * I could see that I'm including subtext and expecting people to only engage with the text, but if we're not going to get into full-on gender-politics on Less Wrong, but gender politics is motivating an epistemology error, I'm not sure what else I'm supposed to do! I'm pretty constrained here!
+ * I had already poisoned the well with "Blegg Mode" the other month, bad decision
+ ]
+
+
+
+[TODO small section: concern about bad faith nitpicking—
+
+One reason someone might be reluctant to correct mistakes when pointed out, is the fear that such a policy could be abused by motivated nitpickers. It would be pretty annoying to be obligated to churn out an endless stream of trivial corrections by someone motivated to comb through your entire portfolio and point out every little thing you did imperfectly, ever.
+
+I wondered if maybe, in Scott or Eliezer's mental universe, I was a blameworthy (or pitiably mentally ill) nitpicker for flipping out over a blog post from 2014 (!) and some Tweets (!!) from November. Like, really? I, too, had probably said things that were wrong _five years ago_.
+
+But, well, I thought I had made a pretty convincing that a lot of people are making a correctable and important rationality mistake, such that the cost of a correction (about the philosophy of language specifically, not any possible implications for gender politics) would actually be justified here. If someone had put _this much_ effort into pointing out an error I had made four months or five years ago and making careful arguments for why it was important to get the right answer, I think I _would_ put some serious thought into it rather than brushing them off.
+]
+
+
+
+* We lost?! How could we lose??!!?!?
+
+
+[TODO: my reluctance to write a memoir, displacement behavior
+Ben thought it was imporant on 30 Apr, 12 Aug , I confess to being stuck on 9 Nov
+I write more about the philosophy of language instead
+"Univariate fallacy" also a concession
+]
+
+curation hopes ... 22 Jun: I'm expressing a little bit of bitterness that a mole rats post got curated https://www.lesswrong.com/posts/fDKZZtTMTcGqvHnXd/naked-mole-rats-a-case-study-in-biological-weirdness
+
+[TODO scuffle on "Yes Requires the Possibility of No"]
+
+[TODO scuffle on LessWrong FAQ https://www.lesswrong.com/posts/MqrzczdGhQCRePgqN/feedback-requested-draft-of-a-new-about-welcome-page-for#iqEEme6M2JmZEXYAk ]
+
+[TODO section on factional conflict:
+Michael on Anna as an enemy
+24 Aug: I had told Anna about Michael's "enemy combatants" metaphor, and how I originally misunderstood
+me being regarded as Michael's pawn
+assortment of agendas
+mutualist pattern where Michael by himself isn't very useful for scholarship (he just says a lot of crazy-sounding things and refuses to explain them), but people like Sarah and me can write intelligible things that secretly benefited from much less legible conversations with Michael.
+]
+
+[TODO: Yudkowsky throwing NRx under the bus; tragedy of recursive silencing
+15 Sep Glen Weyl apology
+]
+
+[TODO: Ziz incident; more upset about gender validation than the felony charges, which were equally ridiculous and more obviously linked to physical violence
+complicity with injustice "Ziz isn't going to be a problem for you anymore"]
+
+[TODO: a culture that has gone off the rails; my warning points to Vaniver]
+
+[TODO: plan to reach out to Rick]
+
+[TODO: Christmas party
+people reading funny GPT-2 quotes
+Tsvi said it would be sad if I had to leave the Bay Area
+motivation deflates after Christmas victory
+5 Jan memoir as nuke
+]
+
+(There's another very important part of the story that would fit around here chronologically, but unfortunately, it's not my story to tell.)
+
+[TODO: "out of patience" email]
+[TODO: Sep 2020 categories clarification from EY—victory?!]
+
+[TODO: That should have been the end of the story, but then—he revisited the pronouns issue!!!]
+
+[TODO: based on the timing, the Feb. 2021 pronouns post was likely causally downstream of me being temporarily more salient to EY because of my highly-Liked response to his "anyone at this point that anybody who openly hates on this community generally or me personally is probably also a bad person inside" from 17 February; it wasn't gratuitously out of the blue]
+
+If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here? When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
+
+Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
+
+> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. That is, in the logical counterfactual universe where I knew of very strong arguments against freedom of pronouns, I would have probably stayed silent on the issue, as would many other high-profile community members, and only Zack M. Davis would have said anything where you could hear it.
+>
+> This is a filter affecting your evidence; it has not to my own knowledge filtered out a giant valid counterargument that invalidates this whole post. I would have kept silent in that case, for to speak then would have been dishonest.
+>
+> Personally, I'm used to operating without the cognitive support of a civilization in controversial domains, and have some confidence in my own ability to independently invent everything important that would be on the other side of the filter and check it myself before speaking. So you know, from having read this, that I checked all the speakable and unspeakable arguments I had thought of, and concluded that this speakable argument would be good on net to publish, as would not be the case if I knew of a stronger but unspeakable counterargument in favor of Gendered Pronouns For Everyone and Asking To Leave The System Is Lying.
+>
+> But the existence of a wide social filter like that should be kept in mind; to whatever quantitative extent you don't trust your ability plus my ability to think of valid counterarguments that might exist, as a Bayesian you should proportionally update in the direction of the unknown arguments you speculate might have been filtered out.
+
+So, the explanation of [the problem of political censorship filtering evidence](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting) here is great, but the part where Yudkowsky claims "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter" is just _laughable_. My point that _she_ and _he_ have existing meanings that you can't just ignore by fiat given that the existing meanings are _exactly_ what motivate people to ask for new pronouns in the first place is _really obvious_.
+
+Really, it would be _less_ embarassing for Yudkowsky if he were outright lying about having tried to think of counterarguments. The original post isn't _that_ bad if you assume that Yudkowsky was writing off the cuff, that he clearly just _didn't put any effort whatsoever_ into thinking about why someone might disagree. If he _did_ put in the effort—enough that he felt comfortable bragging about his ability to see the other side of the argument—and _still_ ended up proclaiming his "simplest and best protocol" without even so much as _mentioning_ any of its incredibly obvious costs ... that's just _pathetic_. If Yudkowsky's ability to explore the space of arguments is _that_ bad, why would you trust his opinion about _anything_?
+
+[TODO: as Yudkowsky put it
+> Admitting something when being pushed a little, but never thinking it spontaneously and hence having those thoughts absent from your own thought processes, remains not sane.
+https://twitter.com/ESYudkowsky/status/1501218503990431745
+]
+
+But perhaps it's premature to judge Yudkowsky without appreciating what tight constraints he labors under. The disclaimer comment mentions "speakable and unspeakable arguments"—but what, exactly, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421871809228):
+
+> People might be able to speak that. A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
+
+(As an aside, the wording of "we might well hear about it from _the other side_" (emphasis mine) is _very_ interesting, suggesting that the so-called "rationalist" community, is, effectively, a partisan institution, despite its claims to be about advancing the generically human art of systematically correct reasoning.)
+I think (a) and (b) _as stated_ are clearly false, so "we" (who?) fortunately aren't losing much by allegedly not being able to speak them. But what about some _similar_ hypotheses, that might be similarly unspeakable for similar reasons?
+
+Instead of (a), consider the claim that (a′) self-reports about gender dysphoria are substantially distorted by [socially-desirable responding tendencies](https://en.wikipedia.org/wiki/Social-desirability_bias)—as a notable and common example, heterosexual males with [sexual fantasies about being female](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html) [often falsely deny or minimize the erotic dimension of their desire to change sex](/papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf) (The idea that self-reports can be motivatedly inaccurate without the subject consciously "lying" should not be novel to someone who co-blogged with [Robin Hanson](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain) for years!)
+
+And instead of (b), consider the claim that (b′) transitioning is socially rewarded within particular _subcultures_ (although not Society as a whole), such that many of the same people wouldn't think of themselves as trans or even gender-dysphoric if they lived in a different subculture.
+
+I claim that (a′) and (b′) are _overwhelmingly likely to be true_. Can "we" talk about _that_? Are (a′) and (b′) "speakable", or not?
+
+We're unlikely to get clarification from Yudkowsky, but based on my experiences with the so-called "rationalist" community over the past coming-up-on-six years—I'm going to _guess_ that the answer is broadly No: no, "we" can't talk about that.
+
+But if I'm right that (a′) and (b′) should be live hypotheses and that Yudkowsky would consider them "unspeakable", that means "we" can't talk about what's _actually going on_ with gender dysphoria and transsexuality, which puts the whole discussion in a different light. In another comment, Yudkowsky lists some gender-transition interventions he named in [a November 2018 Twitter thread](https://twitter.com/ESYudkowsky/status/1067183500216811521) that was the precursor to the present discussion—using a different bathroom, changing one's name, asking for new pronouns, and getting sex reassignment surgery—and notes that none of these are calling oneself a "woman". [He continues](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159424960909228):
+
+> [Calling someone a "woman"] _is_ closer to the right sort of thing _ontologically_ to be true or false. More relevant to the current thread, now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to _debate_ whether this sentence is indeed true or false, and have people express their nuanced opinions by uttering this sentence, or perhaps a more complicated sentence using a bunch of caveats, or maybe using the original sentence uncaveated to express their belief that this is a bad place for caveats. Policies about who uses what bathroom also have consequences and we can debate the goodness or badness (not truth or falsity) of those policies, and utter sentences to declare our nuanced or non-nuanced position before or after that debate.
+>
+> Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
+
+Sure, _if we were in the position of designing a constructed language from scratch_ under current social conditions in which a person's "gender" is a contested social construct, rather than their sex an objective and undisputed fact, then yeah: in that situation _which we are not in_, you definitely wouldn't want to pack sex or gender into pronouns. But it's a disingenuous derailing tactic to grandstand about how people need to alter the semantics of their _already existing_ native language so that we can discuss the real issues under an allegedly superior pronoun convention when, _by your own admission_, you have _no intention whatsoever of discussing the real issues!_
+
+(Lest the "by your own admission" clause seem too accusatory, I should note that given constant behavior, admitting it is _much_ better than not-admitting it; so, huge thanks to Yudkowsky for the transparency on this point!)
+
+Again, as discussed in "Challenges to Yudkowsky's Pronoun Reform Proposal", a comparison to [the _tú_/_usted_ distinction](https://en.wikipedia.org/wiki/Spanish_personal_pronouns#T%C3%BA/vos_and_usted) is instructive. It's one thing to advocate for collapsing the distinction and just settling on one second-person singular pronoun for the Spanish language. That's principled.
+
+It's quite another thing altogether to _simultaneously_ try to prevent a speaker from using _tú_ to indicate disrespect towards a social superior (on the stated rationale that the _tú_/_usted_ distinction is dumb and shouldn't exist), while _also_ refusing to entertain or address the speaker's arguments explaining _why_ they think their interlocutor is unworthy of the deference that would be implied by _usted_ (because such arguments are "unspeakable" for political reasons). That's just psychologically abusive.
+
+If Yudkowsky _actually_ possessed (and felt motivated to use) the "ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking", it would be _obvious_ to him that "Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" isn't the hill anyone would care about dying on if it weren't a Schelling point. A lot of TERF-adjacent folk would be _overjoyed_ to concede the (boring, insubstantial) matter of pronouns as a trivial courtesy if it meant getting to _actually_ address their real concerns of "Biological Sex Actually Exists", and ["Biological Sex Cannot Be Changed With Existing or Foreseeable Technology"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and "Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity." The reason so many of them are inclined to stand their ground and not even offer the trivial courtesy is because they suspect, correctly, that the matter of pronouns is being used as a rhetorical wedge to try to prevent people from talking or thinking about sex.
+
+Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
+
+Of course, presumably he _doesn't_ think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421901809228):
+
+> it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment [...] I think people are better off at the end of that.
+
+Ah, _prudence_! He continues:
+
+> I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
+
+The problem with trying to "exhibit generally rationalist principles" in an line of argument that you're constructing in order to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
+
+The best explanation of this I know was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
+
+> As a campaign manager reading a book on rationality, one question lies foremost on your mind: "How can I construct an impeccable rational argument that Mortimer Q. Snodgrass is the best candidate for Mayor of Hadleyburg?"
+>
+> Sorry. It can't be done.
+>
+> "What?" you cry. "But what if I use only valid support to construct my structure of reason? What if every fact I cite is true to the best of my knowledge, and relevant evidence under Bayes's Rule?"
+>
+> Sorry. It still can't be done. You defeated yourself the instant you specified your argument's conclusion in advance.
+
+The campaign manager is in possession of a survey of mayoral candidates on which Snodgrass compares favorably to other candidates, except for one question. The post continues (bolding mine):
+
+> So you are tempted to publish the questionnaire as part of your own campaign literature ... with the 11th question omitted, of course.
+>
+> **Which crosses the line between _rationality_ and _rationalization_.** It is no longer possible for the voters to condition on the facts alone; they must condition on the additional fact of their presentation, and infer the existence of hidden evidence.
+>
+> Indeed, **you crossed the line at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it.** "What!" you cry. "A campaign should publish facts unfavorable to their candidate?" But put yourself in the shoes of a voter, still trying to select a candidate—why would you censor useful information? You wouldn't, if you were genuinely curious. If you were flowing _forward_ from the evidence to an unknown choice of candidate, rather than flowing _backward_ from a fixed candidate to determine the arguments.
+
+The post then briefly discusses the idea of a "logical" argument, one whose conclusions follow from its premises. "All rectangles are quadrilaterals; all squares are quadrilaterals; therefore, all squares are rectangles" is given as an example of _illogical_ argument, even though the both premises are true (all rectangles and squares are in fact quadrilaterals) _and_ the conclusion is true (all squares are in fact rectangles). The problem is that the conclusion doesn't _follow_ from the premises; the _reason_ all squares are rectangles isn't _because_ they're both quadrilaterals. If we accepted arguments of the general _form_ "all A are C; all B are C; therefore all A are B", we would end up believing nonsense.
+
+Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's conception in 2007, which the Yudkowsky of the current year seems to disagree with—has a similar flavor: the stated reasons should be the actual reasons. The post concludes:
+
+> If you really want to present an honest, rational argument _for your candidate_, in a political campaign, there is only one way to do it:
+>
+> * _Before anyone hires you_, gather up all the evidence you can about the different candidates.
+> * Make a checklist which you, yourself, will use to decide which candidate seems best.
+> * Process the checklist.
+> * Go to the winning candidate.
+> * Offer to become their campaign manager.
+> * When they ask for campaign literature, print out your checklist.
+>
+> Only in this way can you offer a _rational_ chain of argument, one whose bottom line was written flowing _forward_ from the lines above it. Whatever _actually_ decides your bottom line is the only thing you can _honestly_ write on the lines above.
+
+I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
+
+This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
+
+... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a _partisan hack_ on this topic and take that into account when deciding whether they can trust you on other topics.
+
+"I don't see what the alternative is besides getting shot," Yudkowsky muses (where presumably, 'getting shot' is a metaphor for a large negative utility, like being unpopular with progressives). Yes, an astute observation! And _any other partisan hack could say exactly the same_, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot.
+
+If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
+
+I see the phrase "bad faith" thrown around more than I think people know what it means. "Bad faith" doesn't mean "with ill intent", and it's more specific than "dishonest": it's [adopting the surface appearance of being moved by one set of motivations, while actually acting from another](https://en.wikipedia.org/wiki/Bad_faith).
+
+For example, an [insurance company employee](https://en.wikipedia.org/wiki/Claims_adjuster) who goes through the motions of investigating your claim while privately intending to deny it might never consciously tell an explicit "lie", but is definitely acting in bad faith: they're asking you questions, demanding evidence, _&c._ in order to _make it look like_ you'll get paid if you prove the loss occurred—whereas in reality, you're just not going to be paid. Your responses to the claim inspector aren't completely casually _inert_: if you can make an extremely strong case that the loss occurred as you say, then the claim inspector might need to put some effort into coming up with some ingenious excuse to deny your claim in ways that exhibit general claim-inspection principles. But at the end of the day, the inspector is going to say what they need to say in order to protect the company's loss ratio, as is personally prudent.
+
+With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's genuinely engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
+
+To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ blatantly mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
+
+Counterarguments aren't completely causally _inert_: if you can make an extremely strong case that Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity, Yudkowsky will put some effort into coming up with some ingenious excuse for why he _technically_ never said otherwise, in ways that exhibit generally rationalist principles. But at the end of the day, Yudkowsky is going to say what he needs to say in order to protect his reputation, as is personally prudent.
+
+Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description that makes predictions about behavior, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces! For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I engage in a bit of what is sometimes called ["concern trolling"](https://geekfeminism.fandom.com/wiki/Concern_troll): I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception in the service of correcting the distortion where I don't think my interlocutor _should_ be paying attention to my personal alignment.
+
+That is, my bad faith concern-trolling gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
+
+In contrast, the "it is sometimes personally prudent [...] to post your agreement with Stalin" gambit is the exact reverse: it's _introducing_ a distortion into the discussion in the hopes of correcting people's beliefs about the speaker's ideological alignment. (Yudkowsky is not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
+
+Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
+
+Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be extremely relevant.
+
+But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that _not_ everybody knows and that someone with power wants to _keep_ it that way.
+
+For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then the savvy people wouldn't have to face the tough choice between acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
+
+Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
+
+But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose numerous flaws I have analyzed in detail).
+
+"[P]eople do _know_ they're living in a half-Stalinist environment," Yudkowsky says. "I think people are better off at the end of that," he says. But who are "people", specifically? I'm asking because I have a long sob story about how _I_ didn't know, and _I'm_ not better off.
+
+In [one of Yudkowsky's roleplaying fiction threads](https://www.glowfic.com/posts/4508), Thellim, a woman hailing from [a saner alternate version of Earth called dath ilan](https://www.lesswrong.com/tag/dath-ilan), [expresses horror and disgust at how shallow and superficial the characters in _Pride and Prejudice_ are, in contrast to what a human being _should_ be](https://www.glowfic.com/replies/1592898#reply-1592898):
+
+> [...] the author has made zero attempt to even try to depict Earthlings as having reflection, self-observation, a fire of inner life; most characters in _Pride and Prejudice_ bear the same relationship to human minds as a stick figure bears to a photograph. People, among other things, have the property of trying to be people; the characters in Pride and Prejudice have no visible such aspiration. Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves. [TODO: continue the quote to the part about Verrez self-awareness]
+
+When someone else doesn't see the problem with Jane Austen's characters, Thellim [redoubles her determination to explain the problem](https://www.glowfic.com/replies/1592987#reply-1592987): "_She is not giving up that easily. Not on an entire planet full of people._"
+
+Thellim's horror at the fictional world of Jane Austen is basically how I feel about trans culture. It _actively discourages self-modeling!_ People who have cross-sex fantasies are encouraged to reify them into an gender identity which everyone else is supposed to unquestioningly accept. Obvious critical questions about what's actually going on etiologically, what it means for an identity to be true, _&c._ are strongly discouraged as hateful, hurtful, distressing, _&c._
+
+The problem is _not_ that I think there's anything wrong with having cross-sex fantasies, and wanting the fantasy to be real—just as Thellim's problem with _Pride and Prejudice_ is not there being anything wrong with wanting to marry a suitable bachelor. These are perfectly respectable goals.
+
+The _problem_ is that people who are trying to be people, people who are trying to acheive their goals _in reality_, do so in a way involves having concepts of their own minds, and trying to improve both their self-models and their selves—and that's _not possible_ in a culture that tries to ban, as heresy, the idea that it's possible for someone's self-model to be wrong.
+
+A trans woman I follow on Twitter complained that a receptionist at her workplace said she looked like a male celebrity. "I'm so mad," she fumed. "I look like this right now"—there was a photo attached to the Tweet—"how could anyone ever think that was an okay thing to say?"
+
+It _is_ genuinely sad that the author of those Tweets didn't get perceived the way she would prefer! But the thing I want her to understand, a thing I think any sane adult should understand—
+
+_It was a compliment!_ That poor receptionist was almost certainly thinking of [David Bowie](https://en.wikipedia.org/wiki/David_Bowie) or [Eddie Izzard](https://en.wikipedia.org/wiki/Eddie_Izzard), rather than being hateful and trying to hurt. [TODO: echo the Verrez self-awareness phrasing]
+
+I want a shared cultural understanding that the _correct_ way to ameliorate the genuine sadness of people not being perceived the way they prefer is through things like _better and cheaper facial feminization surgery_, not _[emotionally blackmailing](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/) people out of their ability to report what they see_. I don't _want_ to reliniqush [my ability to notice what women's faces look like](/papers/bruce_et_al-sex_discrimination_how_do_we_tell.pdf), even if that means noticing that mine isn't; if I'm sad that it isn't, I can endure the sadness if the alternative is _forcing everyone in my life to doublethink around their perceptions of me_.
+
+In a world where surgery is expensive, but some people desperately want to change sex and other people want to be nice to them, there's an incentive gradient in the direction of re-binding our shared concept of "gender" onto things like [ornamental clothing](http://thetranswidow.com/2021/02/18/womens-clothing-is-always-drag-even-on-women/) that are easier to change than secondary sex characteristics.
+
+But I would have expected people with the barest inkling of self-awareness and honesty to ... notice the incentives, and notice the problems being created by the incentives, and to talk about the problems in public so that we can coordinate on the best solution?
+
+And if that's too much to accept of the general public—
+
+And it's too much to expect of garden-variety "rationalists" to figure out on their own without prompting from their betters—
+
+Then I would have at least hoped Eliezer Yudkowsky to be _in favor of_ rather than _against_ his faithful students having these very basic capabilities for reflection, self-observation, and ... _speech_?
+
+[TODO: in the context of elite Anglosphere culture in 2016–2022; it should be clear that defenders of reason need to be able to push back and assert that biological sex is real; other science communicators like Dawkins (https://www.theguardian.com/books/2021/apr/20/richard-dawkins-loses-humanist-of-the-year-trans-comments) and Jerry Coyne (https://whyevolutionistrue.com/2018/12/11/once-again-why-sex-is-binary/) can see it]
+
+
+[TODO:
+
+https://twitter.com/ESYudkowsky/status/1404697716689489921
+> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
+
+If you think it "sometimes personally prudent and not community-harmful" to strategically say positive things about Republican candidates, and make sure to never, ever say negative things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
+
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
+
+https://twitter.com/ESYudkowsky/status/1404821285276774403
+> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
+
+]
+
+[TODO: 
+And the thing where David Xu interprets criticism of Eliezer as me going "full post-rat"?! https://twitter.com/davidxu90/status/1435106339550740482
+]
+
+
+I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
+
+_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
+
+At this point, the nature of the game is very clear. Yudkowsky wants to make sure he's on peaceful terms with the progressive _Zeitgeist_, subject to the constraint of not saying anything he knows to be false. Meanwhile, I want to actually make sense of what's actually going on in the world as regards sex and gender, because _I need the correct answer to decide whether or not to cut my dick off_.
+
+On "his turn", he comes up with some pompous proclamation that's very obviously optimized to make the "pro-trans" faction look smart and good and make the "anti-trans" faction look dumb and bad, "in ways that exhibit generally rationalist principles."
+
+On "my turn", I put in an _absurd_ amount of effort explaining in exhaustive, _exhaustive_ detail why Yudkowsky's pompous proclamation, while [not technically saying making any unambiguously "false" atomic statements](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly), was _substantively misleading_ as constrated to what any serious person would say if they were actually trying to make sense of the world without worrying what progressive activists would think of them.
+
+In the context of AI alignment theory, Yudkowsky has written about a "nearest unblocked strategy" phenomenon: if you directly prevent an agent from accomplishing a goal via some plan that you find undesirable, the agent will search for ways to route around that restriction, and probably find some plan that you find similarly undesirable for similar reasons.
+
+Suppose you developed an AI to [maximize human happiness subject to the constraint of obeying explicit orders](https://arbital.greaterwrong.com/p/nearest_unblocked#exampleproducinghappiness). It might first try administering heroin to humans. When you order it not to, it might switch to administering cocaine. When you order it to not use any of a whole list of banned happiness-producing drugs, it might switch to researching new drugs, or just _pay_ humans to take heroin, _&c._
+
+It's the same thing with Yudkowsky's political-risk minimization subject to the constraint of not saying anything he knows to be false. First he comes out with ["I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women"](https://www.facebook.com/yudkowsky/posts/10154078468809228) (March 2016). When you point out that [that's not true](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions), then the next time he revisits the subject, he switches to ["you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning"](https://archive.is/Iy8Lq) (November 2018). When you point out that [_that's_ not true either](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong), he switches to "It is Shenanigans to try to bake your stance on how clustered things are [...] _into the pronoun system of a language and interpretation convention that you insist everybody use_" (February 2021). When you point out that's not what's going on, he switches to ... I don't know, but he's a smart guy; in the unlikely event that he sees fit to respond to this post, I'm sure he'll be able to think of _something_—but at this point, I have no reason to care. Talking to Yudkowsky on topics where getting the right answer would involve acknowledging facts that would make you unpopular in Berkeley is a _waste of everyone's time_; trying to inform you isn't [his bottom line](https://www.lesswrong.com/posts/34XxbRFe54FycoCDw/the-bottom-line).
 
-Importantly, this is a very general point about how language itself works _that has nothing to do with gender_. No matter what you believe about politically controversial empirical questions, intellectually honest people should be able to agree that "I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if [positive consequence]" is not correct philosophy, _independently of the particular values of X and Y_.
+Accusing one's interlocutor of bad faith is frowned upon for a reason. We would prefer to live in a world where we have intellectually fruitful object-level discussions under the assumption of good faith, rather than risk our fora degenerating into an acrimonious brawl of accusations and name-calling, which is unpleasant and (more importantly) doesn't make any intellectual progress. I, too, would prefer to have a real object-level discussion under the assumption of good faith.
 
-So, because at this point I still trusted people in my robot cult to be intellectually honest rather than fucking with me because of their political incentives, I took the bait. When I quit my dayjob in order to have more time to study and work on this blog, the capstone of my sabbatical was an exhaustive response to Alexander, ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (which Alexander [graciously included in his next linkpost](https://archive.ph/irpfd#selection-1625.53-1629.55)). A few months later (having started a new dayjob), I followed it up with ["Reply to _The Unit of Caring_ on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/), responding to a similar argument. I'm proud of those posts: I think Alexander's and _Unit of Caring_'s arguments were incredibly dumb, and with a lot of effort, I think I did a pretty good job of explaining exactly why.
+I tried the object-level good-faith argument thing _first_. I tried it for _years_. But at some point, I think I should be _allowed to notice_ the nearest-unblocked-strategy game which is _very obviously happening_ if you look at the history of what was said. I think there's _some_ number of years and _some_ number of thousands of words of litigating the object-level after which there's nothing left for me to do but jump up a meta level and explain, to anyone capable of hearing it, why in this case I think I've accumulated enough evidence in this case for the assumption of good faith to have been _empirically falsified_.
 
-At this point, I was certainly _disappointed_ with my impact, but not to the point of bearing much hostility to "the community". People had made their arguments, and I had made mine; I didn't think I was _entitled_ to anything more than that.
+(Of course, I realize that if we're crossing the Rubicon of abandoning the norm of assuming good faith, it needs to be abandoned symmetrically. I _think_ I'm doing a _pretty good_ job of adhering to standards of intellectual conduct and being transparent about my motivations, but I'm definitely not perfect, and, unlike Yudkowsky, I'm not so absurdly miscalibratedly arrogant to claim "confidence in my own ability to independently invent everything important" (!) about my topics of interest. If Yudkowsky or anyone else thinks they _have a case_ based on my behavior that _I'm_ being culpably intellectually dishonest, they of course have my blessing and encouragement to post it for the audience to evaluate.)
 
-[TODO: I was at the company offsite browsing Twitter (which I had recently joined with fantasies of self-cancelling) when I saw the "Hill of Validity in Defense of Meaning", and I _flipped the fuck out_—exhaustive breakdown of exactly what's wrong ; I trusted Yudkowsky and I _did_ think I was entitled to more]
+What makes all of this especially galling is the fact that _all of my heretical opinions are literally just Yudkowsky's opinions from the 'aughts!_ My whole thing about how changing sex isn't possible with existing technology because the category encompasses so many high-dimensional details? Not original to me! I [filled in a few trivial technical details](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard), but again, this was _in the Sequences_ as ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions). My thing about how you can't define concepts any way you want, because there are mathematical laws governing which category boundaries compress your anticipated experiences? Not original to me! I [filled in](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [a few technical details](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception), but [_we had a whole Sequence about this._](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)
 
-[TODO: getting support from Michael + Ben + Sarah, harrassing Scott and Eliezer]
+Seriously, you think I'm _smart enough_ to come up with all of this indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts _when he still gave a shit about telling the truth_ in this domain. (More precisely, when he thought he could afford to give a shit, before the political environment and the growing stature of his so-called "rationalist" movement changed his incentives.)
 
-[TODO: proton concession]
+Does ... does he expect us not to _notice_? Or does he think that "everybody knows"?
 
-[TODO: minor psych episode in March 2019]
+But I don't think that everybody knows. So I'm telling you.
 
-[TODO: "Blegg Mode", "Where to Draw the Boundaries?", and failure /2019/May/hiatus/ ]
+[TODO PARAGRAPH chessboard analogy
 
-[TODO: more blogging (https://www.lesswrong.com/posts/5aqumaym7Jd2qhDcy/containment-thread-on-the-motivation-and-political-context), 2019 Christmas party, disclaimer on "Categories Were Made"]
-["Univariate fallacy" also a concession]
+playing on a different chessboard—I would be fine with it if he didn't shit on my chessboard. But my shitting on his chessboard
 
-[TODO: categories clarification from EY—victory?!]
+I could forgive him for taking a shit on d4 of my chessboard ("at least 20% of the ones with penises are actually women"). I could even forgive him for subsequently taking a shit on e4 of my chessboard ([TODO linky-quotey not standing in defense of truth]) as long as he wiped most of the shit off afterwards ([TODO linky-quotey clarification]), even though, really, I would have expected someone so smart to take a hint after the incident on d4. But if he's _then_ going to take a shit on c3 of my chessboard ([TODO linkey-quotey normative meaning of 'he']) ... at _that_ point, it's hard for me to consider him as neutrally playing on a different chessboard, rather than actively trying to shit on mine; the turd on c3 is a pretty big likelihood ratio in favor of the latter hypothesis.
 
-[TODO: "simplest and best" pronoun proposal, sometimes personally prudent; support from Oli]
+]
 
 [TODO: the dolphin war, our thoughts about dolphins are literally downstream from Scott's political incentives in 2014; this is a sign that we're a cult]
 
-[TODO: why you should care; no one should like Scott and Eliezer's proposals; knowledge should go forward, not back — what I would have hoped for, what you can do; hating that my religion is bottlenecked on one guy; the Church is _still there_ sucking up adherents; this is unambiguously a betrayal rather than a mistake]
+[TODO: the Death With Dignity era]