2a2418a4be66ebe56e1437abe0c16b03622da1ca
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
1 Title: A Hill of Validity in Defense of Meaning
2 Date: 2022-01-01 11:00
3 Category: commentary
4 Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, Scott Alexander, epistemic horror, my robot cult, personal, sex differences, two-type taxonomy
5 Status: draft
6
7 > If you are silent about your pain, they'll kill you and say you enjoyed it.
8 >
9 > —Zora Neale Hurston
10
11 Recapping our story so far—in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I told the the part about how I've "always" (since puberty) had this obsessive sexual fantasy about being magically transformed into a woman and also thought it was immoral to believe in psychological sex differences, until I got set straight by these really great Sequences of blog posts by Eliezer Yudkowsky, which taught me (incidentally, among many other things) how absurdly unrealistic my obsessive sexual fantasy was given merely human-level technology, and that it's actually immoral _not_ to believe in psychological sex differences given that psychological sex differences are actually real. In a subsequent post, ["Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer"](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/), I told the part about how, in 2016, everyone in my systematically-correct-reasoning community up to and including Eliezer Yudkowsky suddenly starting claiming that guys like me might actually be women in some unspecified metaphysical sense, and insisted on playing dumb when confronted with alternative explanations of the relevant phenomena or even just asked what that means, until I eventually had a stress- and sleep-deprivation-induced delusional nervous breakdown, got sent to psychiatric prison once, and then went crazy again a couple months later.
12
13 That's not the really egregious part of the story. The thing is, psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—[not just as an obligatory profession of humility, but _actually_ wrong in the real world](https://www.lesswrong.com/posts/GrDqnMjhqoxiqpQPw/the-proper-use-of-humility). If my fellow rationalists merely weren't sold on the autogynephilia and transgender thing, I would certainly be disappointed, but it's definitely not grounds to denounce the entire community as a failure or a fraud. And indeed, I _did_ [end up moderating my views](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/) compared to the extent to which my thinking in 2016–7 took Blanchard–Bailey–Lawrence as received truth. At the same time, I don't particularly regret saying what I said in 2016–7, because Blanchard–Bailey–Lawrence is still very obviously _directionally_ correct compared to the nonsense everyone else was telling me.
14
15 But a striking pattern in my attempts to argue with people about the two-type taxonomy in late 2016 and early 2017 was the tendency for the conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander arguing that because categories exist in our model of the world rather than the world itself, there's nothing wrong with simply _defining_ trans people to be their preferred gender, in order to alleviate their dysphoria.
16
17 After Yudkowsky had stepped away from full-time writing, Alexander had emerged as our subculture's preeminent writer. Most people in an intellectual scene "are writers" in some sense, but Alexander was the one "everyone" reads: you could reference a _Slate Star Codex_ post in conversation and expect people to familiar with the idea, either from having read it, or by osmosis, by other people having referenced the idea in conversation. The frequency with which "... Not Man for the Categories" was cited at me, seemed to suggest it had become our subculture's "party line" on trans issues.
18
19 But the post is very wrong in very obvious ways. To be clear, it's true _that_ categories exist in our model of the world, rather than the world itself—categories are "map", not "territory"—and it's true that trans women might be women _with respect to_ some genuinely useful definition of the word "woman." However, Alexander goes much further, claiming that we can redefine gender categories _in order to make trans people feel better_:
20
21 > I ought to accept an unexpected man or two deep inside the conceptual boundaries of what would normally be considered female if it'll save someone's life. There's no rule of rationality saying that I shouldn't, and there are plenty of rules of human decency saying that I should.
22
23 This is wrong because categories exist in our model of the world _in order to_ capture empirical regularities in the world itself: the map is supposed to _reflect_ the territory, and there _are_ "rules of rationality" governing what kinds of word and category usages correspond to correct probabilistic inferences. [Yudkowsky wrote a whole Sequence about this](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb) back in 'aught-eight, as part of the original Sequences. Alexander cites [a post](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside) from that Sequence in support of the (true) point about how categories are "in the map" ... but if you actually read the Sequence, another point that Yudkowsky pounds home _over and over and over again_, is that word and category definitions are nevertheless _not_ arbitrary: you can't define a word any way you want, because there are [at least 37 ways that words can be wrong](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)—principles that make some definitions _perform better_ than others as "cognitive technology":
24
25 > ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
26 >
27 > ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
28 >
29 > ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
30 >
31 > ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
32 >
33 > ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
34 >
35 > ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
36 >
37 > ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
38 >
39 > ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
40 >
41 > ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
42 >
43 > ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
44
45 In the case of Alexander's bogus argument about gender categories, the relevant principle ([#30](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) on [the list of 37](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)) is that if group things together in your map that aren't actually similar in the territory, you're going to be misled into making bad predictions.
46
47 Importantly, this is a very general point about how language itself works _that has nothing to do with gender_. No matter what you believe about politically-controversial empirical questions, intellectually honest people should be able to agree that "I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if [positive consequence]" is not the correct philosophy of language, _independently of the particular values of X and Y_.
48
49 Also, this ... really wasn't what I was trying to talk about. _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory of psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. But at this point I still trusted people in my robot cult to be basically intellectually honest, rather than fucking with me because of their political incentives, so I endeavored to respond to the category-boundary argument as if it were a serious argument: when I quit my dayjob in March 2017 in order to have more time to study and work on this blog, the capstone of my sabbatical was an exhaustive response to Alexander, ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (which Alexander [graciously included in his next links post](https://archive.ph/irpfd#selection-1625.53-1629.55)). A few months later, I followed it up with ["Reply to _The Unit of Caring_ on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/), responding to a similar argument. I'm proud of those posts: I think Alexander's and _Unit of Caring_'s arguments were incredibly dumb, and with a lot of effort, I think I did a pretty good job of explaining exactly why to anyone who was interested and didn't, at some level, prefer not to understand.
50
51 Of course, a pretty good job of explaining by one niche blogger wasn't going to put much of a dent in the culture, which is the sum of everyone else's blogposts; despite the mild boost from the _Slate Star Codex_ links post, my megaphone just wasn't very big. At this point, I was _disappointed_ with the limited impact of my work, but not to the point of bearing much hostility to "the community". People had made their arguments, and I had made mine; I didn't think I was _entitled_ to anything more than that.
52
53 ... and, really, that _should_ have been the end of the story. Not much of a story at all. If I hadn't been further provoked, I would have still kept up this blog, and I still would have ended up arguing about gender with people occasionally, but this personal obsession of mine wouldn't have been the occasion of a full-on robot-cult religious civil war.
54
55 The _causis belli_ for the religious civil war happened on 28 November 2018. I was at my new dayjob's company offsite event in Austin. Coincidentally, I had already spent much of the afternoon arguing trans issues with other "rationalists" on Discord. [TODO: review Discord logs; email to Dad suggests that offsite began on the 26th, contrasted to first shots on the 28th]
56
57 Just that month, I had started a Twitter account in my own name, inspired in an odd way by the suffocating [wokeness of the open-source software scene](/2018/Oct/sticker-prices/) where I [occasionally contributed diagnostics patches to the compiler](https://github.com/rust-lang/rust/commits?author=zackmdavis). My secret plan/fantasy was to get more famous/established in the that world (one of compiler team membership, or conference talk accepted, preferably both), get some corresponding Twitter followers, and _then_ bust out the Blanchard retweets and links to this blog. In the median case, absolutely nothing would happen (probably because I failed at being famous), but I saw an interesting tail of scenarios in which I'd get to be a test case in the Code of Conduct wars.
58
59 So, now having a Twitter account, I was browsing Twitter in the bedroom at the rental house for the dayjob retreat, when I happened to come across [this thread by @ESYudkowsky](https://twitter.com/ESYudkowsky/status/1067183500216811521):
60
61 > Some people I usually respect for their willingness to publicly die on a hill of facts, now seem to be talking as if pronouns are facts, or as if who uses what bathroom is necessarily a factual statement about chromosomes. Come on, you know the distinction better than that!
62 >
63 > _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
64 >
65 > In saying this, I am not taking a stand for or against any Twitter policies. I am making a stand on a hill of meaning in defense of validity, about the distinction between what is and isn't a stand on a hill of facts in defense of truth.
66 >
67 > I will never stand against those who stand against lies. But changing your name, asking people to address you by a different pronoun, and getting sex reassignment surgery, Is. Not. Lying. You are _ontologically_ confused if you think those acts are false assertions.
68
69 Some of the replies tried explain the problem—and Yudkowsky kept doubling down:
70
71 > Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
72
73 and
74
75 > You're mistaken about what the word means to you, I demonstrate thus:
76 https://en.wikipedia.org/wiki/XX_male_syndrome
77 >
78 > But even ignoring that, you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning.
79
80 Dear reader, this is the moment where I _flipped the fuck out_. If the rationalists didn't [click](https://www.lesswrong.com/posts/R3ATEWWmBhMhbY2AL/that-magical-click) on the autogynephilia thing, that was disappointing, but forgivable. If the rationalists, on Scott Alexander's authority, were furthermore going to get our own philosophy of language wrong over this, that was—I don't want to say _forgivable_ exactly, but it was—tolerable. I had learned from my misadventures the previous year that I had been wrong to trust "the community" as a reified collective and put it on a pedastal—that had never been a reasonable mental stance in the first place.
81
82 But trusting Eliezer Yudkowsky—whose writings, more than any other single influence, had made me who I am—_did_ seem reasonable. If I put him on a pedastal, it was because he had earned the pedastal, for supplying me with my criteria for how to think—including, as a trivial special case, how to think about what things to put on pedastals.
83
84 So if the rationalists were going to get our own philosophy of language wrong over this _and Eliezer Yudkowsky was in on it_ (!!!), that was intolerable—and would be unforgivable if it weren't so _inexplicable_.
85
86 ... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
87
88 At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's _bizarre_ to condescendingly point this out _as if it were the crux of contemporary trans-rights debates_. Conservatives and gender-critical feminists _know_ that trans-rights advocates aren't falsely claiming that trans women have XX chromosomes. But the question of what categories epistemically "carve reality at the joints", is _not unrelated_ to the question of which categories to use in policy decisions: the _function_ of sex-segrated bathrooms is to protect females from males, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
89
90 Even if the thread only explicitly mentioned pronouns and not the noun "woman", in practice, and in the context of elite intellectual American culture in which "trans women are women" is dogma, I don't see any _meaningful_ difference between "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning" and "I can define the word 'woman' any way I want." (About which, the Yudkowsky of 2008 had some harsh things to say, as excerpted above.) It's hard to read the Tweets Yudkowsky published as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity. [For example](https://twitter.com/ESYudkowsky/status/1067490362225156096), deeper in the thread, Yudkowsky wrote:
91
92 > The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
93
94 Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
95
96 Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
97
98 But the _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different.
99
100 [TODO: relevance of multivariate—
101
102 Different traits have different relevance to different sports; the fact that it's apples-to-oranges is _why_ women do better in ultraswimming—that competition is sampling a corner of sportspace where body fat is an advantage
103
104 It's not that females and males are exactly the same except males are 10% stronger on average
105
106 It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight"
107
108 https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
109 https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
110
111 If you just had one integrated league, females wouldn't be competitive (in almost all sports, with some exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/)).
112 ]
113
114 [TODO: sentences about studies showing that HRT doesn't erase male advantage
115 https://twitter.com/FondOfBeetles/status/1368176581965930501
116 https://link.springer.com/article/10.1007/s40279-020-01389-3
117 https://bjsm.bmj.com/content/55/15/865
118 ]
119
120 [TODO sentences about Lia Thomas and Cece Tefler  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's feats occured after Yudkowsky's 2018 Tweets, but this kind of thing was easily predictable to anyone familiar with sex differences—cite South Park)
121 https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
122 https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
123 https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
124 https://www.swimmingworldmagazine.com/news/a-look-at-the-numbers-and-times-no-denying-the-advantages-of-lia-thomas/
125 ]
126
127 Given the empirical reality of the different multivariate trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine. Including male people in female sports leagues undermines the point of having a separate female league. 
128
129 (Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
130
131 In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
132
133 Yudkowsky's pretension to merely have been standing up for the distinction between facts and policy questions isn't credible: if you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
134
135 (And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
136
137 Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
138
139 Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
140
141 I was physically shaking. I remember going downstairs to confide in a senior engineer about the situation. But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help. (And I hadn't intended to talk about gender on that account yet, although that seemed less important given the present crisis.)
142
143 It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232), and that, because I cared very much about correcting what I claim are confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time, and that, if he liked the post, he might consider Tweeting a link.
144
145 [TODO (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)")]
146
147 The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
148
149 Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ on of your posts? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that it was a way to signal that I _really really didn't want to be ignored_.
150
151 [TODO: and cc'd Michael and Anna as character references]
152
153 [TODO: I did successfully interest Michael, who chimed in—Michael called me up and we talked about how the "rationalists" were over]
154
155 [TODO: as with earlier cheerful price offer, I can't confirm or deny whether Yudkowsky replied or whether he accepted the cheerful price offer]
156
157 [TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder? https://twitter.com/ESYudkowsky/status/1068071036732694529 ]
158
159 Greedy or not, I wasn't satisfied. On 1 December, I wrote to Scott Alexander, asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
160
161 The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to [draw your category boundaries such that](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes) of short words on the simplest and most wide-rangingly useful categories.
162
163 It's true that the reason _I_ was continuing to freak out about this to the extent of sending you him this obnoxious email telling him what to write (seriously, what kind of asshole does that?!) has to with transgender stuff, but that's not the reason _Scott_ should care. Rather, it's like [his parable about whether thunder or lightning comes first](http://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/): there aren't many direct non-rationalizable-around consequences of the sacred dogmas that thunder comes before lightning or that biological sex somehow isn't real; the problem is that the need to _defend_ the sacred dogma _destroys everyone's ability to think_. If our vaunted rationality techniques result in me having to spend dozens of hours patiently explaining why I don't think that I'm a woman and that [the person in this photograph](https://daniellemuscato.startlogic.com/uploads/3/4/9/3/34938114/2249042_orig.jpg) isn't a woman, either (where "isn't a woman" is a convenient rhetorical shorthand for a much longer statement about [naïve Bayes models](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes) and [high-dimensional configuration spaces](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) and [defensible Schelling points for social norms](https://www.lesswrong.com/posts/Kbm6QnJv9dgWsPHQP/schelling-fences-on-slippery-slopes)), then our techniques are _worse than useless_. If Galileo ever muttered "And yet it moves", there's a long and nuanced conversation you could have about the consequences of using the word "moves" in Galileo's preferred sense or some other sense that happens to result in the theory needing more epicycles. It may not have been obvious in 2014, but in retrospect, _maybe_ it was a _bad_ idea to build a [memetic superweapon](https://archive.is/VEeqX) that says the number of epicycles _doesn't matter_.
164
165 And the reason to write this is a desperate email plea to Scott Alexander when I could be working on my own blog, was that I was afraid that marketing is a more powerful force than argument. Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't [win the talent lottery](http://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) but think they see a flaw in the Zeitgeist, the winning move is "persuade Scott Alexander".
166
167 So, what do you say, Scott? Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we don't. If you don't want to cite my creepy blog about my creepy fetish, that's fine. I like getting credit, but the important thing is that this "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming that!—it's just that utilitarianism implies that the social property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needs to _die_. You alone can kill it.
168
169 ... Scott didn't get it.
170
171 [TODO: paraphrase remaining interaction with Scott, or not worth the space?
172
173 > I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
174
175 helping Norton live in the real world
176
177 If any concrete negative consequence of taking gender self-identity categories (e.g., more sexual assaults) is going to be waved away with "Oh, that's a mere policy decision that can be dealt with on some basis other than gender, and therefore doesn't count as an objection to the new definition of gender categories", then I guess I can't argue with that. But I wish I knew what happened to my wallet.
178
179 Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious. 
180 ]
181
182 [TODO: connecting with Aurora 8 December, maybe not important]
183
184 Anna told me that my "You have to pass my litmus test or I lose all respect for you as a rationalist" attitude was psychologically coercive. I agreed—I was even willing to go up to "violent"—in the sense that it's [trying to apply social incentives towards an outcome rather than merely exchanging information](http://zackmdavis.net/blog/2017/03/an-intuition-on-the-bayes-structural-justification-for-free-speech-norms/).  But sometimes you need to use violence in defense of self or property, even if violence is generally bad. If we think of the "rationalist" label as intellectual property, maybe it's property worth defending, and if so, then "I can define a word any way I want" isn't obviously a terrible time to start shooting at the bandits? What makes my "... or I lose all respect for you as a rationalist" moves worthy of your mild reproach, but "You're not allowed to call this obviously biologically-female person a woman, or I lose all respect for you as not-an-asshole" merely a puzzling sociological phenomenon that might be adaptive in some not-yet-understood way? Isn't the violence-structure basically the same? Is there any room in civilization for self-defense?
185
186 When I told Michael about this, he said that I was ethically or 'legally' in the right here, and the rationalist equivalent of a lawyer matters more for your claims than the equivalent of a scientist, and that Ben Hoffman (who I had already shared the thread with Scott with) would be helpful in solidifying my claims to IP defense. I said that I didn't _feel_ like I'm in the right, even if I can't point to a superior counterargument that I want to yield to, just because I'm getting fatigued from all the social-aggression I've been doing. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)
187
188
189 [TODO: re Ben's involvement—I shared Scott thread with Ben and Katie; Michael said "could you share this with Ben?  I think he is ready to try & help." on 17 December
190 19 December
191 > talk more with Ben Hoffman, he will be more helpful in solidifying your claims about IP defense etc. ]
192 [TOOD: Sarah's involvement: I cc'd her on the 1 December Scott thread, and Sarah chimed in support in that thread, and 16 December draft to Michael]
193
194 to Sarah—
195 > If we have this entire posse, I feel bad/guilty/ashamed about focusing too much on my special interest except insofar as it's actually a proxy for "has Eliezer and/or everyone else [lost the plot](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/), and if so, how do we get it back?"
196
197 Ben's reply—
198 > Your special interest is not just a coincidence here.
199
200 Sarah shying away, my rallying cry—
201
202 > There have been times during the last few weeks where it's felt like my mind has shut down with the only thought, "What the hell am I _doing_? This is _absurd_. Why am I running around picking fights about the philosophy of language—and worse, with me arguing for the _Bad_ Guys' position? I don't want to be one of the Bad Guys. Maybe I'm wrong and should stop making a fool out of myself. After all, using Aumann-like reasoning, in a dispute of 'Zack M. Davis and Michael Vassar vs. _everyone fucking else_', wouldn't I want to bet on 'everyone else'? Obviously."
203
204 > Except that I was raised to believe that you're supposed to concede arguments on the basis of encountering a superior counterargument that makes you change your mind. And I can't actually point to such a counterargument. "Maybe I'm making a fool out of myself by picking fights with all these high-status people" is not a counterargument. When I look at the world, it looks like [Scott](http://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) and [Eliezer](https://twitter.com/ESYudkowsky/status/1067183500216811521) and [Kelsey](https://theunitofcaring.tumblr.com/post/171986501376/your-post-on-definition-of-gender-and-woman-and) and [Robby Bensinger](https://www.facebook.com/robbensinger/posts/10158073223040447?comment_id=10158073685825447&reply_comment_id=10158074093570447&comment_tracking=%7B%22tn%22%3A%22R2%22%7D) seem to think that some variation on ["I can define a word any way I want"]() is sufficient to end debates on transgender identity.
205
206 > And ... I want to be nice to my trans friends, too, but that can't possibly be the definitive end-of-conversation correct argument. Not _really_. Not if you're being serious.
207
208 > But "whatever" is _not a counterargument!_
209
210 > But I want to live in a rationalist community that can actually _update_—where a bad argument by a high-status person will _eventually_ be publicly known to lose to a superior counterargument, even if the person originating the counterargument is lower status and the counterargument happens to have genuinely unfavorable political implications.
211
212 > But ultimately, I've got _something to protect_. This is even more humiliating, really. It's not even a good or wholesome something to protect that you'd feel comfortable blogging about under your own name. It's actually kind of obscene. Good or not, wholesome or not, obscene or not, it's for all the boys like me who had a dream whose proper realization happens to have [_more complicated implementation details_](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) than applying social pressure to make everyone pretend that they've coordinated to redefine a top-20 word. Those boys deserve to not be lied to.
213
214 > I've tried to be pretty explicit about only expecting buy-in for a minimal flag that says, "'I Can Define a Word Any Way I Want' can't be the end of the debate, because choosing to call things different names doesn't change the empirical cluster-structure of bodies and minds in the world; while the same word might legitimately be used with different definitions/extensions in different contexts
215
216 > I do want to distinguish between direct ideological conformity enforcement attempts, and "people not living up to their usual epistemic standards in response to ideological conformity enforcement in the general culture." So-called "rationalists" are actually very good at not-being-persecutory! (I don't think I'd be saying this in the nearby possible world where Scott Siskind didn't have a traumatizing social-justice-shaming experience in college, but it's true here.)
217
218 > I want to emphasize this, because I don't want to fall into the [bravery-debate](http://slatestarcodex.com/2013/05/18/against-bravery-debates/) trap of, "Look at me, I'm so heroically persecuted, therefore I'm right (therefore you should have sex with me)."
219
220 > My hope has been that it's possible to apply just enough "What the fuck kind of rationalist are you?!" social pressure to cancel out the "You don't want to be a Bad (Red) person, do you??" social pressure and thereby let people look at the arguments. I don't know if that actually works.
221
222 > I keep thinking of the part where Dagny entreats the great Dr. Robert Stadler to denounce a not-technically-lying statement by the State Science Institute
223
224 > Imagine your friends got a new front porch installed on your house, and you noticed that the boards were smoother and shinier than you expected. A question you might then ask your friend is, "Oh, is this real wood, or one of those wood-plastic composites?"
225
226 > In phrasing it that way, you're not saying that composites are bad; it's just that it makes sense to use language to asymmetrically distinguish between the natural thing that already existed, and the synthetic thing that has been deliberately engineered to resemble the original thing as much as possible.
227
228 [TODO: 4 January plea to Yudkowsky again—this is the part that I should base my thread analysis off of]
229
230 [TODO: ... email analysis goes up to 4 January]
231
232 [TODO: proton concession]
233
234 [TODO: minor psych episode in March 2019]
235
236 [TODO: "Blegg Mode", "Where to Draw the Boundaries?", and failure /2019/May/hiatus/ ]
237
238 [TODO: more blogging (https://www.lesswrong.com/posts/5aqumaym7Jd2qhDcy/containment-thread-on-the-motivation-and-political-context), 2019 Christmas party, disclaimer on "Categories Were Made"]
239 ["Univariate fallacy" also a concession]
240
241 [TODO: categories clarification from EY—victory?!]
242
243 [TODO: "simplest and best" pronoun proposal, sometimes personally prudent; support from Oli]
244
245
246
247
248 [TODO: the dolphin war, our thoughts about dolphins are literally downstream from Scott's political incentives in 2014; this is a sign that we're a cult]
249
250 [TODO: why you should care; no one should like Scott and Eliezer's proposals; knowledge should go forward, not back — what I would have hoped for, what you can do; hating that my religion is bottlenecked on one guy; the Church is _still there_ sucking up adherents; this is unambiguously a betrayal rather than a mistake]
251 [TODO: the Death With Dignity era]