long confrontation 1: begging Alexander December 2018
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
1 Title: A Hill of Validity in Defense of Meaning
2 Date: 2022-01-01 11:00
3 Category: commentary
4 Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, Scott Alexander, epistemic horror, my robot cult, personal, sex differences, two-type taxonomy
5 Status: draft
6
7 > If you are silent about your pain, they'll kill you and say you enjoyed it.
8 >
9 > —Zora Neale Hurston
10
11 Recapping our story so far—in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I told the the part about how I've "always" (since puberty) had this obsessive sexual fantasy about being magically transformed into a woman and also thought it was immoral to believe in psychological sex differences, until I got set straight by these really great Sequences of blog posts by Eliezer Yudkowsky, which taught me (incidentally, among many other things) how absurdly unrealistic my obsessive sexual fantasy was given merely human-level technology, and that it's actually immoral _not_ to believe in psychological sex differences given that psychological sex differences are actually real. In a subsequent post, ["Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer"](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/), I told the part about how, in 2016, everyone in my systematically-correct-reasoning community up to and including Eliezer Yudkowsky suddenly starting claiming that guys like me might actually be women in some unspecified metaphysical sense, and insisted on playing dumb when confronted with alternative explanations of the relevant phenomena or even just asked what that means, until I eventually had a stress- and sleep-deprivation-induced delusional nervous breakdown, got sent to psychiatric prison once, and then went crazy again a couple months later.
12
13 That's not the really egregious part of the story. The thing is, psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—[not just as an obligatory profession of humility, but _actually_ wrong in the real world](https://www.lesswrong.com/posts/GrDqnMjhqoxiqpQPw/the-proper-use-of-humility). If my fellow rationalists merely weren't sold on the autogynephilia and transgender thing, I would certainly be disappointed, but it's definitely not grounds to denounce the entire community as a failure or a fraud. And indeed, I _did_ [end up moderating my views](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/) compared to the extent to which my thinking in 2016–7 took Blanchard–Bailey–Lawrence as received truth. At the same time, I don't particularly regret saying what I said in 2016–7, because Blanchard–Bailey–Lawrence is still very obviously _directionally_ correct compared to the nonsense everyone else was telling me.
14
15 But a striking pattern in my attempts to argue with people about the two-type taxonomy in late 2016 and early 2017 was the tendency for the conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander arguing that because categories exist in our model of the world rather than the world itself, there's nothing wrong with simply _defining_ trans people to be their preferred gender, in order to alleviate their dysphoria.
16
17 After Yudkowsky had stepped away from full-time writing, Alexander had emerged as our subculture's preeminent writer. Most people in an intellectual scene "are writers" in some sense, but Alexander was the one "everyone" reads: you could reference a _Slate Star Codex_ post in conversation and expect people to familiar with the idea, either from having read it, or by osmosis, by other people having referenced the idea in conversation. The frequency with which "... Not Man for the Categories" was cited at me, seemed to suggest it had become our subculture's "party line" on trans issues.
18
19 But the post is very wrong in very obvious ways. To be clear, it's true _that_ categories exist in our model of the world, rather than the world itself—categories are "map", not "territory"—and it's true that trans women might be women _with respect to_ some genuinely useful definition of the word "woman." However, Alexander goes much further, claiming that we can redefine gender categories _in order to make trans people feel better_:
20
21 > I ought to accept an unexpected man or two deep inside the conceptual boundaries of what would normally be considered female if it'll save someone's life. There's no rule of rationality saying that I shouldn't, and there are plenty of rules of human decency saying that I should.
22
23 This is wrong because categories exist in our model of the world _in order to_ capture empirical regularities in the world itself: the map is supposed to _reflect_ the territory, and there _are_ "rules of rationality" governing what kinds of word and category usages correspond to correct probabilistic inferences. [Yudkowsky wrote a whole Sequence about this](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb) back in 'aught-eight, as part of the original Sequences. Alexander cites [a post](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside) from that Sequence in support of the (true) point about how categories are "in the map" ... but if you actually read the Sequence, another point that Yudkowsky pounds home _over and over and over again_, is that word and category definitions are nevertheless _not_ arbitrary: you can't define a word any way you want, because there are [at least 37 ways that words can be wrong](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)—principles that make some definitions _perform better_ than others as "cognitive technology":
24
25 > ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
26 >
27 > ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
28 >
29 > ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
30 >
31 > ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
32 >
33 > ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
34 >
35 > ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
36 >
37 > ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
38 >
39 > ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
40 >
41 > ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
42 >
43 > ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
44
45 In the case of Alexander's bogus argument about gender categories, the relevant principle ([#30](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) on [the list of 37](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)) is that if group things together in your map that aren't actually similar in the territory, you're going to be misled into making bad predictions.
46
47 Importantly, this is a very general point about how language itself works _that has nothing to do with gender_. No matter what you believe about politically-controversial empirical questions, intellectually honest people should be able to agree that "I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if [positive consequence]" is not the correct philosophy of language, _independently of the particular values of X and Y_.
48
49 Also, this ... really wasn't what I was trying to talk about. _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory of psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. But at this point I still trusted people in my robot cult to be basically intellectually honest, rather than fucking with me because of their political incentives, so I endeavored to respond to the category-boundary argument as if it were a serious argument: when I quit my dayjob in March 2017 in order to have more time to study and work on this blog, the capstone of my sabbatical was an exhaustive response to Alexander, ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (which Alexander [graciously included in his next links post](https://archive.ph/irpfd#selection-1625.53-1629.55)). A few months later, I followed it up with ["Reply to _The Unit of Caring_ on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/), responding to a similar argument. I'm proud of those posts: I think Alexander's and _Unit of Caring_'s arguments were incredibly dumb, and with a lot of effort, I think I did a pretty good job of explaining exactly why to anyone who was interested and didn't, at some level, prefer not to understand.
50
51 Of course, a pretty good job of explaining by one niche blogger wasn't going to put much of a dent in the culture, which is the sum of everyone else's blogposts; despite the mild boost from the _Slate Star Codex_ links post, my megaphone just wasn't very big. At this point, I was _disappointed_ with the limited impact of my work, but not to the point of bearing much hostility to "the community". People had made their arguments, and I had made mine; I didn't think I was _entitled_ to anything more than that.
52
53 ... and, really, that _should_ have been the end of the story. Not much of a story at all. If I hadn't been further provoked, I would have still kept up this blog, and I still would have ended up arguing about gender with people occasionally, but this personal obsession of mine wouldn't have been the occasion of a full-on robot-cult religious civil war.
54
55 The _causis belli_ for the religious civil war happened on 28 November 2018. I was at my new dayjob's company offsite event in Austin. Coincidentally, I had already spent much of the afternoon arguing trans issues with other "rationalists" on Discord. [TODO: review Discord logs; email to Dad suggests that offsite began on the 26th, contrasted to first shots on the 28th]
56
57 Just that month, I had started a Twitter account in my own name, inspired in an odd way by the suffocating [wokeness of the open-source software scene](/2018/Oct/sticker-prices/) where I [occasionally contributed diagnostics patches to the compiler](https://github.com/rust-lang/rust/commits?author=zackmdavis). My secret plan/fantasy was to get more famous/established in the that world (one of compiler team membership, or conference talk accepted, preferably both), get some corresponding Twitter followers, and _then_ bust out the Blanchard retweets and links to this blog. In the median case, absolutely nothing would happen (probably because I failed at being famous), but I saw an interesting tail of scenarios in which I'd get to be a test case in the Code of Conduct wars.
58
59 So, now having a Twitter account, I was browsing Twitter in the bedroom at the rental house for the dayjob retreat, when I happened to come across [this thread by @ESYudkowsky](https://twitter.com/ESYudkowsky/status/1067183500216811521):
60
61 > Some people I usually respect for their willingness to publicly die on a hill of facts, now seem to be talking as if pronouns are facts, or as if who uses what bathroom is necessarily a factual statement about chromosomes. Come on, you know the distinction better than that!
62 >
63 > _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
64 >
65 > In saying this, I am not taking a stand for or against any Twitter policies. I am making a stand on a hill of meaning in defense of validity, about the distinction between what is and isn't a stand on a hill of facts in defense of truth.
66 >
67 > I will never stand against those who stand against lies. But changing your name, asking people to address you by a different pronoun, and getting sex reassignment surgery, Is. Not. Lying. You are _ontologically_ confused if you think those acts are false assertions.
68
69 Some of the replies tried explain the problem—and Yudkowsky kept doubling down:
70
71 > Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
72
73 and
74
75 > You're mistaken about what the word means to you, I demonstrate thus:
76 https://en.wikipedia.org/wiki/XX_male_syndrome
77 >
78 > But even ignoring that, you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning.
79
80 Dear reader, this is the moment where I _flipped the fuck out_. If the rationalists didn't [click](https://www.lesswrong.com/posts/R3ATEWWmBhMhbY2AL/that-magical-click) on the autogynephilia thing, that was disappointing, but forgivable. If the rationalists, on Scott Alexander's authority, were furthermore going to get our own philosophy of language wrong over this, that was—I don't want to say _forgivable_ exactly, but it was—tolerable. I had learned from my misadventures the previous year that I had been wrong to trust "the community" as a reified collective and put it on a pedastal—that had never been a reasonable mental stance in the first place.
81
82 But trusting Eliezer Yudkowsky—whose writings, more than any other single influence, had made me who I am—_did_ seem reasonable. If I put him on a pedastal, it was because he had earned the pedastal, for supplying me with my criteria for how to think—including, as a trivial special case, how to think about what things to put on pedastals.
83
84 So if the rationalists were going to get our own philosophy of language wrong over this _and Eliezer Yudkowsky was in on it_ (!!!), that was intolerable—and would be unforgivable if it weren't so _inexplicable_.
85
86 ... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
87
88 At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's _bizarre_ to condescendingly point this out _as if it were the crux of contemporary trans-rights debates_. Conservatives and gender-critical feminists _know_ that trans-rights advocates aren't falsely claiming that trans women have XX chromosomes. But the question of what categories epistemically "carve reality at the joints", is _not unrelated_ to the question of which categories to use in policy decisions: the _function_ of sex-segrated bathrooms is to protect females from males, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
89
90 Even if the thread only explicitly mentioned pronouns and not the noun "woman", in practice, and in the context of elite intellectual American culture in which "trans women are women" is dogma, I don't see any _meaningful_ difference between "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning" and "I can define the word 'woman' any way I want." (About which, the Yudkowsky of 2008 had some harsh things to say, as excerpted above.) It's hard to read the Tweets Yudkowsky published as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity. [For example](https://twitter.com/ESYudkowsky/status/1067490362225156096), deeper in the thread, Yudkowsky wrote:
91
92 > The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
93
94 Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
95
96 Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
97
98 But the _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different.
99
100 [TODO: relevance of multivariate—
101
102 Different traits have different relevance to different sports; the fact that it's apples-to-oranges is _why_ women do better in ultraswimming—that competition is sampling a corner of sportspace where body fat is an advantage
103
104 It's not that females and males are exactly the same except males are 10% stronger on average
105
106 It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight"
107
108 https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
109 https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
110
111 If you just had one integrated league, females wouldn't be competitive (in almost all sports, with some exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/)).
112 ]
113
114 [TODO: sentences about studies showing that HRT doesn't erase male advantage
115 https://twitter.com/FondOfBeetles/status/1368176581965930501
116 https://link.springer.com/article/10.1007/s40279-020-01389-3
117 https://bjsm.bmj.com/content/55/15/865
118 ]
119
120 [TODO sentences about Lia Thomas and Cece Tefler  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's feats occured after Yudkowsky's 2018 Tweets, but this kind of thing was easily predictable to anyone familiar with sex differences—cite South Park)
121 https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
122 https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
123 https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
124 https://www.swimmingworldmagazine.com/news/a-look-at-the-numbers-and-times-no-denying-the-advantages-of-lia-thomas/
125 ]
126
127 Given the empirical reality of the different multivariate trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine. Including male people in female sports leagues undermines the point of having a separate female league. 
128
129 (Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
130
131 In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
132
133 Yudkowsky's pretension to merely have been standing up for the distinction between facts and policy questions isn't credible: if you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
134
135 (And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
136
137 Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
138
139 Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
140
141 I was physically shaking. I remember going downstairs to confide in a senior engineer about the situation. But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help. (And I hadn't intended to talk about gender on that account yet, although that seemed less important given the present crisis.)
142
143 It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232), and that, because I cared very much about correcting what I claim are confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time, and that, if he liked the post, he might consider Tweeting a link.
144
145 [TODO (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)")]
146
147 The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
148
149 Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ on of your posts? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that it was a way to signal that I _really really didn't want to be ignored_.
150
151 [TODO: and cc'd Michael and Anna as character references]
152
153 [TODO: I did successfully interest Michael, who chimed in—Michael called me up and we talked about how the "rationalists" were over]
154
155 [TODO: as with earlier cheerful price offer, I can't confirm or deny whether Yudkowsky replied or whether he accepted the cheerful price offer]
156
157 [TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder? https://twitter.com/ESYudkowsky/status/1068071036732694529 ]
158
159 Greedy or not, I wasn't satisfied. On 1 December, I wrote to Scott Alexander, asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
160
161 The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to draw your category boundaries such that things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget]() of short words on the simplest and most wide-rangingly useful categories
162
163 [TODO: email Scott 1 December (cc Anna Jonah Sarah Michael) "is there any chance of getting an explicit and loud clarification and/or partial-retraction of "The Categories Were Made for Man"?"—writing to him because marketing is a more powerful force than argument;
164
165 > Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't win the talent lottery but think they see a flaw in the Zeitgeist, the winning move is "persuade Scott Alexander".
166 > So, what do you say, Scott? Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we don't.
167 > "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming that!—it's just that utilitarianism implies that the social property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needs to die. You alone can kill it. My model of you assigns more than 20% probability that you will.
168
169 > I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
170
171 helping Norton live in the real world
172 ]
173
174 [TODO: re Ben's involvement—I shared Scott thread with Ben and Katie; Michael said "could you share this with Ben?  I think he is ready to try & help." on 17 December
175 19 December
176 > talk more with Ben Hoffman, he will be more helpful in solidifying your claims about IP defense etc. You are ethically or 'legally' in the right here, and the rationalist equivalent of a lawyer matters more for your claims than the equivalent of a scientist.]
177 [TOOD: Sarah's involvement: I cc'd her on the 1 December Scott thread, and 16 December draft to Michael]
178
179 To Anna—
180 > I agree that "You have to pass my litmus test or I lose all respect for you as a rationalist" is psychologically coercive (I'm even willing to say "violent") in the sense that it's trying to apply social incentives towards an outcome rather than merely exchanging information. But sometimes you need to use violence in defense of self or property, even if violence is generally bad.
181
182 > If we think of the "rationalist" label as intellectual property, maybe it's property worth defending, and if so, then "I can define a word any way I want" isn't obviously a terrible time to start shooting at the bandits.
183
184 > What makes my "... or I lose all respect for you as a rationalist" moves worthy of your mild reproach, but "You're not allowed to call this obviously biologically-female person a woman, or I lose all respect for you as not-an-asshole" merely a puzzling sociological phenomenon that might be adaptive in some not-yet-understood way? Isn't the violence-structure basically the same? Is there any room in civilization for self-defense?
185
186 commentary to Michael—
187 > I don't feel like I'm in the right, even if I can't point to a superior counterargument that I want to yield to, just because I'm getting fatigued from all the social-aggression I've been doing. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)
188
189 to Sarah—
190 > If we have this entire posse, I feel bad/guilty/ashamed about focusing too much on my special interest except insofar as it's actually a proxy for "has Eliezer and/or everyone else lost the plot, and if so, how do we get it back?"
191
192 [TODO: getting support from Michael + Ben + Sarah, harrassing Scott and Eliezer]
193
194 [TODO: proton concession]
195
196 [TODO: minor psych episode in March 2019]
197
198 [TODO: "Blegg Mode", "Where to Draw the Boundaries?", and failure /2019/May/hiatus/ ]
199
200 [TODO: more blogging (https://www.lesswrong.com/posts/5aqumaym7Jd2qhDcy/containment-thread-on-the-motivation-and-political-context), 2019 Christmas party, disclaimer on "Categories Were Made"]
201 ["Univariate fallacy" also a concession]
202
203 [TODO: categories clarification from EY—victory?!]
204
205 [TODO: "simplest and best" pronoun proposal, sometimes personally prudent; support from Oli]
206
207
208
209
210 [TODO: the dolphin war, our thoughts about dolphins are literally downstream from Scott's political incentives in 2014; this is a sign that we're a cult]
211
212 [TODO: why you should care; no one should like Scott and Eliezer's proposals; knowledge should go forward, not back — what I would have hoped for, what you can do; hating that my religion is bottlenecked on one guy; the Church is _still there_ sucking up adherents; this is unambiguously a betrayal rather than a mistake]
213 [TODO: the Death With Dignity era]