check in, but tomorrow is going to be a big day
[Ultimately_Untrue_Thought.git] / content / drafts / sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
index 75ee693..dffc7df 100644 (file)
@@ -1,7 +1,7 @@
 Title: Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems
 Date: 2021-02-14 05:00
 Category: commentary
-Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, epistemic horror, my robot cult, personal, sex differences, Star Trek, Julia Serano
+Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, Scott Alexander, epistemic horror, my robot cult, personal, sex differences, Star Trek, Julia Serano
 Status: draft
 
 > _I'll write my way out  
@@ -15,7 +15,7 @@ Status: draft
 
 So, as I sometimes allude to, I've spent basically my entire adult life in this insular intellectual subculture that was founded in the late 'aughts to promulgate an ideal of _systematically correct reasoning_—general methods of thought that result in true beliefs and successful plans—and, [incidentally](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes), to use these methods of systematically correct reasoning to prevent superintelligent machines from [destroying all value in the universe](https://www.lesswrong.com/posts/GNnHHmm8EzePmKzPk/value-is-fragile). Lately I've been calling it my "robot cult" (a phrase [due to Dale Carrico](https://amormundi.blogspot.com/2011/08/ten-reasons-to-take-seriously.html))—the pejorative is partially [ironically affectionate](https://www.lesswrong.com/posts/gBma88LH3CLQsqyfS/cultish-countercultishness), and partially an expression of betrayal-trauma acquired from that time almost everyone I [used to trust](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) insisted on, on ...
 
-Well. That's a _long story_—for another time, perhaps. For _now_, I want to explain how my robot cult's foundational texts had an enormous influence on my self-concept in relation to sex and gender.
+Well. That's a _long story_. To _start_, I want to explain how my robot cult's foundational texts had an enormous influence on my self-concept in relation to sex and gender.
 
 It all started in summer 2007 (I was nineteen years old), when I came across _Overcoming Bias_, a blog on the theme of how to achieve more accurate beliefs. (I don't remember exactly how I was referred, but I think it was likely to have been [a link from Megan McArdle](https://web.archive.org/web/20071129181942/http://www.janegalt.net/archives/009783.html), then writing as "Jane Galt" at _Asymmetrical Information_.)
 
@@ -70,7 +70,7 @@ The beautiful pure sacred self-identity thing doesn't _feel_ explicitly erotic.
 
 Now I am not a cognitive scientist, and can't claim to _know_ exactly what my beautiful pure sacred self-identity thing is, or where it comes from—that's [not the kind of thing I would expect people to _know_ from introspection alone](/2016/Sep/psychology-is-about-invalidating-peoples-identities/). But it has always seemed like a pretty obvious guess that there must have been _some sort of causal relationship_ between the erotic thing, and the beautiful pure sacred self-identity thing, even if the two things don't _feel_ the same: the overlap in subject matter is too much to be a coincidence. And the erotic thing definitely came _first_.
 
-Maybe this story reads differently in 2020 from how it was to live in the 'aughts? I think that teenage boys in the current year having the kind of feelings I was having then, upon referencing or hinting at the beautiful pure sacred self-identity thing—
+Maybe this story reads differently in 2021 from how it was to live in the 'aughts? I think that teenage boys in the current year having the kind of feelings I was having then, upon referencing or hinting at the beautiful pure sacred self-identity thing—
 
 (and the beautiful pure sacred self-identity thing is _much_ easier to talk about than the erotic thing)
 
@@ -80,9 +80,9 @@ Maybe this story reads differently in 2020 from how it was to live in the 'aught
 
 But it was a different time, then. Of course I had _heard of_ transsexualism as a thing, in the form of the "woman trapped in a man's body" trope, but it wasn't something I expected to actually encounter in real life. (I understood my "tranny girl" song to reflect an idle fantasy, not a legitimate life plan.)
 
-At the time, I had _no reason to invent the hypothesis_ that I might somehow literally be a woman in some unspecified psychological sense. I knew I was a boy _because_ boys are the ones with penises. That's what the word _means_. I was a boy who had a weird _sex fantasy_ about being a girl. That was just the obvious ordinary straightforward plain-language description of the situation. It _never occured to me_ to couch it in the language of "dysphoria", or actually possessing some innate "gender". The beautiful pure sacred self-identity thing was about identifying _with_ women, not identifying _as_ a woman—roughly analogous to how a cat lover might be said to "identify with" cats, without claiming to somehow _be_ a cat, because _that would be crazy_.
+At the time, I had _no reason to invent the hypothesis_ that I might somehow literally be a woman in some unspecified psychological sense. I knew I was a boy _because_ boys are the ones with penises. That's what the word _means_. I was a boy who had a weird _sex fantasy_ about being a girl. That was just the obvious ordinary straightforward plain-language description of the situation. It _never occured to me_ to couch it in the language of "dysphoria", or actually possessing some innate "gender". The beautiful pure sacred self-identity thing was about identifying _with_ women, not identifying _as_ a woman—[roughly analogous to how](/2017/Jul/interlude-vi/) a cat lover might be said to "identify with" cats, without claiming to somehow _be_ a cat, because _that would be crazy_.
 
-[It was while browsing _Wikipedia_ in 2006 that I encountered the obvious and perfect word for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)—_autogynephilia_, from the Greek for "[love of](https://en.wiktionary.org/wiki/-philia) [oneself as](https://en.wiktionary.org/wiki/auto-#English) [a woman](https://en.wiktionary.org/wiki/gyno-)." I was actually surprised that it turned out to have been coined in the context of a theory (by clinical psychologist Ray Blanchard) that it was the root cause of one of two types of male-to-female transsexualism.
+[It was while browsing _Wikipedia_ in 2006 that I encountered the obvious and perfect word for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)—_autogynephilia_, from the Greek for "[love of](https://en.wiktionary.org/wiki/-philia) [oneself as](https://en.wiktionary.org/wiki/auto-#English) [a woman](https://en.wiktionary.org/wiki/gyno-)." I was actually surprised that it turned out to have been coined in the context of a theory (by clinical sexual psychologist Ray Blanchard) that it was the root cause of one of two types of male-to-female transsexualism.
 
 You see, a very important feature of my gender-related thinking at the time was that I was growing very passionate about—well, in retrospect I call it _psychological-sex-differences denialism_, but at the time I called it _antisexism_. Where sometimes people in the culture would make claims about how women and men are psychologically different, and of course I knew this was _bad and wrong_. Therefore the very idea of transsexualism was somewhat suspect insofar as it necessarily depends on the idea that women and men are psychologically different (in order for it to be possible to be in the "wrong" body).
 
@@ -140,7 +140,7 @@ There was an advice columnist, [Amy Alkon](http://www.advicegoddess.com/), whose
 > Because the world's not girls and guys  
 > Cave men and women fucking 'round the fire in the night_
 
-Looking back with the outlook later acquired from my robot cult, this is abhorrent. You don't _casually wish death_ on someone just because you disagree with their theory of psychology! Even if it wasn't in a spirit of personal malice (this was a song I sung to myself, not an actual threat directed at Amy Alkon's inbox), the sentiment just _isn't done_. But at the time, I _didn't notice there was anything wrong with my song_. Having not yet been socialized into the refined ethos of "False ideas should be argued with, but we too may have ideas that are false", I was still inhabiting the natural mode of lamenting the badness and wrongness of people who are wrong and bad.
+Looking back with the outlook later acquired from my robot cult, this is abhorrent. You don't _casually wish death_ on someone just because you disagree with their theory of psychology! Even if it wasn't in a spirit of personal malice (this was a song I sung to myself, not an actual threat directed to Amy Alkon's inbox), the sentiment just _isn't done_. But at the time, I _didn't notice there was anything wrong with my song_. Having not yet been socialized into the refined ethos of "False ideas should be argued with, but heed that we too may have ideas that are false", I was still inhabiting the natural mode of lamenting the badness and wrongness of people who are wrong and bad.
 
 [TODO: this denial was in the background in "The Opposite Sex" (https://web.archive.org/web/20130216025508/http://lesswrong.com/lw/rp/the_opposite_sex/), Yud on "men should think of themselves as men" / "I often wish some men/women would appreciate"
 
@@ -228,7 +228,7 @@ Statistical sex differences are like flipping two different collections of coins
 
 A single-variable measurement like height is like a single coin: unless the coin is _very_ biased, one flip can't tell you much about the bias. But there are lots of things about people for which it's not that they can't be measured, but that the measurements require _more than one number_—which correspondingly offer more information about the distribution generating them.
 
-And knowledge about the distribution is genuinely informative. Occasionally you hear progressive-minded people dismiss and disdain simpleminded transphobes who believe that chromosomes determine sex, when actually, most people haven't been karyotyped and don't _know_ what chromosomes they have. Certainly, I agree that almost no one interacts with sex chromosomes on a day-to-day basis; no one even knew that sex chromosomes _existed_ before 1905. [(Co-discovered by a woman!)](https://en.wikipedia.org/wiki/Nettie_Stevens) But the function of [intensional definitions](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions) in human natural language isn't to exhaustively [pinpoint](https://www.lesswrong.com/posts/3FoMuCLqZggTxoC3S/logical-pinpointing) a concept in the detail it would be implemented in an AI's executing code, but rather to provide a "treasure map" sufficient for a listener to pick out the corresponding concept in their own world-model: that's why [Diogenes exhibiting a plucked chicken in response to Plato's definition of a human as a "featherless biped"](https://www.lesswrong.com/posts/jMTbQj9XB5ah2maup/similarity-clusters) seems like a cheap "gotcha"—we all instantly know that's not what Plato meant. ["The challenge is figuring out which things are similar to each other—which things are clustered together—and sometimes, which things have a common cause."](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) But sex chromosomes, and to a large extent specifically the [SRY gene](https://en.wikipedia.org/wiki/Testis-determining_factor) located on the Y chromosome, _are_ such a common cause—the root of the [causal graph](https://www.lesswrong.com/posts/hzuSDMx7pd2uxFc5w/causal-diagrams-and-causal-models) underlying all _other_ sex differences. A smart natural philosopher living _before_ 1905, knowing about all the various observed differences between women and men, might have guessed at the existence of some molecular mechanism of sex determination, and been _right_. By the "treasure map" standard, "XX is female; XY is male" is a pretty _well-performing_ definition—if you're looking for a [_simple_ membership test](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) that provides a lot of information about the many intricate ways in which females and males statistically differ.
+And knowledge about the distribution is genuinely informative. Occasionally you hear progressive-minded people [dismiss and disdain simpleminded transphobes who believe that chromosomes determine sex](https://archive.is/y5V9i), when actually, most people haven't been karyotyped and don't _know_ what chromosomes they have. Certainly, I agree that almost no one interacts with sex chromosomes on a day-to-day basis; no one even knew that sex chromosomes _existed_ before 1905. [(Co-discovered by a woman!)](https://en.wikipedia.org/wiki/Nettie_Stevens) But the function of [intensional definitions](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions) in human natural language isn't to exhaustively [pinpoint](https://www.lesswrong.com/posts/3FoMuCLqZggTxoC3S/logical-pinpointing) a concept in the detail it would be implemented in an AI's executing code, but rather to provide a "treasure map" sufficient for a listener to pick out the corresponding concept in their own world-model: that's why [Diogenes exhibiting a plucked chicken in response to Plato's definition of a human as a "featherless biped"](https://www.lesswrong.com/posts/jMTbQj9XB5ah2maup/similarity-clusters) seems like a cheap "gotcha"—we all instantly know that's not what Plato meant. ["The challenge is figuring out which things are similar to each other—which things are clustered together—and sometimes, which things have a common cause."](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) But sex chromosomes, and to a large extent specifically the [SRY gene](https://en.wikipedia.org/wiki/Testis-determining_factor) located on the Y chromosome, _are_ such a common cause—the root of the [causal graph](https://www.lesswrong.com/posts/hzuSDMx7pd2uxFc5w/causal-diagrams-and-causal-models) underlying all _other_ sex differences. A smart natural philosopher living _before_ 1905, knowing about all the various observed differences between women and men, might have guessed at the existence of some molecular mechanism of sex determination, and been _right_. By the "treasure map" standard, "XX is female; XY is male" is a pretty _well-performing_ definition—if you're looking for a [_simple_ membership test](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) that provides a lot of information about the many intricate ways in which females and males statistically differ.
 
 Take faces. People are [verifiably very good at recognizing sex from (hair covered, males clean-shaven) photographs of people's faces](/papers/bruce_et_al-sex_discrimination_how_do_we_tell.pdf) (96% accuracy, which is the equivalent of _d_ ≈ 3.5), but we don't have direct introspective access into what _specific_ features our brains are using to do it; we just look, and _somehow_ know. The differences are real, but it's not a matter of any single, simple measurement you could perform with a ruler (like the distance between someone's eyes). Rather, it's a high-dimensional _pattern_ in many measurements you could take with a ruler, no one of which is definitive. [Covering up the nose makes people slower and slightly worse at sexing faces, but people don't do better than chance at guessing sex from photos of noses alone](/papers/roberts-bruce-feature_saliency_in_judging_the_sex_and_familiarity_of_faces.pdf).
 
@@ -352,7 +352,7 @@ Since we _don't_ have that ... the existing approximations don't really seem lik
 
 As a computer programmer, I have learned to fear complexity and dependencies. If you've ever wondered why it seems like [all software is buggy and terrible](https://danluu.com/everything-is-broken/), it's because _no one knows what they're doing_. Each individual programmer and engineer understands their _piece_ of the system well enough that companies can ship products that mostly do what they claim, but there's a lot of chaos and despair where the pieces don't quite fit, and no one knows why. (Maybe _someone_ could figure it out in a reasonable amount of time, but the user who is suffering and in pain has no way of buying their attention.)
 
-But computing is the _easy_ case, a universe entirely of human design, of worlds that can be made and unmade on a whim (when that whim is specified in sufficient detail). Contrast that to the unfathomable messiness of _biology_, and I think I have reason to be wary of signing up to be a _lifelong medical patient_. Not out of any particular distrust of doctors and biomedical engineers, but out of respect that their jobs—not necessarily the set of tasks they do to stay employed at actually existing hospitals and corporations, but the idealized Platonic forms of _their jobs_—are _much harder_ than almost anyone realizes.
+But computing is the _easy_ case, a universe entirely of human design, of worlds that can be made and unmade on a whim (when that whim is specified in sufficient detail). Contrast that to the unfathomable messiness of evolved biological systems, and I think I have [reason to be wary](https://www.nickbostrom.com/evolution.pdf) of signing up to be a _lifelong medical patient_. Not out of any particular distrust of doctors and biomedical engineers, but out of respect that their jobs—not necessarily the set of tasks they do to stay employed at actually existing hospitals and corporations, but the idealized Platonic forms of _their jobs_—are _much harder_ than almost anyone realizes.
 
 _All_ drugs have side-effects; _all_ surgeries have the potential for complications. Through centuries of trial and error (where "error" means suffering and disfigurement and death), our civilization has accumulated a suite of hacks for which the benefits seem to exceed the costs (given circumstances you would prefer not to face in the first place).
 
@@ -504,7 +504,7 @@ Peer-reviewed scientific papers aren't enough for you? (They could be cherry-pic
 
 [TODO: another clinical perspective: Dr. Will Powers https://www.facebook.com/strohl89/posts/10157396578969598 ]
 
-Don't trust scientists or clinicians? Me neither! ([Especially](/2017/Mar/fresh-princess/) [not](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/) [clinicians](TODO: Dr. W correspondence).) Want first-person accounts from trans women themselves? Me too! And there's lots!
+Don't trust scientists or clinicians? Me neither! (Especially [not clinicians](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/).) Want first-person accounts from trans women themselves? Me too! And there's lots!
 
 Consider this passage from Dierdre McCloskey's memoir _Crossing_, writing in the third person about her decades identifying as a heterosexual crossdresser before transitioning at age 53:
 
@@ -514,6 +514,8 @@ Or consider this passage from Julia Serano's _Whipping Girl_ (I know I [keep](/2
 
 > There was also a period of time when I embraced the word "pervert" and viewed my desire to be female as some sort of sexual kink. But after exploring that path, it became obvious that explanation could not account for the vast majority of instances when I thought about being female in a nonsexual context.
 
+"It became obvious that explanation could not account."
+
 [TODO: I also think about it nonsexually—my beautiful pure sacred self-identity thing—but "became obvious" is wrong. Contrast to androphilic type is a clue that this is not what brain-intersex looks like. Analogy to broken ankles—there's going to be a fact of the matter. Trust people are telling the truth about their own experiences, but can get the causality wrong. I used to cut myself.]
 
 [TODO: more causal confusion in people I talk to. One said AGP transition could be possible but very rare, and the same goddamned person is on the record as being into TF porn at 19 when their dysphoria kicked in; or someone dissed Blanchard, but endorses Anne Vitale, which makes the same observations and arrives at the same taxonomy, but dresses it up in socially-desirable language
@@ -554,7 +556,7 @@ Or there's a piece that makes the rounds on social media occasionally: ["I Am A
 
 If boys are shit, and the rules say that you have to see someone as a girl if they _say_ they're a girl, that provides an incentive [on the margin](https://www.econlib.org/library/Enc/Marginalism.html) to identify as trans, which could intensify the interpretation of autogynephilic attraction as a [ego-syntonic](https://en.wikipedia.org/wiki/Egosyntonic_and_egodystonic) beautiful pure sacred self-identity thing (rather than an ego-dystonic sex thing to be ashamed of), or be a source of gender dysphoria in males who aren't autogynephilic at all.
 
-To the extent that "cognitive" things like internalized misandry manifesting as sex dysphoria is common (or has _become_ more common in the recent cultural environment), then maybe the two-type taxonomy isn't androphilic/autogynephilic so much as it is androphilic/"not-otherwise-specified": the early-onset type is very behaviorally distinct and has a very straightforward motive to transition (it would be _less_ weird not to); it might not be as easy for a clinician to distinguish autogynephilia from other sources of gender problems in the grab-bag of all males showing up to the gender clinic for any other reason.
+To the extent that "cognitive" things like internalized misandry manifesting as sex dysphoria is common (or has _become_ more common in the recent cultural environment), then maybe the two-type taxonomy isn't androphilic/autogynephilic so much as it is androphilic/"not-otherwise-specified": the early-onset type is very behaviorally distinct and has a very straightforward motive to transition (it would be _less_ weird not to); in contrast, it might not be as easy to distinguish autogynephilia from _other_ sources of gender problems in the grab-bag of all males showing up to the gender clinic for any other reason.
 
 Whatever the True Causal Graph looks like—however my remaining uncertainty turns out to resolve in the limit of sufficiently advanced psychological science, I think I _obviously_ have more than enough evidence to reject the mainstream ["inner sense of gender"](https://www.drmaciver.com/2019/05/the-inner-sense-of-gender/) story as _not adding up_.
 
@@ -568,7 +570,49 @@ Men who fantasize about being women do not particularly resemble actual women! W
 
 The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2021 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity or hurt feelings as costs), also [can't get heliocentrism right in 1633](https://en.wikipedia.org/wiki/Galileo_affair) [_for the same reason_](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to)—and I really doubt it can get AI alignment theory right in 2041.
 
-[TODO: or at least, even if there are things we can't talk about, we should at least want to avoid dark side epistemology. Briefly tell the story of the Category War?—but try to keep it brief and not-personal; the focus should be on dark side epistemology, rather than re-picking my fight with S.A. or E.Y. (maybe don't name them, but describe the abstract dynamics and link). "Everyone else shot first." Wasn't what I was trying to talk about, but I took the bait. For me, this isn't just a "political" topic—I actually need the right answer in order to decide whether or not to cut my dick off]
+Or at least—even if there are things we can't talk about in public for consequentialist reasons and there's nothing to be done about it, you would hope that the censorship wouldn't distort our beliefs about the things we _can_ talk about. Yudkowsky had written about the [dark side epistemology](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology) and [contagious lies](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies): trying to protect a false belief doesn't just mean being wrong about that one thing, it also gives you, on the object level, an incentive to be wrong about anything that would _imply_ the falsity of the protected belief—and, on the meta level, an incentive to be wrong _about epistemology itself_, about how "implying" and "falsity" work.
+
+So, a striking thing about my series of increasingly frustrating private conversations and subsequent public Facebook meltdown (the stress from which soon landed me in psychiatric jail, but that's [another](/2017/Mar/fresh-princess/) [story](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)) was the tendency for some threads of conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) by Scott Alexander, the _second_ most prominent writer in our robot cult.
+
+So, this _really_ wasn't what I was trying to talk about; _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory in psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. 
+
+Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—not just as a formal profession of modesty, but _actually_ wrong in the real world. But this "I can define the word _woman_ any way I want" mind game? _That_ part was _absolutely_ clear-cut. That part of the argument, I knew I could win. [We had a whole Sequence about this](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) back in 'aught-eight, in which Yudkowsky pounded home this _exact_ point _over and over and over again_, that word and category definitions are _not_ arbitrary, because there are criteria that make some definitions _perform better_ than others as "cognitive technology"—
+
+> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
+
+> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+
+> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+
+> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
+
+> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
+
+> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+
+> ["And people are lazy.  They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
+
+> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
+
+> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
+
+> ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
+
+So, because I trusted people in my robot cult to be dealing in good faith rather than fucking with me because of their political incentives, I took the bait. I ended up spending three years of my life re-explaining the relevant philosophy-of-language issues in exhaustive, _exhaustive_ detail, at first in the object-level context of gender on this blog (in ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), and the ["Reply on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/)), and later (after [Eliezer Yudkowsky joined in the mind games on Twitter in November 2018](https://twitter.com/ESYudkowsky/status/1067183500216811521), and I _flipped the fuck out_) [strictly abstractly](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [on](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) [the](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception) [robot](https://www.lesswrong.com/posts/4hLcbXaqudM9wSeor/philosophy-in-the-darkest-timeline-basics-of-the-evolution)-[cult](https://www.lesswrong.com/posts/YptSN8riyXJjJ8Qp8/maybe-lying-can-t-exist) [blog](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception).
+
+[TODO: 
+
+_Everyone else shot first_. 
+
+"You can't define a word any way you want" and "You can" are both true in different senses, but if you opportunistically choose which one to emphasize
+
+_I need the right answer in order to decide whether or not to cut my dick off_—if I were dumb enough to believe Yudkowsky's insinuation that pronouns don't have truth conditions, I might have made a worse decision
+
+If rationality is useful for anything, it should be useful for practical life decisions like this
+
+the hypocrisy of "Against Lie Inflation"
+
+]
 
 Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
 
@@ -594,7 +638,7 @@ In a world where sexual dimorphism didn't exist, where everyone was a hermaphrod
 
 In a world where we _actually had_ magical perfect sex-change technology of the kind described in "Changing Emotions", then people who wanted to change sex would do so, and everyone else would use the corresponding language (pronouns and more), _not_ as a courtesy, _not_ to maximize social welfare, but because it _straightforwardly described reality_.
 
-In a world where we don't have magical perfect sex-change technology, but we _do_ have hormone replacement therapy and various surgical methods ... 
+In a world where we don't have magical perfect sex-change technology, but we _do_ have hormone replacement therapy and various surgical methods ... [TODO: four clusters]
 
 [TODO: explain that "I don't do policy."]