Saturday night
[Ultimately_Untrue_Thought.git] / content / drafts / sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
index 42d7e61..9cefc13 100644 (file)
@@ -1,11 +1,9 @@
 Title: Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems
 Date: 2021-03-21 11:00
 Category: commentary
-Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, epistemic horror, my robot cult, personal, sex differences, Star Trek
+Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, epistemic horror, ideology, my robot cult, personal, sex differences, Star Trek
 Status: draft
 
-_(Part 1 of 3)_
-
 > _I'll write my way out  
 > Write everything down, far as I can see  
 > I'll write my way out  
@@ -15,7 +13,9 @@ _(Part 1 of 3)_
 >
 > —"Hurricane", _Hamilton_
 
-So, as I sometimes allude to, I've spent basically my entire adult life in this insular intellectual subculture that was founded in the late 'aughts to promulgate an ideal of _systematically correct reasoning_—general methods of thought that result in true beliefs and successful plans—and, [incidentally](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes), to use these methods of systematically correct reasoning to prevent superintelligent machines from [destroying all value in the universe](https://www.lesswrong.com/posts/GNnHHmm8EzePmKzPk/value-is-fragile). Lately I've been calling it my "robot cult" (a phrase [due to Dale Carrico](https://amormundi.blogspot.com/2011/08/ten-reasons-to-take-seriously.html))—the pejorative is partially [ironically affectionate](https://www.lesswrong.com/posts/gBma88LH3CLQsqyfS/cultish-countercultishness), and partially an expression of betrayal-trauma acquired from that time almost everyone I [used to trust](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) insisted on, on ...
+So, as I sometimes allude to, I've spent basically my entire adult life in this insular intellectual subculture that was founded in the late 'aughts to promulgate an ideal of _systematically correct reasoning_—general methods of thought that result in true beliefs and successful plans—and, [incidentally](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes), to use these methods of systematically correct reasoning to prevent superintelligent machines from [destroying all value in the universe](https://www.lesswrong.com/posts/GNnHHmm8EzePmKzPk/value-is-fragile).
+
+Honestly, I've been pretty bitter and jaded about the whole thing lately, to the extent that I've been pejoratively calling it my "robot cult" (a phrase [due to Dale Carrico](https://amormundi.blogspot.com/2011/08/ten-reasons-to-take-seriously.html)) as an expression of contempt—although I should _probably_ cut it out, because that particular choice of pejorative makes it sound like I'm making fun of the superintelligent-machines-destroying-all-value-in-the-universe thing, whereas actually, _that_ part [still seems right](/2017/Jan/from-what-ive-tasted-of-desire/), and the thing I'm bitter about is how almost everyone I [used to trust](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) insisted on, on ...
 
 Well. That's a _long story_—for another time, perhaps. For _now_, I want to explain how my robot cult's foundational texts had an enormous influence on my self-concept in relation to sex and gender.
 
@@ -23,17 +23,17 @@ It all started in summer 2007 (I was nineteen years old), when I came across _Ov
 
 [Although](http://www.overcomingbias.com/author/hal-finney) [technically](http://www.overcomingbias.com/author/james-miller) [a](http://www.overcomingbias.com/author/david-j-balan) [group](http://www.overcomingbias.com/author/andrew) [blog](http://www.overcomingbias.com/author/anders-sandberg), the vast majority of posts on _Overcoming Bias_ were by Robin Hanson or Eliezer Yudkowsky. I was previously acquainted in passing with Yudkowsky's [writing about future superintelligence](https://web.archive.org/web/20200217171258/https://yudkowsky.net/obsolete/tmol-faq.html). (I had [mentioned him in my Diary once in 2005](/ancillary/diary/42/), albeit without spelling his name correctly.) Yudkowsky was now using _Overcoming Bias_ and the medium of blogging [to generate material for a future book about rationality](https://www.lesswrong.com/posts/vHPrTLnhrgAHA96ko/why-i-m-blooking). Hanson's posts I could take or leave, but Yudkowsky's sequences of posts about rationality (coming out almost-daily through early 2009, eventually totaling hundreds of thousands of words) were _amazingly great_, [drawing on](https://www.lesswrong.com/posts/tSgcorrgBnrCH8nL3/don-t-revere-the-bearer-of-good-info) the [established knowledge of fields](https://www.lesswrong.com/posts/ASpGaS3HGEQCbJbjS/eliezer-s-sequences-and-mainstream-academia) from [cognitive](https://www.lesswrong.com/posts/2ftJ38y9SRBCBsCzy/scope-insensitivity) [psychology](https://www.lesswrong.com/posts/R8cpqD3NA4rZxRdQ4/availability) to [evolutionary biology](https://www.lesswrong.com/s/MH2b8NfWv22dBtrs8) to explain the [mathematical](https://www.readthesequences.com/An-Intuitive-Explanation-Of-Bayess-Theorem) [principles](https://www.readthesequences.com/A-Technical-Explanation-Of-Technical-Explanation) [governing](https://www.lesswrong.com/posts/eY45uCCX7DdwJ4Jha/no-one-can-exempt-you-from-rationality-s-laws) _how intelligence works_—[the reduction of "thought"](https://www.lesswrong.com/posts/p7ftQ6acRkgo6hqHb/dreams-of-ai-design) to [_cognitive algorithms_](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms). Intelligent systems [that use](https://arbital.greaterwrong.com/p/executable_philosophy) [evidence](https://www.lesswrong.com/posts/6s3xABaXKPdFwA3FS/what-is-evidence) to construct [predictive](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences) models of the world around them—that have "true" "beliefs"—can _use_ those models to compute which actions will best achieve their goals. You simply [won't believe how much this blog](https://www.lesswrong.com/posts/DXcezGmnBcAYL2Y2u/yes-a-blog) will change your life; I would later frequently [joke](https://en.wiktionary.org/wiki/ha_ha_only_serious) that Yudkowsky rewrote my personality over the internet.
 
-(The blog posts later got edited and collected into a book, [_Rationality: From AI to Zombies_](https://www.amazon.com/Rationality-AI-Zombies-Eliezer-Yudkowsky-ebook/dp/B00ULP6EW2), but I continue to say "the Sequences" because I _hate_ the gimmicky "AI to Zombies" subtitle—it makes it sound like a commercial book optimized to sell copies, rather than something to corrupt the youth, competing for the same niche as the Bible or the Koran—_the book_ that explains what your life should be about.)
+(The blog posts did finally get collected into a book, [_Rationality: From AI to Zombies_](https://www.amazon.com/Rationality-AI-Zombies-Eliezer-Yudkowsky-ebook/dp/B00ULP6EW2), but I continue to say "the Sequences" because I _hate_ the gimmicky "AI to Zombies" subtitle—it makes it sound like a commercial book optimized to sell copies, rather than something to corrupt the youth, competing for the same niche as the Bible or the Koran—_the book_ that explains what your life should be about.)
 
 There are a few things about me that I need to explain before I get into the topic-specific impact the blog had on me.
 
 The first thing—the chronologically first thing. Ever since I was thirteen or fourteen years old—
 
-(and I _really_ didn't expect to be blogging about this eighteen years later)
+(and I _really_ didn't expect to be blogging about this nineteen years later)
 
-(I _still_ don't want to be blogging about this, but unfortunately, it actually turns out to be central to the intellectual–political project I've been singlemindedly focused on for the past four years because [somebody has to and no one else will](https://unsongbook.com/chapter-6-till-we-have-built-jerusalem/))
+(I _still_ don't want to be blogging about this, but unfortunately, it actually turns out to be central to the intellectual–political project I've been singlemindedly focused on for the past four and a half years because [somebody has to and no one else will](https://unsongbook.com/chapter-6-till-we-have-built-jerusalem/))
 
-—my _favorite_—and basically only—masturbation fantasy has always been some variation on me getting magically transformed into a woman. I ... need to write more about the phenomenology of this. In the meantime, just so you know what I'm talking about, the relevant TVTrope is ["Man, I Feel Like a Woman."](https://tvtropes.org/pmwiki/pmwiki.php/Main/ManIFeelLikeAWoman) Or search "body swap" on PornHub. Or check out my few, circumspect contributions to [the popular genre of](/2016/Oct/exactly-what-it-says-on-the-tin/) captioned-photo female transformation erotica (everyone is wearing clothes, so these might be "safe for work" in a narrow technical sense, if not a moral one): [1](/ancillary/captions/dr-equality-and-the-great-shift/) [2](/ancillary/captions/the-other-side-of-me/) [3](/ancillary/captions/the-impossible-box/) [4](/ancillary/captions/de-gustibus-non-est/).
+—my _favorite_—and basically only—masturbation fantasy has always been some variation on me getting magically transformed into a woman. I ... may need to write more about the phenomenology of this. In the meantime, just so you know what I'm talking about, the relevant TVTrope is ["Man, I Feel Like a Woman."](https://tvtropes.org/pmwiki/pmwiki.php/Main/ManIFeelLikeAWoman) Or search "body swap" on PornHub. Or check out my few, circumspect contributions to [the popular genre of](/2016/Oct/exactly-what-it-says-on-the-tin/) captioned-photo female transformation erotica (everyone is wearing clothes, so these might be "safe for work" in a narrow technical sense, if not a moral one): [1](/ancillary/captions/dr-equality-and-the-great-shift/) [2](/ancillary/captions/the-other-side-of-me/) [3](/ancillary/captions/the-impossible-box/) [4](/ancillary/captions/de-gustibus-non-est/).
 
 (The first segment of my pen surname is a legacy of middle-school friends letting me borrow some of the [Ranma ½](https://en.wikipedia.org/wiki/Ranma_%C2%BD) graphic novels, about a young man named Ranma Saotome cursed ("cursed"??) to transform into a woman on exposure to cold water. This was just _before_ puberty kicked in for me, but I have no way of computing the counterfactual to know whether that had a causal influence.)
 
@@ -86,7 +86,7 @@ At the time, I had _no reason to invent the hypothesis_ that I might somehow lit
 
 [It was while browsing _Wikipedia_ in 2006 that I encountered the obvious and perfect word for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)—_autogynephilia_, from the Greek for "[love of](https://en.wiktionary.org/wiki/-philia) [oneself as](https://en.wiktionary.org/wiki/auto-#English) [a woman](https://en.wiktionary.org/wiki/gyno-)." I was actually surprised that it turned out to have been coined in the context of a theory (by clinical sexual psychologist Ray Blanchard) that it was the root cause of one of two types of male-to-female transsexualism.
 
-You see, a very important feature of my gender-related thinking at the time was that I was growing very passionate about—well, in retrospect I call it _psychological-sex-differences denialism_, but at the time I called it _antisexism_. Where sometimes people in the culture would make claims about how women and men are psychologically different, and of course I knew this was _bad and wrong_. Therefore the very idea of transsexualism was somewhat suspect insofar as it necessarily depends on the idea that women and men are psychologically different (in order for it to be possible to be in the "wrong" body).
+You see, a very important feature of my gender-related thinking at the time was that I was growing very passionate about—well, in retrospect I call it _psychological-sex-differences denialism_, but at the time I called it _antisexism_. Where sometimes people in the culture would make claims about how women and men are psychologically different, and of course I knew this was _bad and wrong_. Therefore the very idea of transsexualism was somewhat suspect insofar as it necessarily depends on the idea that women and men are psychologically different (in order for it to be possible to be in the "wrong" body). I once [haughtily told my Diary that "I would never do 'drag,' because that represents a mockery"](/ancillary/diary/141/#never-do-drag). (Same rationale as why blackface is offensive.)
 
 So while I was certainly glad to learn that _there's a word for it_, an obvious and perfect word for _my thing_, I mostly just stole the word (whose referent and meaning I thought was self-explanatory from the common Greek roots) without paying any further attention to this Blanchard theory or the idea that _I_ might somehow be transgender.
 
@@ -128,7 +128,7 @@ If you're willing to admit to the possibility of psychological sex differences _
 
 I guess if you _didn't_ grow up with a quasi-religious fervor for psychological sex differences denialism, this whole theoretical line of argument about evolutionary psychology doesn't seem world-shatteringly impactful?—maybe it just looks like supplementary Science Details brushed over some basic facts of human existence that everyone knows. But if you _have_ built your identity around [quasi-religious _denial_](/2020/Apr/peering-through-reverent-fingers/) of certain basic facts of human existence that everyone knows (if not everyone [knows that they know](https://www.lesswrong.com/posts/CqyJzDZWvGhhFJ7dY/belief-in-belief)), getting forced out of it by sufficient weight of Science Details [can be a pretty rough experience](https://www.greaterwrong.com/posts/XM9SwdBGn8ATf8kq3/c/comment/Zv5mrMThBkkjDAqv9).
 
-My hair-trigger antisexism was sort of lurking in the background of some of my comments while the Sequences were being published (though, again, it wasn't relevant to _most_ posts, which were just about cool math and science stuff that had no avenue whatsoever for being corrupted by gender politics). The term "social justice warrior" wasn't yet popular, but I definitely had a SJW-alike mindset (nurtured from my time lurking the feminist blogosphere) of being preoccupied with the badness and wrongness of people who are wrong and bad (_i.e._, sexist), rather than trying to [minimize the expected squared error of my probabilistic predictions](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception).
+My hair-trigger antisexism was sort of lurking in the background of some of my comments while the Sequences were being published (though, again, it wasn't relevant to _most_ posts, which were just about cool math and science stuff that had no avenue whatsoever for being corrupted by gender politics). The term "social justice warrior" wasn't yet popular, but I definitely had a SJW-alike mindset (nurtured from my time lurking the feminist blogosphere) of being preoccupied with the badness and wrongness of people who are wrong and bad (_i.e._, sexist), rather than trying to maximize the accuracy of my probabilistic predictions.
 
 Another one of the little song-fragments I wrote in my head a few years earlier (which I mention for its being representative of my attitude at the time, rather than it being notable in itself), concerned an advice columnist, [Amy Alkon](http://www.advicegoddess.com/), syndicated in the _Contra Costa Times_ of my youth, who would sometimes give dating advice based on a pop-evopsych account of psychological sex differences—the usual fare about women seeking commitment and men seeking youth and beauty. My song went—
 
@@ -140,11 +140,11 @@ Another one of the little song-fragments I wrote in my head a few years earlier
 > Because the world's not girls and guys  
 > Cave men and women fucking 'round the fire in the night_
 
-Looking back with the outlook later acquired from my robot cult, this is abhorrent. You don't _casually wish death_ on someone just because you disagree with their views on psychology! Even if it wasn't in a spirit of personal malice (this was a song I sung to myself, not an actual threat directed to Amy Alkon's inbox), the sentiment just _isn't done_. But at the time, I _didn't notice there was anything wrong with my song_. I hadn't yet been socialized into the refined ethos of "False ideas should be argued with, but heed that we too may have ideas that are false".
+Looking back with the outlook later acquired from my robot cult, this is _abhorrent_. You don't _casually wish death_ on someone just because you disagree with their views on psychology! (Also, casually wishing death on a woman for her views does not seem particularly pro-feminist?!) Even if it wasn't in a spirit of personal malice (this was a song I sung to myself, not an actual threat directed to Amy Alkon's inbox), the sentiment just _isn't done_. But at the time, I _didn't notice there was anything wrong with my song_. I hadn't yet been socialized into the refined ethos of "False ideas should be argued with, but heed that we too may have ideas that are false".
 
-[TODO: Me pretending to be dumb about someone not pretending to be dumb about my initials https://www.overcomingbias.com/2008/04/inhuman-rationa.html ; contrast that incident (it's not an accident that he guessed right) to Yudkowsky: "I try to avoid criticizing people when they are right. If they genuinely deserve criticism, I will not need to wait long for an occasion where they are wrong." (https://www.lesswrong.com/posts/MwQRucYo6BZZwjKE7/einstein-s-arrogance)]
+[TODO: initials anecdote]
 
-[TODO Vassar slapping me down in June 2008 (on the same day that I crossdressed in front of Seanan and Katie!): https://www.overcomingbias.com/2008/06/why-do-psychopa.html#comment-518267438]
+[TODO Vassar anecdote]
 
 Sex differences would come up a couple more times in one of the last Sequences, on "Fun Theory"—speculations on how life could be truly _good_ if the world were superintelligently optimized for human values, in contrast to the cruelty and tragedy of our precarious existence [in a world shaped only by blind evolutionary forces](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
 
@@ -160,11 +160,11 @@ Yudkowsky dramatized the implications in a short story, ["Failed Utopia #4-2"](h
 
 Of course no one _wants_ that—our male protagonist doesn't _want_ to abandon his wife and daughter for some catgirl-adjacent (if conscious) hussy. But humans _do_ adapt to loss; if the separation were already accomplished by force, people would eventually move on, and post-separation life with companions superintelligently optimized _for you_ would ([_arguendo_](https://en.wikipedia.org/wiki/Arguendo)) be happier than life with your real friends and family, whose goals will sometimes come into conflict with yours because they weren't superintelligently designed _for you_.
 
-The alignment-theory morals are those of [unforseen maxima](https://arbital.greaterwrong.com/p/unforeseen_maximum) and [edge instantiation](https://arbital.greaterwrong.com/p/edge_instantiation). An AI designed to maximize happiness would kill all humans and tile the galaxy with maximally-efficient happiness-brainware. If this sounds "crazy" to you, that's the problem with anthropomorphism I was telling you about: [don't imagine "AI" as an emotionally-repressed human](https://www.lesswrong.com/posts/zrGzan92SxP27LWP9/points-of-departure), just think about [a machine that calculates what actions would result in what outcomes](https://web.archive.org/web/20071013171416/http://www.singinst.org/blog/2007/06/11/the-stamp-collecting-device/), and does the action that would result in the outcome that maximizes some function. It turns out that picking a function that doesn't kill everyone looks hard. Just tacking on the constaints that you can think of (make the _existing_ humans happy without tampering with their minds) [will tend to produce similar "crazy" outcomes that you didn't think to exclude](https://arbital.greaterwrong.com/p/nearest_unblocked). 
+The alignment-theory morals are those of [unforseen maxima](https://arbital.greaterwrong.com/p/unforeseen_maximum) and [edge instantiation](https://arbital.greaterwrong.com/p/edge_instantiation). An AI designed to maximize happiness would kill all humans and tile the galaxy with maximally-efficient happiness-brainware. If this sounds "crazy" to you, that's the problem with anthropomorphism I was telling you about: [don't imagine "AI" as an emotionally-repressed human](https://www.lesswrong.com/posts/zrGzan92SxP27LWP9/points-of-departure), just think about [a machine that calculates what actions would result in what outcomes](https://web.archive.org/web/20071013171416/http://www.singinst.org/blog/2007/06/11/the-stamp-collecting-device/), and does the action that would result in the outcome that maximizes some function. It turns out that picking a function that doesn't kill everyone looks hard. Just tacking on the constaints that you can think of (like making the _existing_ humans happy without tampering with their minds) [will tend to produce similar "crazy" outcomes that you didn't think to exclude](https://arbital.greaterwrong.com/p/nearest_unblocked).
 
 At the time, [I expressed horror](https://www.greaterwrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2/comment/PhiGnX7qKzzgn2aKb) at "Failed Utopia #4-2" in the comments section, because my quasi-religious psychological-sex-differences denialism required that I be horrified. But looking back a dozen years later—[or even four years later](https://www.greaterwrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2/comment/D34jhYBcaoE7DEb8d)—my performative horror was missing the point.
 
-_The argument makes sense_. Of course, it's important to notice that you'd need an additional [handwave](https://tvtropes.org/pmwiki/pmwiki.php/Main/HandWave) to explain why the AI in the story doesn't give every _individual_ their separate utopia—if existing women and men aren't optimal partners for each other, so too are individual men not optimal same-sex friends for each other. A faithful antisexist (as I was) might insist that that should be the _only_ moral, as it implies the other [_a fortiori_](https://en.wikipedia.org/wiki/Argumentum_a_fortiori). But if you're trying to _learn about reality_ rather than protect your fixed quasi-religious beliefs, it should be _okay_ for one of the lessons to get a punchy sci-fi short story; it should be _okay_ to think about the hyperplane between two coarse clusters, even while it's simultaneously true that a set of hyperplanes would suffice to [shatter](https://en.wikipedia.org/wiki/Shattered_set) every individual point, without deigning to acknowledge the existence of clusters.
+_The argument makes sense_. Of course, it's important to notice that you'd need an additional [handwave](https://tvtropes.org/pmwiki/pmwiki.php/Main/HandWave) to explain why the AI in the story doesn't give every _individual_ their separate utopia—if existing women and men aren't optimal partners for each other, so too are individual men not optimal same-sex friends for each other. A faithful antisexist (as I was) might insist that that should be the _only_ moral, as it implies the other [_a fortiori_](https://en.wikipedia.org/wiki/Argumentum_a_fortiori). But if you're trying to _learn about reality_ rather than protect your fixed quasi-religious beliefs, it should be _okay_ for one of the lessons to get a punchy sci-fi short story; it should be _okay_ to think about the hyperplane between two coarse clusters, even while it's simultaneously true that you could build a wall around every individual point, without deigning to acknowledge the existence of clusters.
 
 On my reading of the text, it is _significant_ that the AI-synthesized complements for men are given their own name, the _verthandi_ (presumably after [the Norse deity](https://en.wikipedia.org/wiki/Ver%C3%B0andi)), rather than just being referred to as women. The _verthandi_ may _look like_ women, they may be _approximately_ psychologically human, but since the _detailed_ psychology of "superintelligently-engineered optimal romantic partner for a human male" is not going to come out of the distribution of actual human females, judicious exercise of the [tenth virtue of precision](http://yudkowsky.net/rational/virtues/) demands that a _different word_ be coined for this hypothetical science-fictional type of person. Calling the _verthandi_ "women" would be _worse writing_; it would _fail to communicate_ the impact of what has taken place in the story.
 
@@ -208,7 +208,7 @@ Do I want the magical transformation technology to fix all that, too?
 
 Do I have _any idea_ what it would even _mean_ to fix all that, without spending multiple lifetimes studying neuroscience?
 
-I think I have just enough language to _start_ to talk about what it would mean. Since sex isn't an atomic attribute, but rather a high-level statistical regularity such that almost everyone can be cleanly classified as "female" or "male" _in terms of_ lower-level traits (genitals, hormone levels, _&c._), then, abstractly, we're trying to take points from male distribution and map them onto the female distribution in a way that preserves as much structure (personal identity) as possible. My female analogue doesn't have a penis (because then she wouldn't be female), but she is going to speak American English like me and be [85% Ashkenazi like me](/images/ancestry_report.png), because language and autosomal genes don't have anything to do with sex.
+I think I have just enough language to _start_ to talk about what it would mean. Since sex isn't an atomic attribute, but rather a high-level statistical regularity such that almost everyone can be cleanly classified as "female" or "male" _in terms of_ lower-level traits (genitals, hormone levels, _&c._), then, abstractly, we're trying to take points from male distribution and map them onto the female distribution in a way that preserves as much structure (personal identity) as possible. My female analogue doesn't have a penis like me (because then she wouldn't be female), but she is going to speak American English like me and be [85% Ashkenazi like me](/images/ancestry_report.png), because language and autosomal genes don't have anything to do with sex.
 
 The hard part has to do with traits that are meaningfully sexually dimorphic, but not as a discrete dichotomy—where the sex-specific universal designs differ in ways that are _subtler_ than the presence or absence of entire reproductive organs. (Yes, I know about [homology](https://en.wikipedia.org/wiki/Homology_(biology))—and _you_ know what I meant.) We are _not_ satisfied if the magical transformation technology swaps out my penis and testicles for a functioning female reproductive system without changing the rest of my body, because we want the end result to be indistinguishable from having been drawn from the female distribution (at least, indistinguishable _modulo_ having my memories of life as a male before the magical transformation), and a man-who-somehow-magically-has-a-vagina doesn't qualify.
 
@@ -236,11 +236,33 @@ Daphna Joel _et al._ [argue](https://www.pnas.org/content/112/50/15468) [that](h
 
 Sex differences in the brain are like sex differences in the skeleton: anthropologists can tell female and male skeletons apart (the [pelvis is shaped differently](https://johnhawks.net/explainer/laboratory/sexual-dimorphism-pelvis), for obvious reasons), and [machine-learning models can see very reliable differences that human radiologists can't](/papers/yune_et_al-beyond_human_perception_sexual_dimorphism_in_hand_and_wrist_radiographs.pdf), but neither sex has entire _bones_ that the other doesn't, and the same is true of brain regions. (The evopsych story about complex adaptations being universal-up-to-sex suggests that sex-specific bones or brain regions should be _possible_, but in a bit of _relative_ good news for antisexism, apprently evolution didn't need to go that far. Um, in humans—a lot of other mammals actually have [a penis bone](https://en.wikipedia.org/wiki/Baculum).)
 
-Maybe this should just look like supplementary Statistics Details brushed over some basic facts of human existence that everyone knows? I'm a pretty weird guy, in more ways than one. I am not prototypically masculine. Most men are not like me. If I'm allowed to cherry-pick what measurements to take, I can name ways in which my mosaic is more female-typical than male-typical. (For example, I'm _sure_ I'm above the female mean in [Big Five Neuroticism](https://en.wikipedia.org/wiki/Big_Five_personality_traits).) ["[A] weakly negative correlation can be mistaken for a strong positive one with a bit of selective memory."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences) But "weird" represents a much larger space of possibilities than "normal", much as [_nonapples_ are a less cohesive category than _apples_](https://www.lesswrong.com/posts/2mLZiWxWKZyaRgcn7/selling-nonapples). If you _sum over_ all of my traits, everything that makes me, _me_—it's going to be a point in the _male_ region of the existing, unremediated, genderspace. In the course of _being myself_, I'm going to do more male-typical things than female-typical things, not becuase I'm _trying_ to be masculine (I'm not), and not because I "identify as" male (I don't—or I wouldn't, if someone could give me a straight answer as to what this "identifying as" operation is supposed to consist of), but because I literally in-fact am male in the same sense that male chimpanzees or male mice are male, whether or not I like it (I don't—or I wouldn't, if I still believed that preference was coherent), and whether or not I _notice_ all the little details that implies (I almost certainly don't).
+Maybe this should just look like supplementary Statistics Details brushed over some basic facts of human existence that everyone knows? I'm a pretty weird guy, in more ways than one. I am not prototypically masculine. Most men are not like me. If I'm allowed to cherry-pick what measurements to take, I can name ways in which my mosaic is more female-typical than male-typical. (For example, I'm _sure_ I'm above the female mean in [Big Five Neuroticism](https://en.wikipedia.org/wiki/Big_Five_personality_traits).) ["[A] weakly negative correlation can be mistaken for a strong positive one with a bit of selective memory."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+
+But "weird" represents a much larger space of possibilities than "normal", much as [_nonapples_ are a less cohesive category than _apples_](https://www.lesswrong.com/posts/2mLZiWxWKZyaRgcn7/selling-nonapples): a woman trapped in a man's body would be weird, but it doesn't follow that weird men are secretly women, as opposed to some other, _specific_, kind of weird. If you _sum over_ all of my traits, everything that makes me, _me_—it's going to be a point in the _male_ region of the existing, unremediated, genderspace. In the course of _being myself_, I'm going to do more male-typical things than female-typical things, not becuase I'm _trying_ to be masculine (I'm not), and not because I "identify as" male (I don't—or I wouldn't, if someone could give me a straight answer as to what this "identifying as" operation is supposed to consist of), but because I literally in-fact am male in the same sense that male chimpanzees or male mice are male, whether or not I like it (I don't—or I wouldn't, if I still believed that preference was coherent), and whether or not I _notice_ all the little details that implies (I almost certainly don't).
+
+Okay, maybe I'm _not_ completely over my teenage religion of psychological sex differences denialism?—that belief still feels uncomfortable to put my weight on. I would _prefer_ to believe that there are women who are relevantly "like me" with respect to some fair (not gerrymandered) metric on personspace. But, um ... it's not completely obvious whether I actually know any? (Well, maybe two or three.) When I look around me—most of the people in my robot cult (and much more so if you look the core of old-timers from the _Overcoming Bias_ days, rather than the greater "community" of today) are male. Most of the people in my open-source programming scene are male. These days, [most of the _women_](/2020/Nov/survey-data-on-cis-and-trans-women-among-haskell-programmers/) in [my open-source programming scene](/2017/Aug/interlude-vii/) are male. Am ... am I not supposed to _notice_?
+
+Is _everyone else_ not supposed to notice? Suppose I got the magical body transformation (with no brain mods beyond the minimum needed for motor control). Suppose I caught the worshipful attention of a young man just like I used to be ("a" young man, as if there wouldn't be _dozens_), who privately told me, "I've never met a woman quite like you." What would I be supposed to tell him? ["There's a _reason_ for that"](https://www.dumbingofage.com/2014/comic/book-5/01-when-somebody-loved-me/purpleandskates/)?
+
+In the comments to [a post about how gender is built on innate sex differences](https://web.archive.org/web/20130216025508/http://lesswrong.com/lw/rp/the_opposite_sex/) (of which I can only link to the Internet Archive copy, the original having been quietly deleted sometime in 2013—I wonder why!), Yudkowsky opined that "until men start thinking of themselves _as men_ they will tend to regard women as defective humans."
+
+From context, it seems like the idea was targeted at men who disdain women as a mysterious Other—but the same moral applies to men who are in ideologically-motivated denial about how male-typical they are, and whether this has implications. [At the time, I certainly didn't want to think of myself _as a man_.](https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way#comment-7ZwECTPFTLBpytj7b) And yet ...
+
+For example. When I read things from the [systematizing–empathizing](https://en.wikipedia.org/wiki/Empathising%E2%80%93systemising_theory)/"men are interested in things, women are interested in people" line of research—which, to be clear that you know that I know, is [only a mere statistical difference at a mere Cohen's _d_ ≈ 0.93](http://unremediatedgender.space/papers/su_et_al-men_and_things_women_and_people.pdf), not an absolute like genitals or chromosomes—my instinctive reaction is, "But, but, that's not _fair_. People _are_ systems, because _everything_ is a system. [What kind of a lame power is empathy, anyway?](https://tvtropes.org/pmwiki/pmwiki.php/Main/WhatKindOfLamePowerIsHeartAnyway)"
+
+[But the map is not the territory](https://www.lesswrong.com/posts/np3tP49caG4uFLRbS/the-quotation-is-not-the-referent). We don't have unmediated access to reality beyond [the Veil of Maya](https://web.archive.org/web/20020606121040/http://singinst.org/GISAI/mind/consensus.html); system-ness in the empathising/systemising sense is a feature of our _models_ of the world, not the world itself.
 
-Okay, maybe I'm _not_ completely over my teenage religion of psychological sex differences denialism?—that belief still feels uncomfortable to put my weight on. I would _prefer_ to believe that there are women who are relevantly "like me" with respect to some fair (not gerrymandered) metric on personspace. But, um ... it's not completely obvious whether I actually know any? (Well, maybe two or three.) When I look around me—most of the people in my robot cult (and much more so if you look the core of old-timers from the _Overcoming Bias_ days, rather than the greater Berkeley "community" of today) are male. Most of the people in my open-source programming scene are male. These days, [most of the _women_](/2020/Nov/survey-data-on-cis-and-trans-women-among-haskell-programmers/) in [my open-source programming scene](/2017/Aug/interlude-vii/) are male. Am I not supposed to _notice_? I could _assert_ that it's all down to socialization and stereotyping and self-fulfilling prophecies—and I know that _some_ of it is. (Self-fulfilling prophecies [are coordination equilibria](/2020/Jan/book-review-the-origins-of-unfairness/).) But I still want to speculate that the nature of my X factor—the things about my personality that let me write the things I do even though I'm [objectively not that smart](/images/wisc-iii_result.jpg) compared to some of my robot-cult friends—is a pattern of mental illness that could realistically only occur in males. (Yudkowsky: ["It seems to me that male teenagers especially have something like a _higher cognitive temperature_, an ability to wander into strange places both good and bad."](https://www.lesswrong.com/posts/xsyG7PkMekHud2DMK/of-gender-and-rationality)) I can't assert _with a straight face_ that all the gaps _must_ vanish after the revolution, because _I've read the literature_ and can tell you several observations about chimps and [congenital adrenal hyperplasia](/images/cah_diffs_table.png) that make that seem _relatively unlikely_.
+So what "Everything is a system" _means_ is, "I _think_ everything is a system."
 
-[TODO: if I did transition, and I did pass, and someone said, "I've never met a woman quite like you"]
+I think everything is a system ... because I'm male??
+
+(Or whatever the appropriate generalization of "because" is for statistical group differences. The sentence "I'm 5′11″ because I'm male" doesn't seem quite right, but it's pointing to something real.)
+
+I could _assert_ that it's all down to socialization and stereotyping and self-fulfilling prophecies—and I know that _some_ of it is. (Self-fulfilling prophecies [are coordination equilibria](/2020/Jan/book-review-the-origins-of-unfairness/).) But I still want to speculate that the nature of my X factor—the things about my personality that let me write the _specific_ things I do even though I'm [objectively not that smart](/images/wisc-iii_result.jpg) compared to some of my robot-cult friends—is a pattern of mental illness that could realistically only occur in males. (Yudkowsky: ["It seems to me that male teenagers especially have something like a _higher cognitive temperature_, an ability to wander into strange places both good and bad."](https://www.lesswrong.com/posts/xsyG7PkMekHud2DMK/of-gender-and-rationality))
+
+Of course there are women with an analogous story to tell about the nature of their own uniqueness—analogous along _some_ dimensions, if not others—but those aren't _my_ story to tell.
+
+I can _imagine_ that all the gaps will vanish after the revolution. I can imagine it, but I can no longer _assert it with a straight face_ because _I've read the literature_ and can tell you several observations about chimps and [congenital adrenal hyperplasia](/images/cah_diffs_table.png) that make that seem _relatively unlikely_.
 
 I was once told by a very smart friend (who, unlike me, is not a religious fantatic), "Boys like games with challenges and points; girls like games with characters and stories."
 
@@ -256,13 +278,17 @@ Or if I can imagine it, can I _describe_ it in this blog post? I am presently so
 
 As a _first-order approximation_, I do have a sister. I think the family resemblance between us is stronger than with either parent. We're about equally intelligent—OK, she's probably smarter than me; [the SAT is pretty](https://www.gwern.net/docs/iq/2004-frey.pdf) [_g_-loaded](/2020/Apr/book-review-human-diversity/#the-length-of-a-hyperellipsoid) and her 1580 (out of 1600) trounces my 2180 (on [the out-of-2400 scale used between 2005 and 2016](https://en.wikipedia.org/wiki/SAT#2005_changes,_including_a_new_2400-point_score), such that 2180 proportionally scales down to 1453 out of 1600). Our dark hair curls into helices with similar radius. We even have similar mannerisms, I think? She's 5′6½″.
 
-But in a lot of ways that matter, we are _very_ different people. When you compare resumés and representative work-samples of what we've _done_ with our (roughly) similar intelligence—her chemistry Ph.D. from a top-10 university, my dropout–autodidact's passion culminating in this _batshit insane_ secret ("secret") blog about the philosophy of science and the etiology of late-onset gender dysphoria in males—it ... paints a different picture.
+But in a lot of ways that matter, we are _very_ different people. When you compare resumés and representative work-samples of what we've _done_ with our (roughly) similar intelligence—her chemistry Ph.D. from a top-10 university, my dropout–autodidact's passion culminating in this _batshit insane_ secret ("secret") blog about the philosophy of language and the etiology of late-onset gender dysphoria in males—it ... paints a different picture.
 
-Of course same-sex siblings would _also_ be different pictures. (Identical twins aren't _duplicates_ of each other, either.) But the advantage of having a sister is that it gives my brain's pattern-matching faculties a target to [sight](https://en.wikipedia.org/wiki/Sight_(device)) against. As a _second_-order approximation, my female analogue is close to being somewhere on the vector in personspace between me and my sister (but not exactly on that line, because the line spans both the difference-betwen-siblings and the difference-between-sexes).
+Of course same-sex siblings would _also_ be different pictures. (Identical twins aren't _duplicates_ of each other, either.) But the advantage of having a sister is that it gives my brain's pattern-matching faculties a target to sight against. As a _second_-order approximation, my female analogue is close to being somewhere on the vector in personspace between me and my sister (but not exactly on that line, because the line spans both the difference-betwen-siblings and the difference-between-sexes).
 
 (All this is in accordance with ["Everything is a vector space" philosophy](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) implied by this blog's [TLD](https://en.wikipedia.org/wiki/Top-level_domain)—if it turns out that something _isn't_ a vector space, I'm not sure I want to know about it. I can hope that my description of the _methodology_ is valuable, even if your brain's pattern-matching faculties can't follow along with the same example, because you haven't met my sister and only know the aspects of me that shine through to the blog.)
 
-Okay. Having supplied just enough language to _start_ to talk about what it would even mean to actually become female—is that what I _want_? I mean, if it's reversible, I would definitely be extremely eager to _try_ it ...
+Okay. Having supplied just enough language to _start_ to talk about what it would even mean to actually become female—is that what I _want_?
+
+I've just explained that, _in principle_, it could be done, so you might think there's no _conceptual_ problem with the idea of changing sex, in the same sense that there's nothing _conceptually_ wrong with Jules Verne's [pair](https://en.wikipedia.org/wiki/From_the_Earth_to_the_Moon) of [novels](https://en.wikipedia.org/wiki/Around_the_Moon) about flying around the moon. There are lots of technical rocket-science details that Verne didn't and couldn't have known about in the 1860s, but the _basic idea_ was sound, and [actually achieved a hundred years later](https://en.wikipedia.org/wiki/Apollo_8). So why is it in any way is it _relevant_ that making the magical transformation fantasy real would be technically complicated? It's relevant insofar as the technical details change your evaluation of the desirability of _what_ is to be accomplished, which can differ from [what sounds like good news in the moment of being first informed](https://www.lesswrong.com/posts/pK4HTxuv6mftHXWC3/prolegomena-to-a-theory-of-fun).
+
+So, I mean, if it's reversible, I would definitely be extremely eager to _try_ it ...
 
 I had said we're assuming away engineering difficulties in order to make the thought experiment more informative about pure preferences, but let's add one constraint to _force_ the thought experiment to be informative about preferences, and not allow the wishy-washy evasion of "I'm eager to _try_ it."
 
@@ -276,13 +302,13 @@ So, I guess ...
 
 If I'm being _really_ honest with myself here ...
 
-And I successfully make-believe that I can tell the truth with no consequences on my secret ("secret") blog even though at this point my paper-thin pseudonymity is more like a genre convention rather than providing any real privacy ...
+And I successfully make-believe that I can tell the truth with no consequences on my secret ("secret") blog even though at this point my paper-thin pseudonymity is more like a genre convention or a running joke rather than providing any real privacy ...
 
 I guess I _want_ to be "a normal [...] man wearing a female body like a suit of clothing."
 
 Is that weird? Is that wrong?
 
-Okay, yes, it's _obviously_ weird and wrong, but should I care more about not being weird and wrong, than I do about my deepest most heartfelt desire that I've thought about every day for the last eighteen years?
+Okay, yes, it's _obviously_ weird and wrong, but should I care more about not being weird and wrong, than I do about my deepest most heartfelt desire that I've thought about every day for the last nineteen years?
 
 This is probably counterintuitive if you haven't been living with it your entire adult life? People have _heard of_ the "born in the wrong body" narrative, which makes intuitive sense: if female souls are designed to work female bodies, and you're a female soul tethered to a male body, you can imagine the soul finding the mismatch distressing and wanting to fix it. But if, as I'm positing for my case, there _is no mismatch_ in any objective sense, then where does the desire come from? How do you make sense of wanting to change physiological sex, for reasons that _don't_ have anything to do with already neurologically resembling that sex? What's really going on there, psychologically?
 
@@ -302,15 +328,25 @@ So, the _phrase_ "mirror neurons" is not and _cannot_ be an answer. Real underst
 
 Still, the macaque–rasin anecdote is at least _suggestive_ of hypotheses in the _general area_ of, "The brain uses _shared_ representations for 'self' and others, in a way such that it's possible for the part of the brain that computes sexual attraction to 'get confused' about the self–other distinction in a way that manifests as sexual desire to _be_ the object of attraction." Or _something like that_.
 
-One interesting prediction of this story is that if the nature of the "confusion", this—["erotic target location error"](/papers/lawrence-etle_an_underappreciated.pdf) (ETLE)?—is agnostic to the object of sexual attraction, then you should see the same pattern in men with unusual sexual interests. ("Men" because I think we legitimately want to be [shy about generalizing across sexes](/papers/bailey-what_is_sexual_orientation_and_do_women_have_one.pdf) for sex differences in the parts of the mind that are specifically about mating.)
+More clues come in the form of the following trio of observations.
+
+One, I'm not particularly repulsed by my own body in real life. ("Vague disappointment, sometimes" isn't the same thing as "repulsion".)
+
+Two, my fantasies about having a female body aren't particularly, um, discriminating? On the contrary, if I had magical BodyApp tech, I would want to experiment with being different ages or races or body types of women.
+
+Three, the thought being transformed in a _different_ male body, other than my own, _is_ repulsive. Perhaps less so in the sense that thinking about it is horrifying, and more that I _can't_ think about it—my imagination "bounces off" the idea before any [Body Horror](https://tvtropes.org/pmwiki/pmwiki.php/Main/BodyHorror) emotions can kick in.
 
-And this is actually what we see. Most men are attracted to women, but some fraction of them get off on the idea of _being_ women—autogynephilia. So if some men are attracted to, say, amputees, we would expect some fraction of _them_ to [get off on the idea of _being_ amputees](/papers/lawrence-clinical_and_theoretical_paralells.pdf)—[_apotemnophilia_](https://en.wikipedia.org/wiki/Body_integrity_dysphoria#History). Some men are, unfortunately, pedophiles, and [some fraction of them get off on the idea of being children](/papers/hsu-bailey-autopedophilia.pdf). Some men are interested in anthropomorphic animals, and [_being_ anthropomorphic animals](https://www.gwern.net/docs/psychology/2019-hsu.pdf)—["furries"](https://en.wikipedia.org/wiki/Furry_fandom).
+These details seem hard to square with gender identity theories: why is my own male body, and _only_ my own male body, seem "okay"? Whereas this is exactly what you would expect from the "male sexuality getting confused about a self–other distinction" story: I want to be transformed into all different sorts of women for the same reason ordinary straight guys [want to fuck all different sorts of women](https://link.springer.com/article/10.1007/s10508-020-01730-x), and I can't even entertain the idea of being transformed into other men for the same reason ordinary straight guys can't even entertain the idea of fucking other men.
 
-Once I had an occasion [(don't ask)](https://www.greaterwrong.com/posts/uwBKaeQzsvkcErmBm/ialdabaoth-is-banned/comment/PqZ2NFfj2b2dJoZ9N) to look up if there was a word for having a statue fetish. Turns out it's called _agalmatophilia_, [defined by _Wikipedia_ as](https://en.wikipedia.org/wiki/Agalmatophilia) "sexual attraction to a statue, doll, mannequin or other similar figurative object", which "may include a desire for actual sexual contact with the object, a fantasy of having sexual (or non-sexual) encounters with an animate or inanimate instance of the preferred object, the act of watching encounters between such objects, or"—_wait for it_ ... "sexual pleasure gained from thoughts of being transformed or transforming another into the preferred object." I don't think the _Wikipedia_ editor who wrote that last phrase was being a shill for the general ETLE hypothesis because it has political implications; I think "among guys who are interested in _X_, some fraction of them want to be _X_" is just _something you notice_ when you honestly look at the world of guys who are interested in arbitrary _X_.
+An interesting prediction of this story is that if the nature of the "confusion", this—["erotic target location error"](/papers/lawrence-etle_an_underappreciated.pdf)?—is agnostic to the object of sexual attraction, then you should see the same pattern in men with unusual sexual interests. ("Men" because I think we legitimately want to be [shy about generalizing across sexes](/papers/bailey-what_is_sexual_orientation_and_do_women_have_one.pdf) for sex differences in the parts of the mind that are specifically about mating.)
 
-And, and—I've never told anyone this and have barely thought about it in years, but while I'm blogging about all this anyway—I have a few _vague_ memories from _early_ teenagerhood of having transformation fantasies about things other than women.. Like wondering (while masturbating) what it would like to be a dog, or a horse, or a marble statue of a woman. Anyway, I lost interest in those before too long, but I think this vague trace-of-a-memory is evidence for me the thing going on with me being an underlying ETLE-like predisposition rather than an underlying intersex condition.
+And this is actually what we see. Most men are attracted to women, but some fraction of them get off on the idea of [_being_ or _becoming_](https://pashasoffice.blogspot.com/2020/02/is-autogynephilia-actually.html) women—autogynephilia. So if some men are attracted to, say, amputees, we would expect some fraction of _them_ to [get off on the idea of _being_ amputees](/papers/lawrence-clinical_and_theoretical_paralells.pdf)—[_apotemnophilia_](https://en.wikipedia.org/wiki/Body_integrity_dysphoria#History). Some men are, unfortunately, pedophiles, and [some fraction of them get off on the idea of being children](/papers/hsu-bailey-autopedophilia.pdf). Some men are interested in anthropomorphic animals, and [_being_ anthropomorphic animals](https://www.gwern.net/docs/psychology/2019-hsu.pdf)—["furries"](https://en.wikipedia.org/wiki/Furry_fandom).
 
-I don't _know_ the details of what this "erotic target location error" thing is supposed to _be_, exactly—and would expect my beliefs to change a lot if _anyone_ knew the details and could explain them to me—but I think _some story in this general vicinity_ has to be the real explanation of what's going on with me. How _else_ do you make sense of an otherwise apparently normal biological male (whose physical and psychological traits seem to be basically in the male normal range, even if he's [one of those sensitive bookish males](http://unremediatedgender.space/2020/Sep/link-wells-for-boys/) rather than being "macho") having the _conjunction_ of the beautiful pure sacred self-identity thing _and_, specifically, erotic female-transformation fantasies of the kind I've described?
+Recently I had an occasion [(don't ask)](https://www.greaterwrong.com/posts/uwBKaeQzsvkcErmBm/ialdabaoth-is-banned/comment/PqZ2NFfj2b2dJoZ9N) to look up if there was a word for having a statue fetish. Turns out it's called _agalmatophilia_, [defined by _Wikipedia_ as](https://en.wikipedia.org/wiki/Agalmatophilia) "sexual attraction to a statue, doll, mannequin or other similar figurative object", which "may include a desire for actual sexual contact with the object, a fantasy of having sexual (or non-sexual) encounters with an animate or inanimate instance of the preferred object, the act of watching encounters between such objects, or"—_wait for it_ ... "sexual pleasure gained from thoughts of being transformed or transforming another into the preferred object." I don't think the _Wikipedia_ editor who wrote that last phrase was being a shill for the general erotic-target-location-error hypothesis because it has political implications; I think "among guys who are interested in _X_, some fraction of them want to be _X_" is just _something you notice_ when you honestly look at the world of guys who are interested in arbitrary _X_.
+
+And, and—I've never told anyone this and have barely thought about it in years, but while I'm blogging about all this anyway—I have a few _vague_ memories from _early_ teenagerhood of having transformation fantasies about things other than women.. Like wondering (while masturbating) what it would like to be a dog, or a horse, or a marble statue of a woman. Anyway, I lost interest in those before too long, but I think this vague trace-of-a-memory is evidence for me the thing going on with me being an underlying erotic-target-location-error-like predisposition rather than an underlying intersex condition.
+
+I don't _know_ the details of what this "erotic target location error" thing is supposed to _be_, exactly—and would expect my beliefs to change a lot if _anyone_ knew the details and could explain them to me—but I think _some story in this general vicinity_ has to be the real explanation of what's going on with me. How _else_ do you make sense of an otherwise apparently normal biological male (whose physical and psychological traits seem to be basically in the male normal range, even if he's [one of those sensitive bookish males](/2020/Sep/link-wells-for-boys/) rather than being "macho") having the _conjunction_ of the beautiful pure sacred self-identity thing _and_, specifically, erotic female-transformation fantasies of the kind I've described?
 
 Am I supposed to claim to be a lesbian trapped inside a man's body? That I _am_ neurologically female in some real sense, and that's the true cause of my beautiful pure sacred self-identity thing?
 
@@ -322,15 +358,21 @@ I just don't see any _reason_ to doubt the obvious explanation that the root cau
 
 (A "bug" with respect to the design criteria of evolution, not with respect to the human morality that affirms that I _like_ being this way. Some, fearing stigma, would prefer to tone-police "bug" down to "variation", but people who don't [understand the naturalistic fallacy](https://www.lesswrong.com/posts/YhNGY6ypoNbLJvDBu/rebelling-within-nature) aren't going to understand anything _else_ I'm saying, and I want to emphasize that the mirror-neurons-or-whatever and ordinary male heterosexuality weren't functionally optimized to collide like this.)
 
-But it might not be obvious to _everyone_. The detailed exposition above about what it would even mean to change sex is the result of a _lot_ of thinking influenced by everything I've read and learned—and in particular, the reductionist methodology I learned from Yudkowsky, and in even more particular, the very specific warning in "Changing Emotions" (and its predecessor in the Extropians mailing-list archives) that changing sex is a _hard problem_.
+If I were to _actually_ become neurologically female, it _wouldn't_ seem like the scintillating apotheosis of sexual desire and the most important thing in the world. It would just feel normal, in the way that (I can only imagine) actual women feel their own existence is normal.
+
+No doubt many women appreciate their own bodies, but a woman's positive body self-image experience of, "I feel sexy today", is going to be _very different_ from the autogynephile-with-BodyApp's experience of, "Oh my God, I have _breasts_ and a _vagina_ that I can look at and touch _without needing anyone's permission_; this is _the scintillating apotheosis of sexual desire and the most important thing in the world._"
+
+In this way, autogynephilia is _intrinsically self-undermining_ in a way that fantasies flying to the moon are not. This doesn't in any way lessen the desire or make it go away—any more than [the guy who gets turned on by entropy decreasing a closed system](https://qwantz.com/index.php?comic=1049) would have his libido suddenly and permanently vanish upon learning about the second law of thermodynamics. But it does, I suspect, change the way you think of it: it makes a difference whether you interpret the desire as a confused anomaly in male sexuality—the scintillating but ultimately untrue thought—or _take it literally_.
+
+But the reasons not to take it literally might not be obvious to _everyone_. The detailed exposition above about what it would even mean to change sex is the result of a _lot_ of thinking influenced by everything I've read and learned—and in particular, the reductionist methodology I learned from Yudkowsky, and in even more particular, the very specific warning in "Changing Emotions" (and its predecessor in the Extropians mailing-list archives) that changing sex is a _hard problem_.
 
 We can imagine that a male who was _like_ me in having this erotic-target-location-erroneous sexuality and associated beautiful pure sacred self-identity feelings, but who [read different books in a different order](/2020/Nov/the-feeling-is-mutual/), might come to very different conclusions about himself.
 
-If you don't have the conceptual vocabulary to say, "I have a lot of these beautiful pure sacred self-identity feelings about being female, but it seems like a pretty obvious guess that there must be some sort of causal relationship between that and this erotic fantasy, which is realistically going to be a variation in _male_ sexuality," you might end up saying something simpler like, "I want to be a woman." Or possibly even, "I _am_ a woman, on the inside, where it counts."
+If you don't have the conceptual vocabulary to say, "I have a lot of these beautiful pure sacred self-identity feelings about being female, but it seems like a pretty obvious guess that there must be some sort of causal relationship between that and this erotic fantasy, which is realistically going to be a variation in _male_ sexuality, such that it would be silly to interpret the beautiful pure sacred self-identity thing literally" you might end up saying something simpler like, "I want to be a woman." Or possibly even, "I _am_ a woman, on the inside, where it counts."
 
 (As Yudkowsky [occasionally](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences) [remarks](https://www.lesswrong.com/posts/f4RJtHBPvDRJcCTva/when-anthropomorphism-became-stupid), our _beliefs about_ how our minds work have very little impact on how they actually work. Aristotle thought the brain was an organ for cooling the blood, but he was just wrong; the theory did not _become true of him_ because he believed it.)
 
-What theory I end up believing about myself _matters_, because different theories that purport to explain the same facts can make very different predictions about facts not yet observed, or about the effects of interventions.
+What theory I end up believing about myself _matters_, because [different theories that purport to explain the same facts](/2021/Feb/you-are-right-and-i-was-wrong-reply-to-tailcalled-on-causality/) can make very different predictions about facts not yet observed, or about the effects of interventions.
 
 If I have some objective inner female gender as the result of a brain-intersex condition, then getting on, and _staying_ on, feminizing hormone replacement therapy (HRT) would presumably be a good idea specifically because my brain is designed to "run on" estrogen. But if my beautiful pure sacred self-identity feelings are fundamentally a misinterpretation of misdirected _male_ sexuality, then it's not clear that I _want_ the psychological effects of HRT: if there were some unnatural way to give me a female body (or just more female-_like_) _without_ messing with my internal neurochemistry, that would actually be _desireable_.
 
@@ -362,7 +404,7 @@ Did you know that trans women [have to dilate their neovagina after bottom surge
 
 I am glad that these interventions _exist_ for the people who are brave and desperate enough to need them. But given that I'm not that desperate and not that brave, would it not be wiser to trust the paraphrased proverb and not look a gift man in the mouth?
 
-My beautiful–beautiful ponytail was a _smart move_ (and hair length isn't sexually dimorphic anyway; it's only our culture's sexism that makes it seem relevant in this context).
+My beautiful–beautiful ponytail was a _smart move_ (and hair length isn't sexually dimorphic anyway; it's only our culture's [arbitrary gender conventions](/2020/Jan/book-review-the-origins-of-unfairness/) that makes it seem relevant in this context).
 
 My [five-month HRT experiment](/tag/hrt-diary/) was a _smart move_, both for the beautiful–beautiful breast tissue, and [For Science](https://tvtropes.org/pmwiki/pmwiki.php/Main/ForScience).
 
@@ -392,7 +434,7 @@ In the comments, [I wrote](https://www.greaterwrong.com/posts/QZs4vkC7cbyjL9XA9/
 
 > Is it cheating if you deliberately define your personal identity such that the answer is _No_?
 
-To which I now realize the correct answer is—_yes!_ Yes, it's cheating! Category-membership claims of the form "X is a Y" [represent hidden probabilistic inferences](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences); inferring that entity X is a member of category Y means [using observations about X to decide to use knowledge about members of Y to make predictions about features of X that you haven't observed yet](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes). But this AI trick can only _work_ if the entities you've assigned to category Y are _actually_ similar—if they form a tight cluster in configuration space, such that using the center of the cluster to make predictions about unobserved features gets you _close_ to the right answer, on average.
+To which I now realize the correct answer is—_yes!_ Yes, it's cheating! Category-membership claims of the form "X is a Y" [represent hidden probabilistic inferences](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences); inferring that entity X is a member of category Y means [using observations about X to decide to use knowledge about members of Y to make predictions about features of X that you haven't observed yet](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes). But this AI trick can only _work_ if the entities you've assigned to category Y are _actually_ similar in the real world—if they form a tight cluster in configuration space, such that using the center of the cluster to make predictions about unobserved features gets you _close_ to the right answer, on average.
 
 The rules don't change when the entity X happens to be "my female analogue" and the category Y happens to be "me". The ordinary concept of "personal identity" tracks how the high-level features of individual human organisms are stable over time. You're going to want to model me-on-Monday and me-on-Thursday as "the same" person even if my Thursday-self woke up on the wrong side of bed and has three whole days of new memories. When interacting with my Thursday-self, you're going to be using your existing mental model of me, plus a diff for "He's grumpy" and "Haven't seen him in three days"—but that's a _very small_ diff, compared to the diff between me and some other specific person you know, or the diff between me and a generic human who you don't know.
 
@@ -404,20 +446,40 @@ The thing about Sorites problems is that they're _incredibly boring_. The map is
 
 That's why defining your personal identity to get the answer you want is cheating. If the answer you wanted was actually _true_, you could just say so without needing to _want_ it.
 
-When [Phineas Gage's](/2017/Dec/interlude-xi/) friends [said he was "no longer Gage"](https://en.wikipedia.org/wiki/Phineas_Gage) after the railroad accident, what they were trying to say was that interacting with post-accident Gage was _more relevantly similar_ to interacting with a stranger than it was to interacting with pre-accident Gage, even if Gage-the-physical-organism was contiguous along the whole strech of space time.
+When [Phineas Gage's](/2017/Dec/interlude-xi/) friends [said he was "no longer Gage"](https://en.wikipedia.org/wiki/Phineas_Gage) after the railroad accident, what they were trying to say was that interacting with post-accident Gage was _more relevantly similar_ to interacting with a stranger than it was to interacting with pre-accident Gage, even if Gage-the-physical-organism was contiguous along the whole strech of spacetime.
 
 Same principle when Yudkowsky wrote, "If I fell asleep and woke up as a true woman [...] I don't think I'd call her 'me'". The claim is that psychological sex differences are large enough to violate the Lipschitz condition imposed by our _ordinary_ concept of personal identity. Maybe he was wrong, but if so, that cashes out as being wrong _about_ how similar women and men actually are (which in principle could be operationalized and precisely computed, even if _we_ don't know how to make it precise), _not_ whether we prefer the "call her me" or "don't call her me" conclusion and want to _retroactively redefine the meaning of the words in order to make the claim come out "true."_
 
-Do people ever really recover from being religious? I still endorse the underlying psychological motivation that makes me prefer the "call her me" conclusion, the _intention_ that made me think I could get away with defining it to be true. Now that I don't believe that anymore—now that I can't take for granted that actual women aren't a somewhat unfathomable Other onto me—my world hasn't collapsed in the way religious people [tend to fear](https://www.lesswrong.com/posts/3XgYbghWruBMrPTAL/leave-a-line-of-retreat) when their most precious belief is threatened. It just means I have to do [a little more intellectual work](https://arbital.greaterwrong.com/p/rescue_utility) to figure out what's actually right. [People can stand what is true, for we are already doing so.](https://www.readthesequences.com/You-Can-Face-Reality)
+Do people ever really recover from being religious? I still endorse the underlying psychological motivation that makes me prefer the "call her me" conclusion, the _intention_ that made me think I could get away with defining it to be true—even while I don't believe that anymore.
 
------
+While [the Sequence explaining Yudkowsky's metaethics](https://www.lesswrong.com/tag/metaethics-sequence) was being published (which a lot of people, including me, didn't quite "get" at the time; I found a [later précis](https://www.lesswrong.com/posts/zqwWicCLNBSA5Ssmn/by-which-it-may-be-judged) easier to understand), I was put off by the extent to which Yudkowsky seemed to want to ground the specification of value in [the evolved design of the human brain](https://www.lesswrong.com/posts/cSXZpvqpa9vbGGLtG/thou-art-godshatter), as if culturally-defined values were irrelevant, to be wiped away by [the extrapolation of what people _would_ want if they knew more, thought faster, _&c._](https://arbital.com/p/normative_extrapolated_volition/).
+
+And the _reason_ I felt that way was because I was aware of how much of a historical anomaly my sacred ideological value of antisexism was. Contrast to Yudkowsky's [casually "sexist" speculation in the comment section](https://www.greaterwrong.com/posts/BkkwXtaTf5LvbA6HB/moral-error-and-moral-disagreement/comment/vHNejGa6cRxh6kdnE):
+
+> If there are distinct categories of human transpersonal values, I would expect them to look like "male and female babies", "male children", "male adults", "female children", "female adults", "neurological damage 1", "neurological damage 2", not "Muslims vs. Christians!"
+
+You can see why this view would be unappealing to an ideologue eager to fight a culture war along an "Antisexism _vs._ Sexism" axis.
 
-Anyway, that—briefly (I mean it)—is the story about my weird obligate sex fantasy about being a woman and how I used to think that it was morally wrong to believe in psychological sex differences, but then I gradually changed my mind and decided that psychological sex differences are probably real after being deeply influenced by this robot-cult blog about the logic of Science.
+Looking back—I do think I had a point that culturally-inculcated values won't completely wash out under extrapolation, but I was wrong to conflate ideology with values as I did—I was vastly underestimating the extent to which your current sacred ideology _can_ be shown to be meaningfully "wrong" with better information—and, by design of the extrapolation procedure, [this _shouldn't_ be threatening](https://www.lesswrong.com/posts/3XgYbghWruBMrPTAL/leave-a-line-of-retreat).
 
-It's probably not that interesting? If we were still living in the socio-political environment of 2009, I'm pretty sure I wouldn't be blogging about my weird sexual obsessions (as evidenced by the fact that, in 2009, I wasn't blogging about them).
+Your morality doesn't have to converge with that of your genetic twin who was raised in a culture with a different ideology/religion—maybe culturally learned values from childhood get "frozen" after reasoning ability kicks in, such that I would never see eye-to-eye with my genetic analogue who was raised with (say) a traditional Muslim view of relations between the sexes, no matter how much we debates and no matter how many new facts we learned.
 
-It would take some unfathomably bizarre twist of circumstances to induce me to write publicly about such deeply private matters—like my weird sexual obsession ending up at the center of [one of the _defining political issues of our time_](https://en.wikipedia.org/wiki/Transgender_rights), and everyone I used to trust telling _blatant pants-on-fire lies_ about their _own_ philosophy of language that were clearly optimized to _trick me into cutting my dick off_ (independently of the empirical cost–benefit trade-off which determines whether or not I should cut my dick off).
+At the same time, while reflecting on one's own values and how to refine them in response to new information and new situations, the question of what your genetic analogue raised in a different culture would think is _relevant_ information.
+
+When I introspect on the _causes_ of my whole gender ... _thing_, I see three parents in the causal graph: autogynephilia, being a sensitive boy rather than a macho guy, and my ideological commitment to antisexism (wanting to treat feminism as a religion, as a special case of egalitarianism as our state religion). The first two things seem likely to be more "innate", more robust to perturbations—but the the ideology thing mostly seems like a _mistake_—albeit a beautiful mistake that I formed my values in the context of—and the process of figuring out how to do better would benefit from looking at the space of _other_ possible mistakes.
+
+["Anyone who gives a part of themselves to a[n ideology] discovers a sense of beauty in it."](https://www.lesswrong.com/posts/LRKXuxLrnxx3nSESv/should-ethicists-be-inside-or-outside-a-profession) However pure my heart was, my teenage religion got a lot of things _wrong_ on the empirical merits. When figuring out how to [rescue the spirit](https://arbital.greaterwrong.com/p/rescue_utility) of early-twenty-first century (pre-[Great Awokening](https://www.vox.com/2019/3/22/18259865/great-awokening-white-liberals-race-polling-trump-2020)) egalitarian individualism in light of the terrible discovery that [_none of this shit is true_](/2020/Apr/book-review-human-diversity/), it's instructive to consider how you would have formulated your values, if you had always known the true state of affairs to begin with (even if, as a point of historical fact, your mistaken beliefs had a causal role in the development of the values you're trying to rescue).
+
+Suppose it _is_ true that female adults and male adults have distinct transpersonal values. At the time, I found the prospect horrifying—but that just shows that the design of male transpersonal values _contains within it_ the potential (under appropriate cultural conditions) to be horrified by sex differences in transpersonal values. If, naïvely, [I don't _want_ it to be the case that women are a different thing that I don't understand](/2019/Jan/interlude-xvi/), but that preference _itself_ arises out of—something like, the love of a man for a woman leading to, wanting to be aligned with women in the sense of AI alignment, and genuinely do right by them—which vision is threatened by the idea of the sexes having fundamentally different interests.
+
+(During the vicissitudes of [my 2017 psychotic episode](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/), [I wrote a note](/images/cooperate_note.jpg): "cooperate with men who cooperate with women [who] cooperate with men who cooperate with women who cooperate with men".)
+
+But what _constitutes_ doing right by women, depends on the actual facts of the matter about psychological sex difference—if you _assume_, based on empathic inference, that the target of your benevolence is just like you, you might end up taking actions that hurt rather than help them if you live in one of the possible worlds where they're _not_ just like you.
+
+The thing to be committed to is not any potentially flawed object-level ideology, like antisexism or Christianity, but [the features of human psychology that make the object-level ideology _seem like a good idea_](http://zackmdavis.net/blog/2017/03/dreaming-of-political-bayescraft/). [People can stand what is true, for we are already doing so.](https://www.readthesequences.com/You-Can-Face-Reality)
+
+-----
 
-But such an absurd scenario couldn't actually happen, right? Um, to be continued.
+Anyway, that—briefly (I mean it)—is the story about my weird sexual obsession about being a woman and how I used to think that it was morally wrong to believe in psychological sex differences, but then I gradually changed my mind and decided that psychological sex differences are probably real and therefore morally okay to believe in after being deeply influenced by this robot-cult blog about the logic of Science.
 
-_([Please subscribe](/feeds/all.atom.xml) for Part 2, "A River in Egypt" (coming someday), and Part 3, "A Hill of Validity in Defense of Meaning" (coming—someday later))_
+It's probably not that interesting? If we were still living in the socio-political environment of 2009, I'm pretty sure I wouldn't be blogging about my weird sexual obsessions (as evidenced by the fact that, in 2009, I wasn't blogging about them). It would take some unfathomably bizarre twist of circumstances to induce me to write publicly about such deeply private and sensitive matters—like my weird sexual obsession ending up at the center of [one of the _defining political issues of our time_](https://en.wikipedia.org/wiki/Transgender_rights). But such an absurd scenario couldn't actually happen ... right??