Sunday "Sexual Dimorphism" drafting 2: "Failed Utopia #4-2" & coda story
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Mon, 7 Dec 2020 04:57:16 +0000 (20:57 -0800)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Mon, 7 Dec 2020 04:57:16 +0000 (20:57 -0800)
content/drafts/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
notes/sexual-dimorphism-in-the-sequences-notes.md

index aeb2510..03bf6b8 100644 (file)
@@ -1,5 +1,5 @@
 Title: Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems
 Title: Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems
-Date: 2021-01-01
+Date: 2020-12-14
 Category: commentary
 Tags: autogynephilia, bullet-biting, Eliezer Yudkowsky, epistemic horror, my robot cult, personal, sex differences, Star Trek, Julia Serano
 Status: draft
 Category: commentary
 Tags: autogynephilia, bullet-biting, Eliezer Yudkowsky, epistemic horror, my robot cult, personal, sex differences, Star Trek, Julia Serano
 Status: draft
@@ -82,11 +82,11 @@ But it was a different time, then. Of course I had _heard of_ transsexualism as
 
 At the time, I had _no reason to invent the hypothesis_ that I might somehow literally be a woman in some unspecified psychological sense. I knew I was a boy _because_ boys are the ones with penises. That's what the word _means_. I was a boy who had a weird _sex fantasy_ about being a girl. That was just the obvious ordinary straightforward plain-language description of the situation. It _never occured to me_ to couch it in the language of "dysphoria", or actually possessing some innate "gender". The beautiful pure sacred self-identity thing was about identifying _with_ women, not identifying _as_ a woman—roughly analogous to how a cat lover might be said to "identify with" cats, without claiming to somehow _be_ a cat, because _that would be crazy_.
 
 
 At the time, I had _no reason to invent the hypothesis_ that I might somehow literally be a woman in some unspecified psychological sense. I knew I was a boy _because_ boys are the ones with penises. That's what the word _means_. I was a boy who had a weird _sex fantasy_ about being a girl. That was just the obvious ordinary straightforward plain-language description of the situation. It _never occured to me_ to couch it in the language of "dysphoria", or actually possessing some innate "gender". The beautiful pure sacred self-identity thing was about identifying _with_ women, not identifying _as_ a woman—roughly analogous to how a cat lover might be said to "identify with" cats, without claiming to somehow _be_ a cat, because _that would be crazy_.
 
-[It was while browsing _Wikipedia_ in 2006 that I encountered the obvious and perfect word for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)—_autogynephilia_, from the Greek for "[love of](https://en.wiktionary.org/wiki/-philia) [oneself as](https://en.wiktionary.org/wiki/auto-#English) [a woman](https://en.wiktionary.org/wiki/gyno-)." I was actually surprised that it turned out to have been coined in the context of a theory (by Canadian sexologist Ray Blanchard) that it was the root cause of one of two types of male-to-female transsexualism.
+[It was while browsing _Wikipedia_ in 2006 that I encountered the obvious and perfect word for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)—_autogynephilia_, from the Greek for "[love of](https://en.wiktionary.org/wiki/-philia) [oneself as](https://en.wiktionary.org/wiki/auto-#English) [a woman](https://en.wiktionary.org/wiki/gyno-)." I was actually surprised that it turned out to have been coined in the context of a theory (by sexologist Ray Blanchard) that it was the root cause of one of two types of male-to-female transsexualism.
 
 You see, a very important feature of my gender-related thinking at the time was that I was growing very passionate about—well, in retrospect I call it _psychological-sex-differences denialism_, but at the time I called it _antisexism_. Where sometimes people in the culture would make claims about how women and men are psychologically different, and of course I knew this was _bad and wrong_. Therefore the very idea of transsexualism was somewhat suspect insofar as it necessarily depends on the idea that women and men are psychologically different (in order for it to be possible to be in the "wrong" body).
 
 
 You see, a very important feature of my gender-related thinking at the time was that I was growing very passionate about—well, in retrospect I call it _psychological-sex-differences denialism_, but at the time I called it _antisexism_. Where sometimes people in the culture would make claims about how women and men are psychologically different, and of course I knew this was _bad and wrong_. Therefore the very idea of transsexualism was somewhat suspect insofar as it necessarily depends on the idea that women and men are psychologically different (in order for it to be possible to be in the "wrong" body).
 
-So while I was certainly glad to learn that _there's a word for it_, an obvious and perfect word for _my thing_, I mostly just stole the word (whose referent and meaning I thought was self-explanatory from the common Greek roots) without paying any further attention to this Blanchard taxonomy or the idea that _I_ might somehow be transgender.
+So while I was certainly glad to learn that _there's a word for it_, an obvious and perfect word for _my thing_, I mostly just stole the word (whose referent and meaning I thought was self-explanatory from the common Greek roots) without paying any further attention to this Blanchard theory or the idea that _I_ might somehow be transgender.
 
 So, you know, as part of my antisexism, I read a lot about feminism. I remember checking out [_The Feminine Mystique_](https://en.wikipedia.org/wiki/The_Feminine_Mystique) and [Susan Faludi's _Backlash_](https://en.wikipedia.org/wiki/Backlash:_The_Undeclared_War_Against_American_Women) from the school library. Before I found my internet-home on _Overcoming Bias_, I would read the big feminist blogs—[_Pandagon_](https://web.archive.org/web/20070630211101/http://pandagon.net/), [_Feministe_](https://web.archive.org/web/20080901002058/http://www.feministe.us/blog), [_Feministing_](https://web.archive.org/web/20080605182529/http://www.feministing.com/). The one time I special-ordered a book at the physical Barnes & Noble before I turned 18 and got my own credit card and could order books online, it was [_Feminist Intepretations of Ayn Rand_](https://www.psupress.org/books/titles/0-271-01830-5.html).
 
 
 So, you know, as part of my antisexism, I read a lot about feminism. I remember checking out [_The Feminine Mystique_](https://en.wikipedia.org/wiki/The_Feminine_Mystique) and [Susan Faludi's _Backlash_](https://en.wikipedia.org/wiki/Backlash:_The_Undeclared_War_Against_American_Women) from the school library. Before I found my internet-home on _Overcoming Bias_, I would read the big feminist blogs—[_Pandagon_](https://web.archive.org/web/20070630211101/http://pandagon.net/), [_Feministe_](https://web.archive.org/web/20080901002058/http://www.feministe.us/blog), [_Feministing_](https://web.archive.org/web/20080605182529/http://www.feministing.com/). The one time I special-ordered a book at the physical Barnes & Noble before I turned 18 and got my own credit card and could order books online, it was [_Feminist Intepretations of Ayn Rand_](https://www.psupress.org/books/titles/0-271-01830-5.html).
 
@@ -146,19 +146,23 @@ According to Yudkowsky, one of the ways in which people's thinking about artific
 
 In ["Interpersonal Entanglement"](https://www.lesswrong.com/posts/Py3uGnncqXuEfPtQp/interpersonal-entanglement), Yudkowsky appeals to the complex moral value of sympathy as an argument against the desireability of nonsentient sex partners (_catgirls_ being the technical term). Being emotionally intertwined with another actual person is one of the things that makes life valuable, that would be lost if people just had their needs met by soulless catgirl holodeck characters.
 
 
 In ["Interpersonal Entanglement"](https://www.lesswrong.com/posts/Py3uGnncqXuEfPtQp/interpersonal-entanglement), Yudkowsky appeals to the complex moral value of sympathy as an argument against the desireability of nonsentient sex partners (_catgirls_ being the technical term). Being emotionally intertwined with another actual person is one of the things that makes life valuable, that would be lost if people just had their needs met by soulless catgirl holodeck characters.
 
-But there's a problem, Yudkowsky argues: women and men aren't designed to make each other optimally happy. The abstract game between the two human life-history strategies has a conflicting-interests as well as a shared-interests component. (Peter Watts: ["And God smiled, for Its commandment had put Sperm and Egg at war with each other, even unto the day they made themselves obsolete."](https://www.rifters.com/real/Blindsight.htm)) The design of the woman who _optimally_ satisfied what men out of women, corresponding to Total Victory for the ♂ player in the conflicting-interests subgame, wouldn't be drawn from the design-space of actual women. (And _vice versa_ and respectively, but if you didn't notice, this blog post is all about male needs.)
+But there's a problem, Yudkowsky argues: women and men aren't designed to make each other optimally happy. The abstract game between the two human life-history strategies in the environment of evolutionary adaptedness had a conflicting-interests as well as a shared-interests component, and human psychology still bears the design signature of that game denominated in inclusive fitness, even though [no one cares about inclusive fitness](https://www.lesswrong.com/posts/XPErvb8m9FapXCjhA/adaptation-executers-not-fitness-maximizers).
 
 
-Yudkowsky dramatized the implications in a short story, ["Failed Utopia #4-2"](https://www.lesswrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2), portraying an almost-aligned superintelligence constructing a happiness-maximizing utopia for humans—except that because of the mismatch in the sexes' desires, and because the AI is prohibited from editing people's minds, the happiness-maximizing solution (according to the story) turns out to be splitting up the human species by sex and giving women and men their own _separate_ utopias, complete with artificially-synthesized romantic partners.
+(Peter Watts: ["And God smiled, for Its commandment had put Sperm and Egg at war with each other, even unto the day they made themselves obsolete."](https://www.rifters.com/real/Blindsight.htm))
 
 
-At the time, [I expressed horror](https://www.greaterwrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2/comment/PhiGnX7qKzzgn2aKb) at the idea in the comments section, because my quasi-religious psychological-sex-differences denialism required that I be horrified. But looking back a dozen years later—[or even four years later](https://www.greaterwrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2/comment/D34jhYBcaoE7DEb8d)—my performative horror was missing the point.
+The secnario of Total Victory for the ♂ player in the conflicting-interests subgame is not Nash. The design of the entity who _optimally_ satisfied what men want out of women would not be, and _could_ not be, within the design parameters of actual women.
 
 
-_The argument makes sense_. Of course, it's important to notice that you'd need an additional [handwave](https://tvtropes.org/pmwiki/pmwiki.php/Main/HandWave) to explain why the AI in the story doesn't give every _individual_ their separate utopia—if existing women and men aren't optimal partners for each other, so too are individual men not optimal same-sex friends for each other.
+(And _vice versa_ and respectively, but in case you didn't notice, this blog post is all about male needs.)
 
 
-[TODO: the point it about unforeseen maximum, and for the purposes of a dramatic story, it's OK to focus on the big separating hyperplane, even if there are many other hyperplanes
-https://arbital.greaterwrong.com/p/unforeseen_maximum
-]
-[TODO: skeptical commenters saying that this isn't what they want are missing the point: you would adapt]
-[TODO: "Interpersonal Entanglement" suggests a negotiation]
+Yudkowsky dramatized the implications in a short story, ["Failed Utopia #4-2"](https://www.lesswrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2), portraying an almost-aligned superintelligence constructing a happiness-maximizing utopia for humans—except that because of the mismatch in the sexes' desires, and because the AI is prohibited from editing people's minds, the happiness-maximizing solution (according to the story) turns out to be splitting up the human species by sex and giving women and men their own _separate_ utopias (on [Venus and Mars](https://en.wikipedia.org/wiki/Gender_symbol#Origins), ha ha), complete with artificially-synthesized romantic partners.
+
+Of course no one _wants_ that—our male protagonist doesn't _want_ to abandon his wife and daughter for some catgirl-adjacent (if conscious) hussy. But humans _do_ adapt to loss; if the separation were already accomplished by force, people would eventually move on, and post-separation life with companions superintelligently optimized _for you_ would ([_arguendo_](https://en.wikipedia.org/wiki/Arguendo)) be happier than life with your real friends and family, whose goals will sometimes come into conflict with yours because they weren't superintelligently designed _for you_.
+
+The alignment-theory morals are those of [unforseen maxima](https://arbital.greaterwrong.com/p/unforeseen_maximum) and [edge instantiation](https://arbital.greaterwrong.com/p/edge_instantiation). An AI designed to maximize happiness would kill all humans and tile the galaxy with maximally-efficient happiness-brainware. If this sounds "crazy" to you, that's the problem with anthropomorphism I was telling you about: don't imagine "AI" as an unemotional human, just think about a machine that calculates what actions would result in what outcomes, and does the action that would result in the outcome that maximizes some function. It turns out that picking a function that doesn't kill everyone looks hard. Just tacking on the constaints that you can think of (make the _existing_ humans happy without tampering with their minds) [will tend to produce similar "crazy" outcomes that you didn't think to exclude](https://arbital.greaterwrong.com/p/nearest_unblocked). 
+
+At the time, [I expressed horror](https://www.greaterwrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2/comment/PhiGnX7qKzzgn2aKb) at "Failed Utopia #4-2" in the comments section, because my quasi-religious psychological-sex-differences denialism required that I be horrified. But looking back a dozen years later—[or even four years later](https://www.greaterwrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2/comment/D34jhYBcaoE7DEb8d)—my performative horror was missing the point.
+
+_The argument makes sense_. Of course, it's important to notice that you'd need an additional [handwave](https://tvtropes.org/pmwiki/pmwiki.php/Main/HandWave) to explain why the AI in the story doesn't give every _individual_ their separate utopia—if existing women and men aren't optimal partners for each other, so too are individual men not optimal same-sex friends for each other. A faithful antisexist (as I was) might insist that that should be the _only_ moral, as it implies the other [_a fortiori_](https://en.wikipedia.org/wiki/Argumentum_a_fortiori). But if you're trying to _learn about reality_ rather than protect your fixed quasi-religious beliefs, it should be _okay_ for one of the lessons to get a punchy sci-fi short story; it should be _okay_ to think about the hyperplane between two coarse clusters, even while it's simultaneously true that a set of hyperplanes would suffice to [shatter](https://en.wikipedia.org/wiki/Shattered_set) every individual point, without deigning to acknowledge the existence of clusters.
 
 On my reading of the text, it is _significant_ that the AI-synthesized complements for men are given their own name, the _verthandi_ (presumably after [the Norse deity](https://en.wikipedia.org/wiki/Ver%C3%B0andi)), rather than just being referred to as women. The _verthandi_ may _look like_ women, they may be _approximately_ psychologically human, but since the _detailed_ psychology of "superintelligently-engineered optimal romantic partner for a human male" is not going to come out of the distribution of actual human females, judicious exercise of the [tenth virtue of precision](http://yudkowsky.net/rational/virtues/) demands that a _different word_ be coined for this hypothetical science-fictional type of person. Calling the _verthandi_ "women" would be _worse writing_; it would _fail to communicate_ the impact of what has taken place in the story.
 
 
 On my reading of the text, it is _significant_ that the AI-synthesized complements for men are given their own name, the _verthandi_ (presumably after [the Norse deity](https://en.wikipedia.org/wiki/Ver%C3%B0andi)), rather than just being referred to as women. The _verthandi_ may _look like_ women, they may be _approximately_ psychologically human, but since the _detailed_ psychology of "superintelligently-engineered optimal romantic partner for a human male" is not going to come out of the distribution of actual human females, judicious exercise of the [tenth virtue of precision](http://yudkowsky.net/rational/virtues/) demands that a _different word_ be coined for this hypothetical science-fictional type of person. Calling the _verthandi_ "women" would be _worse writing_; it would _fail to communicate_ the impact of what has taken place in the story.
 
@@ -364,7 +368,7 @@ Men get cosmetic surgery sometimes, right? I guess if I grew a little braver and
 
 But _staying_ on HRT indefinitely—doesn't seem like a smart move? Even though I would be happy with the fat-redistribution effects, I don't expect the health effects to be net-positive, and I don't expect the psychological effects to be net-desirable (even if I wasn't self-aware enough to notice much besides libido change during my five-month experiment).
 
 
 But _staying_ on HRT indefinitely—doesn't seem like a smart move? Even though I would be happy with the fat-redistribution effects, I don't expect the health effects to be net-positive, and I don't expect the psychological effects to be net-desirable (even if I wasn't self-aware enough to notice much besides libido change during my five-month experiment).
 
-And _social_ transition—really doesn't seem like a smart move? If we _actually had_ magical perfect transformation technology, that would happen automatically (people are pretty good at noticing each other's sex), and I would expect to be very happy. (After some socio-psychological adjustment period; remember, in the real world, I didn't even manage to change _nicknames_.) But given that we _don't_ have magical perfect transformation technology, the main objection here is that I _don't expect to pull off_ that kind of ... perma-[LARP](https://en.wikipedia.org/wiki/Live_action_role-playing_game). I'm sure it would be _possible_ to do well with a lot of work ([voice training for trans women](https://en.wikipedia.org/wiki/Voice_therapy_(transgender)#Voice_feminization) is a thing!), but it's not clear why I would want to put in all that work, when overall, my life is fundamentally _okay_ as ... a man? An adult human male? As a matter of fact, which doesn't care about my feelings.
+And _social_ transition—really doesn't seem like a smart move? If we _actually had_ magical perfect transformation technology, that would happen automatically (people are pretty good at noticing each other's sex), and I would expect to be very happy. (After some socio-psychological adjustment period; remember, in the real world, I didn't even manage to change _nicknames_.) But given that we _don't_ have magical perfect transformation technology, the main objection here is that I _don't expect to pull off_ that kind of ... perma-[LARP](https://en.wikipedia.org/wiki/Live_action_role-playing_game). I'm sure it would be _possible_ to do well with a lot of work ([voice training for trans women](https://en.wikipedia.org/wiki/Voice_therapy_(transgender)#Voice_feminization) is a thing!), but it's not clear why I would want to put in all that work, when overall, my life is fundamentally _okay_ as ... a man? An adult human male?—as a matter of objective _fact_, which doesn't care about my feelings.
 
 How dumb would I have to think you are, to expect you not to notice?
 
 
 How dumb would I have to think you are, to expect you not to notice?
 
@@ -418,7 +422,7 @@ _Why would I?_ In the English of my youth, "gender" (as a single word, rather th
 
 Okay, so trans people aren't delusional about their [developmental sex](/2019/Sep/terminology-proposal-developmental-sex/); the claim is that their internal sense of their own gender is in some sense more real or more relevant and should take precedence.
 
 
 Okay, so trans people aren't delusional about their [developmental sex](/2019/Sep/terminology-proposal-developmental-sex/); the claim is that their internal sense of their own gender is in some sense more real or more relevant and should take precedence.
 
-So where does that leave me? This post is about my _own_ experiences, and not anyone else's (which I obviously don't have access to). I've _mentioned_ transgenderedness several times in the main body of this post, but I've tried to cast it as explanation that one might be tempted to apply to my case, but which I don't think fits. Everything I've said so far is _consistent_ with a world in which Blanchard (who coined the obvious and perfect word for my thing while studying actual transsexuals) was dumb and wrong, a world where my idiosyncratic weird sex perversion and associated beautiful pure sacred self-identity feelings are taxonomically and etiologically distinct from whatever brain-intersex condition causes _actual_ trans women. That's the world I _thought_ I lived in for the ten years after encountering the obvious and perfect word.
+So where does that leave me? This post is about my _own_ experiences, and not anyone else's (which I obviously don't have access to). I've _mentioned_ transgenderedness a number of times in the main body of this post, but I've tried to cast it as explanation that one might be tempted to apply to my case, but which I don't think fits. Everything I've said so far is _consistent_ with a world in which Ray Blanchard (who coined the obvious and perfect word for my thing while studying actual transsexuals) was dumb and wrong, a world where my idiosyncratic weird sex perversion and associated beautiful pure sacred self-identity feelings are taxonomically and etiologically distinct from whatever brain-intersex condition causes _actual_ trans women. That's the world I _thought_ I lived in for the ten years after encountering the obvious and perfect word.
 
 My first clue that I wasn't living in that world came from—Eliezer Yudkowsky. In [a 26 March 2016 Facebook post](https://www.facebook.com/yudkowsky/posts/10154078468809228), he wrote—
 
 
 My first clue that I wasn't living in that world came from—Eliezer Yudkowsky. In [a 26 March 2016 Facebook post](https://www.facebook.com/yudkowsky/posts/10154078468809228), he wrote—
 
@@ -430,19 +434,29 @@ My first clue that I wasn't living in that world came from—Eliezer Yudkowsky.
 
 > A lot of them don't know it or wouldn't care, because they're female-minds-in-male-bodies but also cis-by-default (lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities). Or they don't know it because they haven't heard in detail what it feels like to be gender dysphoric, and haven't realized 'oh hey that's me'. See, e.g., <https://sinesalvatorem.tumblr.com/post/141690601086/15-regarding-the-4chan-thing-4chans> and <https://slatestarcodex.com/2013/02/18/typical-mind-and-gender-identity/>
 
 
 > A lot of them don't know it or wouldn't care, because they're female-minds-in-male-bodies but also cis-by-default (lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities). Or they don't know it because they haven't heard in detail what it feels like to be gender dysphoric, and haven't realized 'oh hey that's me'. See, e.g., <https://sinesalvatorem.tumblr.com/post/141690601086/15-regarding-the-4chan-thing-4chans> and <https://slatestarcodex.com/2013/02/18/typical-mind-and-gender-identity/>
 
-> But I'm kinda getting the impression that when you do normalize transgender generally and MtF particularly, like not "I support that in theory!" normalize but "Oh hey a few of my friends are transitioning and nothing bad happened to them", there's a *hell* of a lot of people who come out as trans.
+(Reading _this_ post, I _did_ realize "oh hey that's me"—it's hard to believe that I'm not one of the "20% of the ones with penises" Yudkowsky is talking about here—but I wasn't sure how to reconcile that with the "are actually women" (***!?!?!?!?***) characterization, coming _specifically_ from the guy who taught me (in "Changing Emotions") how blatantly, ludicrously untrue and impossible that is.)
+
+> But I'm kinda getting the impression that when you do normalize transgender generally and MtF particularly, like not "I support that in theory!" normalize but "Oh hey a few of my friends are transitioning and nothing bad happened to them", there's a _hell_ of a lot of people who come out as trans.
 
 > If that starts to scale up, we might see a really, really interesting moral panic in 5-10 years or so. I mean, if you thought gay marriage was causing a moral panic, you just wait and see what comes next ...
 
 Indeed—here we are just 4¾ years later, and _I am panicking_. (As 2007–9 Sequences-era Yudkowsky [taught me](https://www.yudkowsky.net/other/fiction/the-sword-of-good), and 2016 Facebook-shitposting-era Yudkowsky seemed to ignore, the thing that makes a moral panic really interesting is how hard it is to know you're on the right side of it—and the importance of [panicking sideways](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative) [in policyspace](https://www.overcomingbias.com/2007/05/policy_tugowar.html) when the "maximize the number of trans people" and "minimize the number of trans people" coalitions are both wrong.)
 
 
 > If that starts to scale up, we might see a really, really interesting moral panic in 5-10 years or so. I mean, if you thought gay marriage was causing a moral panic, you just wait and see what comes next ...
 
 Indeed—here we are just 4¾ years later, and _I am panicking_. (As 2007–9 Sequences-era Yudkowsky [taught me](https://www.yudkowsky.net/other/fiction/the-sword-of-good), and 2016 Facebook-shitposting-era Yudkowsky seemed to ignore, the thing that makes a moral panic really interesting is how hard it is to know you're on the right side of it—and the importance of [panicking sideways](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative) [in policyspace](https://www.overcomingbias.com/2007/05/policy_tugowar.html) when the "maximize the number of trans people" and "minimize the number of trans people" coalitions are both wrong.)
 
-At the time, this was merely _very confusing_ to hear coming from the guy who wrote "Changing Emotions". I left a careful comment in the Facebook thread (with the obligatory "speaking only for myself; I obviously know that I can't say anything about anyone else's experience" [disclaimer](https://www.overcomingbias.com/2008/06/against-disclai.html)), quietly puzzled at what Yudkowsky could possibly be thinking ...
+At the time, this was merely _very confusing_. I left a careful comment in the Facebook thread (with the obligatory "speaking only for myself; I obviously know that I can't say anything about anyone else's experience" [disclaimer](https://www.overcomingbias.com/2008/06/against-disclai.html)), quietly puzzled at what Yudkowsky could _possibly_ be thinking ...
 
 
-A month later, I moved out of my mom's house in Walnut Creek to live on the correct side of the [Caldecott tunnel](https://en.wikipedia.org/wiki/Caldecott_Tunnel), in Berkeley: closer to other people in the robot-cult scene and with a shorter train ride to my coding dayjob in San Francisco.
+A month later, I moved out of my mom's house in Walnut Creek to go live with a new roommate in an apartment on the correct side of the [Caldecott tunnel](https://en.wikipedia.org/wiki/Caldecott_Tunnel), in Berkeley: closer to other people in the robot-cult scene and with a shorter train ride to my coding dayjob in San Francisco.
 
 (I would later change my mind about which side of the tunnel is the correct one.)
 
 
 (I would later change my mind about which side of the tunnel is the correct one.)
 
-[...] doing a little bit more reading ... I _don't_ think Blanchard was dumb and wrong. [TODO: actually explain the typology] I think the two-type taxonomy is _basically_ correct, as a first approximation. (Where psychology is complicated enough such that there's much more to be said about what that means, and what better approximations would look like, but simple theories that [explain a lot of our observations](https://surveyanon.wordpress.com/2019/04/27/predictions-made-by-blanchards-typology/) are better than pretending not to have a theory.) I think a _substantial majority_ of trans women under modern conditions in Western countries are, essentially, guys like me who were _less self-aware about what the thing actually is_.
+In Berkeley, I met a number of _really interesting_ people who seemed quite similar to me along a lot of dimensions, but also very different along some other dimensions having to do with how they were currently living their life! (I see where the pattern-matching facilities in Yudkowsky's brain got that 20% from.) This prompted me to do a little bit more reading in some corners of the literature that I had certainly _heard of_, but hadn't already mastered and taken seriously in the previous twelve years of reading everything I could about sex and gender and transgender and feminism and evopsych. (Kay Brown's blog, [_On the Science of Changing Sex_](https://sillyolme.wordpress.com/), was especially helpful.)
+
+Between the reading, and a series of increasingly frustrating private conversations, I gradually became persuaded that Blanchard _wasn't_ dumb and wrong, that his taxonomy is _basically_ correct, at least as a first approximation. So far this post has just been about _my_ experience, and not anyone's theory of transsexualism (which I had assumed for years couldn't possibly apply to me), so let me take a moment to explain the theory now.
+
+The idea is that male-to-female transsexualism isn't actually one
+
+[TODO: actually explain the typology ...]
+
+(Where psychology is complicated enough such that there's much more to be said about what that means, and what better approximations would look like, but simple theories that [explain a lot of our observations](https://surveyanon.wordpress.com/2019/04/27/predictions-made-by-blanchards-typology/) are better than pretending not to have a theory.) I think a _substantial majority_ of trans women under modern conditions in Western countries are, essentially, guys like me who were _less self-aware about what the thing actually is_.
 
 So, I realize this is an inflamatory and (far more importantly) _surprising_ claim. Obviously, I don't have introspective access into other people's minds. If someone claims to have an internal sense of her own gender that doesn't match her assigned sex at birth, on what evidence could I _possibly_ have the _astounding_ arrogance to reply, "No, I think you're really just a perverted male like me"?
 
 
 So, I realize this is an inflamatory and (far more importantly) _surprising_ claim. Obviously, I don't have introspective access into other people's minds. If someone claims to have an internal sense of her own gender that doesn't match her assigned sex at birth, on what evidence could I _possibly_ have the _astounding_ arrogance to reply, "No, I think you're really just a perverted male like me"?
 
index 19ade8e..f631967 100644 (file)
@@ -65,6 +65,7 @@ https://www.lesswrong.com/posts/9fpWoXpNv83BAHJdc/the-comedy-of-behaviorism
  * as a programmer, I have learned to fear dependencies
 * wipe culturally defined values: https://www.greaterwrong.com/posts/BkkwXtaTf5LvbA6HB/moral-error-and-moral-disagreement (this might have to go after Failed-Utopia #4-2)
 * detachable
  * as a programmer, I have learned to fear dependencies
 * wipe culturally defined values: https://www.greaterwrong.com/posts/BkkwXtaTf5LvbA6HB/moral-error-and-moral-disagreement (this might have to go after Failed-Utopia #4-2)
 * detachable
+* If I want to stay aligned with women, then figuring out how to do that depends on the facts about actual sex differences; if I want to do the value-exchange suggested in 
 
 https://www.lesswrong.com/posts/r3NHPD3dLFNk9QE2Y/search-versus-design-1
 https://www.lesswrong.com/posts/JBFHzfPkXHB2XfDGj/evolution-of-modularity
 
 https://www.lesswrong.com/posts/r3NHPD3dLFNk9QE2Y/search-versus-design-1
 https://www.lesswrong.com/posts/JBFHzfPkXHB2XfDGj/evolution-of-modularity
@@ -336,6 +337,11 @@ A culture where there are huge catastrophic consequences for questioning gender
 
 —
 
 
 —
 
+The real alignment-theory lesson is about : 
+[TODO: the point it about unforeseen maximum, and for the purposes of a dramatic story, it's OK to focus on the big separating hyperplane, even if there are many other hyperplanes]
+[TODO: "Interpersonal Entanglement" suggests a negotiation]
+
+
 
 [evolution didn't design women and men to be optimal partners for each other](https://www.lesswrong.com/posts/Py3uGnncqXuEfPtQp/interpersonal-entanglement),
 
 
 [evolution didn't design women and men to be optimal partners for each other](https://www.lesswrong.com/posts/Py3uGnncqXuEfPtQp/interpersonal-entanglement),