memoir: editing sweep ...
[Ultimately_Untrue_Thought.git] / content / drafts / blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer.md
index 9c8ab04..c3c6a0a 100644 (file)
@@ -91,7 +91,7 @@ Between the reading, and a series of increasingly frustrating private conversati
 
 (With the caveated understanding that psychology is complicated and there's [a lot to be said about what "as a first approximation" is even supposed to mean](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/), but I need a few paragraphs to first talk about the _simple_ version of the theory that makes _pretty good_ predictions on _average_, as a prerequisite for more complicated theories that might make even better predictions including on cases that diverge from average.)
 
-The idea is that male-to-female transsexualism isn't actually one phenomenon; it's two completely different phenomena that don't actually have anything to do with each other, except for the (perhaps) indicated treatments of hormone therapy, surgery, and social transition. (Compare to how different medical conditions might happen to respond to the same drug.)
+The theory was put forth by Blanchard in a series of journal articles in the late 'eighties and early 'nineties, but notably popularized (to some controversy) by J. Michael Bailey in the popular-level book _The Man Who Would be Queen_ in 'aught-three. The idea is that male-to-female transsexualism isn't actually one phenomenon; it's two completely different phenomena that don't actually have anything to do with each other, except for the (perhaps) indicated treatments of hormone therapy, surgery, and social transition. (Compare to how different medical conditions might happen to respond to the same drug.)
 
 In one taxon, the "early-onset" type, you have same-sex-attracted males who have just been extremely feminine (in social behavior, interests, _&c._) their entire lives going back to early childhood, in a way that's salient to other people and causes big social problems for them—the far tail of effeminate gay men who end up fitting into Society better as straight women. _That's_ where the "woman trapped inside a man's body" trope comes from. [This one probably _is_ a brain-intersex condition.](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3180619/)
 
@@ -397,43 +397,43 @@ When a political narrative is being pushed for _your_ alleged benefit, it's much
 
 While I was in this flurry of excitement about my recent updates and the insanity around me, I thought back to that Yudkowsky post from back in March that had been my wake-up call to all this. ("I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women"!!) What _was_ going on with that?
 
-<a id="cheerful-price"></a>I wasn't _friends_ with Yudkowsky, obviously; I didn't have a natural social affordance to _just_ ask him the way you would ask a dayjob or college acquaintance something. But ... he _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about the trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation. I had his email address from previous contract work I had done for MIRI back in '12, so on 29 September 2016, I wrote him offering $1,000 to talk about what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228), mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong."
+<a id="cheerful-price"></a>I wasn't _friends_ with Yudkowsky, obviously; I didn't have a natural social affordance to _just_ ask him the way you would ask a dayjob or college acquaintance something. But ... he _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about the trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation. I had his email address from previous contract work I had done for MIRI back in 'twelve, so on 29 September 2016, I wrote him offering $1,000 to talk about what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228), mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong."
 
 <a id="cheerful-price-reasons"></a>At this point, any _normal people_ who are (somehow?) reading this might be thinking, isn't that weird and kind of cultish? Some blogger you follow posted something you thought was strange earlier this year, and you want to pay him _one grand_ to talk about it? To the normal person I would explain thusly—
 
-First, in our subculture, we don't have your weird hangups about money: people's time is valuable, and paying people money in exchange for them using their time differently from how they otherwise would is a perfectly ordinary thing for microeconomic agents to do. Upper-middle–class normal people don't blink at paying a licensed therapist $100 to talk for an hour, because their culture designates that as a special ritualized context in which paying money to talk to someone isn't weird. In my culture, we don't need the special ritualized context; Yudkowsky just had a somewhat higher rate than most therapists.
+First, in our subculture, we don't have your weird hangups about money: people's time is valuable, and paying people money in exchange for them using their time differently from how they otherwise would is a perfectly ordinary thing for microeconomic agents to do. Upper-middle–class normal people don't blink at paying a licensed therapist $100 to talk for an hour, because their culture designates that as a special ritualized context in which paying money to talk to someone isn't weird. In my culture, we don't need the special ritualized context; Yudkowsky just had a higher rate than most therapists.
 
 Second, $1000 isn't actually real money to a San Francisco software engineer.
 
 Third—yes. Yes, it _absolutely_ was kind of cultish. There's a sense in which, _sociologically and psychologically speaking_, Yudkowsky is a religious leader, and I was—am—a devout adherent of the religion he made up.
 
-By this I don't mean that the _content_ of Yudkowskian rationalism is much comparable to Christianity or Buddhism. But whether or not there is a God or a Divine (there is not), the _features of human psychology_ that make Christianity or Buddhism adaptive memeplexes are still going to be active. If the God-shaped whole in my head can't not be filled by _something_, it's better to fill it with a "religion" _about good epistemology_, one that can _reflect_ on the fact that beliefs that are adaptive memeplexes are not therefore true, and Yudkowsky's writings on the hidden Bayesian structure of the universe were a potent way to do that. It seems fair to compare my tendency to write in Sequences links to a devout Christian's tendency to quote Scripture by chapter and verse; the underlying mental motion of "appeal to the holy text" is probably pretty similar. My only defense is that _my_ religion is _actually true_ (and that my religion says you should read the texts and think it through for yourself, rather than taking anything on "faith").
+By this I don't mean that the _content_ of Yudkowskian rationalism is much comparable to (say) Christianity or Buddhism. But whether or not there is a God or a Divine (there is not), the _features of human psychology_ that make Christianity or Buddhism adaptive memeplexes are still going to be active. [If the God-shaped hole in my head can't not be filled by _something_](http://zackmdavis.net/blog/2013/03/religious/), it's better to fill it with a "religion" _about good epistemology_, one that can _reflect_ on the fact that beliefs that are adaptive memeplexes are often false. It seems fair to compare my tendency to write in Sequences links to a devout Christian's tendency to quote Scripture by chapter and verse; the underlying mental motion of "appeal to the holy text" is probably pretty similar. My only defense is that _my_ religion is _actually true_ (and that my religion says you should read the texts and think it through for yourself, rather than taking anything on "faith").
 
-That's the context in which my happy-price email thread ended up including the sentence, "I feel awful writing _Eliezer Yudkowsky_ about this, because my interactions with you probably have disproportionately more simulation-measure than the rest of my life, and do I _really_ want to spend that on _this topic_?" (Referring to the idea that, in a sufficiently large universe where many subjectively-indistinguishable copies of everyone exists, including inside of future superintelligences running simulations of the past, there would plausibly be _more_ copies of my interactions with Yudkowsky than of other moments of my life, on account of that information being of greater decision-relevance to those superintelligences.)
+That's the context in which my happy-price email thread ended up including the sentence, "I feel awful writing _Eliezer Yudkowsky_ about this, because my interactions with you probably have disproportionately more simulation-measure than the rest of my life, and do I _really_ want to spend that on _this topic_?" (Referring to the idea that, in a sufficiently large universe where many subjectively-indistinguishable copies of everyone exists, including [inside of future superintelligences running simulations of the past](https://www.simulation-argument.com/), there would plausibly be _more_ copies of my interactions with Yudkowsky than of other moments of my life, on account of that information being of greater decision-relevance to those superintelligences.)
 
 I say all this to emphasize just how much Yudkowsky's opinion meant to me. If you were a devout Catholic, and something in the Pope's latest encyclical seemed wrong according to your understanding of Scripture, and you had the opportunity to talk it over with the Pope for a measly $1000, wouldn't you take it? Of course you would!
 
-<a id="cheerful-price-privacy-constraint"></a>Anyway, I can't talk about the results of my cheerful price inquiry (whether he accepted the offer and a conversation occured, or what was said if it did occur), because I think the rule I should follow for telling this Whole Dumb Story is that while I have complete freedom to talk about _my_ actions and things that happened in public, I'm not allowed to divulge information about what Yudkowsky may or may not have said in private conversations that may or may not have occured, because even without an explicit secrecy promise, people might be less forthcoming in private conversations if they knew that you might blog about them later.Personally, I think most people are _way_ too paranoid about this; I often wish I could just say what relevant things I know without worrying about whether it might infringe on someone's "privacy". (This secrecy-hating trait probably correlates with the autogynephilia blogging; someone otherwise like me who believed in privacy wouldn't be telling you this Whole Dumb Story.) But I feel morally obligated to cooperate with widely-held norms even if I personally think they're dumb.
+Anyway, I don't think I should talk about the results of my cheerful price inquiry (whether he accepted the offer and a conversation occured, or what was said if it did occur), because any conversation that _did_ occur would be protected by the privacy-norm-adherence rules that I'm holding myself to in telling this Whole Dumb Story.
 
 (Incidentally, it was also around this time that I snuck a copy of _Men Trapped in Men's Bodies_ into the [MIRI](https://intelligence.org/) office library, which was sometimes possible for community members to visit. It seemed like something Harry Potter-Evans-Verres would do—and ominously, I noticed, not like something Hermione Granger would do.)
 
 ------
 
-If I had to pick a _date_ for my break with progressive morality, it would be 7 October 2017. Over the past couple days, I had been having a frustrating Messenger conversation with some guy, which I would [later describe as feeling like I was talking to an AI designed to maximize the number of trans people](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/).
+If I had to pick a _date_ for my break with progressive morality, it would be 7 October 2017. Over the past couple days, I had been having a frustrating Messenger conversation with some guy, which I would [later describe as feeling like I was talking to an AI designed to maximize the number of trans people](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/). He didn't even bother making his denials cohere with each other, insisting with no or minimal argument that my ideas were wrong _and_ overconfident _and_ irrelevant _and_ harmful to talk about.
 
 Over the previous weeks and months, I had been frustrated with the _Zeitgeist_, but I was trying to not to be loud or obnoxious about it, because I wanted to be a good person and not hurt anyone's feelings and not lose any more friends. ("Helen" had rebuffed my last few requests to chat or hang out. "I don't fully endorse the silence," she had said, "just find talking vaguely aversive.")
 
-The conversation made it very clear to me that I could have no peace with the _Zeitgeist_. It wasn't the mere fact that some guy in my social circle was being dumb and gaslighty about it. It was that fact that his gaslighting was an unusually pure distillation of _socially normative_ behavior in Berkeley 2016. There were more copies of him than there were of me.
+This conversation made it very clear to me that I could have no peace with the _Zeitgeist_. It wasn't the mere fact that some guy in my social circle was being dumb and gaslighty about it. It was the fact that his performance was an unusually pure distillation of _socially normative_ behavior in Berkeley 2016; there were more copies of him than there were of me.
 
-It was a Huckleberry Finn moment for me: opposing this was worth losing friends, worth hurting feelings, and, actually, worth the other thing. I posted on Facebook in the morning and [on my real-name blog](http://zackmdavis.net/blog/2016/10/late-onset/) in the evening:
+Opposing this was worth losing friends, worth hurting feelings—and, actually, worth the other thing. I posted on Facebook in the morning and [on my real-name blog](http://zackmdavis.net/blog/2016/10/late-onset/) in the evening:
 
 > the moment of liberating clarity when you resolve the tension between being a good person and the requirement to pretend to be stupid by deciding not to be a good person anymore 💖
 
-Former MIRI president Michael Vassar emailed me about it, and we ended up meeting once. (I had also emailed him back in August, when I had heard from my friend Anna Salamon that he was also skeptical of the transgender movement (Subject: "I've heard of fake geek girls, but this is ridiculous").)
+Former MIRI president Michael Vassar emailed me about the Facebook post, and we ended up meeting once. (I had also emailed him back in August, when I had heard from my friend Anna Salamon that he was also skeptical of the transgender movement (Subject: "I've heard of fake geek girls, but this is ridiculous").)
 
 ------
 
-I wrote about my frustrations to Scott Alexander of _Slate Star Codex_ fame (Subject: "J. Michael Bailey did nothing wrong"). The immediate result of this is that he ended up including a link to one of Kay Brown's study summaries (and expressing surprise at the claim that non-androphilic trans woman have very high IQs) in his [November links post](https://slatestarcodex.com/2016/11/01/links-1116-site-unseen/), and he [got some pushback even for that](https://slatestarscratchpad.tumblr.com/post/152736458066/hey-scott-im-a-bit-of-a-fan-of-yours-and-i).
+I wrote about my frustrations to Scott Alexander of _Slate Star Codex_ fame (Subject: "J. Michael Bailey did nothing wrong"). The immediate result of this is that he ended up including a link to one of Kay Brown's study summaries (and expressing surprise at the claim that non-androphilic trans woman have very high IQs) in his [November 2016 links post](https://slatestarcodex.com/2016/11/01/links-1116-site-unseen/). He [got some pushback even for that](https://slatestarscratchpad.tumblr.com/post/152736458066/hey-scott-im-a-bit-of-a-fan-of-yours-and-i).
 
 ------