memoir: let's go on near editing tier
[Ultimately_Untrue_Thought.git] / content / drafts / blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer.md
index 2cdf4c2..a6b2f83 100644 (file)
@@ -359,6 +359,10 @@ However weird I must have seemed, I have trouble imagining what anyone else tell
 
 But (as I told the LCSW) I would _know_ that I was cherry-picking. HSTS-taxon boys are identified as effeminate _by others_. [You know it when you see it, even when you're ideologically prohibited from _knowing_ that you know.](/2022/May/gaydar-jamming/) That's—not me. I [don't even _want_ that to be me](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#if-i-have-to-choose). I definitely have a gender _thing_, but I have a pretty detailed model of what I think the thing actually is in the real physical universe, and my model doesn't _fit_ in the ever-so-compassionate and -equitable ontology of "gender identity", which presupposes that what's going on when I report _wishing_ I were female is the _same thing_ as what's going on with actual women who (objectively correctly) report being female. I don't think it's the same thing, and I think you'd have to be [crazy or a liar](https://www.lesswrong.com/posts/y4bkJTtG3s5d6v36k/stupidity-and-dishonesty-explain-each-other-away) to say it's plausibly the same thing.
 
+I could sympathize with patients in an earlier era of trans healthcare who felt that they had no choice but to lie—to conform to the doctors' conception of a "true transsexual" on pain of being denied treatment. This was not the situation I saw on the ground in the Bay Area of 2016. 
+
+If a twentieth-century stalemate of patients lying to skeptical doctors had congealed into a culture of scripted conformity, why had it persisted long after the doctors stopped being skeptical and the lies served no remaining purpose? Why couldn't everyone just snap out of it?
+
 --------
 
 Another consequence of my Blanchardian enlightenment is that around this time was my break with progressive morality. I had never _really_ been progressive, as such. (I was registered to vote as a Libertarian, the legacy of a teenage dalliance with Ayn Rand and the [greater](https://web.archive.org/web/20070531085902/http://www.reason.com/blog/) [libertarian](https://praxeology.net/unblog07-06.htm) [blogosphere](https://cafehayek.com/).) But there was still an embedded assumption, reflected in [my antisexist faith](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#antisexism), that, as far as America's culture wars went, I was unambiguously on the right (_i.e._, left) side of history, [the Blue Team and not the Red Team](http://zackmdavis.net/blog/2017/03/brand-rust/).
@@ -397,7 +401,7 @@ When a political narrative is being pushed for _your_ alleged benefit, it's much
 
 While I was in this flurry of excitement about my recent updates and the insanity around me, I thought back to that Yudkowsky post from back in March that had been my wake-up call to all this. ("I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women"!!) What _was_ going on with that?
 
-<a id="cheerful-price"></a>I wasn't _friends_ with Yudkowsky, obviously; I didn't have a natural social affordance to _just_ ask him the way you would ask a dayjob or college acquaintance something. But ... he _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about the trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation. I had his email address from previous contract work I had done for MIRI back in 'twelve, so on 29 September 2016, I wrote him offering $1,000 to talk about what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228), mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong."
+<a id="cheerful-price"></a>I wasn't _friends_ with Yudkowsky, obviously; I didn't have a natural social affordance to _just_ ask him the way you would ask a dayjob or college acquaintance something. But ... he _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about the trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation. I had his email address from previous contract work I had done for MIRI back in 'twelve, so on 29 September 2016, I wrote him offering $1,000 to talk about what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228), mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong" (Subject: "Happy Price offer for a 2 hour conversation").
 
 <a id="cheerful-price-reasons"></a>At this point, any _normal people_ who are (somehow?) reading this might be thinking, isn't that weird and kind of cultish? Some blogger you follow posted something you thought was strange earlier this year, and you want to pay him _one grand_ to talk about it? To the normal person I would explain thusly—