Saturday drafting "Sexual Dimorphism" (evening nibble)
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Sun, 7 Feb 2021 07:03:12 +0000 (23:03 -0800)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Sun, 7 Feb 2021 07:03:12 +0000 (23:03 -0800)
Need more discipline tomorrow if I'm to get this ready to ship on
Valentine's Day!

content/drafts/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
notes/post_ideas.txt
notes/sexual-dimorphism-in-the-sequences-notes.md

index 6c1e414..2c72da5 100644 (file)
@@ -1,7 +1,7 @@
 Title: Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems
-Date: 2020-12-14
+Date: 2021-02-14 05:00
 Category: commentary
-Tags: autogynephilia, bullet-biting, Eliezer Yudkowsky, epistemic horror, my robot cult, personal, sex differences, Star Trek, Julia Serano
+Tags: autogynephilia, bullet-biting, Eliezer Yudkowsky, Scott Alexander, epistemic horror, my robot cult, personal, sex differences, Star Trek, Julia Serano
 Status: draft
 
 > _I'll write my way out  
@@ -19,7 +19,7 @@ Well. That's a _long story_—for another time, perhaps. For _now_, I want to ex
 
 It all started in summer 2007 (I was nineteen years old), when I came across _Overcoming Bias_, a blog on the theme of how to achieve more accurate beliefs. (I don't remember exactly how I was referred, but I think it was likely to have been [a link from Megan McArdle](https://web.archive.org/web/20071129181942/http://www.janegalt.net/archives/009783.html), then writing as "Jane Galt" at _Asymmetrical Information_.)
 
-[Although](http://www.overcomingbias.com/author/hal-finney) [technically](http://www.overcomingbias.com/author/james-miller) [a](http://www.overcomingbias.com/author/david-j-balan) [group](http://www.overcomingbias.com/author/andrew) [blog](http://www.overcomingbias.com/author/anders-sandberg), the vast majority of posts on _Overcoming Bias_ were by Robin Hanson or Eliezer Yudkowsky. I was previously acquainted in passing with Yudkowsky's [writing about future superintelligence](https://web.archive.org/web/20200217171258/https://yudkowsky.net/obsolete/tmol-faq.html). (I had [mentioned him in my Diary once in 2005](/ancillary/diary/42/), albeit without spelling his name correctly.) Yudkowsky was now using _Overcoming Bias_ and the medium of blogging [to generate material for a future book about rationality](https://www.lesswrong.com/posts/vHPrTLnhrgAHA96ko/why-i-m-blooking). Hanson's posts I could take or leave, but Yudkowsky's sequences of posts about rationality (coming out almost-daily through early 2009, eventually totaling hundreds of thousands of words) were _amazingly great_, [drawing on fields](https://www.lesswrong.com/posts/tSgcorrgBnrCH8nL3/don-t-revere-the-bearer-of-good-info) from [cognitive](https://www.lesswrong.com/posts/2ftJ38y9SRBCBsCzy/scope-insensitivity) [psychology](https://www.lesswrong.com/posts/R8cpqD3NA4rZxRdQ4/availability) to [evolutionary biology](https://www.lesswrong.com/s/MH2b8NfWv22dBtrs8) to explain the [mathematical](https://www.readthesequences.com/An-Intuitive-Explanation-Of-Bayess-Theorem) [principles](https://www.readthesequences.com/A-Technical-Explanation-Of-Technical-Explanation) [governing](https://www.lesswrong.com/posts/eY45uCCX7DdwJ4Jha/no-one-can-exempt-you-from-rationality-s-laws) _how intelligence works_—[the reduction of "thought"](https://www.lesswrong.com/posts/p7ftQ6acRkgo6hqHb/dreams-of-ai-design) to [_cognitive algorithms_](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms). Intelligent systems [that use](https://arbital.greaterwrong.com/p/executable_philosophy) [evidence](https://www.lesswrong.com/posts/6s3xABaXKPdFwA3FS/what-is-evidence) to construct [predictive](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences) models of the world around them—that have "true" "beliefs"—can _use_ those models to compute which actions will best achieve their goals. You simply [won't believe how much this blog](https://www.lesswrong.com/posts/DXcezGmnBcAYL2Y2u/yes-a-blog) will change your life; I would later frequently [joke](https://en.wiktionary.org/wiki/ha_ha_only_serious) that Yudkowsky rewrote my personality over the internet.
+[Although](http://www.overcomingbias.com/author/hal-finney) [technically](http://www.overcomingbias.com/author/james-miller) [a](http://www.overcomingbias.com/author/david-j-balan) [group](http://www.overcomingbias.com/author/andrew) [blog](http://www.overcomingbias.com/author/anders-sandberg), the vast majority of posts on _Overcoming Bias_ were by Robin Hanson or Eliezer Yudkowsky. I was previously acquainted in passing with Yudkowsky's [writing about future superintelligence](https://web.archive.org/web/20200217171258/https://yudkowsky.net/obsolete/tmol-faq.html). (I had [mentioned him in my Diary once in 2005](/ancillary/diary/42/), albeit without spelling his name correctly.) Yudkowsky was now using _Overcoming Bias_ and the medium of blogging [to generate material for a future book about rationality](https://www.lesswrong.com/posts/vHPrTLnhrgAHA96ko/why-i-m-blooking). Hanson's posts I could take or leave, but Yudkowsky's sequences of posts about rationality (coming out almost-daily through early 2009, eventually totaling hundreds of thousands of words) were _amazingly great_, [drawing on](https://www.lesswrong.com/posts/tSgcorrgBnrCH8nL3/don-t-revere-the-bearer-of-good-info) the [established knowledge of fields](https://www.lesswrong.com/posts/ASpGaS3HGEQCbJbjS/eliezer-s-sequences-and-mainstream-academia) from [cognitive](https://www.lesswrong.com/posts/2ftJ38y9SRBCBsCzy/scope-insensitivity) [psychology](https://www.lesswrong.com/posts/R8cpqD3NA4rZxRdQ4/availability) to [evolutionary biology](https://www.lesswrong.com/s/MH2b8NfWv22dBtrs8) to explain the [mathematical](https://www.readthesequences.com/An-Intuitive-Explanation-Of-Bayess-Theorem) [principles](https://www.readthesequences.com/A-Technical-Explanation-Of-Technical-Explanation) [governing](https://www.lesswrong.com/posts/eY45uCCX7DdwJ4Jha/no-one-can-exempt-you-from-rationality-s-laws) _how intelligence works_—[the reduction of "thought"](https://www.lesswrong.com/posts/p7ftQ6acRkgo6hqHb/dreams-of-ai-design) to [_cognitive algorithms_](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms). Intelligent systems [that use](https://arbital.greaterwrong.com/p/executable_philosophy) [evidence](https://www.lesswrong.com/posts/6s3xABaXKPdFwA3FS/what-is-evidence) to construct [predictive](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences) models of the world around them—that have "true" "beliefs"—can _use_ those models to compute which actions will best achieve their goals. You simply [won't believe how much this blog](https://www.lesswrong.com/posts/DXcezGmnBcAYL2Y2u/yes-a-blog) will change your life; I would later frequently [joke](https://en.wiktionary.org/wiki/ha_ha_only_serious) that Yudkowsky rewrote my personality over the internet.
 
 (The blog posts later got edited and collected into a book, [_Rationality: From AI to Zombies_](https://www.amazon.com/Rationality-AI-Zombies-Eliezer-Yudkowsky-ebook/dp/B00ULP6EW2), but I continue to say "the Sequences" because I _hate_ the gimmicky "AI to Zombies" subtitle—it makes it sound like a commercial book optimized to sell copies, rather than something to corrupt the youth, competing for the same niche as the Bible or the Koran—_the book_ that explains what your life should be about.)
 
@@ -525,14 +525,15 @@ But [the fuzzy low-resolution model is _way too good_](https://surveyanon.wordpr
 
 I _do_ have a _lot_ of uncertainty about what the True Causal Graph looks like, even if it seems obvious that the two-type taxonomy coarsely approximates it. Gay femininity and autogynephilia are obviously very important nodes in the True Graph, but there's going to be more detail to the whole story: what _other_ factors influence people's decision to transition, including [incentives](/2017/Dec/lesser-known-demand-curves/) and cultural factors that evolve over time?
 
-Cultural attitudes towards men and maleness have shifted markedly in the feminist era; if some boys suffer from internalized misandry (of the type expressed in computer scientist [Scott Aaronson's Comment 171](https://www.scottaaronson.com/blog/?p=2091#comment-326664)), that could provide a motive to identify with femaleness and disidentify with maleness, which could either intensify the interpretation of autogynephilic attraction as a [ego-syntonic](https://en.wikipedia.org/wiki/Egosyntonic_and_egodystonic) beautiful pure sacred self-identity thing (rather than an ego-dystonic sex thing to be ashamed of), or be a source of gender dysphoria in males who aren't autogynephilic at all. To the extent that the latter is common (or has _become_ more common), then maybe the two-type taxonomy isn't androphilic/autogynephilic so much as it is androphilic/not-otherwise-specified: the early-onset type is very behaviorally distinct and has a very straightforward motive to transition; it might not be as easy for a clinician to distinguish autogynephilia from "cognitive" gender problems amongst the grab-bag of all other males showing up to the gender clinic for any other reason.
+Cultural attitudes towards men and maleness have shifted markedly in our feminist era. It feels awkward to say so, but as a result, conscientious boys taught to disdain the crimes of men may pick up an internalized misandry, which could provide a motive to identify with femaleness and disidentify with maleness, which could either intensify the interpretation of autogynephilic attraction as a [ego-syntonic](https://en.wikipedia.org/wiki/Egosyntonic_and_egodystonic) beautiful pure sacred self-identity thing (rather than an ego-dystonic sex thing to be ashamed of), or be a source of gender dysphoria in males who aren't autogynephilic at all.
 
+I remember one night at the Univerity in Santa Cruz when I had the insight that it was possible to make generalizations about groups of people while allowing for exceptions (in contrast to my previous stance that generalizations were always morally wrong)—and immediately and eagerly proclaimed that _men are terrible_.
 
-At the Univerity in Santa Cruz
+Or consider computer scientist Scott Aaronson's account (in his infamous [Comment 171](https://www.scottaaronson.com/blog/?p=2091#comment-326664)) that his "recurring fantasy, through this period, was to have been born a woman, or a gay man [...] [a]nything, really, other than the curse of having been born a heterosexual male, which [...] meant being consumed by desires that one couldn't act on or even admit without running the risk of becoming an objectifier or a stalker or a harasser or some other creature of the darkness."
 
+Or consider [TODO: "Not Coming Out" "Do I even want to convince someone who will only listen to me when they're told by the rules that they have to see me as a girl?" (this version of the post is more candid)]
 
-[TODO:  Desire to be a moral patient. Third casual factor that could be changing in recent years ... Maybe it's really an androphilic–feminine/not-otherwise-specified taxonomy, because non-AGP non-intersex reasons (like Comment 171 internalized misandry) to want to transition would be hard to distinguish from AGP-and-misreporting]
-
+To the extent that "cognitive" things like internalized-misandry manifesting as dysphoria is common (or has _become_ more common), then maybe the two-type taxonomy isn't androphilic/autogynephilic so much as it is androphilic/not-otherwise-specified: the early-onset type is very behaviorally distinct and has a very straightforward motive to transition (it would be _less_ weird not to); it might not be as easy for a clinician to distinguish autogynephilia from "cognitive" gender problems in the grab-bag of all other males showing up to the gender clinic for any other reason.
 
 [TODO: But I do have enough evidence to know that the prevailing narrative _doesn't add up_. Serano's proposal makes no predictions.]
 
index 4898b9f..93e1ad2 100644 (file)
@@ -66,6 +66,9 @@ Transitioning is easy if you project into the subspace spanned by "given name" a
 (for Elision vs. Choice)
 Speakers of my generation are more likely to say "person" when sex isn't relevant, whereas older works (pre-second wave feminism?) would actually say "man" (or "woman"—see how anachronistic it feels to put the female option second and in parentheses?), presumably not because human nature has changed that much, but because of shifting cultural priorities about when sex is "relevant." (Modern speakers similarly frown on mentioning race (https://agentultra.com/blog/the-black-man-stopped-me/) when it's not relevant.)
 
+This is completely discrediting!!!
+https://slatestarcodex.com/2019/11/12/book-review-the-body-keeps-the-score/
+> they’re not necessarily rejecting the seriousness of child abuse, only saying it’s not the kind of thing they build their categories around.
 
 (My Identity Has a Better Brier Score)
 I'm skeptical of "ace"—I think it's just an identity label that can be successfully marketed to otherwise-ordinary people in the bottom-quartile of libido, by an ideology that wants to sell people identity labels to get them to join the coalition of sexual minorities
index 07302bd..475d917 100644 (file)
@@ -29,7 +29,6 @@ B.F. on JKR (https://www.facebook.com/duncan.sabien/posts/3883966591638029?comme
 > I am very glad that I don't have anyone with opinions similar to hers in my immediate vicinity, because I am pretty sure that if I did, my brain would constantly be running a scared loop in any social interactions with them. [...]  I think it's important that people can write essays that are as far outside my personal Overton window as hers is outside it (because sometimes they're correct and I should update, even though I don't believe this is an instance of that)
 
 
-
 -----
 
 Points to work in—