shovel
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
index ff3ca5d..e87ec6e 100644 (file)
@@ -8,6 +8,32 @@ Status: draft
 >
 > —Zora Neale Hurston
 
+My first clue that I wasn't living in that world came from—Eliezer Yudkowsky. (Well, not my first _clue_. In retrospect, there were lots of _clues_. My first wake-up call.) In [a 26 March 2016 Facebook post](https://www.facebook.com/yudkowsky/posts/10154078468809228), he wrote—
+
+> I'm not sure if the following generalization extends to all genetic backgrounds and childhood nutritional backgrounds. There are various ongoing arguments about estrogenlike chemicals in the environment, and those may not be present in every country ...
+
+> Still, for people roughly similar to the Bay Area / European mix, I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women.
+
+(***!?!?!?!?***)
+
+> A lot of them don't know it or wouldn't care, because they're female-minds-in-male-bodies but also cis-by-default (lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities). Or they don't know it because they haven't heard in detail what it feels like to be gender dysphoric, and haven't realized 'oh hey that's me'. See, e.g., <https://sinesalvatorem.tumblr.com/post/141690601086/15-regarding-the-4chan-thing-4chans> and <https://slatestarcodex.com/2013/02/18/typical-mind-and-gender-identity/>
+
+(Reading _this_ post, I _did_ realize "oh hey that's me"—it's hard to believe that I'm not one of the "20% of the ones with penises" Yudkowsky is talking about here—but I wasn't sure how to reconcile that with the "are actually women" (***!?!?!?!?***) characterization, coming _specifically_ from the guy who taught me (in "Changing Emotions") how blatantly, ludicrously untrue and impossible that is.)
+
+> But I'm kinda getting the impression that when you do normalize transgender generally and MtF particularly, like not "I support that in theory!" normalize but "Oh hey a few of my friends are transitioning and nothing bad happened to them", there's a _hell_ of a lot of people who come out as trans.
+
+> If that starts to scale up, we might see a really, really interesting moral panic in 5-10 years or so. I mean, if you thought gay marriage was causing a moral panic, you just wait and see what comes next ...
+
+Indeed—here we are five years later, and _I am panicking_. (As 2007–9 Sequences-era Yudkowsky [taught me](https://www.yudkowsky.net/other/fiction/the-sword-of-good), and 2016 Facebook-shitposting-era Yudkowsky seemed to ignore, the thing that makes a moral panic really interesting is how hard it is to know you're on the right side of it—and the importance of [panicking sideways](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative) [in policyspace](https://www.overcomingbias.com/2007/05/policy_tugowar.html) when the "maximize the number of trans people" and "minimize the number of trans people" coalitions are both wrong.)
+
+At the time, this was merely _very confusing_. I left a careful comment in the Facebook thread (with the obligatory "speaking only for myself; I obviously know that I can't say anything about anyone else's experience" [disclaimer](https://www.overcomingbias.com/2008/06/against-disclai.html)), quietly puzzled at what Yudkowsky could _possibly_ be thinking ...
+
+A month later, I moved out of my mom's house in [Walnut Creek](https://en.wikipedia.org/wiki/Walnut_Creek,_California) to go live with a new roommate in an apartment on the correct side of the [Caldecott tunnel](https://en.wikipedia.org/wiki/Caldecott_Tunnel), in [Berkeley](https://en.wikipedia.org/wiki/Berkeley,_California): closer to other people in the robot-cult scene and with a shorter train ride to my coding dayjob in San Francisco.
+
+(I would later change my mind about which side of the tunnel is the correct one.)
+
+In Berkeley, I met a number of really interesting people who seemed quite similar to me along a lot of dimensions, but also very different along some other dimensions having to do with how they were currently living their life! (I see where the pattern-matching facilities in Yudkowsky's brain got that 20% figure from.) This prompted me to do a little bit more reading in some corners of the literature that I had certainly _heard of_, but hadn't already mastered and taken seriously in the previous twelve years of reading everything I could about sex and gender and transgender and feminism and evopsych. (Kay Brown's blog, [_On the Science of Changing Sex_](https://sillyolme.wordpress.com/), was especially helpful.)
+
 So, a striking thing about my series of increasingly frustrating private conversations and subsequent public Facebook meltdown (the stress from which soon landed me in psychiatric jail, but that's [another](/2017/Mar/fresh-princess/) [story](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)) was the tendency for some threads of conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander, the _second_ most prominent writer in our robot cult.
 
 So, this _really_ wasn't what I was trying to talk about; _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory in psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—not just as a formal profession of modesty, but _actually_ wrong in the real world.
@@ -150,39 +176,10 @@ Something I have trouble reliably communicating about what I'm trying to do with
 
 I'm trying to _get the theory right_. My main victory condition is getting the two-type taxonomy (or whatever more precise theory supplants it) into the _standard_ sex ed textbooks. If you understand the nature of the underlying psychological condition _first_, then people can make a sensible decision about what to _do_ about it. Accurate beliefs should inform policy, rather than policy determining what beliefs are politically acceptable.
 
-My enemy is this _culture of narcissistic Orwellian mind games_ that thinks people have the right to _dictate other people's model of reality_. I don't know what the _right_ culture is, but I'm pretty sure that _this ain't it, chief_.
-
-Some trans woman on Twitter posted an anecdote complaining that the receptionist at her place of work compared her to a male celebrity. "I look like this today [photo]; how could anyone think that was a remotely acceptable thing to say?"
-
-It _is_ genuinely sad that the author of those Tweets didn't get perceived the way she would prefer! But the thing I want her to understand is—
-
-_It was a compliment!_ That poor receptionist was almost certainly thinking of [David Bowie](https://en.wikipedia.org/wiki/David_Bowie) or [Eddie Izzard](https://en.wikipedia.org/wiki/Eddie_Izzard), rather than being hateful and trying to hurt. People can recognize sex from facial structure at 96% accuracy, remember?
-
-I want a shared cultural understanding that the _correct_ way to ameliorate the genuine sadness of people not being perceived the way they prefer is through things like _better and cheaper facial feminization surgery_, not _emotionally blackmailing people out of their ability to report what they see_.
-
-In a world where surgery is expensive, but people desperately want to change sex, there's an incentive gradient in the direction of re-engineering the culture to bind our shared concept of "gender" onto things like [ornamental clothing](http://thetranswidow.com/2021/02/18/womens-clothing-is-always-drag-even-on-women/) that are easier to change than secondary sex characteristics.
-
-But [_the utility function is not up for grabs._](https://www.lesswrong.com/posts/6ddcsdA2c2XpNpE5x/newcomb-s-problem-and-regret-of-rationality) I don't _want_ to reliniqush my ability to notice what women's faces look like, even if that means noticing that mine isn't, even if that seems vaguely disappointing due to an idiosyncracy in my psychosexual development; I don't want people to have to _doublethink around their perceptions of me_.
-
-If I sound angry, it's because I actually _do_ feel a lot of anger, but I wish I knew how to more reliably convey its target. Some trans people who see my writing tend to assume I'm self-hating, suffering from false consciousness, that my pious appeals to objectivity and reason are [just a facade](https://sinceriously.fyi/false-faces/) concealing my collaboration with a cissexist social order, that I'm in cowardly thrall to scapegoating instincts: "I'm one of the good, compliant ones—not one of those weird bad trans people who will demand their rights! _They're_ the witches, not me; burn them, not me!"
-
-I have [no grounds to fault anyone for not taking my self-report as unquestionable](/2016/Sep/psychology-is-about-invalidating-peoples-identities/)—the urge to scapegoat and submit to the dominant player is definitely a thing—but I really think this is reading me wrong?
-
-I'm not at war with trans _people_—open, creative people who are just like me—I want to believe that even the natal females are "just like me" in some relevant abstract sense—but who read different books in a different order. I'm at war with [an _ideology_ that is adapted to appeal to people just like me](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/) and commit us to remaking our lives around a set of philosophical and empirical claims that I think are _false_.
-
-Maybe that's not particularly reassuring, if people tend to identify with their ideology? (As I used to—as I _still_ do, even if my [revised ideology is much more meta](http://zackmdavis.net/blog/2017/03/dreaming-of-political-bayescraft/).) When the prototypical Christian says "Hate the sin, love the sinner", does anyone actually buy it?
-
-But what else can I do? We're living in midst of a pivotal ideological transition. (Is it still the midst, or am I too late?) Autogynephilia, as a phenomenon, is _absurdly common_ relative to the amount of cultural awareness of it _as_ a phenomenon. ([An analogy someone made on /r/GenderCriticalGuys just before it got banned](https://web.archive.org/web/20200705203105if_/https://reddit.com/r/GenderCriticalGuys/comments/hhcs34/autogynephilic_male_here_big_rant_about_denial_of/): imagine living in a Society where people _were_ gay at the same rates as in our own, but the _concept_ of homosexuality didn't exist—and was [actively suppressed whenever someone tried to point it out](/2017/Jan/if-the-gay-community-were-like-the-trans-community/).) Surveys of college students found that 13% (Table 3 in [Person _et al._](/papers/person_et_al-gender_differences_in_sexual_behaviors.pdf)) or 5.6% (Table 5 in the replication [Hsu _et al._](/papers/hsu_et_al-gender_differences_in_sexual_fantasy.pdf)) of males have fantasized about being the opposite sex in the last 3 months.
-
-What happens when every sensitive bookish male who thinks [it might be cool to be a woman](https://xkcd.com/535/) gets subjected to an aggressive recruitment campaign that the scintillating thought is _literally true_, simply because he thought it? (Not just that it could _become_ true _in a sense_, depending on the success of medical and social interventions, and depending on what sex/gender concept definition makes sense to use in a given context.) What kind of Society is that to live in?
-
-[I have seen the destiny of my neurotype, and am putting forth a convulsive effort to wrench it off its path. My weapon is clear writing.](https://www.lesswrong.com/posts/i8q4vXestDkGTFwsc/human-evil-and-muddled-thinking) Maybe the rest of my robot cult (including the founders and leaders) have given up on trying to tell the truth, but _I_ haven't. If I just keep blogging careful explanations of my thinking, eventually it might make some sort of impact—a small corrective tug on the madness of the _Zeitgeist_.
-
 It worked once, right?
 
 (Picture me playing Hermione Granger in a post-Singularity [holonovel](https://memory-alpha.fandom.com/wiki/Holo-novel_program) adaptation of _Harry Potter and the Methods of Rationality_ (Emma Watson having charged me [the standard licensing fee](/2019/Dec/comp/) to use a copy of her body for the occasion): "[We can do anything if we](https://www.hpmor.com/chapter/30) exert arbitrarily large amounts of [interpretive labor](https://acesounderglass.com/2015/06/09/interpretive-labor/)!")
 
-
 > An extreme case in point of "handwringing about the Overton Window in fact constituted the Overton Window's implementation"
 OK, now apply that to your Kolomogorov cowardice
 https://twitter.com/ESYudkowsky/status/1373004525481598978
@@ -233,7 +230,64 @@ http://www.hpmor.com/chapter/108
 
 EGS??
 
+(If the world were smaller, you'd never give different people the same name; if our memories were larger, we'd give everyone a UUID.)
+
 * papal infallability / Eliezer Yudkowsky facts
 https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts?commentId=Aq9eWJmK6Liivn8ND
 Never go in against Eliezer Yudkowsky when anything is on the line.
 https://en.wikipedia.org/wiki/Chuck_Norris_facts
+
+how they would actually think about the problem in dath ilan
+
+https://www.reddit.com/r/TheMotte/comments/myr3n7/culture_war_roundup_for_the_week_of_april_26_2021/gw0nhqv/?context=3
+> At some point you realize that your free bazaar of ideas has produced a core (or multiple cores). It is a chamber: semi-permeable, still receptive to external ideas and open to critique, but increasingly more connected on the inside.
+
+https://arbital.greaterwrong.com/p/domain_distance?l=7vk
+
+I'm writing to you because I'm afraid that marketing is a more powerful force than argument. Rather than good arguments propogating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who _didn't_ [win the talent lottery](http://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) but think they see a flaw in the _Zeitgeist_, the winning move is "persuade Scott Alexander".
+
+https://web.archive.org/web/20070615130139/http://singinst.org/upload/CFAI.html#foot-16
+> 16:  I flip a coin to determine whether a given human is male or female.
+
+https://www.facebook.com/yudkowsky/posts/10159611207744228?comment_id=10159611208509228&reply_comment_id=10159613820954228
+
+> In the circles I run in, being poly isn't very political, just a sexual orientation like any other—it's normalized the way that LGBT is normalized in saner circles, not political the way that LGBT is political in crazier circles.
+
+https://archive.is/7Wolo
+> the massive correlation between exposure to Yudkowsky's writings and being a trans woman (can't bother to do the calculations but the connection is absurdly strong)
+Namespace's point about the two EYs
+
+[stonewalling](https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters)
+
+The level above "Many-worlds is obviously correct, stop being stupid" is "Racial IQ differences are obviously real; stop being stupid"
+
+
+Anyway, four years later, it turns out that this whole "rationality" subculture is completely fake. The thing that convinced me of this was not _even_ the late-onset-gender-dysphoria-in-males-is-not-an-intersex-condition thesis that I was originally trying to talk about. Humans are _really complicated_: no matter how "obvious" something in psychology or social science to me, I can't write someone off entirely simply for disagreeing, because the whole domain is so complex that I always have to acknowledge that, ultimately, I could just be wrong.
+
+But in the _process_ of trying to _talk about_ this late-onset-gender-dysphoria-in-males-is-not-an-intersex-condition thesis, I noticed that my conversations kept getting _derailed_ on some variation of "The word _woman_ doesn't necessarily mean that." _That_ part of the debate, I knew I could win.
+
+what the math actually means in the real world from "Reply to Holden"
+
+I guess I feel pretty naïve now, but—I _actually believed our own propoganda_. I _actually thought_ we were doing something new and special of historical and possibly even _cosmological_ significance.
+
+
+I got a pingback to "Optimized Propaganda" from in an "EDIT 5/21/2021" on https://www.lesswrong.com/posts/qKvn7rxP2mzJbKfcA/persuasion-tools-ai-takeover-without-agi-or-agency after Scott Alexander linked it—evidence for Scott having Power to shape people's attention
+
+https://slatestarcodex.com/2020/02/10/autogenderphilia-is-common-and-not-especially-related-to-transgender/
+
+"Rationalism starts with the belief that arguments aren't soldiers, and ends with the belief that soldiers are arguments."
+
+The Eliezer Yudkowsky I remember wrote about [how facts are tightly-woven together in the Great Web of Causality](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies), such that [people who are trying to believe something false have an incentive to invent and spread fake epistemology lessons](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology), and about the [high competence threshold that _forces_ correct conclusions](http://sl4.org/archive/0602/13903.html).
+
+A culture where there are huge catastrophic consequences for [questioning religion](https://www.lesswrong.com/posts/u6JzcFtPGiznFgDxP/excluding-the-supernatural), is a culture where it's harder to train alignment researchers that genuinely understand Occam's razor on a _deep_ level, when [the intelligent social web](https://www.lesswrong.com/posts/AqbWna2S85pFTsHH4/the-intelligent-social-web) around them will do anything to prevent them from applying the parsimony skill to the God hypothesis. 
+
+A culture where there are huge catastrophic consequences for questioning gender identity, is a culture where it's harder to train alignment researchers that genuinely understand the hidden-Bayesian-structure-of-language-and-cognition on a _deep_ level, when the social web around them will do anything to prevent them from [invalidating someone's identity](http://unremediatedgender.space/2016/Sep/psychology-is-about-invalidating-peoples-identities/).
+
+> First, it is not enough to learn something, and tell the world about it, to get the world to believe it. Not even if you can offer clear and solid evidence, and explain it so well that a child could understand. You need to instead convince each person in your audience that the other people who they see as their key audiences will soon be willing to endorse what you have learned.
+https://www.overcomingbias.com/2020/12/social-proof-but-of-what.html
+
+twenty-one month Category War is as long as it took to write the Sequences https://www.lesswrong.com/posts/9jF4zbZqz6DydJ5En/the-end-of-sequences
+
+I'm worried about the failure mode where bright young minds [lured in](http://benjaminrosshoffman.com/construction-beacons/) by the beautiful propaganda about _systematically correct reasoning_, are instead recruited into what is, effectively, the Eliezer-Yudkowsky-and-Scott-Alexander fan club.
+
+>  I'm not trying to get Eliezer or "the community" to take a public stance on gender politics; I'm trying to get us to take a stance in favor of the kind of epistemology that we were doing in 2008. It turns out that epistemology has implications for gender politics which are unsafe, but that's more inferential steps, and ... I guess I just don't expect the sort of people who would punish good epistemology to follow the inferential steps? Maybe I'm living in the should-universe a bit here, but I don't think it "should" be hard for Eliezer to publicly say, "Yep, categories aren't arbitrary because you need them to carve reality at the joints in order to make probabilistic inferences, just like I said in 2008; this is obvious."