check in, with no time to lose
[Ultimately_Untrue_Thought.git] / content / drafts / challenges-to-yudkowskys-pronoun-reform-proposal.md
index 51ccc51..d575b24 100644 (file)
@@ -269,7 +269,7 @@ In the comments, Yudkowsky continues:
 
 > This is _not_ the woke position. The woke position is that when you call somebody "she" because she requested "she", you're validating her gender preference. I may SEPARATELY be happy to validate somebody's gender preference by using the more complex language feature of NOUN PHRASES to construct an actual SENTENCE that refers to her ON PURPOSE as a "woman", but when it comes to PRONOUNS I am not even validating anyone.
 
-Right; it's not the woke position. It's an _incoherent_ position that's optimized to concede to the woke the behavior that they want for a _different stated reason_ in order to make the concession appear "neutral" and not "politically" motivated. She requested "she" _because_ acceding to the request validates her gender preference in the minds of all native English speakers who are listening, even if Eliezer Yudkowsky has some clever casuistry for why it magically doesn't mean that when _he_ says it.
+Right, it's not the woke position. It's an _incoherent_ position that's optimized to concede to the woke the behavior that they want for a _different stated reason_ in order to make the concession appear "neutral" and not "politically" motivated. She requested "she" _because_ acceding to the request validates her gender preference in the minds of all native English speakers who are listening, even if Eliezer Yudkowsky has some clever casuistry for why it magically doesn't mean that when _he_ says it.
 
 I'm _not_ saying that Yudkowsky should have a different pronoun policy. (I agree that misgendering all trans people "on principle" seems very wrong and unappealing.) Rather, I'm saying that in order to _actually_ be politically neutral in your analysis of _why_ someone might choose one pronoun policy over another, you need to _acknowledge_ the costs and benefits of a policy to different parties, and face the unhappy fact that sometimes there are cases where there _is_ no "neutral" policy, because all available policies impose costs on _someone_ and there's no solution that everyone is happy with. (Rational agents can hope to reach _some_ point on the Pareto frontier, but non-identical agents are necessarily going to fight about _which_ point, even if most of the fighting takes place in non-realized counterfactual possible worlds rather than exerting costs in reality.)
 
@@ -317,9 +317,7 @@ I used to trust Yudkowsky as an intellectual authority; his [Sequences](https://
 
 -----
 
-If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here?
-
-When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
+If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here? When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
 
 Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
 
@@ -506,21 +504,26 @@ acceding to Power's demands (at the cost of deceiving their readers) and informi
 
 Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
 
-But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose flaws I have analyzed in detail above).
+But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose flaws I have analyzed in detail above).
 
 "I think people are better off at the end of that," Yudkowsky writes of the consequences of agreeing-with-Stalin-in-ways-that-exhibit-generally-rationalist-principles policies. But here I think we need a more conflict-theoretic analysis that looks at a more detailed level than "people." _Who_ is better off, specifically? 
 
-... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it's still necessary relative to everything else I need to get around to writing.
+... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it feels still necessary relative to everything else I need to get around to writing. (It's not actually a very interesting story; I just need to get it out of my system so I can stop grieving and move on with my life.)
 
 I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
 
 You see, back in the 'aughts when Yudkowsky was writing his Sequences, he occasionally said some things about sex differences that I often found offensive at the time, but which ended up being hugely influential on me, especially in the context of my ideological affinity towards feminism and my secret lifelong-since-puberty erotic fantasy about being magically transformed into a woman. I wrote about this at length in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)].
 
-In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains 
+In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains that "changing sex" is vastly easier said than done—
+
 
 
 [But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
 
+
+_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
+
+
 [So I ended up arguing with people about the two-type taxonomy, and I noticed that those discussions kept getting _derailed_ on some variation of "The word woman doesn't actually mean that". So I took the bait, and starting arguing against that, and then Yudkowsky comes back to the subject with his "Hill of Validity in Defense of Meaning"—and I go on a philosophy of language crusade, and Yudkowsky eventually clarifies, and _then_ he comes back _again_ in Feb. 2022 with his "simplest and best protocol"]
 
 [At this point, the nature of the game is very clear. Yudkowsky wants to mood-affiliate with being on the right side of history, subject to the constraint of not saying anything false. I want to actually make sense of what's actually going on in the world, because _I need the correct answer to decided whether or not to cut my dick off_. On "his turn", he comes up with some pompous proclamation that's optimized to make the "pro-trans" faction look smart and good and the "anti-trans" faction look dumb and bad, "in ways that exhibit generally rationalist principles." On my turn, I put in an absurd amount of effort explaining in exhaustive, _exhaustive_ detail why Yudkowsky's pompous proclamation was substantively misleading as constrated to what you would say if you were actually trying to make sense of the world.]
@@ -535,6 +538,8 @@ In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7
 
 [I can win concessions, like "On the Argumentative Form", but I don't want concessions; I want to _actually get the goddamned right answer_]
 
+[principled trans people should be offended, too!]
+
 [our beliefs about dolphins are downstream of Scott's political incentives]
 
 -------
@@ -550,3 +555,5 @@ https://www.readthesequences.com/
 
 > the challenge is almost entirely about high integrity communication by small groups
 https://twitter.com/HiFromMichaelV/status/1486044326618710018
+
+My religion of Yudkowskian rationalism does have a strong tradition of _disagreement_ being socially acceptable (as it is [written of the fifth virtue](https://www.yudkowsky.net/rational/virtues), those who wish to fail must first prevent their friends from helping them), but only "on the object-level", as we say. The act of jumping up a meta level and positing that one's interlocutors are not just wrong, but _dishonest_, tends to be censured as "uncharitable."