Saturday drafting "Challenges"
[Ultimately_Untrue_Thought.git] / content / drafts / challenges-to-yudkowskys-pronoun-reform-proposal.md
index 51ccc51..037120f 100644 (file)
@@ -269,7 +269,7 @@ In the comments, Yudkowsky continues:
 
 > This is _not_ the woke position. The woke position is that when you call somebody "she" because she requested "she", you're validating her gender preference. I may SEPARATELY be happy to validate somebody's gender preference by using the more complex language feature of NOUN PHRASES to construct an actual SENTENCE that refers to her ON PURPOSE as a "woman", but when it comes to PRONOUNS I am not even validating anyone.
 
-Right; it's not the woke position. It's an _incoherent_ position that's optimized to concede to the woke the behavior that they want for a _different stated reason_ in order to make the concession appear "neutral" and not "politically" motivated. She requested "she" _because_ acceding to the request validates her gender preference in the minds of all native English speakers who are listening, even if Eliezer Yudkowsky has some clever casuistry for why it magically doesn't mean that when _he_ says it.
+Right, it's not the woke position. It's an _incoherent_ position that's optimized to concede to the woke the behavior that they want for a _different stated reason_ in order to make the concession appear "neutral" and not "politically" motivated. She requested "she" _because_ acceding to the request validates her gender preference in the minds of all native English speakers who are listening, even if Eliezer Yudkowsky has some clever casuistry for why it magically doesn't mean that when _he_ says it.
 
 I'm _not_ saying that Yudkowsky should have a different pronoun policy. (I agree that misgendering all trans people "on principle" seems very wrong and unappealing.) Rather, I'm saying that in order to _actually_ be politically neutral in your analysis of _why_ someone might choose one pronoun policy over another, you need to _acknowledge_ the costs and benefits of a policy to different parties, and face the unhappy fact that sometimes there are cases where there _is_ no "neutral" policy, because all available policies impose costs on _someone_ and there's no solution that everyone is happy with. (Rational agents can hope to reach _some_ point on the Pareto frontier, but non-identical agents are necessarily going to fight about _which_ point, even if most of the fighting takes place in non-realized counterfactual possible worlds rather than exerting costs in reality.)
 
@@ -317,9 +317,7 @@ I used to trust Yudkowsky as an intellectual authority; his [Sequences](https://
 
 -----
 
-If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here?
-
-When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
+If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here? When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
 
 Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
 
@@ -506,36 +504,43 @@ acceding to Power's demands (at the cost of deceiving their readers) and informi
 
 Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
 
-But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose flaws I have analyzed in detail above).
+But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose flaws I have analyzed in detail above).
 
 "I think people are better off at the end of that," Yudkowsky writes of the consequences of agreeing-with-Stalin-in-ways-that-exhibit-generally-rationalist-principles policies. But here I think we need a more conflict-theoretic analysis that looks at a more detailed level than "people." _Who_ is better off, specifically? 
 
-... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it's still necessary relative to everything else I need to get around to writing.
+... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it feels still necessary relative to everything else I need to get around to writing. (It's not actually a very interesting story; I just need to get it out of my system so I can stop grieving and move on with my life.)
 
 I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
 
 You see, back in the 'aughts when Yudkowsky was writing his Sequences, he occasionally said some things about sex differences that I often found offensive at the time, but which ended up being hugely influential on me, especially in the context of my ideological affinity towards feminism and my secret lifelong-since-puberty erotic fantasy about being magically transformed into a woman. I wrote about this at length in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)].
 
-In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains 
+In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains that "changing sex" is vastly easier said than done—
 
+[TODO: But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
 
-[But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
+_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
 
 [So I ended up arguing with people about the two-type taxonomy, and I noticed that those discussions kept getting _derailed_ on some variation of "The word woman doesn't actually mean that". So I took the bait, and starting arguing against that, and then Yudkowsky comes back to the subject with his "Hill of Validity in Defense of Meaning"—and I go on a philosophy of language crusade, and Yudkowsky eventually clarifies, and _then_ he comes back _again_ in Feb. 2022 with his "simplest and best protocol"]
 
-[At this point, the nature of the game is very clear. Yudkowsky wants to mood-affiliate with being on the right side of history, subject to the constraint of not saying anything false. I want to actually make sense of what's actually going on in the world, because _I need the correct answer to decided whether or not to cut my dick off_. On "his turn", he comes up with some pompous proclamation that's optimized to make the "pro-trans" faction look smart and good and the "anti-trans" faction look dumb and bad, "in ways that exhibit generally rationalist principles." On my turn, I put in an absurd amount of effort explaining in exhaustive, _exhaustive_ detail why Yudkowsky's pompous proclamation was substantively misleading as constrated to what you would say if you were actually trying to make sense of the world.]
+At this point, the nature of the game is very clear. Yudkowsky wants to mood-affiliate with being on the right side of history (as ascertained by the current year's progressive _Zeitgeist_), subject to the constraint of not saying anything he knows to be false. Meanwhile, I want to actually make sense of what's actually going on in the world as regards sex and gender, because _I need the correct answer to decide whether or not to cut my dick off_.
+
+On "his turn", he comes up with some pompous proclamation that's very obviously optimized to make the "pro-trans" faction look smart and good and make the "anti-trans" faction look dumb and bad, "in ways that exhibit generally rationalist principles."
+
+On "my turn", I put in an _absurd_ amount of effort explaining in exhaustive, _exhaustive_ detail why Yudkowsky's pompous proclamation, while [not technically saying anything definitively "false"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly), was _substantively misleading_ as constrated to what any serious person would say if they were actually trying to make sense of the world without worrying what progressive activists would think of them.
+
+In the context of AI alignment theory, Yudkowsky has written about a "nearest unblocked strategy" phenomenon: if you directly prevent an agent from accomplishing a goal via some plan that you find undesirable, the agent will search for ways to route around that restriction, and probably find some plan that you find similarly undesirable for similar reasons.
 
-[nearest unblocked strategy; I would prefer to have a real discussion under the assumption of good faith, but _I tried that first_. Object-level disucssion with Yudkowsky is a waste of time as long as he's going to play these games; there's nothing left for me to do but jump up a meta level and explain, to anyone who capable of hearing it, why in this case the assumption of good faith has been empirically falsified]
+Suppose you developed an AI to [maximize human happiness subject to the constraint of obeying explicit orders](https://arbital.greaterwrong.com/p/nearest_unblocked#exampleproducinghappiness). It might first try administering heroin to humans. When you order it not to, it might switch to administering cocaine. When you order it to not use any of a whole list of banned happiness-producing drugs, it might switch to researching new drugs, or just _pay_ humans to take heroin, _&c._
 
-[If it were _actually true_ that there was no harm from the bad faith because people know they're living in a half-Stalinist environment, then he wouldn't have tried to get away with the "20% of the ones with penises" thing]
+It's the same thing with Yudkowsky's political-risk minimization subject to the constraint of not saying anything he knows to be false. First he tries ["I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women"](https://www.facebook.com/yudkowsky/posts/10154078468809228) (March 2016). When you point out that [that's not true](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions), he switches to ["you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning"](https://archive.is/Iy8Lq) (November 2018). When you point out that [_that's_ not true either](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong), he switches to "It is Shenanigans to try to bake your stance on how clustered things are [...] _into the pronoun system of a language and interpretation convention that you insist everybody use_" (February 2021). When you point out that's not what's going on, he switches to ... I don't know, but he's a smart guy; in the unlikely event that he sees fit to respond to this post, I'm sure he'll be able to think of _something_—but at this point, I have no reason to care. Talking to Yudkowsky on topics where getting the right answer would involve acknowledging facts that would make you unpopular in Berkeley is a _waste of everyone's time_; trying to inform you just isn't [his bottom line](https://www.lesswrong.com/posts/34XxbRFe54FycoCDw/the-bottom-line).
 
-[All this despite the fact that all my heretical opinions are _literally_ just his opinions from the 'aughts. Seriously, you think I'm smart enough to come up with all of this indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts when he still gave a shit about telling the truth in this domain. Does he expect us not to notice? Well, I guess it's been working out for him so far.]
+Accusing one's interlocutor of bad faith is frowned upon for a reason. We would prefer to live in a world where we have intellectually fruitful object-level discussions under the assumption of good faith, rather than risk our fora degenerating into an acrimonious brawl of accusations and name-calling, which is unpleasant and doesn't make any intellectual progress. I, too, would prefer to have a real object-level discussion under the assumption of good faith. That's why I _tried_ the object-level good-faith argument thing _first_. I tried it for _years_.  But at some point, I think I should be allowed to notice the nearest-unblocked-strategy game. I think there's _some_ number of years and _some_ number of thousands of words of litigating the object-level after which there's nothing left for me to do but jump up a meta level and explain, to anyone capable of hearing it, why in this case I think I've accumulated enough evidence for the assumption of good faith to have been _empirically falsified_.
 
-[Agreeing with Stalin that 2+2=4 is fine; the problem is a sustained pattern of _selectively_ bring up pro-Party points while ignoring anti-Party facts that would otherwise be relevant to the topic of interest, including stonewalling commenters who try to point out relevance; I think I'm doing better: I can point to places where I argue "the other side", because I know that sides are fake]
+What makes all this especially galling is the fact that _all of my heretical opinions are literally just his opinions from the 'aughts!_ My whole thing about how changing sex isn't possible with existing technology because the category encompasses so many high-dimensional details? Not original to me! Again, this was _in the Sequences_ as ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions). My thing about how you can't define concepts any way you want, because there are mathematical laws governing which category boundaries compress your anticipated experiences? [_We had a whole Sequence about this._](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) Seriously, you think I'm _smart enough_ to come up with all of this indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts when he still gave a shit about telling the truth in this domain. Does ... does he expect us not to _notice_?
 
-[I can win concessions, like "On the Argumentative Form", but I don't want concessions; I want to _actually get the goddamned right answer_]
+[If someone wants to accuse me of bad faith, fine!—I think I'm doing better: I can point to places where I argue "the other side", because I know that sides are fake]
 
-[our beliefs about dolphins are downstream of Scott's political incentives]
+[I can win concessions, like "On the Argumentative Form", but I don't want concessions; I want to _actually get the goddamned right answer_ (maybe move this earlier and tie it into the centrism pose, which is not the same as the map that reflects the territory?)]
 
 -------