check in, with no time to lose
[Ultimately_Untrue_Thought.git] / content / drafts / challenges-to-yudkowskys-pronoun-reform-proposal.md
index 102854c..d575b24 100644 (file)
@@ -89,7 +89,7 @@ Nevertheless, it is a fact _about contemporary English_ that "dog" means dog. If
 
 Or suppose I wrote a Facebook post arguing that it's bad language design that "billion" means 1,000,000,000 instead of 2001. You see, the etymology comes from the prefix [bi-](https://en.wiktionary.org/wiki/bi-) (meaning two, from the Latin _bis_), combined with [_mille_](https://en.wiktionary.org/wiki/mille#Latin) (Latin for 1000), combined with the [augmentive](https://en.wiktionary.org/wiki/augmentative#English) suffix [_-one_](https://en.wiktionary.org/wiki/-one#Italian). How do you get 10<sup>9</sup> from that, huh? (It turns out there's [an explanation](https://en.wiktionary.org/wiki/-illion#English), but I don't find it intuitive.) Clearly, it's better language design if the meaning of number words straightforwardly reflect their parts, so "billion" should mean 2001 (_bi-_, _mille_, -_one_; 2, times 1000, plus 1).
 
-Even if you found this argument compelling from an theoretical language-design perspective after it had been presented to you, if I were to subsequently go around calling myself a _billionaire_ (and condescendingly Tweeting about how anyone objecting to this usage is ontologically confused), you might suspect that I probably had some _other reason_ to come up with this _particular_ theoretical language-design argument—probably a reason having to do with what "billion" _already_ means in the usage of actually-existing English speakers, _even if_ you honestly think the existing English language is poorly designed in that aspect.
+Even if you found this argument compelling from an theoretical language-design perspective after it had been presented to you, if I were to subsequently go around calling myself a _billionaire_ (and condescendingly Tweeting about how anyone objecting to this usage is ontologically confused), you would probably suspect that I probably had some _other reason_ to come up with this _particular_ theoretical language-design argument—probably a reason having to do with what "billion" _already_ means in the usage of actually-existing English speakers, _even if_ you honestly think the existing English language is poorly designed in that aspect.
 
 The inseparability of meaning from behavior-and-usage may be clearer if considered in a context other than that of natural language. Take computer programs. Sometimes programmers make bad design decisions. For example, in the C programming language, [it's standard to represent strings (textual data) in memory with a sequence of bytes ending in a zero (null) character](https://en.wikipedia.org/wiki/Null-terminated_string); the machine only knows where the string stops when it reaches the null at the end. This convention has a lot of disadvantages relative to the alternative of [prefixing the string data with the length](https://en.wikipedia.org/wiki/String_(computer_science)#Length-prefixed); a missing or misplaced null character could cause the machine to erroneously read or write data in adjacent memory, causing serious bugs or security vulnerabilities.
 
@@ -155,19 +155,19 @@ It's a good question. And my answer is, even without mind-reading technology, pe
 
 And the thing is, Eliezer Yudkowsky is a native English speaker born in 1979. As a native English speaker born in 1987, I have a _pretty good_ mental model of how native English speakers born in the late 20th century use language. And one of the things native English speakers born in the late 20th century are _very good_ at doing, is noticing what sex people are and using the corresponding pronouns without consciously thinking about it, because the pronouns are attached to the concept of sex in their heads more firmly than proper names are attached to something in their heads.
 
-I would bet at very generous odds at some point in his four decades on Earth, Eliezer Yudkowsky has used _she_ or _he_ on the basis of perceived sex to refer to someone whose name he didn't know. Because _all native English speakers do this_. Moreover, we can say something about the [cognitive algorithm](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms) underlying _how_ they do this: [people can recognize sex from facial photos _alone_ (hair covered, males clean-shaven) at 96% accuracy](/papers/bruce_et_al-sex_discrimination_how_do_we_tell.pdf). In naturalistic settings where we can see and hear more [secondary sex characteristics](https://en.wikipedia.org/wiki/Secondary_sex_characteristic#In_humans) than just someone's face (build, height, breasts, [voice](/papers/puts_et_al-masculine_voices_signal_mens_threat_potential.pdf), [gait](https://sillyolme.wordpress.com/2010/09/24/all-the-wrong-moves/), _&c_.), accuracy would be even greater. It's not a mystery why people can get sex-based pronouns "right" the vast majority of the time without having to be told or remember specific people's pronouns.
+I would bet at very generous odds at some point in his four decades on Earth, Eliezer Yudkowsky has used _she_ or _he_ on the basis of perceived sex to refer to someone whose name he didn't know. Because _all native English speakers do this_. Moreover, we can say something about the [cognitive algorithm](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms) underlying _how_ they do this: for example, [people can recognize sex from facial photos _alone_ (hair covered, males clean-shaven) at 96% accuracy](/papers/bruce_et_al-sex_discrimination_how_do_we_tell.pdf). In naturalistic settings where we can see and hear more [secondary sex characteristics](https://en.wikipedia.org/wiki/Secondary_sex_characteristic#In_humans) than just someone's face (build, height, breasts, [voice](/papers/puts_et_al-masculine_voices_signal_mens_threat_potential.pdf), [gait](https://sillyolme.wordpress.com/2010/09/24/all-the-wrong-moves/), _&c_.), accuracy would be even greater. It's not a mystery why people can get sex-based pronouns "right" the vast majority of the time without having to be told or remember specific people's pronouns.
 
 Conversely, I would also bet at very generous odds that in his four decades on Earth, Eliezer Yudkowsky has very rarely if ever assumed what someone's name is on the basis of their appearance without being told. Because _no native English speakers do this_ (seriously, rather than as a joke or a troll). If you doubt this, try to explain what algorithm you would use to infer that someone's name is "Oliver" based on how they look. What are the "secondary Oliver characteristics", specifically? People for whom it was _actually true_ that names map to appearances the way pronouns map to sex, should not have trouble answering this question!
 
 [TODO: this is why I feel comfortable saying the commenter who introduced "Oliver" was trolling in her teenage memory]
 
-If there _were_ a substantial contingent of native English speakers who don't interpret pronouns as conveying sex category information, one would expect this to show up in our cultural corpus more often—and yet, I'm actually not aware of any notable examples of this (if you do, let me know in the comments). In contrast, it's very easy to find instances of speakers treating pronouns and sex as synonymous. As an arbitrarily chosen example, in [one episode](https://theamazingworldofgumball.fandom.com/wiki/The_Nest) of the animated series [_The Amazing World of Gumball_](https://tvtropes.org/pmwiki/pmwiki.php/WesternAnimation/TheAmazingWorldOfGumball) featuring the ravenous spawn of our protagonists' evil pet turtle, the anthropomorphic-rabbit [Bumbling Dad](https://tvtropes.org/pmwiki/pmwiki.php/Main/BumblingDad) character [says, "Who's to say this pregnant turtle is a _her_?" and everyone gives him a look](https://www.youtube.com/watch?v=5N2Msnrq7wU&t=14s).
+If there _were_ a substantial contingent of native English speakers who don't interpret pronouns as conveying sex category information, one would expect this to show up in our cultural corpus more often—and yet, I'm actually not aware of any notable examples of this. In contrast, it's very easy to find instances of speakers treating pronouns and sex as synonymous. As an arbitrarily chosen example, in [one episode](https://theamazingworldofgumball.fandom.com/wiki/The_Nest) of the animated series [_The Amazing World of Gumball_](https://tvtropes.org/pmwiki/pmwiki.php/WesternAnimation/TheAmazingWorldOfGumball) featuring the ravenous spawn of our protagonists' evil pet turtle, the anthropomorphic-rabbit [Bumbling Dad](https://tvtropes.org/pmwiki/pmwiki.php/Main/BumblingDad) character [says, "Who's to say this pregnant turtle is a _her_?" and everyone gives him a look](https://www.youtube.com/watch?v=5N2Msnrq7wU&t=14s).
 
 The joke, you see, is that bunny-father is unthinkingly applying the stock question "Who's to say _X_ is a he/she?" (which makes sense when _X_ is, _e.g._, "the nurse") in a context where there's an obvious answer—namely, that the referents of "her" pronouns are female and only females get pregnant—but the character is too stupid to notice this, and we enjoy a laugh at his expense.
 
 _The Amazing World of Gumball_ is rated [TV-Y7](https://rating-system.fandom.com/wiki/TV-Y7) and the episode in question came out in 2016. This is not a particularly foreign or distant cultural context, nor one that is expected to tax the cognitive abilities of a seven-year-old child! Is ... is Yudkowsky claiming not to get the joke?
 
-Posed that way, one would imagine not—but if Yudkowsky _does_ get the joke, then I don't think he can simultaneously _honestly_ claim to "not know what it feels like from the inside to feel like a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." In order to get the joke in real time, your brain has to quickly make a multi-step logical inference that depends on the idea that pronouns imply sex. (The turtle is a "her" [iff](https://en.wikipedia.org/wiki/If_and_only_if) female, not-female implies not-pregnant, so if the turtle is pregnant, it must be a "her", by _modus tollens_.) This would seem, pretty straightforwardly, to be a sense in which "a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." I'm really not sure how else I'm supposed to interpret those words!
+Posed that way, one would imagine not—but if Yudkowsky _does_ get the joke, then I don't think he can simultaneously _honestly_ claim to "not know what it feels like from the inside to feel like a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." In order to get the joke in real time, your brain has to quickly make a multi-step logical inference that depends on the idea that pronouns imply sex. (The turtle is a "her" [iff](https://en.wikipedia.org/wiki/If_and_only_if) female, not-female implies not-pregnant, so if the turtle is pregnant, it must be a "her".) This would seem, pretty straightforwardly, to be a sense in which "a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." I'm really not sure how else I'm supposed to interpret those words!
 
 Perhaps it's not justified to question Yudkowsky's "I do not know what it feels like [...]" self-report based on generalizations about English speakers in general? Maybe his mind works differently, but dint of unusual neurodiversity or training in LambdaMOO? But if so, one would perhaps expect some evidence of this in his publicly observable writing? And yet, on the contrary, looking over his works, we can see instances of Yudkowsky treating pronouns as synonymous with sex/gender (just as one would expect a native English speaker born in 1979 to do), contrary to his 2021 self-report of not knowing what this feels like from the inside.
 
@@ -269,7 +269,7 @@ In the comments, Yudkowsky continues:
 
 > This is _not_ the woke position. The woke position is that when you call somebody "she" because she requested "she", you're validating her gender preference. I may SEPARATELY be happy to validate somebody's gender preference by using the more complex language feature of NOUN PHRASES to construct an actual SENTENCE that refers to her ON PURPOSE as a "woman", but when it comes to PRONOUNS I am not even validating anyone.
 
-Right; it's not the woke position. It's an _incoherent_ position that's optimized to concede to the woke the behavior that they want for a _different stated reason_ in order to make the concession appear "neutral" and not "politically" motivated. She requested "she" _because_ acceding to the request validates her gender preference in the minds of all native English speakers who are listening, even if Eliezer Yudkowsky has some clever casuistry for why it magically doesn't mean that when _he_ says it.
+Right, it's not the woke position. It's an _incoherent_ position that's optimized to concede to the woke the behavior that they want for a _different stated reason_ in order to make the concession appear "neutral" and not "politically" motivated. She requested "she" _because_ acceding to the request validates her gender preference in the minds of all native English speakers who are listening, even if Eliezer Yudkowsky has some clever casuistry for why it magically doesn't mean that when _he_ says it.
 
 I'm _not_ saying that Yudkowsky should have a different pronoun policy. (I agree that misgendering all trans people "on principle" seems very wrong and unappealing.) Rather, I'm saying that in order to _actually_ be politically neutral in your analysis of _why_ someone might choose one pronoun policy over another, you need to _acknowledge_ the costs and benefits of a policy to different parties, and face the unhappy fact that sometimes there are cases where there _is_ no "neutral" policy, because all available policies impose costs on _someone_ and there's no solution that everyone is happy with. (Rational agents can hope to reach _some_ point on the Pareto frontier, but non-identical agents are necessarily going to fight about _which_ point, even if most of the fighting takes place in non-realized counterfactual possible worlds rather than exerting costs in reality.)
 
@@ -307,19 +307,17 @@ If people in a position of intellectual authority provide _inaccurate_ informati
 
 For example, I think my five-month HRT experiment was a _good_ decision—I benefitted from the experience and I'm very glad I did it, even though I didn't end up staying on HRT long term. The benefits (satisfied curiosity about the experience, breast tissue) exceeded the costs (a small insurance co-pay, sitting through some gatekeeping sessions, the inconvenience of [wearing a patch](/2017/Jan/hormones-day-33/) or [taking a pill](/2017/Jul/whats-my-motivation-or-hormones-day-89/), [various slight medical risks including to future fertility](https://srconstantin.github.io/2016/10/06/cross-sex-hormone-therapy.html)).
 
-If someone I trusted as an intellectual authority had falsely told me that HRT makes you go blind and lose the ability to hear music, _and I were dumb enough to believe them_, then I wouldn't have done it, and I would have missed out on something that benefitted me. Such an authority figure would be harming me by means of giving me bad information; my life would have been better if I hadn't trusted them to tell me the truth.
+If someone I trusted as an intellectual authority had falsely told me that HRT makes you go blind and lose the ability to hear music, _and I were dumb enough to believe them_, then I wouldn't have done it, and I would have missed out on something that benefitted me. Such an authority figure would be harming me by means of giving me bad information; I'd be better off if I hadn't trusted them to tell me the truth.
 
 In contrast, I think asking everyone in my life to use she/her pronouns for me would be an _obviously incredibly bad decision_. Because—notwithstanding my clean-shavenness and beautiful–beautiful ponytail and slight gynecomastia from that HRT experiment five years ago—anyone who looks at me can see at a glance that I'm male (as a _fact_ about the real world, however I feel about it). People would comply because they felt obligated to (and apologize profusely when they slipped up), but it wouldn't come naturally, and strangers would always get it wrong without being told—_in accordance with_ the "default for those-who-haven't-asked that goes by gamete size" clause of Yudkowsky's reform proposal, but really because pronouns are firmly attached to sex in their heads. The costs (this tremendous awkwardness and fakeness suffusing _all future social interactions involving me_) would exceed the benefits (I actually do feel happier about the word _she_).
 
-I used to trust Yudkowsky as an intellectual authority; his [Sequences](https://www.readthesequences.com/) from the late 'aughts were so life-alteringly great that I built up a trust that if Eliezer Yudkowsky said something, that thing was probably so, even if I didn't immediately understand why. But these days, Yudkowsky is telling me that 'she' normatively refers to the set of people who have asked us to use 'she', and that those who disagree are engaging in logically rude Shenanigans. However, as I have just explained at length, this is bullshit. (Declaring a "normative" meaning on your Facebook wall doesn't rewrite the _actual_ meaning embodied the brains of 370 million English speakers.) If I were _dumb enough to believe him_, I might ask people for new pronouns, which would obviously be an incredibly bad decision. Yudkowsky is harming a reference class of people that includes more naïve versions of me by giving them bad information; my life is better because I don't trust Eliezer Yudkowsky to tell me the truth.
+I used to trust Yudkowsky as an intellectual authority; his [Sequences](https://www.readthesequences.com/) from the late 'aughts were so life-alteringly great that I built up a trust that if Eliezer Yudkowsky said something, that thing was probably so, even if I didn't immediately understand why. But these days, Yudkowsky is telling me that 'she' normatively refers to the set of people who have asked us to use 'she', and that those who disagree are engaging in logically rude Shenanigans. However, as I have just explained at length, this is bullshit. (Declaring a "normative" meaning on your Facebook wall doesn't rewrite the _actual_ meaning embodied the brains of 370 million English speakers.) If I were _dumb enough to believe him_, I might ask people for new pronouns, which would obviously be an incredibly bad decision. Yudkowsky is harming a reference class of people that includes more naïve versions of me by giving them bad information; I'm better off because I don't trust Eliezer Yudkowsky to tell me the truth.
 
 (I guess I [can't say I wasn't warned](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science).)
 
 -----
 
-If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here?
-
-When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
+If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here? When smart people act dumb, [it's usually wisest to assume that their behavior represents _optimized_ stupidity](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie)—apparent "stupidity" that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with a specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any controversial gender-political reasoning.
 
 Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
 
@@ -412,7 +410,7 @@ https://bjsm.bmj.com/content/55/15/865
 https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
 ]
 
-In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the only reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
+In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
 
 Yudkowsky's pretension to merely have been standing up for the distinction between facts and policy questions isn't credible: if you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
 
@@ -420,7 +418,7 @@ Yudkowsky's pretension to merely have been standing up for the distinction betwe
 
 ----
 
-Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting out this haughty performance?
+Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
 
 Of course, presumably he _doesn't_ think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421901809228):
 
@@ -430,7 +428,7 @@ Ah, _prudence_! He continues:
 
 > I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
 
-The problem with trying to "exhibit rationalist principles" in an line of argument that you're constructing to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
+The problem with trying to "exhibit rationalist principles" in an line of argument that you're constructing in order to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
 
 The best explanation of this I know was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
 
@@ -467,50 +465,65 @@ Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's concepti
 
 I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
 
-This is a shockingly high standard for anyone to aspire to live up to—but what made the Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
+This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
 
-... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing has no reason to give a shit about what you say.
+... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
 
 "I don't see what the alternative is besides getting shot," Yudkowsky muses (where presumably, 'getting shot' is a metaphor for a large negative utility, like being unpopular with progressives). Yes, an astute observation! And _any other partisan hack could say exactly the same_, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot.
 
 Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
 
-If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord the same level of credibility to the two groups' output.
+If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
 
 I see the phrase "bad faith" thrown around more than I think people know what it means. "Bad faith" doesn't mean "with ill intent", and it's more specific than "dishonest": it's [adopting the surface appearance of being moved by one set of motivations, while actually acting from another](https://en.wikipedia.org/wiki/Bad_faith).
 
 For example, an [insurance company employee](https://en.wikipedia.org/wiki/Claims_adjuster) who goes through the motions of investigating your claim while privately intending to deny it might never consciously tell an explicit "lie", but is definitely acting in bad faith: they're asking you questions, demanding evidence, _&c._ in order to _make it look like_ you'll get paid if you prove the loss occurred—whereas in reality, you're just not going to be paid. Your responses to the claim inspector aren't completely casually _inert_: if you can make an extremely strong case that the loss occurred as you say, then the claim inspector might need to put some effort into coming up with some ingenious excuse to deny your claim in ways that exhibit general claim-inspection principles. But at the end of the day, the inspector is going to say what they need to say in order to protect the company's loss ratio, as is personally prudent.
 
-With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's honestly engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
+With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's genuinely engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
 
-To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
+To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ blatantly mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
 
 Counterarguments aren't completely causally _inert_: if you can make an extremely strong case that Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity, Yudkowsky will put some effort into coming up with some ingenious excuse for why he _technically_ never said otherwise, in ways that exhibit generally rationalist principles. But at the end of the day, Yudkowsky is going to say what he needs to say in order to protect his reputation, as is personally prudent.
 
-Yudkowsky seems to think this level of bad faith is fine, because allegedly "people do _know_ they're living in a half-Stalinist environment." But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
+Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces. For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception because I don't think my interlocutor _should_ be paying attention to my personal alignment.
+
+[TODO: the term is "concern trolling"; speak of trying to correct a distortion]
+
+That is, my bad faith Twitter gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
 
-Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be relevant.
+In contrast, Yudkowsky's bad faith gambit is the exact reverse: he's making the discussion worse in the hopes of correcting people's beliefs about his own ideological alignment. (He's not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
 
-But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that someone doesn't know and someone with power wants to _keep_ it that way.
+Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
 
-For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then they wouldn't have to face the tough choice between playing along with 
+Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be extremely relevant.
 
+But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that _not_ everybody knows and that someone with power wants to _keep_ it that way.
 
+For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then the savvy people wouldn't have to face the tough choice between
+acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
 
+Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
 
+But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose flaws I have analyzed in detail above).
 
+"I think people are better off at the end of that," Yudkowsky writes of the consequences of agreeing-with-Stalin-in-ways-that-exhibit-generally-rationalist-principles policies. But here I think we need a more conflict-theoretic analysis that looks at a more detailed level than "people." _Who_ is better off, specifically? 
 
+... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it feels still necessary relative to everything else I need to get around to writing. (It's not actually a very interesting story; I just need to get it out of my system so I can stop grieving and move on with my life.)
 
-["People are better off at the end of that"— _who_ is better off? We need a conflict-theoretic analysis]
+I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
 
-[I was going to save the Whole Dumb Story for a different post, and keep this post narrowly scoped to just critiquing the Feb. 2021 pronouns post, but in order to explain the problem with "Everybody knows" and "People are better off after that", I need to breifly summarize the context of this discussion which explains why _I_ didn't know and _I'm_ not better off—with the understanding that this only a brief summary, and I might tell the long version in a separate post—if it's still necessary, relative to everything else I need to get around to writing]
+You see, back in the 'aughts when Yudkowsky was writing his Sequences, he occasionally said some things about sex differences that I often found offensive at the time, but which ended up being hugely influential on me, especially in the context of my ideological affinity towards feminism and my secret lifelong-since-puberty erotic fantasy about being magically transformed into a woman. I wrote about this at length in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)].
+
+In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains that "changing sex" is vastly easier said than done—
 
-[I _never_ expected to end up arguing about the mintuiae of pronoun conventions; I wanted to talk about the real issues]
 
-[It all started back in the 'aughts, when the occasional things about sex differences that cropped up in the Sequences (especially "Changing Emotions" and the Extropians mailing list pre) turned out to be useful for understanding what was going on with my gender thing; I wrote about this in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/).]
 
 [But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
 
+
+_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
+
+
 [So I ended up arguing with people about the two-type taxonomy, and I noticed that those discussions kept getting _derailed_ on some variation of "The word woman doesn't actually mean that". So I took the bait, and starting arguing against that, and then Yudkowsky comes back to the subject with his "Hill of Validity in Defense of Meaning"—and I go on a philosophy of language crusade, and Yudkowsky eventually clarifies, and _then_ he comes back _again_ in Feb. 2022 with his "simplest and best protocol"]
 
 [At this point, the nature of the game is very clear. Yudkowsky wants to mood-affiliate with being on the right side of history, subject to the constraint of not saying anything false. I want to actually make sense of what's actually going on in the world, because _I need the correct answer to decided whether or not to cut my dick off_. On "his turn", he comes up with some pompous proclamation that's optimized to make the "pro-trans" faction look smart and good and the "anti-trans" faction look dumb and bad, "in ways that exhibit generally rationalist principles." On my turn, I put in an absurd amount of effort explaining in exhaustive, _exhaustive_ detail why Yudkowsky's pompous proclamation was substantively misleading as constrated to what you would say if you were actually trying to make sense of the world.]
@@ -519,12 +532,16 @@ For the savvy people in the know, it would certainly be _convenient_ if everyone
 
 [If it were _actually true_ that there was no harm from the bad faith because people know they're living in a half-Stalinist environment, then he wouldn't have tried to get away with the "20% of the ones with penises" thing]
 
-[All this despite the fact that all my heretical opinions are _literally_ just his opinions from the 'aughts. Seriously, you think I'm smart enough to come up with stuff indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts when he gave a shit about telling the truth. Does he expect us not to notice? Well, I guess it's been working out for him so far.]
+[All this despite the fact that all my heretical opinions are _literally_ just his opinions from the 'aughts. Seriously, you think I'm smart enough to come up with all of this indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts when he still gave a shit about telling the truth in this domain. Does he expect us not to notice? Well, I guess it's been working out for him so far.]
 
 [Agreeing with Stalin that 2+2=4 is fine; the problem is a sustained pattern of _selectively_ bring up pro-Party points while ignoring anti-Party facts that would otherwise be relevant to the topic of interest, including stonewalling commenters who try to point out relevance; I think I'm doing better: I can point to places where I argue "the other side", because I know that sides are fake]
 
 [I can win concessions, like "On the Argumentative Form", but I don't want concessions; I want to _actually get the goddamned right answer_]
 
+[principled trans people should be offended, too!]
+
+[our beliefs about dolphins are downstream of Scott's political incentives]
+
 -------
 
 [Why does this matter? It would be dishonest for me to claim that this is _directly_ relevant to xrisk, because that's not my real bottom line]
@@ -538,3 +555,5 @@ https://www.readthesequences.com/
 
 > the challenge is almost entirely about high integrity communication by small groups
 https://twitter.com/HiFromMichaelV/status/1486044326618710018
+
+My religion of Yudkowskian rationalism does have a strong tradition of _disagreement_ being socially acceptable (as it is [written of the fifth virtue](https://www.yudkowsky.net/rational/virtues), those who wish to fail must first prevent their friends from helping them), but only "on the object-level", as we say. The act of jumping up a meta level and positing that one's interlocutors are not just wrong, but _dishonest_, tends to be censured as "uncharitable."