Friday redemption block 6: Thellim follow-on ...
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index d236514..8e20a7d 100644 (file)
@@ -4,33 +4,17 @@ The thing about our crowd is that we have a lamentably low proportion of women (
 
 https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
+So, a striking thing about my series of increasingly frustrating private conversations and subsequent public Facebook meltdown (the stress from which soon landed me in psychiatric jail, but that's [another](/2017/Mar/fresh-princess/) [story](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)) was the tendency for some threads of conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander
 
+, the _second_ most prominent writer in our robot cult.
 
-So, a striking thing about my series of increasingly frustrating private conversations and subsequent public Facebook meltdown (the stress from which soon landed me in psychiatric jail, but that's [another](/2017/Mar/fresh-princess/) [story](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)) was the tendency for some threads of conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander, the _second_ most prominent writer in our robot cult.
+So, this _really_ wasn't what I was trying to talk about; _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory in psychology, the truth or falsity of which 
 
-So, this _really_ wasn't what I was trying to talk about; _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory in psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—not just as a formal profession of modesty, but _actually_ wrong in the real world.
+Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—not just as a formal profession of modesty, but _actually_ wrong in the real world.
 
-But this "I can define the word _woman_ any way I want" mind game? _That_ part was _absolutely_ clear-cut. That part of the argument, I knew I could win. [We had a whole Sequence about this](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) back in 'aught-eight, in which Yudkowsky pounded home this _exact_ point _over and over and over again_, that word and category definitions are _not_ arbitrary, because there are criteria that make some definitions _perform better_ than others as "cognitive technology"—
+But this "I can define the word _woman_ any way I want" mind game? _That_ part was _absolutely_ clear-cut. That part of the argument, I knew I could win.
 
-> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
 
-> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
-
-> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
-
-> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
-
-> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
-
-> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
-
-> ["And people are lazy.  They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
-
-> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
-
-> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
-
-> ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
 
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
@@ -256,6 +240,9 @@ I'm worried about the failure mode where bright young minds [lured in](http://be
 >  I'm not trying to get Eliezer or "the community" to take a public stance on gender politics; I'm trying to get us to take a stance in favor of the kind of epistemology that we were doing in 2008. It turns out that epistemology has implications for gender politics which are unsafe, but that's more inferential steps, and ... I guess I just don't expect the sort of people who would punish good epistemology to follow the inferential steps? Maybe I'm living in the should-universe a bit here, but I don't think it "should" be hard for Eliezer to publicly say, "Yep, categories aren't arbitrary because you need them to carve reality at the joints in order to make probabilistic inferences, just like I said in 2008; this is obvious."
 
 Scott got a lot of pushback just for including the blog that I showed him in a links post (Times have changed! BBL is locally quasi-mainstream after Ozy engaged)
+https://slatestarcodex.com/2016/11/01/links-1116-site-unseen/
+https://slatestarscratchpad.tumblr.com/post/152736458066/hey-scott-im-a-bit-of-a-fan-of-yours-and-i
+
 
 It's weird that he thinks telling the truth is politically impossible, because the specific truths I'm focused on are things he _already said_, that anyone could just look up. I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather (a reader points out) the egregore has no reason to care about the past; if you get tagged as an enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009
 
@@ -360,18 +347,29 @@ https://twitter.com/zackmdavis/status/1107874587822297089
 
 Robert Stadler
 
-https://www.glowfic.com/posts/4508?page=14
+----------
+
+In [one of Yudkowsky's roleplaying fiction threads](https://www.glowfic.com/posts/4508), Thellim, a woman hailing from [a saner alternate version of Earth](https://www.lesswrong.com/tag/dath-ilan) [expresses horror and disgust at how shallow and superficial the characters in _Pride and Prejudice_ are, in contrast to what a human being _should_ be](https://www.glowfic.com/replies/1592898#reply-1592898):
+
 > Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves. 
 
-There's a glowfic thread where Thellim is _horrified_ at how shallow and superficial Jane Austen characters are, in contrast to what a human being _should_ be: "Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves."
+When someone else doesn't see the problem with Jane Austen's characters, Thellim [redoubles her determination to explain the problem](https://www.glowfic.com/replies/1592987#reply-1592987): "_She is not giving up that easily.  Not on an entire planet full of people._"
+
+Thellim's horror at the fictional world of Jane Austen is basically how I feel about real-world trans-activist culture. It _actively discourages self-modeling!_ People who have cross-sex fantasies are encouraged to reify them into an gender identity which everyone else is supposed to unquestioningly accept. Critical questions about what's actually going on etiologically, what it means for an identity to be true, _&c._ are strongly discouraged as hateful, hurtful, distressing, _&c._
+
+It's _not_ that I think there's anything wrong with having cross-sex fantasies—just as Thellim's problem with _Pride and Prejudice_ is not there being anything wrong with wanting to marry a suitable bachelor. On the contrary, I _like_ being autogynephilic. But I also like having the basic self-awareness to _notice_ that being an autogynephilic male is _not the same thing_ as being female. I don't need people to lie to me about that.
+
+I would have hoped Eliezer Yudkowsky would be _in favor_ of his faithful students having these very basic reflective capabilities.
+
+I would have hoped that he would care enough
 
-This horror is basically how I feel about trans culture. It actively discourages self-modeling! (People who have cross-sex fantasies are encouraged to reify them into an gender identity which everyone else is supposed to unquestioningly accept. Politically-unfavorable critical questions about what's actually going on etiologically, what it means for an identity to be true, _&c._ are strongly discouraged as hateful, hurtful, distressing, _&c._)
+in the context of elite Anglosphere culture in 2016–2022, "Biological sex actually exists; "
 
-https://www.glowfic.com/posts/4508?page=20
+He can't do it.
 
-_She is not giving up that easily.  Not on an entire planet full of people._
+But his revealed preference seems to be that not getting in trouble with progressives is more important than teaching this skill.
 
-https://www.glowfic.com/posts/4508?page=21
+-----------
 
 Really, it's impressive how far we got in establishing a cult of Bayesians in a world where "discimination" is a transgression against the dominant ideology! I can't be the only one who got the joke
 
@@ -482,6 +480,8 @@ https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wron
 > The act of defining a word to refer to all humans, except black people, seems kind of suspicious.
 That's not the only implication on race of the philosophy of categorization—actually, I'm going to bite the bullet here; "Eurasian" is actually fine as a paraphyletic category (and @CovfefeAnon uses it productively)
 
+And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"), but when you read the text that was actually published at the time, parts of it are hard to read as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity.
+
 [For example](https://twitter.com/ESYudkowsky/status/1067490362225156096):
 
 > The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
@@ -560,130 +560,6 @@ So, the explanation of [the problem of political censorship filtering evidence](
 
 Really, it would be _less_ embarassing for Yudkowsky if he were outright lying about having tried to think of counterarguments. The original post isn't _that_ bad if you assume that Yudkowsky was writing off the cuff, that he clearly just _didn't put any effort whatsoever_ into thinking about why someone might disagree. If he _did_ put in the effort—enough that he felt comfortable bragging about his ability to see the other side of the argument—and _still_ ended up proclaiming his "simplest and best protocol" without even so much as _mentioning_ any of its incredibly obvious costs ... that's just _pathetic_. If Yudkowsky's ability to explore the space of arguments is _that_ bad, why would you trust his opinion about _anything_?
 
-But perhaps it's premature to judge Yudkowsky without appreciating what tight constraints he labors under. The disclaimer comment mentions "speakable and unspeakable arguments"—but what, exactly, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421871809228):
-
-> People might be able to speak that. A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
-
-(As an aside, the wording of "we might well hear about it from _the other side_" (emphasis mine) is _very_ interesting, suggesting that the so-called "rationalist" community, is, effectively, a partisan institution, despite its claims to be about advancing the generically human art of systematically correct reasoning.)
-I think (a) and (b) _as stated_ are clearly false, so "we" (who?) fortunately aren't losing much by allegedly not being able to speak them. But what about some _similar_ hypotheses, that might be similarly unspeakable for similar reasons?
-
-Instead of (a), consider the claim that (a′) self-reports about gender dysphoria are substantially distorted by [socially-desirable responding tendencies](https://en.wikipedia.org/wiki/Social-desirability_bias)—as a notable and common example, heterosexual males with [sexual fantasies about being female](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html) [often falsely deny or minimize the erotic dimension of their desire to change sex](/papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf) (The idea that self-reports can be motivatedly inaccurate without the subject consciously "lying" should not be novel to someone who co-blogged with [Robin Hanson](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain) for years!)
-
-And instead of (b), consider the claim that (b′) transitioning is socially rewarded within particular _subcultures_ (although not Society as a whole), such that many of the same people wouldn't think of themselves as trans or even gender-dysphoric if they lived in a different subculture.
-
-I claim that (a′) and (b′) are _overwhelmingly likely to be true_. Can "we" talk about _that_? Are (a′) and (b′) "speakable", or not?
-
-We're unlikely to get clarification from Yudkowsky, but based on my experiences with the so-called "rationalist" community over the past coming-up-on-six years—the Whole Dumb Story of which might need to be the topic of _another_ future multi-thousand-word blog post, which I've found difficult to write, because it still hurts—I'm going to _guess_ that the answer is broadly No: no, "we" can't talk about that.
-
-But if I'm right that (a′) and (b′) should be live hypotheses and that Yudkowsky would consider them "unspeakable", that means "we" can't talk about what's _actually going on_ with gender dysphoria and transsexuality, which puts the whole discussion in a different light. In another comment, Yudkowsky lists some gender-transition interventions he named in [a November 2018 Twitter thread](https://twitter.com/ESYudkowsky/status/1067183500216811521) that was the precursor to the present discussion—using a different bathroom, changing one's name, asking for new pronouns, and getting sex reassignment surgery—and notes that none of these are calling oneself a "woman". [He continues](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159424960909228):
-
-> [Calling someone a "woman"] _is_ closer to the right sort of thing _ontologically_ to be true or false. More relevant to the current thread, now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to _debate_ whether this sentence is indeed true or false, and have people express their nuanced opinions by uttering this sentence, or perhaps a more complicated sentence using a bunch of caveats, or maybe using the original sentence uncaveated to express their belief that this is a bad place for caveats. Policies about who uses what bathroom also have consequences and we can debate the goodness or badness (not truth or falsity) of those policies, and utter sentences to declare our nuanced or non-nuanced position before or after that debate.
->
-> Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
-
-Sure, _if we were in the position of designing a constructed language from scratch_ under current social conditions in which a person's "gender" is a contested social construct, rather than their sex an objective and undisputed fact, then yeah: in that situation _which we are not in_, you definitely wouldn't want to pack sex or gender into pronouns. But it's a disingenuous derailing tactic to grandstand about how people need to alter the semantics of their _already existing_ native language so that we can discuss the real issues under an allegedly superior pronoun convention when, _by your own admission_, you have _no intention whatsoever of discussing the real issues!_
-
-(Lest the "by your own admission" clause seem too accusatory, I should note that given constant behavior, admitting it is _much_ better than not-admitting it; so, huge thanks to Yudkowsky for the transparency on this point!)
-
-Again, a comparison to the _tú_/_usted_ distinction is instructive. It's one thing to advocate for collapsing the distinction and just settling on one second-person singular pronoun for the Spanish language. That's principled.
-
-It's quite another thing altogether to _simultaneously_ try to prevent a speaker from using _tú_ to indicate disrespect towards a social superior (on the stated rationale that the _tú_/_usted_ distinction is dumb and shouldn't exist), while _also_ refusing to entertain or address the speaker's arguments explaining _why_ they think their interlocutor is unworthy of the deference that would be implied by _usted_ (because such arguments are "unspeakable" for political reasons). That's just psychologically abusive.
-
-If Yudkowsky _actually_ possessed (and felt motivated to use) the "ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking", it would be _obvious_ to him that "Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" isn't the hill anyone would care about dying on if it weren't a Schelling point. A lot of TERF-adjacent folk would be _overjoyed_ to concede the (boring, insubstantial) matter of pronouns as a trivial courtesy if it meant getting to _actually_ address their real concerns of "Biological Sex Actually Exists", and ["Biological Sex Cannot Be Changed With Existing or Foreseeable Technology"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and "Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity." The reason so many of them are inclined to stand their ground and not even offer the trivial courtesy is because they suspect that the matter of pronouns is being used as a rhetorical wedge and typographical attack to try to prevent people from talking or thinking about sex.
-
-And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"), but when you read the text that was actually published at the time, parts of it are hard to read as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity.
-
-----
-
-Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
-
-Of course, presumably he _doesn't_ think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421901809228):
-
-> it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment [...] I think people are better off at the end of that.
-
-Ah, _prudence_! He continues:
-
-> I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
-
-The problem with trying to "exhibit generally rationalist principles" in an line of argument that you're constructing in order to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
-
-The best explanation of this I know was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
-
-> As a campaign manager reading a book on rationality, one question lies foremost on your mind: "How can I construct an impeccable rational argument that Mortimer Q. Snodgrass is the best candidate for Mayor of Hadleyburg?"
->
-> Sorry. It can't be done.
->
-> "What?" you cry. "But what if I use only valid support to construct my structure of reason? What if every fact I cite is true to the best of my knowledge, and relevant evidence under Bayes's Rule?"
->
-> Sorry. It still can't be done. You defeated yourself the instant you specified your argument's conclusion in advance.
-
-The campaign manager is in possession of a survey of mayoral candidates on which Snodgrass compares favorably to other candidates, except for one question. The post continues (bolding mine):
-
-> So you are tempted to publish the questionnaire as part of your own campaign literature ... with the 11th question omitted, of course.
->
-> **Which crosses the line between _rationality_ and _rationalization_.** It is no longer possible for the voters to condition on the facts alone; they must condition on the additional fact of their presentation, and infer the existence of hidden evidence.
->
-> Indeed, **you crossed the line at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it.** "What!" you cry. "A campaign should publish facts unfavorable to their candidate?" But put yourself in the shoes of a voter, still trying to select a candidate—why would you censor useful information? You wouldn't, if you were genuinely curious. If you were flowing _forward_ from the evidence to an unknown choice of candidate, rather than flowing _backward_ from a fixed candidate to determine the arguments.
-
-The post then briefly discusses the idea of a "logical" argument, one whose conclusions follow from its premises. "All rectangles are quadrilaterals; all squares are quadrilaterals; therefore, all squares are rectangles" is given as an example of _illogical_ argument, even though the both premises are true (all rectangles and squares are in fact quadrilaterals) _and_ the conclusion is true (all squares are in fact rectangles). The problem is that the conclusion doesn't _follow_ from the premises; the _reason_ all squares are rectangles isn't _because_ they're both quadrilaterals. If we accepted arguments of the general _form_ "all A are C; all B are C; therefore all A are B", we would end up believing nonsense.
-
-Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's conception in 2007, which the Yudkowsky of the current year seems to disagree with—has a similar flavor: the stated reasons should be the actual reasons. The post concludes:
-
-> If you really want to present an honest, rational argument _for your candidate_, in a political campaign, there is only one way to do it:
->
-> * _Before anyone hires you_, gather up all the evidence you can about the different candidates.
-> * Make a checklist which you, yourself, will use to decide which candidate seems best.
-> * Process the checklist.
-> * Go to the winning candidate.
-> * Offer to become their campaign manager.
-> * When they ask for campaign literature, print out your checklist.
->
-> Only in this way can you offer a _rational_ chain of argument, one whose bottom line was written flowing _forward_ from the lines above it. Whatever _actually_ decides your bottom line is the only thing you can _honestly_ write on the lines above.
-
-I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
-
-This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
-
-... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
-
-"I don't see what the alternative is besides getting shot," Yudkowsky muses (where presumably, 'getting shot' is a metaphor for a large negative utility, like being unpopular with progressives). Yes, an astute observation! And _any other partisan hack could say exactly the same_, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot.
-
-Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
-
-If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
-
-I see the phrase "bad faith" thrown around more than I think people know what it means. "Bad faith" doesn't mean "with ill intent", and it's more specific than "dishonest": it's [adopting the surface appearance of being moved by one set of motivations, while actually acting from another](https://en.wikipedia.org/wiki/Bad_faith).
-
-For example, an [insurance company employee](https://en.wikipedia.org/wiki/Claims_adjuster) who goes through the motions of investigating your claim while privately intending to deny it might never consciously tell an explicit "lie", but is definitely acting in bad faith: they're asking you questions, demanding evidence, _&c._ in order to _make it look like_ you'll get paid if you prove the loss occurred—whereas in reality, you're just not going to be paid. Your responses to the claim inspector aren't completely casually _inert_: if you can make an extremely strong case that the loss occurred as you say, then the claim inspector might need to put some effort into coming up with some ingenious excuse to deny your claim in ways that exhibit general claim-inspection principles. But at the end of the day, the inspector is going to say what they need to say in order to protect the company's loss ratio, as is personally prudent.
-
-With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's genuinely engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
-
-To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ blatantly mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
-
-Counterarguments aren't completely causally _inert_: if you can make an extremely strong case that Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity, Yudkowsky will put some effort into coming up with some ingenious excuse for why he _technically_ never said otherwise, in ways that exhibit generally rationalist principles. But at the end of the day, Yudkowsky is going to say what he needs to say in order to protect his reputation, as is personally prudent.
-
-Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description that makes predictions about behavior, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces! For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception because I don't think my interlocutor _should_ be paying attention to my personal alignment.
-
-[TODO: the term is "concern trolling"; speak of trying to correct a distortion]
-
-That is, my bad faith Twitter gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
-
-In contrast, the "it is sometimes personally prudent [...] to post your agreement with Stalin" gambit is the exact reverse: it's _introducing_ a distortion into the discussion in the hopes of correcting people's beliefs about the speaker's ideological alignment. (Yudkowsky is not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
-
-Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
-
-Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be extremely relevant.
-
-But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that _not_ everybody knows and that someone with power wants to _keep_ it that way.
-
-For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then the savvy people wouldn't have to face the tough choice between acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
-
-Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
-
-But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose numerous flaws I have analyzed in detail above).
-
-"I think people are better off at the end of that," Yudkowsky writes of the consequences of posting-your-agreement-with-Stalin policies. But here I think we need a more conflict-theoretic analysis that looks at a more detailed level than "people." _Who_ is better off, specifically? 
 
 ... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it feels still necessary relative to everything else I need to get around to writing. (It's not actually a very interesting story; I just need to get it out of my system so I can stop grieving and move on with my life.)
 
@@ -779,3 +655,232 @@ I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378
 
 > Admitting something when being pushed a little, but never thinking it spontaneously and hence having those thoughts absent from your own thought processes, remains not sane.
 https://twitter.com/ESYudkowsky/status/1501218503990431745
+
+playing on a different chessboard—I would be fine with it if he didn't shit on my chessboard. But my shitting on his chessboard
+
+Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
+> What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
+
+> Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is - aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences - committed not to Eliezer's insights but to exaggerated versions of his blind spots.
+
+> The people who aren't doing that mostly aren't participating in the LessWrong identity, but while factions like that are hostile to the confused people who behave as though they're part of a community trying to become less wrong, such factions are also parasitic on such people, claiming credit for their intellectual contributions. When such participation is fully extinguished, the group begins to decay, having nothing distinctive to offer, unless it has become too big to fail, in which case it's just another component of one political faction or another.
+
+https://graymirror.substack.com/p/the-journalist-rationalist-showdown?s=r
+
+Scott Aaronson on the Times's hit piece of Scott Alexander—
+https://scottaaronson.blog/?p=5310
+> The trouble with the NYT piece is not that it makes any false statements, but just that it constantly insinuates nefarious beliefs and motives, via strategic word choices and omission of relevant facts that change the emotional coloration of the facts that it does present.
+
+contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard, you don't take it lying down
+
+Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
+
+maybe he should have some sympathy for Stephen J. Gould's intellectual crimes
+
+Feb. 2016 happy price schedule https://www.facebook.com/yudkowsky/posts/10153956696609228
+
+one of the new collaborators on _Mad Investor Chaos_ is a _Catholic_
+
+When my chat with EY at the independence day party degenerated into "I'm sorry for being dumb", he said if Zack Davis was too dumb, we're in trouble
+
+OK, "paperclips" is a legitimate example of categories being subjective/value-dependent
+
+http://paulgraham.com/heresy.html
+
+A "rationalist" community worthy of the name would be able to do the thing Steve Sailer does, while retaining our humanistic ethics https://www.unz.com/isteve/what-is-elon-musks-plan-for-reversing-the-tyranny-of-the-ex-men/
+
+https://graymirror.substack.com/p/the-twitter-coup
+> a battle is won if the result of the battle is to make the next battle easier. The same is true of a political confrontation.
+[...]
+> I noticed that the streets had been largely cleared of homeless encampments (which have been pushed into the nearby forests). Most people take this as a conservative victory. It is actually a defeat.
+> It is a victory in the ordinary sense of the term—an action which gets what the actors want. It is a tactical victory—but a strategic defeat. At a party the other day, I spoke to one of the people who orchestrated this “victory,” and explained why I saw it this way.
+[...]
+> for a rebel, all true victories are total. He who makes half a revolution digs his own grave
+in this sense, I keep winning battles, but I've basically conceded the war
+
+Rubices—
+> with Zack in 2017 in particular, I don't know if it's still true now, there was also a lot of "women are brilliant and perfect and pure, and it would do damage to something beautiful for a man to pretend to be one"
+gonna mostlky bite the bullet on this one
+
+
+https://dilbert.com/strip/2022-04-09
+> You all remember the thing I predicted correctly 12 years ago, therefore you should heed my word on this completely unrelated topic
+
+The time E.Y. recommended dark side epistemology as shortform still feels telling—you could say it's circumstantial nitpicking, but I think it's revealing, like the "reducing negativity"
+https://discord.com/channels/401181628015050773/471045466805633029/934929649421672488
+https://www.lesswrong.com/posts/fYC3t6QQDvdBBwJdw/plutonic_form-s-shortform?commentId=dghPKBjgiA6pTcCKz
+
+"Death With Dignity" isn't really an update; he used to refuse to give a probability, and now he says the probability is ~0
+
+https://www.foxylists.com/etiquette
+> 6. Do not ask for additional pictures, selfies or services they have not already agreed upon. 
+
+> One nice thing about intellectuals is that when they turn, they frequently leave behind a detailed, mostly coherent record of what a person turning into a rhinoceros thinks is going on.
+https://twitter.com/ben_r_hoffman/status/1477733825702936581
+
+Rationality was supposed to be important!!
+
+Paul says so—
+>  My current sense is that cooperation has a better tradeoff than some forms of enhancement (e.g. giving humans bigger brains) and worse than others (e.g. improving the accuracy of people's and institution's beliefs about the world).
+
+Rob says so, too—
+> Help ourselves think more clearly. (I imagine this including a lot of trying-to-become-more-rational, developing and following relatively open/honest communication norms, and trying to build better mental models of crucial parts of the world.)
+
+> their verbal theories contradict their own datapoints
+https://www.facebook.com/yudkowsky/posts/10159408250519228?comment_id=10159411435619228&reply_comment_id=10159411567794228
+
+dath ilan has Actual Evolutionary Psychology
+> They end up wanting 42 major things and 314 minor things (on the current count of what's known and thought to be distinct in the way of adaptation)
+https://www.glowfic.com/replies/1801140#reply-1801140
+
+> When somebody stops coordinating with you, stop coordinating with them.  It's not 'punishment' to Defect against somebody who's Defecting against you, in a cooperation-defection dilemma; you're just withdrawing the Cooperation you were trying to coordinate with them
+https://www.glowfic.com/replies/1801374#reply-1801374
+
+I joined the "Eliezerfic" server in spite of my enmity, and JoshTriplett is in there (contrary to my gut instinct that Rust peeps hate my rationalist peeps)
+
+Tweet about "unvirtuous to just believe me"—well, YES
+
+The cowardice is remarkable, coming from someone who otherwise
+
+jbeshir
+> I have a writer/author friend, they had a problem a couple or so times with people who get really really into the work and community, then in their mind got disappointed in some way- and that investments converts at a surprisingly high exchange rate directly into investment in making your life worse. It... happens.
+—this makes a callout post or Twitter thread seem less appealing
+
+
+[previously, I had felt guilty about being less successfully feminst than Robby https://nothingismere.com/2013/12/26/union-names-objections-and-replies/]
+[internet pharmacy]
+
+Rubices—
+> whereas I could imagine reading almost the same post on sneerclub and turning into a prickle about it
+Lorelai—
+> me when other trans girls call themselves and me AGP vs when genuine Blanchardians do
+
+https://www.clearerthinking.org/post/understanding-relationship-conflicts-clashing-trauma
+
+postyud; Yudkowskyism without Yudkowsky
+
+if you know Reality is red, blue, or green, and I know Reality is red but am trying to maximize the probability you assign to green, I can truthfully say "it's not blue"
+
+Gell-Mann amnesia
+
+EY's commenting guidelines
+
+> Sneerclub gives him an excuse to just not engage with legitimate criticism
+https://twitter.com/satisfiesvalues/status/1524475059695505409
+
+flu virus that cures Borderer culture
+https://twitter.com/Kenku_Allaryi/status/1524646257976877057
+
+Zvi claims the condescension is important information, which is why it's such a betrayal when he uses the condesension to score points
+https://www.lesswrong.com/posts/ax695frGJEzGxFBK4/biology-inspired-agi-timelines-the-trick-that-never-works?commentId=HB3BL3Sa6MxSszqdq
+
+Anna thinks that committees can't do anything worthwhile; for endeavors requiring a lot of coordination, it's useful for leaders to have slack to make decisions without having to justify themselves to a mob. Anna endorses Straussianism: writing for the few is different from writing for the many, and that some of Ben's stuff may have veered too far towards loading negative affect on EA leaders; I and my model of Michael have reservations about the extent to which \"writing for the few\" could also be described as \"colluding to deceive the rest of the world\
+
+[TODO: at first I made some pushback comments on other people's posts; e.g., Robby's thread on 7 Feburary
+Then it blossomed into an extended tantrum on my own wall—
+31 posts total between—"some of you may have noticed" Sat 11 Feb, and promising to quite Facebook for a week 0844 15 Feburary
+
+my terrible date with Anna T. was actually on 12 February—that explains why I remember being so distracted!
+
+Tue Feb 14 2017 10:52:04
+So my theory is Anna would not be reacting as vehemently had you not recently asked her out
+And that she is trying to play a signaling game to salvage her status in the community by distancing herself from you"
+"See?  See everyone?  I rejected him!  Don't burn me at the stake too!
+
+
+an irony: in my psychosis, I was scared that the world was far less legible than I had imagined, but that _wasn't_ why my ordeal's and Devi's were so traumatic _at all_: the psych ward is _very much_ governed by legible rules, rules that I had no control over
+
+
+I had some self-awareness that I was going off the rails—
+> She had a delusional mental breakdown; you're a little bit manic; I'm in the Avatar state. https://www.facebook.com/zmdavis/posts/10154813104220199
+
+sent Anna T. Oops / Ooops / Cooperate 6x messages on Thu 16 Feb at around 1530 ...
+
+
+Ziz: Vassar was talking about you recently approvingly, having read your facebook wall. Something about a war between being able to think and gaslighting.
+Like he named you as one of three fronts the war is playing out on. Jack also seemed to agree. \"Sarah vs Ben, Rob vs Ben Todd, Zack Davis vs the world  Thu Feb 16 2017 16:06:42 GMT-0800
+
+I remember being afraid that the thing that happened to Eliezer and then Scott was going to happen to me, and that it would be bad; I told Ben, "I don't think I want to be the Avatar yet" Thu Feb 16 2017 15:51:32
+
+to Ben: "I'm so sorry; I want to be part of the coalition but I'm so confused; and the fact that I was confused made me say Defect a bunch of time" Fri Feb 17 2017 14:23:53
+
+to Ben: "I thought I got a message from Michael Vassar saying that the main coalitions were you, and Sarah Constantine, and Zack Davis vs. the world" Fri Feb 17 2017 14:30:55 GMT-0800
+
+scared that Orion was going to kill me
+
+to Ben: You can use police cars as Ubers???? Fri Feb 17 2017 15:19:59 GMT-0800
+
+/2017/Mar/fresh-princess/
+/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/
+
+]
+
+You gave me hot chocolate last night, right? I was worried that you were subconsciously poisoning me; not on purpose, but because there are just a lot of contaminants in cities; things that taste sweet to children but are actually poisonous; but, Anna said that most events are normal; I don't remember that note"
+
+meeting Katie—
+
+Sun Jan 15 2017 08:35:40 
+Folks, I'm not sure it's feasible to have an intellectually-honest real-name public conversation about the etiology of MtF. If no one is willing to mention some of the key relevant facts, maybe it's less misleading to just say nothing.\"",
+
+He was always more emotionally tentative and less comfortable with the standard gender role and status stuff"
+But in the way of like, a geeky nerd guy
+Not in the way of someone feminine
+The only thing I knew about it at the point we got married was that he thought it was fun to go in drag sometimes
+Like Halloween
+
+And he thought feminization kink was fun
+Like me making him dress up?  But he said it was about humiliation
+We didn't even do it more than a handful of times, it wasn't really my thing
+Nothing in my experience ever caused me to think he was trans
+
+"He talked about being a child always feeling out of place
+"But out of place seemed like because he was shy and anxious
+He said he was convinced his anxiety and social problems was *because* he was trans
+
+Spencer seemed much less happy to me after admitting to want transition, often crying about how ugly his body was
+
+because it basically amounts to, \"You rebuilt your entire life around your perverted narcissistic fantasy and didn't even notice\
+like, there's no nice way to say that
+
+My taxon, right or wrong; if right, to be kept right; and if wrong, to be set right.\
+
+all those transwomen are going to be so embarrassed when the FAI gives us telepathy after the Singularity
+and it turns out that what actual women feel as _absolutely nothing to do_ with what AGP fantasy feels like
+
+Holy shit, this is *exactly* what happened with me
+Katie's comment on https://sillyolme.wordpress.com/advice-for-wivesgirlfriends-of-autogynephiles/
+
+
+Tue Feb 14 2017 11:26:20 (this conversation was actually during the tantrum)—
+K: I really *was* getting to the point that I hated transwomen
+Z: I hate them, too!
+Z: Fuck those guys!
+K: I hated what happened to my husband, I hate the insistence that I use the right pronouns and ignore my senses, I hate the takeover of women's spaces, I hate the presumption that they know what a woman's life is like, I was *getting* to the point that I deeply hated them, and saw them as the enemy
+K: But you're actually changing that for me
+K: You're reconnecting me with my natural compassion
+K: To people who are struggling and have things that are hard
+K: It's just that, the way they think things is hard is not the way I actually think it is anymore
+Z: the \"suffering\" is mostly game-theoretic victimhood-culture
+K: You've made me hate transwomen *less* now
+K: Because I have a model
+K: I understand the problem
+[...]
+K: I understand why it's hard
+K: I feel like I can forgive it, to the extent that forgiveness is mine to give
+K: This is a better thing for me
+I did not *want* to be a hateful person",
+I did not want to take seeming good people as an enemy in my head, while trying to be friends with them in public
+I think now I can do it more honestly
+They might not want *me* as a friend
+But now I feel less threatened and confused and insulted
+And that has dissolved the hatred that was starting to take root
+I'm very grateful for that
+
+https://www.lesswrong.com/posts/ZEgQGAjQm5rTAnGuM/beware-boasting-about-non-existent-forecasting-track-records
+
+In a discussion on criticism of EA by outsiders, Lorelei spontaneously (not prompted by me) mentioned the difference between when fellow trans women called themselves AGP, vs. actual Blanchardians. This is a conspiracy!! (The ingroup is allowed to notice things, but when other people notice, deny everything. Compare Michael Anton on "celebration parallax."
+
+https://www.lesswrong.com/tag/criticisms-of-the-rationalist-movement
+
+> possible that 2022 is the year where we start Final Descent and by 2024 it's over
+https://www.lesswrong.com/posts/7MCqRnZzvszsxgtJi/christiano-cotra-and-yudkowsky-on-ai-progress?commentId=iKEuFQg7HZatoebps