memoir: finish email review
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index db20b4d..59c6b63 100644 (file)
@@ -1,50 +1,48 @@
+editing tier—
+_ better explanation of posse formation
+_ Emperor Norton ordered Hayes executed
+_ address the "maybe it's good to be called names" point from "Hill" thread
+_ maybe quote Michael's Nov 2018 texts?
+_ the right way to explain how I'm respecting Yudkowsky's privacy
+_ clarify sequence of outreach attempts
+_ clarify existence of a shadow posse member
+_ mention Nov. 2018 conversation with Ian somehow
+_ Said on Yudkowsky's retreat to Facebook being bad for him
+_ Discord discourse with Alicorner
+_ screenshot Rob's Facebook comment which I link
+_ explain first use of Center for Applied Rationality
+_ erasing agency of Michael's friends, construed as a pawn
+_ Anna thought badmouthing Michael was OK by Michael's standards
+
+people to consult before publishing, for feedback or right of objection—
+_ Iceman
+_ Ben/Jessica
+_ Scott
+_ Anna
+_ secret posse member
+_ someone from Alicorner #drama as a hostile prereader
+(probably don't bother with Michael?)
+
+
+-------
 
 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
 
-
 https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
-
-
-So, a striking thing about my series of increasingly frustrating private conversations and subsequent public Facebook meltdown (the stress from which soon landed me in psychiatric jail, but that's [another](/2017/Mar/fresh-princess/) [story](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)) was the tendency for some threads of conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander, the _second_ most prominent writer in our robot cult.
-
-So, this _really_ wasn't what I was trying to talk about; _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory in psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—not just as a formal profession of modesty, but _actually_ wrong in the real world.
-
-But this "I can define the word _woman_ any way I want" mind game? _That_ part was _absolutely_ clear-cut. That part of the argument, I knew I could win. [We had a whole Sequence about this](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) back in 'aught-eight, in which Yudkowsky pounded home this _exact_ point _over and over and over again_, that word and category definitions are _not_ arbitrary, because there are criteria that make some definitions _perform better_ than others as "cognitive technology"—
-
-> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
-
-> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
-
-> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
-
-> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
-
-> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
-
-> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
-
-> ["And people are lazy.  They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
-
-> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
-
-> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
-
-> ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
-
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
 Scott has written exhaustively about the dangers of strategic equivocation ("Worst Argument", "Brick in the Motte"); insofar as I can get a _coherent_ posiiton out of the conjunction of "... for the Categories" and Scott's other work, it's that he must think strategic equivocation is OK if it's for being nice to people
 https://slatestarcodex.com/2019/07/16/against-lie-inflation/
 ]
 
-So, because I trusted people in my robot cult to be dealing in good faith rather than fucking with me because of their political incentives, I took the bait. I ended up spending three years of my life re-explaining the relevant philosophy-of-language issues in exhaustive, _exhaustive_ detail.
+I ended up spending three years of my life re-explaining the relevant philosophy-of-language issues in exhaustive, _exhaustive_ detail.
 
 At first I did this in the object-level context of gender on this blog, in ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), and the ["Reply on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/). And that would have been the end of the philosophy-of-language track specifically ...
 
 Later, after [Eliezer Yudkowsky joined in the mind games on Twitter in November 2018](https://twitter.com/ESYudkowsky/status/1067183500216811521) [(archived)](https://archive.is/ChqYX), I _flipped the fuck out_, and ended up doing more [stictly abstract philosophy-of-language work](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [on](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) [the](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception) [robot](https://www.lesswrong.com/posts/4hLcbXaqudM9wSeor/philosophy-in-the-darkest-timeline-basics-of-the-evolution)-[cult](https://www.lesswrong.com/posts/YptSN8riyXJjJ8Qp8/maybe-lying-can-t-exist) [blog](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception).
 
-An important thing to appreciate is that the philosophical point I was trying to make has _absolutely nothing to do with gender_. In 2008, Yudkowsky had explained that _for all_ nouns N, you can't define _N_ any way you want, because _useful_ definitions need to "carve reality at the joints."
+_for all_ nouns N, you can't define _N_ any way you want, because _useful_ definitions need to "carve reality at the joints."
 
 It [_follows logically_](https://www.lesswrong.com/posts/WQFioaudEH8R7fyhm/local-validity-as-a-key-to-sanity-and-civilization) that, in particular, if _N_ := "woman", you can't define the word _woman_ any way you want. Maybe trans women _are_ women! But if so—that is, if you want people to agree to that word usage—you need to be able to _argue_ for why that usage makes sense on the empirical merits; you can't just _define_ it to be true. And this is a _general_ principle of how language works, not something I made up on the spot in order to attack trans people.
 
@@ -152,8 +150,6 @@ I'm trying to _get the theory right_. My main victory condition is getting the t
 
 It worked once, right?
 
-(Picture me playing Hermione Granger in a post-Singularity [holonovel](https://memory-alpha.fandom.com/wiki/Holo-novel_program) adaptation of _Harry Potter and the Methods of Rationality_ (Emma Watson having charged me [the standard licensing fee](/2019/Dec/comp/) to use a copy of her body for the occasion): "[We can do anything if we](https://www.hpmor.com/chapter/30) exert arbitrarily large amounts of [interpretive labor](https://acesounderglass.com/2015/06/09/interpretive-labor/)!")
-
 > An extreme case in point of "handwringing about the Overton Window in fact constituted the Overton Window's implementation"
 OK, now apply that to your Kolomogorov cowardice
 https://twitter.com/ESYudkowsky/status/1373004525481598978
@@ -171,6 +167,10 @@ http://www.hpmor.com/chapter/47
 https://www.hpmor.com/chapter/97
 > one technique was to look at what _ended up_ happening, assume it was the _intended_ result, and ask who benefited.
 
+> This about dath ilani, they are trained in a theory of social deception that says that people can arrange reasons, excuses, for anything, and so at the end of it all you look at what happened and try to build an explanation around that alone.
+https://www.glowfic.com/replies/1820866#reply-1820866
+
+
 
 > At least, I have a MASSIVE home territory advantage because I can appeal to Eliezer's writings from 10 years ago, and ppl can't say "Eliezer who? He's probably a bad man"
 
@@ -238,6 +238,7 @@ I got a pingback to "Optimized Propaganda" from in an "EDIT 5/21/2021" on https:
 
 https://slatestarcodex.com/2020/02/10/autogenderphilia-is-common-and-not-especially-related-to-transgender/
 
+https://twitter.com/HiFromMichaelV/status/1221771020534788098
 "Rationalism starts with the belief that arguments aren't soldiers, and ends with the belief that soldiers are arguments."
 
 The Eliezer Yudkowsky I remember wrote about [how facts are tightly-woven together in the Great Web of Causality](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies), such that [people who are trying to believe something false have an incentive to invent and spread fake epistemology lessons](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology), and about the [high competence threshold that _forces_ correct conclusions](http://sl4.org/archive/0602/13903.html).
@@ -253,11 +254,9 @@ twenty-one month Category War is as long as it took to write the Sequences https
 
 I'm worried about the failure mode where bright young minds [lured in](http://benjaminrosshoffman.com/construction-beacons/) by the beautiful propaganda about _systematically correct reasoning_, are instead recruited into what is, effectively, the Eliezer-Yudkowsky-and-Scott-Alexander fan club.
 
->  I'm not trying to get Eliezer or "the community" to take a public stance on gender politics; I'm trying to get us to take a stance in favor of the kind of epistemology that we were doing in 2008. It turns out that epistemology has implications for gender politics which are unsafe, but that's more inferential steps, and ... I guess I just don't expect the sort of people who would punish good epistemology to follow the inferential steps? Maybe I'm living in the should-universe a bit here, but I don't think it "should" be hard for Eliezer to publicly say, "Yep, categories aren't arbitrary because you need them to carve reality at the joints in order to make probabilistic inferences, just like I said in 2008; this is obvious."
+> I'm not trying to get Eliezer or "the community" to take a public stance on gender politics; I'm trying to get us to take a stance in favor of the kind of epistemology that we were doing in 2008. It turns out that epistemology has implications for gender politics which are unsafe, but that's more inferential steps, and ... I guess I just don't expect the sort of people who would punish good epistemology to follow the inferential steps? Maybe I'm living in the should-universe a bit here, but I don't think it "should" be hard for Eliezer to publicly say, "Yep, categories aren't arbitrary because you need them to carve reality at the joints in order to make probabilistic inferences, just like I said in 2008; this is obvious."
 
-Scott got a lot of pushback just for including the blog that I showed him in a links post (Times have changed! BBL is locally quasi-mainstream after Ozy engaged)
-https://slatestarcodex.com/2016/11/01/links-1116-site-unseen/
-https://slatestarscratchpad.tumblr.com/post/152736458066/hey-scott-im-a-bit-of-a-fan-of-yours-and-i
+(Times have changed! BBL is locally quasi-mainstream after Ozy engaged)
 
 
 It's weird that he thinks telling the truth is politically impossible, because the specific truths I'm focused on are things he _already said_, that anyone could just look up. I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather (a reader points out) the egregore has no reason to care about the past; if you get tagged as an enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009
@@ -293,8 +292,10 @@ https://distill.pub/2021/multimodal-neurons/
 
 https://www.jefftk.com/p/an-update-on-gendered-pronouns
 
-> Still think this was a perfectly fine tweet btw.  Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on.  Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
+> Still think this was a perfectly fine tweet btw. Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on. Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
 https://twitter.com/ESYudkowsky/status/1356535300986523648
+
+
 If you were actually HONESTLY tring to narrow it, you would have said, "By the way, this is just about pronouns, I'm not taking a position on whether trans women are women"
 
 https://www.gingersoftware.com/content/grammar-rules/adjectives/order-of-adjectives/
@@ -326,7 +327,7 @@ Scott has so many fans—
 https://jasoncrawford.org/guide-to-scott-alexander-and-slate-star-codex
 https://nothingismere.com/2015/09/12/library-of-scott-alexandria/
 https://guzey.com/favorite/slate-star-codex/
-"Index of Yvain's excellent articles"
+https://www.lesswrong.com/posts/xaLHeoRPdb9oQgDEy/index-of-yvain-s-excellent-articles
 
 Nate on dolphins (June 2021)—a dogwhistle??
 https://twitter.com/So8res/status/1401670792409014273
@@ -365,18 +366,42 @@ Robert Stadler
 
 ----------
 
-https://www.glowfic.com/posts/4508?page=14
-> Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves. 
+In [one of Yudkowsky's roleplaying fiction threads](https://www.glowfic.com/posts/4508), Thellim, a woman hailing from [a saner alternate version of Earth called dath ilan](https://www.lesswrong.com/tag/dath-ilan), [expresses horror and disgust at how shallow and superficial the characters in _Pride and Prejudice_ are, in contrast to what a human being _should_ be](https://www.glowfic.com/replies/1592898#reply-1592898):
+
+> [...] the author has made zero attempt to even try to depict Earthlings as having reflection, self-observation, a fire of inner life; most characters in _Pride and Prejudice_ bear the same relationship to human minds as a stick figure bears to a photograph. People, among other things, have the property of trying to be people; the characters in Pride and Prejudice have no visible such aspiration. Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves. [TODO: continue the quote to the part about Verrez self-awareness]
+
+When someone else doesn't see the problem with Jane Austen's characters, Thellim [redoubles her determination to explain the problem](https://www.glowfic.com/replies/1592987#reply-1592987): "_She is not giving up that easily. Not on an entire planet full of people._"
+
+Thellim's horror at the fictional world of Jane Austen is basically how I feel about trans culture. It _actively discourages self-modeling!_ People who have cross-sex fantasies are encouraged to reify them into an gender identity which everyone else is supposed to unquestioningly accept. Obvious critical questions about what's actually going on etiologically, what it means for an identity to be true, _&c._ are strongly discouraged as hateful, hurtful, distressing, _&c._
+
+The problem is _not_ that I think there's anything wrong with having cross-sex fantasies, and wanting the fantasy to be real—just as Thellim's problem with _Pride and Prejudice_ is not there being anything wrong with wanting to marry a suitable bachelor. These are perfectly respectable goals.
+
+The _problem_ is that people who are trying to be people, people who are trying to acheive their goals _in reality_, do so in a way involves having concepts of their own minds, and trying to improve both their self-models and their selves—and that's _not possible_ in a culture that tries to ban, as heresy, the idea that it's possible for someone's self-model to be wrong.
+
+A trans woman I follow on Twitter complained that a receptionist at her workplace said she looked like a male celebrity. "I'm so mad," she fumed. "I look like this right now"—there was a photo attached to the Tweet—"how could anyone ever think that was an okay thing to say?"
+
+It _is_ genuinely sad that the author of those Tweets didn't get perceived the way she would prefer! But the thing I want her to understand, a thing I think any sane adult should understand—
+
+_It was a compliment!_ That poor receptionist was almost certainly thinking of [David Bowie](https://en.wikipedia.org/wiki/David_Bowie) or [Eddie Izzard](https://en.wikipedia.org/wiki/Eddie_Izzard), rather than being hateful and trying to hurt. [TODO: echo the Verrez self-awareness phrasing]
 
-There's a glowfic thread where Thellim is _horrified_ at how shallow and superficial Jane Austen characters are, in contrast to what a human being _should_ be: "Real people have concepts of their own minds, and contemplate their prior ideas of themselves in relation to a continually observed flow of their actual thoughts, and try to improve both their self-models and their selves."
+I want a shared cultural understanding that the _correct_ way to ameliorate the genuine sadness of people not being perceived the way they prefer is through things like _better and cheaper facial feminization surgery_, not _[emotionally blackmailing](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/) people out of their ability to report what they see_. I don't _want_ to reliniqush [my ability to notice what women's faces look like](/papers/bruce_et_al-sex_discrimination_how_do_we_tell.pdf), even if that means noticing that mine isn't; if I'm sad that it isn't, I can endure the sadness if the alternative is _forcing everyone in my life to doublethink around their perceptions of me_.
 
-This horror is basically how I feel about trans culture. It actively discourages self-modeling! (People who have cross-sex fantasies are encouraged to reify them into an gender identity which everyone else is supposed to unquestioningly accept. Politically-unfavorable critical questions about what's actually going on etiologically, what it means for an identity to be true, _&c._ are strongly discouraged as hateful, hurtful, distressing, _&c._)
+In a world where surgery is expensive, but some people desperately want to change sex and other people want to be nice to them, there's an incentive gradient in the direction of re-binding our shared concept of "gender" onto things like [ornamental clothing](http://thetranswidow.com/2021/02/18/womens-clothing-is-always-drag-even-on-women/) that are easier to change than secondary sex characteristics.
 
-https://www.glowfic.com/posts/4508?page=20
+But I would have expected people with the barest inkling of self-awareness and honesty to ... notice the incentives, and notice the problems being created by the incentives, and to talk about the problems in public so that we can coordinate on the best solution?
 
-_She is not giving up that easily.  Not on an entire planet full of people._
+And if that's too much to accept of the general public—
 
-https://www.glowfic.com/posts/4508?page=21
+And it's too much to expect of garden-variety "rationalists" to figure out on their own without prompting from their betters—
+
+Then I would have at least hoped Eliezer Yudkowsky to be _in favor of_ rather than _against_ his faithful students having these very basic capabilities for reflection, self-observation, and ... _speech_?
+
+[in the context of elite Anglosphere culture in 2016–2022; it should be clear that defenders of reason need to be able to push back and assert that biological sex is real; other science communicators like Dawkins (https://www.theguardian.com/books/2021/apr/20/richard-dawkins-loses-humanist-of-the-year-trans-comments) and Jerry Coyne (https://whyevolutionistrue.com/2018/12/11/once-again-why-sex-is-binary/) can see it]
+
+----------
+
+[TODO: David Xu's postrat]
+And the thing where David Xu interprets criticism of Eliezer as me going "full post-rat"?! https://twitter.com/davidxu90/status/1435106339550740482
 
 
 -----------
@@ -399,12 +424,13 @@ back in 'aught-nine, Anna commented that no one in our circle was that old, as i
 
 > I suspect Scott is calling the wrong side monastic, though - we basically believe it can be done by lay people, he doesn't. I'll be pleasantly surprised if he gets the sides right, though.
 
-Dawkins and Dennett have joined the intellectual gender-ID skeptics; shame that Yudkowsky can't reach that level
-
 • at least Sabbatai Zevi had an excuse: his choices were to convert to Islam or be impaled https://en.wikipedia.org/wiki/Sabbatai_Zevi#Conversion_to_Islam
 
 Really, self-respecting trans people who care about logical consistency should abhor Scott and Eliezer's opinions—you should want people to use the right pronouns _because_ of your gender soul or _because_ your transition actually worked, not because categories are flexible and pronouns shouldn't imply gender
 
+https://twitter.com/ESYudkowsky/status/1435605868758765568
+> Because it was you, I tried to read this when it came out.  But you do not know how to come to a point, because you are too horrified by the thought that a reader might disagree with you if you don't write even more first; so then I started skimming, and then I gave up.
+
 > If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
 https://twitter.com/ESYudkowsky/status/1435618825198731270
 
@@ -412,15 +438,7 @@ But I think Eliezer and I _agree_ on what he's doing; he just doesn't see it's b
 
 Speaking of narcissism and perspective-taking, "deception" isn't about whether you personally "lied" according to your own re-definitions; it's about whether you predictably made others update in the wrong direction
 
-[
-> I have never in my own life tried to persuade anyone to go trans (or not go trans) - I don't imagine myself to understand others that much.
-https://twitter.com/ESYudkowsky/status/1404697716689489921
-
-Tweet said "I've never persuaded anyone to go trans" in light of his track record; is like thinking it's personally prudent and not community-harmful to bash Democrats and praise Republicans. If any possible good thing about Democrats is something you mention that "the other side" would say.  Even if you can truthfully say "I've never _told_ anyone to _vote_ Republican", you shouldn't be surprised if people regard you as a Republican shill ; the "30% of the ones with penises" proclamation sort of was encouraging it, really!
-
 
-https://twitter.com/ESYudkowsky/status/1404821285276774403
-> It is not trans-specific.  When people tell me I helped them, I mostly believe them and am happy.
 
 I really appreciated Anatoly Vorobey's comments:
 
@@ -430,11 +448,6 @@ I really appreciated Anatoly Vorobey's comments:
 
 > ...(then twitter dogma of the time, and now almost the blue tribe dogma of our time)... that I can understand how someone like Zack, embedded in the rat culture physically and struggling with this reigning ideology, could feel it as gaslighting.
 
-]
-
-https://www.facebook.com/yudkowsky/posts/10154110278349228
-> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
-> ==DOES ALL OF THE HAPPY DANCE FOREVER==
 
 
 https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
@@ -451,7 +464,6 @@ https://www.facebook.com/algekalipso/posts/4769054639853322?comment_id=477040850
 > recursively cloning Scott Alexander—with promising allelic variations - and hothousing the “products” could create a community of super-Scotts with even greater intellectual firepower
 
 https://twitter.com/ESYudkowsky/status/1434906470248636419
-
 > Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
 
 Okay, I get that it was meant as humorous exaggeration. But I think it still has the effect of discouraging people from criticizing Scott or Eliezer because they're the leaders of the caliphate. I spent three and a half years of my life explaining in exhaustive, exhaustive detail, with math, how Scott was wrong about something, no one serious actually disagrees, and Eliezer is still using his social power to boost Scott's right-about-everything (!!) reputation. That seems really unfair, in a way that isn't dulled by "it was just a joke."
@@ -473,11 +485,8 @@ Respect needs to be updateable. No one can think fast enough to think all their
 
 I think it's a problem for our collective epistemology that Scott has the power to sneeze his mistakes onto everyone else—that our 2021 beliefs about dolphins (literally, dolphins in particular!) is causally downstream of Scott's political incentives in 2014, even if Scott wasn't consciously lying and Nate wasn't thinking about gender politics. I think this is the problem that Eliezer identified as dark side epistemology: people invent fake epistemology lessons to force a conclusion that they can't get on the merits, and the fake lessons can spread, even if the meme-recipients aren't trying to force anything themselves. I would have expected people with cultural power to be interested in correcting the problem once it was pointed out.
 
-And the thing where David Xu interprets criticism of Eliezer as me going "full post-rat"?! https://twitter.com/davidxu90/status/1435106339550740482
-
 https://twitter.com/esyudkowsky/status/1374161729073020937
-
-> Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements.  There are a *lot* of good reasons to have "no comments" about things.  Anybody who tells you otherwise has no life experience, or is lying.
+> Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements. There are a *lot* of good reasons to have "no comments" about things. Anybody who tells you otherwise has no life experience, or is lying.
 
 "Speak out in order to make it clear how not alt-right you are; nothing wrong with that because I'm not lying" is being inconsistent about whether signaling and mood-affiliation matters—it's trying to socially profit by signaling pro-Stalin-ness, while simultaneously denying that anyone could object (because you didn't lie—pivoting to a worldview where only literal meanings matter and signals aren't real). Can I sketch this out mathematically?
 
@@ -490,61 +499,11 @@ https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wron
 > The act of defining a word to refer to all humans, except black people, seems kind of suspicious.
 That's not the only implication on race of the philosophy of categorization—actually, I'm going to bite the bullet here; "Eurasian" is actually fine as a paraphyletic category (and @CovfefeAnon uses it productively)
 
-And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"), but when you read the text that was actually published at the time, parts of it are hard to read as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity.
-
-[For example](https://twitter.com/ESYudkowsky/status/1067490362225156096):
-
-> The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
-
-Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
-
-Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
-
-But the _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different.
-
-[TODO: (clean up and consolidate the case here after reading the TW-in-sports articles)
+And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"),
 
-The "multivariate" part is important, because
-
-Different traits have different relevance to different sports; the fact that it's apples-to-oranges is _why_ women do better in ultraswimming—that competition is sampling a corner of sportspace where body fat is an advantage
-
-It's not that females and males are exactly the same except males are 10% stronger on average
-
-It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight"
-
-https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
-https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
-
-If you just had one integrated league, females wouldn't be competitive (in almost all sports, with some exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/)).
-
-]
-
-Given the empirical reality of the different multivariate trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine.
-
-(Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
-
-Including males people in female sports leagues undermines the point of having a separate female league. 
-
-[TODO: more sentences explaining why HRT doesn't break taxonicity of sex, and why "gender identity" is a much less plausible joint anyway]
-
-[TODO: sentences about studies showing that HRT doesn't erase male advantage
-https://twitter.com/FondOfBeetles/status/1368176581965930501
-https://link.springer.com/article/10.1007/s40279-020-01389-3
-https://bjsm.bmj.com/content/55/15/865
-]
-
-[TODO sentences about Lia Thomas and Cece Tefler  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's feats occured after Yudkowsky's 2018 Tweets, but this kind of thing was easily predictable to anyone familiar with sex differences)
-https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
-https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
-https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
-https://www.swimmingworldmagazine.com/news/a-look-at-the-numbers-and-times-no-denying-the-advantages-of-lia-thomas/
-]
 
-In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
 
-Yudkowsky's pretension to merely have been standing up for the distinction between facts and policy questions isn't credible: if you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
 
-(And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
 
 when worrying about the future and what I should do about it, I find myself more concerned with whether Eliezer would disapprove rather than the everyone-dying part
 
@@ -558,7 +517,7 @@ If Yudkowsky is obviously playing dumb (consciously or not) and his comments can
 
 Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
 
-> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. [...]
+> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. That is, in the logical counterfactual universe where I knew of very strong arguments against freedom of pronouns, I would have probably stayed silent on the issue, as would many other high-profile community members, and only Zack M. Davis would have said anything where you could hear it.
 >
 > This is a filter affecting your evidence; it has not to my own knowledge filtered out a giant valid counterargument that invalidates this whole post. I would have kept silent in that case, for to speak then would have been dishonest.
 >
@@ -570,24 +529,43 @@ So, the explanation of [the problem of political censorship filtering evidence](
 
 Really, it would be _less_ embarassing for Yudkowsky if he were outright lying about having tried to think of counterarguments. The original post isn't _that_ bad if you assume that Yudkowsky was writing off the cuff, that he clearly just _didn't put any effort whatsoever_ into thinking about why someone might disagree. If he _did_ put in the effort—enough that he felt comfortable bragging about his ability to see the other side of the argument—and _still_ ended up proclaiming his "simplest and best protocol" without even so much as _mentioning_ any of its incredibly obvious costs ... that's just _pathetic_. If Yudkowsky's ability to explore the space of arguments is _that_ bad, why would you trust his opinion about _anything_?
 
+But perhaps it's premature to judge Yudkowsky without appreciating what tight constraints he labors under. The disclaimer comment mentions "speakable and unspeakable arguments"—but what, exactly, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421871809228):
 
-... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it feels still necessary relative to everything else I need to get around to writing. (It's not actually a very interesting story; I just need to get it out of my system so I can stop grieving and move on with my life.)
+> People might be able to speak that. A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
 
-I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
+(As an aside, the wording of "we might well hear about it from _the other side_" (emphasis mine) is _very_ interesting, suggesting that the so-called "rationalist" community, is, effectively, a partisan institution, despite its claims to be about advancing the generically human art of systematically correct reasoning.)
+I think (a) and (b) _as stated_ are clearly false, so "we" (who?) fortunately aren't losing much by allegedly not being able to speak them. But what about some _similar_ hypotheses, that might be similarly unspeakable for similar reasons?
 
-You see, back in the 'aughts when Yudkowsky was writing his Sequences, he occasionally said some things about sex differences that I often found offensive at the time, but which ended up being hugely influential on me, especially in the context of my ideological denial of psychological sex differences and my secret lifelong-since-puberty erotic fantasy about being magically transformed into a woman. I wrote about this at length in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)].
+Instead of (a), consider the claim that (a′) self-reports about gender dysphoria are substantially distorted by [socially-desirable responding tendencies](https://en.wikipedia.org/wiki/Social-desirability_bias)—as a notable and common example, heterosexual males with [sexual fantasies about being female](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html) [often falsely deny or minimize the erotic dimension of their desire to change sex](/papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf) (The idea that self-reports can be motivatedly inaccurate without the subject consciously "lying" should not be novel to someone who co-blogged with [Robin Hanson](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain) for years!)
 
-In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains that "changing sex" is vastly easier said than done—
+And instead of (b), consider the claim that (b′) transitioning is socially rewarded within particular _subcultures_ (although not Society as a whole), such that many of the same people wouldn't think of themselves as trans or even gender-dysphoric if they lived in a different subculture.
 
-[[[ TODO summarize the Whole Dumb Story (does there need to be a separate post? I'm still not sure)
+I claim that (a′) and (b′) are _overwhelmingly likely to be true_. Can "we" talk about _that_? Are (a′) and (b′) "speakable", or not?
 
-[TODO: But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
+We're unlikely to get clarification from Yudkowsky, but based on my experiences with the so-called "rationalist" community over the past coming-up-on-six years—I'm going to _guess_ that the answer is broadly No: no, "we" can't talk about that.
 
-_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
+But if I'm right that (a′) and (b′) should be live hypotheses and that Yudkowsky would consider them "unspeakable", that means "we" can't talk about what's _actually going on_ with gender dysphoria and transsexuality, which puts the whole discussion in a different light. In another comment, Yudkowsky lists some gender-transition interventions he named in [a November 2018 Twitter thread](https://twitter.com/ESYudkowsky/status/1067183500216811521) that was the precursor to the present discussion—using a different bathroom, changing one's name, asking for new pronouns, and getting sex reassignment surgery—and notes that none of these are calling oneself a "woman". [He continues](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159424960909228):
+
+> [Calling someone a "woman"] _is_ closer to the right sort of thing _ontologically_ to be true or false. More relevant to the current thread, now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to _debate_ whether this sentence is indeed true or false, and have people express their nuanced opinions by uttering this sentence, or perhaps a more complicated sentence using a bunch of caveats, or maybe using the original sentence uncaveated to express their belief that this is a bad place for caveats. Policies about who uses what bathroom also have consequences and we can debate the goodness or badness (not truth or falsity) of those policies, and utter sentences to declare our nuanced or non-nuanced position before or after that debate.
+>
+> Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
+
+Sure, _if we were in the position of designing a constructed language from scratch_ under current social conditions in which a person's "gender" is a contested social construct, rather than their sex an objective and undisputed fact, then yeah: in that situation _which we are not in_, you definitely wouldn't want to pack sex or gender into pronouns. But it's a disingenuous derailing tactic to grandstand about how people need to alter the semantics of their _already existing_ native language so that we can discuss the real issues under an allegedly superior pronoun convention when, _by your own admission_, you have _no intention whatsoever of discussing the real issues!_
+
+(Lest the "by your own admission" clause seem too accusatory, I should note that given constant behavior, admitting it is _much_ better than not-admitting it; so, huge thanks to Yudkowsky for the transparency on this point!)
 
-[So I ended up arguing with people about the two-type taxonomy, and I noticed that those discussions kept getting _derailed_ on some variation of "The word woman doesn't actually mean that". So I took the bait, and starting arguing against that, and then Yudkowsky comes back to the subject with his "Hill of Validity in Defense of Meaning"—and I go on a philosophy of language crusade, and Yudkowsky eventually clarifies, and _then_ he comes back _again_ in Feb. 2022 with his "simplest and best protocol"]
+Again, as discussed in "Challenges to Yudkowsky's Pronoun Reform Proposal", a comparison to [the _tú_/_usted_ distinction](https://en.wikipedia.org/wiki/Spanish_personal_pronouns#T%C3%BA/vos_and_usted) is instructive. It's one thing to advocate for collapsing the distinction and just settling on one second-person singular pronoun for the Spanish language. That's principled.
 
-]]]
+It's quite another thing altogether to _simultaneously_ try to prevent a speaker from using _tú_ to indicate disrespect towards a social superior (on the stated rationale that the _tú_/_usted_ distinction is dumb and shouldn't exist), while _also_ refusing to entertain or address the speaker's arguments explaining _why_ they think their interlocutor is unworthy of the deference that would be implied by _usted_ (because such arguments are "unspeakable" for political reasons). That's just psychologically abusive.
+
+If Yudkowsky _actually_ possessed (and felt motivated to use) the "ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking", it would be _obvious_ to him that "Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" isn't the hill anyone would care about dying on if it weren't a Schelling point. A lot of TERF-adjacent folk would be _overjoyed_ to concede the (boring, insubstantial) matter of pronouns as a trivial courtesy if it meant getting to _actually_ address their real concerns of "Biological Sex Actually Exists", and ["Biological Sex Cannot Be Changed With Existing or Foreseeable Technology"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and "Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity." The reason so many of them are inclined to stand their ground and not even offer the trivial courtesy is because they suspect, correctly, that the matter of pronouns is being used as a rhetorical wedge to try to prevent people from talking or thinking about sex.
+
+---------
+
+I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
+
+_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
 
 At this point, the nature of the game is very clear. Yudkowsky wants to make sure he's on peaceful terms with the progressive _Zeitgeist_, subject to the constraint of not saying anything he knows to be false. Meanwhile, I want to actually make sense of what's actually going on in the world as regards sex and gender, because _I need the correct answer to decide whether or not to cut my dick off_.
 
@@ -661,6 +639,8 @@ congrats after Whale and Sawyer chimed in: https://twitter.com/ESYudkowsky/statu
 https://twitter.com/ESYudkowsky/status/1404700330927923206
 > That is: there's a story here where not just particular people hounding Zack as a responsive target, but a whole larger group, are engaged in a dark conspiracy that is all about doing damage on issues legible to Zack and important to Zack.  This is merely implausible on priors.
 
+the "It is sometimes personally prudent to be seen to agree with Stalin" attitude behaves like a conspiracy, even if 
+
 I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378/
 
 > Admitting something when being pushed a little, but never thinking it spontaneously and hence having those thoughts absent from your own thought processes, remains not sane.
@@ -668,10 +648,13 @@ https://twitter.com/ESYudkowsky/status/1501218503990431745
 
 playing on a different chessboard—I would be fine with it if he didn't shit on my chessboard. But my shitting on his chessboard
 
+I could forgive him for taking a shit on d4 of my chessboard ("at least 20% of the ones with penises are actually women"). I could even forgive him for subsequently taking a shit on e4 of my chessboard ([TODO linky-quotey not standing in defense of truth]) as long as he wiped most of the shit off afterwards ([TODO linky-quotey clarification]), even though, really, I would have expected someone so smart to take a hint after the incident on d4. But if he's _then_ going to take a shit on c3 of my chessboard ([TODO linkey-quotey normative meaning of 'he']) ... at _that_ point, it's hard for me to consider him as neutrally playing on a different chessboard, rather than actively trying to shit on mine; the turd on c3 is a pretty big likelihood ratio in favor of the latter hypothesis.
+
+
 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
 
-> Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is - aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences - committed not to Eliezer's insights but to exaggerated versions of his blind spots.
+> Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
 
 > The people who aren't doing that mostly aren't participating in the LessWrong identity, but while factions like that are hostile to the confused people who behave as though they're part of a community trying to become less wrong, such factions are also parasitic on such people, claiming credit for their intellectual contributions. When such participation is fully extinguished, the group begins to decay, having nothing distinctive to offer, unless it has become too big to fail, in which case it's just another component of one political faction or another.
 
@@ -683,8 +666,6 @@ https://scottaaronson.blog/?p=5310
 
 contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard, you don't take it lying down
 
-postyud
-
 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
 
 maybe he should have some sympathy for Stephen J. Gould's intellectual crimes
@@ -748,4 +729,437 @@ https://www.glowfic.com/replies/1801140#reply-1801140
 > When somebody stops coordinating with you, stop coordinating with them.  It's not 'punishment' to Defect against somebody who's Defecting against you, in a cooperation-defection dilemma; you're just withdrawing the Cooperation you were trying to coordinate with them
 https://www.glowfic.com/replies/1801374#reply-1801374
 
-Scott thinks open notes are dumb: https://www.reddit.com/r/slatestarcodex/comments/jia4ox/has_scott_written_about_this_im_curious_what_his/ga6vhke/
+I joined the "Eliezerfic" server in spite of my enmity, and JoshTriplett is in there (contrary to my gut instinct that Rust peeps hate my rationalist peeps)
+
+The cowardice is remarkable, coming from someone who otherwise
+
+jbeshir
+> I have a writer/author friend, they had a problem a couple or so times with people who get really really into the work and community, then in their mind got disappointed in some way- and that investments converts at a surprisingly high exchange rate directly into investment in making your life worse. It... happens.
+—this makes a callout post or Twitter thread seem less appealing
+
+
+[previously, I had felt guilty about being less successfully feminst than Robby https://nothingismere.com/2013/12/26/union-names-objections-and-replies/]
+[internet pharmacy]
+
+
+> whereas I could imagine reading almost the same post on sneerclub and turning into a prickle about it
+response—
+> me when other trans girls call themselves and me AGP vs when genuine Blanchardians do
+
+In a discussion on criticism of EA by outsiders, someone spontaneously (not prompted by me) mentioned the difference between when fellow trans women called themselves AGP, vs. actual Blanchardians. This is a conspiracy!! (The ingroup is allowed to notice things, but when other people notice, deny everything. Compare Michael Anton on "celebration parallax."]
+
+https://www.clearerthinking.org/post/understanding-relationship-conflicts-clashing-trauma
+
+postyud; Yudkowskyism without Yudkowsky
+
+if you know Reality is red, blue, or green, and I know Reality is red but am trying to maximize the probability you assign to green, I can truthfully say "it's not blue"
+
+Gell-Mann amnesia
+
+EY's commenting guidelines
+
+> Sneerclub gives him an excuse to just not engage with legitimate criticism
+https://twitter.com/satisfiesvalues/status/1524475059695505409
+
+flu virus that cures Borderer culture
+https://twitter.com/Kenku_Allaryi/status/1524646257976877057
+
+
+https://www.lesswrong.com/tag/criticisms-of-the-rationalist-movement
+
+> possible that 2022 is the year where we start Final Descent and by 2024 it's over
+https://www.lesswrong.com/posts/7MCqRnZzvszsxgtJi/christiano-cotra-and-yudkowsky-on-ai-progress?commentId=iKEuFQg7HZatoebps
+
+> and yeah, when Joanna came out on Facebook Zack messaged her to have a 3-hour debate about it
+> I think no matter how pure his pursuit of knowledge this is actually bad behavior and he should not
+
+Standard excuses—
+"i just don't think that gender is less of a politeness mind-control regime when it doesn't allow people to switch categories"
+biosex actually exists
+also no one cares about that fact of  the matter, unless they want to have sex with someone or are doing a weird ideological thing
+I think you're the ones doing a weird ideological thing
+
+brain: wow, eiko has a deep understanding of straight men for a lesbian! she must be so empathetic
+me: ...
+
+... why validated and not offended??
+Eiko — Today at 8:37 PM
+?_?
+what... would i be... offended by...
+Carrie Zelda-Michelle Davis — Today at 8:38 PM
+The "brain: / me:" thing seems like it should be offensive for the same reason that the phrase-I-said-I-wasn't-going-to-say is offensive
+the language is subtler, but it's gesturing at the same thing
+
+(explanation: I read this as ozy saying they parsed Eiko as a girl so much that they didn't remember she used to be a straight guy)
+
+... I, just, really have trouble emphasizing with this culture where people are allowed to make jokes about the similarities between trans lesbians and straight guys, and as long as you talk in terms of "I thought I was a straight guy", it's all cool, but as soon as someone bites the bullet and says, "Yes, because trans lesbians are straight males, etiologically; you thought correctly", then they're ... marking themselves as not part of the coalition? From my perspective, it just looks like your culture is pro-lying
+
+like if i look at a person and my brain's intuitive instinctive bucketing function goes "girl" and they tell me "i'm a boy actually" does whether that's mind control depend on what genitals the person has??
+Carrie Zelda-Michelle Davis — Today at 10:02 PM
+Yes?
+Omega ω — Today at 10:02 PM
+?????
+
+... people just don't see the ideological bubble they live in! People tell me, "frankly you seem to be deeply unhappy about [being gendered male]", because they're relying on their prior of what trans women need. And having been born in 1987, I just don't share that prior! If you actually listen to the thing I'm been yelling for the last six years, I'm much more unhappy about the culture of mind-control than I am about being male, but people put more weight on their prior than my verbal self-report! I guess I can't blame them on the meta level (I also put more weight on priors that people's self-reports a lot of the time), but it's just—so shocking, that people don't see the thing
+
+I don't actually want to return to the past permanently; I want to first rewind to 2007 or so, and then re-do the trans rights thing but with less 🐛  lying this time, "lying" being my heat-of-the-moment angry word for the thing where the born-in-the-wrong-body story that gets sold to the public is very different from the picture you get when you read what people write about their feelings when the general public isn't looking, and people know it's different, and they go on talking in terms of the standard story anyway, and when you challenge them on none of this stuff being true, they say, "Oh, well, those are just lies to cis people; that doesn't count" (https://thingofthings.wordpress.com/2015/01/27/lies-to-cis-people/) as if lies to cis people weren't still lies
+
+And, just—I think if an alien or an AI or really any normal person outside of this very specific Berkeley 2016– ideological subculture were to try to objectively describe what's actually happening there in the real physical universe, I don't think they would want to talk about a woman born in the wrong body, coping with her tragic dysphoria; I think the alien or AI would talk about a male primate with some kind of brain malfunction in its sexual targeting system causing it to get confused about a self-other distinction, and I think the normal person would talk about a man with a gross, weird fetish who they don't want sharing a locker room with their daughter.
+
+And I just, basically think the alien and the AI and the normal person have the right ontology here? The Berkeley 2016– denizen can come up with a lot of replies ("But cis women also enjoy being women", "But I don't care about someone's private thoughts; I only care about whether they'll come vintage dress shopping with me"), but they all just seem fundamentally unserious to me?
+
+----
+
+Habryka's PalmCone memo mentions there being people whose top priority is to influence you—that's totally what I was doing to Scott and Eliezer
+
+https://www.abc.net.au/news/2014-07-16/melbourne-teenage-mathlete-wins-gold-for-the-second-time-/5602226?nw=0&r=Image
+https://postchimpblog.wordpress.com/2020/03/05/alexs-guide-to-transitioning/
+
+The LW community is a bubble/machine that made me who I am (it doesn't infringe on my independence more than school, but it's still shaping force in the way that going to University or Google shapes people)
+
+https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-dignity-strategy
+> If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
+
+the Extropians post _explicitly_ says "may be a common sexual fantasy"
+> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after  the Singularity.  I would not be surprised to find that it took three  subjective centuries before anyone had grown far enough to attempt a gender switch.
+
+------
+
+If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
+
+> "too many people think it's unvirtuous to shut up and listen to me" I wish I had never written about LDT and just told people to vote for reasons they understand when they're older [TODO full direct quote]
+https://twitter.com/ESYudkowsky/status/1509944888376188929
+
+Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I calim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
+
+To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, the Sequences tell of how Yudkowsky once [TODO: linky] wrote to Judea Pearl to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
+
+[TODO But crucially, "Defer to subject-matter experts" seems like a _different_ moral than "Too many people think it's unvirtuous to shut up and listen Judea Pearl."]
+
+If Yudkowsky is frustrated that people don't defer to him enough _now_, he should remember the only reason he has _any_ people who defer to him _at all_ is _because_ he used to be such a good explainer who actually argued for things.
+
+[TODO: if he had never spoken of TDT, why _should_ they trust him about voting?!]
+
+[TODO That trust is a _finite resource_. Zvi Mowshowitz  claims the condescension is important information, which is why it's such a betrayal when he uses the condesension to score points
+https://www.lesswrong.com/posts/ax695frGJEzGxFBK4/biology-inspired-agi-timelines-the-trick-that-never-works?commentId=HB3BL3Sa6MxSszqdq ]
+
+------
+
+Lightwavers on Twitter (who Yudkowsky knew from /r/rational) dissed Charles Murray on Twitter
+
+https://nostalgebraist.tumblr.com/post/686455476984119296/eliezer-yudkowsky-seems-really-depressed-these
+
+> So now my definitely-not-Kelthorkarni have weird mental inhibitions against actually listening to me, even when I clearly do know much better than they do.  In retrospect I think I was guarding against entirely the wrong failure modes.  The problem is not that they're too conformist, it's that they don't understand how to be defiant without diving heedlessly into the seas of entropy.  It's plausible I should've just gone full Kelthorkarnen
+https://www.glowfic.com/replies/1614129#reply-1614129
+
+I was pleading to him in his capacity as rationality leader, not AGI alignment leader; I know I have no business talking about the latter
+
+(As an aside, it's actually kind of _hilarious_ how far Yudkowsky's "rationalist" movement has succeeded at winning status and mindshare in a Society whose [_de facto_ state religion](https://slatestarcodex.com/2019/07/08/gay-rites-are-civil-rites/) is [founded on eliminating "discrimination."](https://richardhanania.substack.com/p/woke-institutions-is-just-civil-rights) Did—did anyone besides me "get the joke"? I would have expected _Yudkowsky_ to get the joke, but I guess not??)
+
+[TODO: misrepresentation of the Light: Dath ilan has a concept of "the Light"—the vector in policyspace perpendicular outwards from the Pareto curve, in which everyone's interests coincide.]
+
+"You're allowed to talk to me," he said at the Independence Day party
+
+MIRI made a point of prosecuting Tyler Altman rather than participating (even if it was embarrassing to be embezzled from) because of game theory, but it sees folding to social-justice bullies as inevitable
+
+re Yudkowsky not understanding the "That's So Gender" sense, I suspect this is better modeled as a nearest-unblocked-strategy alignment problem, rather than a capabilities problem ("doesn't comprehend"). Author has a Vision of a Reality; that Reality conflicts with the ideology of the readership, who complain; Author issues a patch that addresses the surface of the complaint without acknowledging the conflict of Visions, because describing the conflict in too much detail would be construed as aggression
+
+------
+
+[TODO:
+Email to Scott at 0330 a.m.
+> In the last hour of the world before this is over, as the nanobots start consuming my flesh, I try to distract myself from the pain by reflecting on what single blog post is most responsible for the end of the world. And the answer is obvious: "The Categories Were Made for the Man, Not Man for the Categories." That thing is a fucking Absolute Denial Macro!
+]
+
+------
+
+So, because
+
+[TODO: the rats not getting AGP was excusable, the rats not getting the category boundary thing was extremely disappointing but not a causis belli; Eliezer Yudkowsky not getting the category boundary thing was an emergency]
+
+-----
+
+Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
+
+a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
+
+It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
+
+https://www.econlib.org/archives/2016/01/the_invisible_t.html
+
+------
+
+
+Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
+
+Of course, presumably he _doesn't_ think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421901809228):
+
+> it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment [...] I think people are better off at the end of that.
+
+Ah, _prudence_! He continues:
+
+> I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
+
+The problem with trying to "exhibit generally rationalist principles" in an line of argument that you're constructing in order to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
+
+The best explanation of this I know was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
+
+> As a campaign manager reading a book on rationality, one question lies foremost on your mind: "How can I construct an impeccable rational argument that Mortimer Q. Snodgrass is the best candidate for Mayor of Hadleyburg?"
+>
+> Sorry. It can't be done.
+>
+> "What?" you cry. "But what if I use only valid support to construct my structure of reason? What if every fact I cite is true to the best of my knowledge, and relevant evidence under Bayes's Rule?"
+>
+> Sorry. It still can't be done. You defeated yourself the instant you specified your argument's conclusion in advance.
+
+The campaign manager is in possession of a survey of mayoral candidates on which Snodgrass compares favorably to other candidates, except for one question. The post continues (bolding mine):
+
+> So you are tempted to publish the questionnaire as part of your own campaign literature ... with the 11th question omitted, of course.
+>
+> **Which crosses the line between _rationality_ and _rationalization_.** It is no longer possible for the voters to condition on the facts alone; they must condition on the additional fact of their presentation, and infer the existence of hidden evidence.
+>
+> Indeed, **you crossed the line at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it.** "What!" you cry. "A campaign should publish facts unfavorable to their candidate?" But put yourself in the shoes of a voter, still trying to select a candidate—why would you censor useful information? You wouldn't, if you were genuinely curious. If you were flowing _forward_ from the evidence to an unknown choice of candidate, rather than flowing _backward_ from a fixed candidate to determine the arguments.
+
+The post then briefly discusses the idea of a "logical" argument, one whose conclusions follow from its premises. "All rectangles are quadrilaterals; all squares are quadrilaterals; therefore, all squares are rectangles" is given as an example of _illogical_ argument, even though the both premises are true (all rectangles and squares are in fact quadrilaterals) _and_ the conclusion is true (all squares are in fact rectangles). The problem is that the conclusion doesn't _follow_ from the premises; the _reason_ all squares are rectangles isn't _because_ they're both quadrilaterals. If we accepted arguments of the general _form_ "all A are C; all B are C; therefore all A are B", we would end up believing nonsense.
+
+Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's conception in 2007, which the Yudkowsky of the current year seems to disagree with—has a similar flavor: the stated reasons should be the actual reasons. The post concludes:
+
+> If you really want to present an honest, rational argument _for your candidate_, in a political campaign, there is only one way to do it:
+>
+> * _Before anyone hires you_, gather up all the evidence you can about the different candidates.
+> * Make a checklist which you, yourself, will use to decide which candidate seems best.
+> * Process the checklist.
+> * Go to the winning candidate.
+> * Offer to become their campaign manager.
+> * When they ask for campaign literature, print out your checklist.
+>
+> Only in this way can you offer a _rational_ chain of argument, one whose bottom line was written flowing _forward_ from the lines above it. Whatever _actually_ decides your bottom line is the only thing you can _honestly_ write on the lines above.
+
+I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
+
+This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
+
+... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
+
+"I don't see what the alternative is besides getting shot," Yudkowsky muses (where presumably, 'getting shot' is a metaphor for a large negative utility, like being unpopular with progressives). Yes, an astute observation! And _any other partisan hack could say exactly the same_, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot.
+
+If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
+
+I see the phrase "bad faith" thrown around more than I think people know what it means. "Bad faith" doesn't mean "with ill intent", and it's more specific than "dishonest": it's [adopting the surface appearance of being moved by one set of motivations, while actually acting from another](https://en.wikipedia.org/wiki/Bad_faith).
+
+For example, an [insurance company employee](https://en.wikipedia.org/wiki/Claims_adjuster) who goes through the motions of investigating your claim while privately intending to deny it might never consciously tell an explicit "lie", but is definitely acting in bad faith: they're asking you questions, demanding evidence, _&c._ in order to _make it look like_ you'll get paid if you prove the loss occurred—whereas in reality, you're just not going to be paid. Your responses to the claim inspector aren't completely casually _inert_: if you can make an extremely strong case that the loss occurred as you say, then the claim inspector might need to put some effort into coming up with some ingenious excuse to deny your claim in ways that exhibit general claim-inspection principles. But at the end of the day, the inspector is going to say what they need to say in order to protect the company's loss ratio, as is personally prudent.
+
+With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's genuinely engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
+
+To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ blatantly mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
+
+Counterarguments aren't completely causally _inert_: if you can make an extremely strong case that Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity, Yudkowsky will put some effort into coming up with some ingenious excuse for why he _technically_ never said otherwise, in ways that exhibit generally rationalist principles. But at the end of the day, Yudkowsky is going to say what he needs to say in order to protect his reputation, as is personally prudent.
+
+Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description that makes predictions about behavior, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces! For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I engage in a bit of what is sometimes called ["concern trolling"](https://geekfeminism.fandom.com/wiki/Concern_troll): I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception in the service of correcting the distortion where I don't think my interlocutor _should_ be paying attention to my personal alignment.
+
+That is, my bad faith concern-trolling gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
+
+In contrast, the "it is sometimes personally prudent [...] to post your agreement with Stalin" gambit is the exact reverse: it's _introducing_ a distortion into the discussion in the hopes of correcting people's beliefs about the speaker's ideological alignment. (Yudkowsky is not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
+
+Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
+
+Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be extremely relevant.
+
+But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that _not_ everybody knows and that someone with power wants to _keep_ it that way.
+
+For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then the savvy people wouldn't have to face the tough choice between acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
+
+Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
+
+But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose numerous flaws I have analyzed in detail).
+
+"[P]eople do _know_ they're living in a half-Stalinist environment," Yudkowsky says. "I think people are better off at the end of that," he says. But who are "people", specifically? I'm asking because I have a long sob story about how _I_ didn't know, and _I'm_ not better off.
+
+------
+
+https://twitter.com/ESYudkowsky/status/1404697716689489921
+> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
+
+If you think it "sometimes personally prudent and not community-harmful" to strategically say positive things about Republican candidates, and make sure to never, ever say negative things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
+
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
+
+https://twitter.com/ESYudkowsky/status/1404821285276774403
+> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
+
+[The claim that the "Hill of Validity" thread wasn't partisan, but was just neutrally trying to teach the difference between facts and policy decisions is not credible. 
+
+Imagine if someone was complaining about being required to say "Peace Be Upon Him" before referencing the prophet Muhammad. "It's a speech act, there's nothing factually false about saying 'peace be unto him'"]
+unremediatedgender.space/2020/Aug/yarvin-on-less-wrong/
+
+-----
+
+comments to "Wilhelm", January 2019—
+
+I got concessions on all the important parts (categories should make predictions, trans women differ from cis women in a masc direction),  and these people just don't fucking CARE ... like, if I'm trying to be agreeable, I could agree that trans women resemble women if you restrict your vision to the subspace spanned by the "preferred pronouns" and "self-identified gender identity" dimensions ... but, but, WTF, be serious, guys
+
+Scott or Eliezer know better and could put an end to this bullshit (or at least put a dent in it), and I begged and I pleaded, and they just don't CARE
+
+even Ozy knows better
+
+I said: I probably do put too much rhetorical emphasis on passing; like, I agree that that's not the only criterion that one can use. I like drawing attention to that particular distinction because it at least has the benefit of not requiring people to override their perceptual system they way that self-identity does?
+
+and Ozy (correctly!) chimed in: "in fact it is the only criterion that doesn't involve people overriding their perceptual system!"
+
+as if she's objectively pro-gaslighting
+
+more charitably: people care a lot about this very thin layer of socual constructions (if you mindfuck ppl into believing that AGPs are women, that really does make it easier to transition) and are being instrumentally rational about that, whereas I'm an aspiring epistemic rationalist and want to study the deep structure if which social constructions are feasible, how we can be more reflective about them, &c.
+
+Ppl with less power than Scott or Eliezer can afford to be more honest with me that they see but don't care enough to pay the cost of fighting
+
+the rationalist lore here is that status makes you stupid; maybe the NRx twist is that status plus rivals/insecurity makes you stupid
+
+You _can't_ optimize your group's culture for not-talking-about-atheism without also optimizing against understanding Occam's razor; you _can't_ optimize for not questioning gender self-identity without also optimizing against understanding "A Human's Guide to Words."
+
+"yeah in public we say 'cis women' but tran to tran we just say 'women,' we‘re not insane lol"
+no transsexual is like 'from a young age all i ever wanted was to be.. cis'
+https://twitter.com/theorygurl/status/1062451652836446208
+
+Keltham and Carissa's attitude towards Pharima mirrors my attitude towards Yudkowsky (I'm grateful for him having created me, but he can't be allowed to get away with this shit)
+https://www.glowfic.com/replies/1834769#reply-1834769
+
+sometimes I get a cite, too—
+https://putanumonit.com/2022/05/02/genders-discrimination/
+https://axrp.net/episode/2022/05/23/episode-15-natural-abstractions-john-wentworth.html
+
+People learn a lot from Godel Escher Bach, too, but they don't form an identity around Douglas Hofstadter being the most important person in the world
+
+and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as possible, not do throw away your deontology too quickly.
+
+> It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
+
+like a crazy ex-girlfriend (I have no underlying issues to address; I'm certifiably cute, and adorably obsessed)
+
+But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
+
+https://extropians.weidai.com/extropians.3Q97/4361.html
+> Half the time I regard myself as "an AI wannabee trapped in a male human body"
+
+Nate's "missing the hard part" post is all strawmen—I'm not looking down on it because it's a blog post and not an "official" arXiv paper; I'm looking down because it's visibly low-effort
+
+"What do you say to the Republican?" !!!
+
+subject: "nothing left to lose; or, the end of my rope"
+
+4 November 2018 email to Marcus—
+> Concrete anecdote about how my incredibly-filtered Berkeley social circle is nuts: at a small gathering this weekend I counted seven MtTs. (I think seven; I guess it's possible that physically-very-passable Cassandra is actually female, but given the context and her personality, I doubt it.) Plus me (a man wearing a dress and makeup), and three ordinary men, one ordinary woman, and my FtM friend. Looking up the MtTs' birthdays on Facebook was instructive in determining exactly how many years I was born too early. (Lots of 1992-3 births, so about five years.)
+
+Scathing rhetoric to Scott—
+> (I've been told that I'm not using the word "gaslighting" correctly. Somehow no one seems to think I have the right to define that category boundary however I want.)
+
+> If our vaunted rationality techniques result in me having to spend dozens of hours patiently explaining why I don't think that I'm a woman and that the person in this photograph isn't a woman, either (where "isn't a woman" is a convenient rhetorical shorthand for a much longer statement about naïve Bayes models and high-dimensional configuration spaces and defensible Schelling points for social norms), then our techniques are worse than useless.
+
+> But at the same time, if Galileo ever muttered "And yet it moves", there's a very similar long and important discussion to be had about the consequences of using the word "moves" in Galileo's preferred sense or some other sense that happens to result in the theory needing more epicycles. It may not have been obvious in 2014, but in retrospect, maybe it was a bad idea to build a memetic superweapon that says the number of epicycles doesn't matter.
+
+> It's gotten the point where Nature (!!!) has an editorial proclaiming ["US proposal for defining gender has no basis in science"](https://www.nature.com/articles/d41586-018-07238-8). And if otherkin started becoming sufficiently popular, I have no doubt that they could write an equally sober editorial denouncing species classification as having no basis in science. (Have you heard of ring species? Checkmate, cisspeciesists!)
+
+> I don't care about the social right to call Sam "he", because I wasn't going to do that anyway. What I do care about is the right to say "That's not what I meant by 'woman' in this context, and you fucking know it" when I think that my interloctuor does, in fact, fucking know it.
+
+Anna thinks trust and integrity is an important resource
+https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
+
+The HEXACO personality model considers "honesty" and "humility" a single factor
+
+I'm not usually—at least, not always—so much of a scrub as to play chess with a pigeon (which shits on the board and then struts around like it's won), or wrestle with a pig (which gets you both dirty, and the pig likes it), or dispute what the Tortise said to Achilles
+
+(You might group things together _on the grounds_ of their similarly positive consequences—that's what words like _good_ do—but that's distinct from choosing _the categorization itself_ because of its consequences.)
+
+—and would be unforgivable if it weren't so _inexplicable_.
+
+... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
+
+At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's 
+
+
+Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
+
+[TODO: relevance of multivariate—
+
+(And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
+
+https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
+https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
+
+]
+
+[TODO: sentences about studies showing that HRT doesn't erase male advantage
+https://twitter.com/FondOfBeetles/status/1368176581965930501
+]
+
+[TODO sentences about Lia Thomas and Cece Tefler]  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's —cite South Park)
+https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
+https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
+https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
+
+]
+
+Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
+
+Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
+
+
+> People probably change their mind more often than they explicitly concede arguments, which is fine because intellectual progress is more important than people who were wrong performing submission.
+> If your interlocutor is making progress arguing against your claim X, just say, "Oh, X is a strawman, no one actually believes X; therefore I'm not wrong and you haven't won" (and then don't argue for X in the future now that you know you can't get away with it).
+https://twitter.com/zackmdavis/status/1088459797962215429
+
+My 28 November 2018 text to Michael—
+> I just sent an email to Eliezer ccing you and Anna; if you think it might help inject sanity in into the world, maybe your endorsement would help insofar as Eliezer Aumman-updates [_sic_] with you?
+> hope all is well
+> just a thread reply to Eliezer that says "I trust Zack's rationality and think you should pay attention to what he has to say" (if and only if you actually believe that to be true, obviously)?
+
+
+(don't know how to summarize the part with Ian—)
+I remember going downstairs to impulsively confide in a senior engineer, an older bald guy who exuded masculinity, who you could tell by his entire manner and being was not infected by the Berkeley mind-virus, no matter how loyally he voted Democrat—not just about the immediate impetus of this Twitter thread, but this whole _thing_ of the past couple years where my entire social circle just suddenly decided that guys like me could be women by means of saying so. He was sympathetic.
+
+
+[TODO: paraphrase remaining interaction with Scott, or not worth the space?
+
+> I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
+
+helping Norton live in the real world
+
+Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious 
+]
+
+[TODO: connecting with Aurora 8 December, maybe not important]
+
+What do think submitting to social pressure looks like, if it's not exactly this thing (carefully choosing your public statements to make sure no one confuses you with the Designated Ideological Bad Guy)?!? The credible threat of being labeled an Ideological Bad Guy is _the mechanism_ the "Good" Guys use to retard potentially-ideologically-inconvenient areas of inquiry.
+
+Kerry Vaughan on deferral
+https://twitter.com/KerryLVaughan/status/1552308109535858689
+
+It's not that females and males are exactly the same except males are 10% stronger on average (in which case, you might just shrug and accept unequal outcomes, the way we shrug and accept it that some athletes have better genes). Different traits have different relevance to different sports: women do better in ultraswimming _because_ that competition is sampling a 
+
+where body fat is an advantage. 
+
+It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight".
+
+For example, the _function_ of sex-segrated bathrooms is to _protect females from males_, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
+
+all I actually want out of a post-Singularity utopia is the year 2007 except that I personally have shapeshifting powers
+
+The McGongall turning into a cat parody may actually be worth fitting in—McCongall turning into a cat broke Harry's entire worldview. Similarly, the "pretend to turn into a cat, and everyone just buys it" maneuver broke my religion
+
+ * https://everythingtosaveit.how/case-study-cfar/#attempting-to-erase-the-agency-of-everyone-who-agrees-with-our-position  
+
+Michael on EA suppressing credible criticism https://twitter.com/HiFromMichaelV/status/1559534045914177538
+
+"epistemic hero"
+https://twitter.com/ESYudkowsky/status/1096769579362115584
+
+zinger from 93—
+> who present "this empirical claim is inconsistent with the basic tenets of my philosophy" as an argument against the _claim_
+
+reply to my flipping out at Jeff Ladish
+https://twitter.com/ESYudkowsky/status/1356493440041684993
+
+We don't believe in privacy 
+> Privacy-related social norms are optimized for obscuring behavior that could be punished if widely known [...] an example of a paradoxical norm that is opposed to enforcement of norms-in-general").
+https://unstableontology.com/2021/04/12/on-commitments-to-anti-normativity/