memoir: for the uniform; outlining master
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Mon, 8 Aug 2022 01:58:17 +0000 (18:58 -0700)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Mon, 8 Aug 2022 01:58:17 +0000 (18:58 -0700)
21 files changed:
content/2021/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
content/2022/backlog-metablogging-april-2022.md
content/2022/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model.md [new file with mode: 0644]
content/drafts/a-hill-of-validity-in-defense-of-meaning.md
content/drafts/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer.md
content/drafts/book-review-johnny-the-walrus.md [new file with mode: 0644]
content/drafts/challenges-coda.md [deleted file]
content/drafts/friendship-practices-of-the-secret-sharing-plain-speech-valley-squirrels.md
content/drafts/reducing-bias-and-improving-safety.md [new file with mode: 0644]
content/drafts/reply-to-scott-alexander-on-autogenderphilia.md
content/drafts/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model.md [deleted file]
notes/a-hill-email-review.md [new file with mode: 0644]
notes/a-hill-marketing.txt [new file with mode: 0644]
notes/a-hill-of-validity-sections.md
notes/a-hill-twitter-reply.md [new file with mode: 0644]
notes/blanchards-dangerous-idea-sections.md
notes/critical_acclaim.md
notes/notes.txt
notes/post_ideas.txt
notes/sexual-dimorphism-in-the-sequences-notes.md
pelicanconf.py

index 7557b2c..6bcbbc3 100644 (file)
@@ -319,7 +319,7 @@ But I have to try. A clue: when I'm ... uh. When I'm—well, you know ...
 
 (I guess I can't evade responsibility for the fact that I am, in fact, blogging about this.)
 
-A clue: when I'm masturbating, and imagining all the forms I would take if the magical transformation technology were real (the frame story can vary, but the basic idea is always the same), I don't think I'm very _good_ at first-person visualization? The _content_ of the fantasy is about _me_ being a woman (I mean, having a woman's body), but the associated mental imagery mostly isn't the first-person perspective I would actually experience if the fantasy were real; I think I'm mostly imagining a specific woman (which one, varies a lot) as from the outside, admiring her face, and her voice, and her breasts, but somehow wanting the soul behind those eyes to be _me_. Wanting _my_ body to be shaped like _that_, to be in control of that avatar of beauty—not even to _do_ anything overtly "sexy" in particular, but just to exist like that.
+A clue: when I'm masturbating, and imagining all the forms I would take if the magical transformation technology were real (the frame story can vary, but the basic idea is always the same), I don't think I'm very _good_ at first-person visualization? The _content_ of the fantasy is about _me_ being a woman (I mean, having a woman's body), but the associated mental imagery mostly isn't the first-person perspective I would actually experience if the fantasy were real; I think I'm mostly imagining a specific woman (which one, varies a lot) as from the outside, admiring her face, and her voice, and her breasts, but somehow wanting the soul behind those eyes to be _me_. Wanting _my_ body to be shaped like _that_, to be in control of that avatar of beauty—not even necessarily to _do_ anything overtly "sexy" in particular, but just to exist like that.
 
 If the magical transformation technology were real, I would want a full-length mirror. (And in the real world, I would probably crossdress a _lot_ more often, if I could pass to myself in the mirror. My face ruins it and makeup doesn't help.)
 
index b0bae96..63ce165 100644 (file)
@@ -66,9 +66,9 @@ New list of more ideas I want to finish—
  * a post about how sex concepts represent _both_ categorical differences _and_ the conjunction of statistical differences of various effect sizes, such that if you try to unpin the word from the categorical differences, you end up (as per the usual gender-critical complaint) defining gender in terms of stereotypes because there's nothing _left_ for the word to attach to (working title: "Subspatial Distribution Overlap and Cancellable Stereotypes")
  * a post about how gender identity ideology is actually _not_ very compatible with the traditional liberal impulse to make gender less of a big deal, because there's a huge difference between omitting category information that's not relevant, _vs._ letting people choose their category-membership (working title: "Elision _vs_. Choice")
   * a steelperson of the "assigned at birth" terminology (working title: "'Assigned at Birth' Is a Schelling Point (If You Live in an Insane Dystopia Where the Concept of Sex Is Somehow Controversial)")
- * I occasionally get people telling me that [it doesn't matter](https://www.lesswrong.com/posts/NG4XQEL5PTyguDMff/but-it-doesn-t-matter) where AGP is causally relevant to late-onset gender dysphoria in males, because we Know that Transition Works and makes people happier. And just—I'm pretty skeptical that you could legitimately be that confident about what the best quality-of-life intervention for a condition is, _without_ actually understanding the nature of the condition (working title: "Model-Free Happiness")
+ * I occasionally get people telling me that [it doesn't matter](https://www.lesswrong.com/posts/NG4XQEL5PTyguDMff/but-it-doesn-t-matter) whether AGP is causally relevant to late-onset gender dysphoria in males, because we Know that Transition Works and makes people happier. And just—I'm pretty skeptical that you could legitimately be that confident about what the best quality-of-life intervention for a condition is, _without_ actually understanding the nature of the condition (working title: "Model-Free Happiness")
  * a post about the motivation for positing peseudobisexuality or meta-attraction as part of the two-type taxonomy of MtF: it may _sound_ like a suspicious _ad hoc_ patch to save the theory from falsification by bi trans women, but it's actually needed to explain the commonality of (a) AGP males expressing attraction to men _only while in "girl mode" themselves_, and (b) self-reports of sexual orientation changing post-transition in trans women who weren't androphilic _before_
      * (a) is suspicious is because "bi + AGP, independently" doesn't explain why the interest would be dependent on one's _own_ presentation; (b) is suspicious is because everything else we know about sexual orientation in males (but [not females](/papers/bailey-what_is_sexual_orientation_and_do_women_have_one.pdf)) makes it look awfully _stable_. (Conversion therapy doesn't work; criminally convicted pedophiles still show genital response to child stimuli despite the huge incentives to conceal/repress it; [correlation of homosexuality with childhood behavior](/papers/bailey-zucker-childhood_sex-typed_behavior_and_sexual_orientation.pdf) makes it look like a [prenatal organizational effect, rather than an activational effect](https://en.wikipedia.org/wiki/Organizational-Activational_Hypothesis) that would respond to HRT as an adult.)
      * Maybe these two bullet points suffice and I don't need to pad it out into a whole post? 
  * a critique of the implicit [presentism](https://en.wikipedia.org/wiki/Presentism_(literary_and_historical_analysis)) in Holden Karnofsky's [_Cold Takes_](https://www.cold-takes.com/) blog
-     * For a blog that [aspires to see the world as if you were a billion years old](https://www.cold-takes.com/olden-the-imaginary-billion-year-old-version-of-me/), there's just something very _off_ about proclaiming with a straight face that ["one of our goals as a society should be to fight things—from sexism to disease—that have afflicted us for most of our history"](https://www.cold-takes.com/hunter-gatherer-gender-relations-seem-bad/). Not that I'm pro-sexism—I grew up in the current era, too—but I think a little bit of self-awareness is in order about how our ancestors had a word for "disease" in their own language and knew why it was bad, whereas our concept of "sexism" is [about sixty years old](https://books.google.com/ngrams/graph?content=sexism).
+     * For a blog that [aspires to see the world as if you were a billion years old](https://www.cold-takes.com/olden-the-imaginary-billion-year-old-version-of-me/), there's just something very _off_ about proclaiming with a straight face that ["one of our goals as a society should be to fight things—from sexism to disease—that have afflicted us for most of our history"](https://www.cold-takes.com/hunter-gatherer-gender-relations-seem-bad/). Not that I'm pro-sexism—I grew up in the current year, too—but I think a little bit of self-awareness is in order about how our ancestors had a word for "disease" in their own language and knew why it was bad, whereas our concept of "sexism" is [about sixty years old](https://books.google.com/ngrams/graph?content=sexism).
diff --git a/content/2022/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model.md b/content/2022/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model.md
new file mode 100644 (file)
index 0000000..b471ca0
--- /dev/null
@@ -0,0 +1,72 @@
+Title: The Two-Type Taxonomy Is a Useful Approximation for a More Detailed Causal Model
+Date: 2022-07-08 18:00
+Category: commentary
+Tags: causality, epistemology, two-type taxonomy
+
+A lot of people tend to balk when first hearing about the [two-type taxonomy of male-to-female transsexualism](https://en.wikipedia.org/wiki/Blanchard's_transsexualism_typology). What, one scoffs, you're saying _all_ trans women are exactly one of these two things? It seems at once both too simple and too specific.
+
+In some ways, it's a fair complaint! Psychology is _complicated_; every human is their own unique snowflake. But it would be impossible to navigate the world using the "every human is their own unique _maximum-entropy_ snowflake" theory. In order to [compress our observations](https://www.lesswrong.com/posts/mB95aqTSJLNR9YyjH/message-length) of the world we see, we end up distilling our observations into [categories](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries), clusters, diagnoses, [taxons](https://lorienpsych.com/2020/10/30/ontology-of-psychiatric-conditions-taxometrics/): no one matches any particular clinical-profile stereotype _exactly_, but [the world makes more sense when you have language for theoretical abstractions](https://astralcodexten.substack.com/p/ontology-of-psychiatric-conditions) like ["comas"](https://slatestarcodex.com/2014/08/11/does-the-glasgow-coma-scale-exist-do-comas/) or "depression" or "borderline personality disorder"—or "autogynephilia".
+
+Concepts and theories are good to the extent that they can "pay for" their complexity by making more accurate predictions. How much more complexity is worth how much more accuracy? Arguably, it depends! General relativity has superseded Newtonian classical mechanics as the ultimate theory of how gravity works, but if you're not dealing with velocities approaching the speed of light, Newton still makes _very good_ predictions: it's pretty reasonable to still talk about Newtonian gravitation being "true" if it makes the math easier on you, and the more complicated math doesn't give appreciably different answers to the problems you're interested in.
+
+Moreover, if relativity hasn't been invented yet, it makes sense to stick with Newtonian gravity as the _best_ theory you have _so far_, even if there are a few anomalies [like the precession of Mercury](https://en.wikipedia.org/wiki/Tests_of_general_relativity#Perihelion_precession_of_Mercury) that it struggles to explain.
+
+The same general principles of reasoning apply to psychological theories, even though psychology is a much more difficult subject matter and our available theories are correspondingly much poorer and vaguer. There's no way to make precise quantitative predictions about a human's behavior the way we can about the movements of the planets, but we still know _some_ things about humans, which get expressed as high-level generalities that nevertheless admit many exceptions: if you don't have the complicated true theory that would account for everything, then simple theories plus noise are better than _pretending not to have a theory_. As you learn more, you can try to pin down a more complicated theory that explains some of the anomalies that looked like "noise" to the simpler theory.
+
+What does this look like for psychological theories? In the crudest form, when we notice a pattern of traits that tend to go together, we give it a name. Sometimes people go through cycles of elevated arousal and hyperactivity, punctuated by pits of depression. After seeing the same distinctive patterns in many such cases, doctors decided to reify it as a diagnosis, ["bipolar disorder"](https://en.wikipedia.org/wiki/Bipolar_disorder).
+
+If we notice further patterns _within_ the group of cases that make up a category, we can spit it up into sub-categories: for example, a diagnosis of bipolar I requires a full-blown manic episode, but hypomania and a major depressive episode qualify one for bipolar II.
+
+Is the two-type typology of bipolar disorder a good theory? Are bipolar I and bipolar II "really" different conditions, or slightly different presentations of "the same" condition, part of a "bipolar spectrum" along with [cyclothymia](https://en.wikipedia.org/wiki/Cyclothymia)? In our current state of knowledge, this is debatable, but if our understanding of the etiology of bipolar disorder were to advance, and we were to find evidence that that bipolar I has a different underlying _causal structure_ from bipolar II with decision-relevant consequences (like responding to different treatments), that would support a policy of thinking and talking about them as mostly separate things—even while they have enough in common to call them both kinds of "bipolar". The simple high-level category ("bipolar disorder") is a useful approximation in the absence of knowing the sub-category (bipolar I _vs._ II), and the subcategory is a useful approximation in the absence of knowing the patient's detailed case history.
+
+With a _sufficiently_ detailed causal story, you could even dispense with the high-level categories altogether and directly talk about the consequences of different neurotransmitter counts or whatever—but lacking that supreme precise knowledge, it's useful to sum over the details into high-level categories, and meaningful to debate whether a one-type or two-type taxonomy is a better statistical fit to the underlying reality whose full details we don't know.
+
+-----
+
+In the case of male-to-female transsexualism, we notice a pattern where androphilic and non-androphilic trans women seem to be different from each other—not just in their sexuality, but also in their age of dysphoria onset, interests, and personality.
+
+This claim is most famously associated with the work of [Ray Blanchard](/papers/blanchard-typology_of_mtf_transsexualism.pdf), [J. Michael Bailey](https://en.wikipedia.org/wiki/The_Man_Who_Would_Be_Queen), and [Anne Lawrence](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html), who argue that there are two discrete types of male-to-female transsexualism: an autogynephilic type (basically, [men who love women and want to become what they love](/papers/lawrence-becoming_what_we_love.pdf)), and an androphilic/homosexual type (basically, the extreme right tail of feminine gay men).
+
+But many authors have noticed the same bimodal clustering of traits under various names, [while disagreeing about the underlying causality](/2021/Feb/you-are-right-and-i-was-wrong-reply-to-tailcalled-on-causality/). [Veale, Clarke, and Lomax](/papers/veale-lomax-clarke-identity_defense_model.pdf) attribute the differences to whether defense mechanisms are used to suppress a gender-variant identity. [Anne Vitale](http://www.avitale.com/developmentalreview.htm) identifies distinct groups (Group One and Group Three, in her terminology), but hypothesizes that the difference is due to degree of prenatal androgenization. Julia Serano [concedes that "the correlations that Blanchard and other researchers prior to him described generally hold true"](/papers/serano-agp-a_scientific_review_feminist_analysis_and_alternative.pdf), but denies their causal or taxonometric significance.
+
+Is a two type typology of male-to-female transsexualism a good theory? Is it "really" two different conditions (following Blanchard _et al._), or slightly different presentations of "the same" condition (following _e.g._ Veale _et al._)?
+
+When the question is posed that way—if I have to choose between a one-type and a two-type theory—then I think the two-type theory is superior. But I also think we can do better and say more about the underlying causal structure that the simple two-types story is approximating, and hopefully explain anomalous cases that look like "noise" to the simple theory.
+
+In the language of [causal graphs](https://en.wikipedia.org/wiki/Causal_graph) (where the arrows point from cause to effect), here's what I think is going on:
+
+![transition causal graph](/images/transition_dag.svg)
+
+Let me explain. 
+
+What are the reasons a male-to-female transition might seem like a good idea to someone? _Why_ would a male be interested in undergoing medical interventions to resemble a female and live socially as a woman? I see three prominent reasons, depicted as the parents of the "transition" node in a graph.
+
+First and most obviously, femininity: if you happen to be a male with unusually female-typical psychological traits, you might fit into the social world better as a woman rather than as an anomalously effeminate man.
+
+Second—second is hard to quickly explain if you're not already familiar with the phenomenon, but basically, autogynephilia is very obviously a real thing; [I wrote about my experiences with it in a previous post](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/). Crucially, autogynephilic identification with the _idea_ of being female, is distinct from naturally feminine behavior, of which other people [know it when they see it](/2022/May/gaydar-jamming/).
+
+Third—various cultural factors. You can't be trans if your culture doesn't have a concept of "being trans", and the concepts [and incentives](/2017/Dec/lesser-known-demand-curves/) that your culture offers, make a difference as to how you turn out. Many people who think of themselves as trans women in today's culture, could very well be "the same" as people who thought of themselves as drag queens or occasional cross-dressers 10 or 20 or 30 years ago. (Either "the same" in terms of underlying dispositions, or, in many cases, just literally the same people.)
+
+If there are multiple non-mutually-exclusive reasons why transitioning might seem like a good idea to someone, then the decision of whether to transition could take the form of a [liability–threshold model](https://en.wikipedia.org/wiki/Threshold_model): males transition if the _sum_ of their levels of femininity, autogynephilia, and culture-related-trans-disposition exceed some threshold (given some sensible scheme for quantifying and adding (!) these traits).
+
+You might ask: okay, but then where do the two types come from? This graph is just illustrating (conjectured) cause-and-effect relationships, but if we were actually to flesh it out as a complete [Bayesian network](https://en.wikipedia.org/wiki/Bayesian_network), there would be additional data that quantitatively specifies what (probability distribution over) values each node takes conditional on the values of its parents. When I claim that Blanchard–Bailey–Lawrence's two-type taxonomy is a useful approximation for this causal model, I'm claiming that the distribution represented by this Bayesian network (if we had the complete network) could also be approximated a two-cluster model: _most_ trans women high in the "femininity" factor will be low in the "autogynephilia" factor and _vice versa_, such that you can buy decent predictive accuracy by casually speaking as if there were two discrete "types".
+
+Why? It has to do with the parents of femininity and autogynephilia in the graph. Suppose that gay men are more feminine than straight men, and autogynephilia is the result of being straight plus having an ["erotic target location error"](https://en.wikipedia.org/wiki/Erotic_target_location_error), in which men who are attracted to something (in this case, women), are also attracted to the idea of _being_ that thing.
+
+Then the value of the sexual-orientation node is pushing the values of its children in _opposite_ directions: gay males are more feminine and less autogynephilic, and straight males are less feminine and more autogynephilic, leading to two broadly different etiological trajectories by which transition might seem like a good idea to someone—even while it's not the case that the two types have _nothing_ in common. For example, this model predicts that among autogynephilic males, those who transition are going to be selected for higher levels of femininity compared to those who don't transition—and in that aspect, their stories are going to have _something_ in common with their androphilic sisters, even if the latter are broadly _more_ feminine.
+
+(Of course, it's also the case that the component factors in a liability-threshold model would negatively correlate among the population past a threshold, due to the effect of conditioning on a [collider](https://en.wikipedia.org/wiki/Collider_(statistics)), as in the famous [Berkson's paradox](https://en.wikipedia.org/wiki/Berkson%27s_paradox). But I'm claiming that the degree of bimodality induced by the effects of sexual orientation is substantially greater than that accounted for by the conditioning-on-a-collider effect.)
+
+An advantage of this kind of _probabilistic_ model is that it gives us a _causal_ account of the broad trends we see, while also not being too "brittle" in the face of a complex world. The threshold graphical model explains why the two-type taxonomy looks so compelling as a first approximation, without immediately collapsing the moment we meet a relatively unusual individual who doesn't seem to quite fit the strictest interpretation of the classical two-type taxonomy. For example, when we meet a trans woman who's not very feminine _and_ has no history of autogynephilia, we can predict that in her case, there were probably unusually intense cultural factors (_e.g._, internalized misandry) making transition seem like a salient option (and therefore that her analogue in previous generations wouldn't have been transsexual), instead of predicting that she doesn't exist. (It's possible that what Blanchard–Bailey–Lawrence conceived of as a androphilic _vs._ autogynephilic taxonomy, may be better thought of as an androphilic _vs._ not-otherwise-specified taxonomy, if feminine androphiles form a distinct cluster, but it's not easy to disambiguate autogynephilia from all other possible reasons for not-overtly-feminine males to show up at the gender clinic.)
+
+Care must be taken to avoid abusing the probabilistic nature of the model to make excuses to avoid falsification. The theory that can explain everything _with equal probability_, explains nothing: if you find yourself saying, "Oh, this case is an exception" too _often_, you do need to revise your theory. But a "small" number of "exceptions" can actually be fine: a theory that says a coin is biased to come up Heads 80% of the time, isn't falsified by a single Tails (and is in fact _confirmed_ if that Tails happens 20% of the time).
+
+At this point, you might ask: okay, but why do I believe this? Anyone can name some variables and sketch a directed graph between them. Why should you believe this particular graph is _true_?
+
+Ultimately, the reader cannot abdicate responsibility to think it through and decide for herself ... but it seems to _me_ that all six arrows in the graph are things that we separately have a pretty large weight of evidence for, either in published scientific studies, or just informally looking at the world.
+
+The femininity→transition arrow is obvious. The sexual orientation→femininity arrow (representing the fact that gay men are more feminine than straight men), besides being stereotypical folk knowledge, has also been extensively documented, for example by [Lippa](/papers/lippa-gender-related_traits_in_gays.pdf) and by [Bailey and Zucker](/papers/bailey-zucker-childhood_sex-typed_behavior_and_sexual_orientation.pdf). Evidence for the "v-structure" between sexual orientation, erotic target location erroneousness, and autogynephilia has been [documented by Anne Lawrence](/papers/lawrence-etle_an_underappreciated.pdf): furries and amputee-wannabes who want to emulate the objects of their attraction, "look like" "the same thing" as autogynephiles, but pointed at a less conventional erotic target than women. The autogynephilia–transition concordance has been [documented](https://sillyolme.wordpress.com/2016/02/02/four-out-of-five/) [by](https://old.reddit.com/r/MtF/search?q=fetish&restrict_sr=on) [many](https://link.springer.com/book/10.1007/978-1-4614-5182-2) [authors](http://juliaserano.blogspot.com/2015/05/reconceptualizing-autogynephilia-as_26.html), and I claim the direction of causality is obvious. (If you want to argue that it goes the other way—that some underlying "gender identity" causes both autogynephilia and, separately, the desire to transition, then why does it usually not work that way for androphiles?) The cultural-factors→transition arrow is obvious if you haven't been living under a rock for the last decade.
+
+This has been a qualitative summary of my current thinking. I'm very bullish on thinking in graphical models rather than discrete taxons being the way to go, but it would be a lot more work to pin down all these claims more rigorously—or, to the extent that my graph is wrong, to figure out the correct (or, _a_ more correct, less wrong) graph instead.
+
+_(Thanks to the immortal [Tailcalled](https://surveyanon.wordpress.com/) for discussion.)_
index 0b4e1cf..30abb64 100644 (file)
@@ -8,73 +8,384 @@ Status: draft
 >
 > —Zora Neale Hurston
 
-Recapping our story so far—in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I told the the part about how I've "always" (since puberty) had this obsessive sexual fantasy about being magically transformed into a woman and also thought it was immoral to believe in psychological sex differences, until I got set straight by these really great Sequences of blog posts by Eliezer Yudkowsky, which taught me (incidentally, among many other things about the structure of systematically correct reasoning) how absurdly unrealistic my obsessive sexual fantasy was (given merely human-level technology), and that it's actually immoral _not_ to believe in psychological sex differences given that psychological sex differences are actually real. In a subsequent post, ["Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer"](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/), I told the part about how, in 2016, everyone in my systematically-correct-reasoning community up to and including Eliezer Yudkowsky suddenly starting claiming that guys like me might actually be women in some unspecified metaphysical sense, and insisted on playing dumb when confronted with alternative explanations of the relevant phenomena or even just asked what that means, until I eventually had a stress- and sleep-deprivation-induced delusional nervous breakdown, got sent to psychiatric prison once, and then went crazy again a couple months later.
+Recapping our story so far—in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/), I told the the part about how I've "always" (since puberty) had this obsessive sexual fantasy about being magically transformed into a woman and also thought it was immoral to believe in psychological sex differences, until I got set straight by these really great Sequences of blog posts by Eliezer Yudkowsky, which taught me (incidentally, among many other things) how absurdly unrealistic my obsessive sexual fantasy was given merely human-level technology, and that it's actually immoral _not_ to believe in psychological sex differences given that psychological sex differences are actually real. In a subsequent post, ["Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer"](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/), I told the part about how, in 2016, everyone in my systematically-correct-reasoning community up to and including Eliezer Yudkowsky suddenly starting claiming that guys like me might actually be women in some unspecified metaphysical sense, and insisted on playing dumb when confronted with alternative explanations of the relevant phenomena or even just asked what that means, until I eventually had a stress- and sleep-deprivation-induced delusional nervous breakdown, got sent to psychiatric jail once, and then went crazy again a couple months later.
 
-That's not the really egregious part of the story. The thing is, psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—[not just as an obligatory profession of humility, but _actually_ wrong in the real world](https://www.lesswrong.com/posts/GrDqnMjhqoxiqpQPw/the-proper-use-of-humility). If my fellow rationalists merely weren't sold on the autogynephilia and transgender thing, I would certainly be disappointed, but it's definitely not grounds to denounce the entire community as a failure or a fraud. (And indeed, I did [end up moderating my views somewhat](TODO: linky "Useful Approximation") compared to the extent to which my thinking in 2017 took Blanchard–Bailey–Lawrence as received truth. I don't regret this, because Blanchard–Bailey–Lawrence is still very obviously _directionally_ correct compared to the nonsense everyone else was telling me.)
+That's not the really egregious part of the story. The thing is, psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—[not just as an obligatory profession of humility, but _actually_ wrong in the real world](https://www.lesswrong.com/posts/GrDqnMjhqoxiqpQPw/the-proper-use-of-humility). If my fellow rationalists merely weren't sold on the autogynephilia and transgender thing, I would certainly be disappointed, but it's definitely not grounds to denounce the entire community as a failure or a fraud. And indeed, I _did_ [end up moderating my views](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/) compared to the extent to which my thinking in 2016–7 took Blanchard–Bailey–Lawrence as received truth. At the same time, I don't particularly regret saying what I said in 2016–7, because Blanchard–Bailey–Lawrence is still very obviously _directionally_ correct compared to the nonsense everyone else was telling me.
 
-But a striking pattern in my attempts to argue with people about the two-type taxonomy in late 2016 and early 2017 was the tendency for the conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander arguing that because categories exist in our model of the world rather than the world itself, there's nothing wrong with simply _defining_ trans people to be their preferred gender, in order to alleviate their dysphoria.
+But a striking pattern in my attempts to argue with people about the two-type taxonomy in late 2016 and early 2017 was the tendency for the conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a November 2014 post by Scott Alexander arguing that because categories exist in our model of the world rather than the world itself, there's nothing wrong with simply _defining_ trans people to be their preferred gender, in order to alleviate their dysphoria.
 
-But this is wrong. To be clear, it's true _that_ categories exist in our model of the world, rather than the world itself—categories are in the "map", not the "territory"—and it's true that trans women might be women _with respect to_ some genuinely useful definition of the word "woman." However, the Scott Alexander piece that people kept linking to me goes further, claiming that we can redefine gender categories _in order to make trans people feel better_:
+After Yudkowsky had stepped away from full-time writing, Alexander had emerged as our subculture's preeminent writer. Most people in an intellectual scene "are writers" in some sense, but Alexander was the one "everyone" reads: you could reference a _Slate Star Codex_ post in conversation and expect people to familiar with the idea, either from having read it, or by osmosis via other people having referenced the idea in conversation. The frequency with which "... Not Man for the Categories" was cited at me, seemed to suggest it had become our subculture's "party line" on trans issues.
+
+But the post is very wrong in very obvious ways. To be clear, it's true _that_ categories exist in our model of the world, rather than the world itself—categories are "map", not "territory"—and it's true that trans women might be women _with respect to_ some genuinely useful definition of the word "woman." However, Alexander goes much further, claiming that we can redefine gender categories _in order to make trans people feel better_:
 
 > I ought to accept an unexpected man or two deep inside the conceptual boundaries of what would normally be considered female if it'll save someone's life. There's no rule of rationality saying that I shouldn't, and there are plenty of rules of human decency saying that I should.
 
-This is wrong because categories exist in our model of the world _in order to_ capture empirical regularities in the world itself: the map is supposed to _reflect_ the territory, and there _are_ "rules of rationality" governing what kinds of word and category usages correspond to correct probabilistic inferences. [Yudkowsky wrote a whole Sequence about this](TODO linky "A Human's Guide") back in 'aught-eight, as part of the original Sequences. Alexander cites [a post](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside) from that Sequence in support of the (true) point about how categories are "in the map" ... but if you actually read the Sequence, another point that Yudkowsky pounds home _over and over and over again_, is that word and category definitions are nevertheless _not_ arbitrary: you can't define a word any way you want, because there are [at least 37 ways that words can be wrong](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)—principles that make some definitions _perform better_ than others as "cognitive technology."
+This is wrong because categories exist in our model of the world _in order to_ capture empirical regularities in the world itself: the map is supposed to _reflect_ the territory, and there _are_ "rules of rationality" governing what kinds of word and category usages correspond to correct probabilistic inferences. [Yudkowsky wrote a whole Sequence about this](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb) back in 'aught-eight, as part of the original Sequences. Alexander cites [a post](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside) from that Sequence in support of the (true) point about how categories are "in the map" ... but if you actually read the Sequence, another point that Yudkowsky pounds home _over and over and over again_, is that word and category definitions are nevertheless _not_ arbitrary: you can't define a word any way you want, because there are [at least 37 ways that words can be wrong](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)—principles that make some definitions _perform better_ than others as "cognitive technology."
 
-Importantly, this is a very general point about how language itself works _that has nothing to do with gender_. No matter what you believe about politically controversial empirical questions, intellectually honest people should be able to agree that "I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if [positive consequence]" is not correct philosophy, _independently of the particular values of X and Y_.
+In the case of Alexander's bogus argument about gender categories, the relevant principle ([#30](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) on [the list of 37](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)) is that if group things together in your map that aren't actually similar in the territory, you're going to confuse yourself.
 
-Also, this ... really wasn't what I was trying to talk about. _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory of psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. But at this point I still trusted people in my robot cult to be basically intellectually honest, rather than fucking with me because of their political incentives, so I endeavored to respond to the category-boundary argument as if it were a serious argument. When I quit my dayjob in March 2017 in order to have more time to study and work on this blog, the capstone of my sabbatical was an exhaustive response to Alexander, ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (which Alexander [graciously included in his next linkpost](https://archive.ph/irpfd#selection-1625.53-1629.55)). A few months later, I followed it up with ["Reply to _The Unit of Caring_ on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/), responding to a similar argument. I'm proud of those posts: I think Alexander's and _Unit of Caring_'s arguments were incredibly dumb, and with a lot of effort, I think I did a pretty good job of explaining exactly why to anyone with the reading comprehension skills to understand.
+Importantly, this is a very general point about how language itself works _that has nothing to do with gender_. No matter what you believe about politically-controversial empirical questions, intellectually honest people should be able to agree that "I ought to accept an unexpected [X] or two deep inside the conceptual boundaries of what would normally be considered [Y] if [positive consequence]" is not the correct philosophy of language, _independently of the particular values of X and Y_.
 
-At this point, I was _disappointed_ with my impact, but not to the point of bearing much hostility to "the community". People had made their arguments, and I had made mine; I didn't think I was _entitled_ to anything more than that.
+Also, this ... really wasn't what I was trying to talk about. _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory of psychology, the truth or falsity of which obviously cannot be altered by changing the meanings of words. But at this point I still trusted people in my robot cult to be basically intellectually honest, rather than fucking with me because of their political incentives, so I endeavored to respond to the category-boundary argument as if it were a serious argument: when I quit my dayjob in March 2017 in order to have more time to study and work on this blog, the capstone of my sabbatical was an exhaustive response to Alexander, ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (which Alexander [graciously included in his next links post](https://archive.ph/irpfd#selection-1625.53-1629.55)). A few months later, I followed it up with ["Reply to _The Unit of Caring_ on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/), responding to a similar argument. I'm proud of those posts: I think Alexander's and _Unit of Caring_'s arguments were incredibly dumb, and with a lot of effort, I think I did a pretty good job of explaining exactly why to anyone who was interested and didn't, at some level, prefer not to understand.
 
-... and, really, that _should_ have been the end of the story. Not much of a story at all. If I hadn't been further provoked, I would have still kept up this blog, and I still would have ended up arguing about gender with people occasionally, but my personal obsession wouldn't have been the occasion of a full-on religious civil war.
+Of course, a pretty good job of explaining by one niche blogger wasn't going to put much of a dent in the culture, which is the sum of everyone's blogposts; despite the mild boost from the _Slate Star Codex_ links post, my megaphone just wasn't very big. At this point, I was _disappointed_ with the limited impact of my work, but not to the point of bearing much hostility to "the community". People had made their arguments, and I had made mine; I didn't think I was _entitled_ to anything more than that.
 
-[TODO: I was at the company offsite browsing Twitter (which I had recently joined with fantasies of self-cancelling) when I saw the "Hill of Validity in Defense of Meaning"]
+... and, really, that _should_ have been the end of the story. Not much of a story at all. If I hadn't been further provoked, I would have still kept up this blog, and I still would have ended up arguing about gender with people occasionally, but this personal obsession of mine wouldn't have been the occasion of a full-on robot-cult religious civil war.
 
-This is the moment where I _flipped the fuck out_.
+The _causis belli_ for the religious civil war happened on 28 November 2018. I was at my new dayjob's company offsite event in Austin. Coincidentally, I had already spent much of the afternoon arguing trans issues with other "rationalists" on Discord. [TODO: review Discord logs; email to Dad suggests that offsite began on the 26th, contrasted to first shots on the 28th]
 
-> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
+Just that month, I had started a Twitter account in my own name, inspired in an odd way by the suffocating [wokeness of the open-source software scene](/2018/Oct/sticker-prices/) where I [occasionally contributed diagnostics patches to the compiler](https://github.com/rust-lang/rust/commits?author=zackmdavis). My secret plan/fantasy was to get more famous/established in the that world (one of compiler team membership, or conference talk accepted, preferably both), get some corresponding Twitter followers, and _then_ bust out the Blanchard retweets and links to this blog. In the median case, absolutely nothing would happen (probably because I failed at being famous), but I saw an interesting tail of scenarios in which I'd get to be a test case in the Code of Conduct wars.
 
-> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+So, now having a Twitter account, I was browsing Twitter in the bedroom at the rental house for the dayjob retreat, when I happened to come across [this thread by @ESYudkowsky](https://twitter.com/ESYudkowsky/status/1067183500216811521):
 
-> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+> Some people I usually respect for their willingness to publicly die on a hill of facts, now seem to be talking as if pronouns are facts, or as if who uses what bathroom is necessarily a factual statement about chromosomes. Come on, you know the distinction better than that!
+>
+> _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
+>
+> In saying this, I am not taking a stand for or against any Twitter policies. I am making a stand on a hill of meaning in defense of validity, about the distinction between what is and isn't a stand on a hill of facts in defense of truth.
+>
+> I will never stand against those who stand against lies. But changing your name, asking people to address you by a different pronoun, and getting sex reassignment surgery, Is. Not. Lying. You are _ontologically_ confused if you think those acts are false assertions.
 
-> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
+Some of the replies tried explain the problem—and [Yudkowsky kept refusing to understand](https://twitter.com/ESYudkowsky/status/1067291243728650243)—
 
-> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
+> Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
 
-> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+—[repeatedly](https://twitter.com/ESYudkowsky/status/1067198993485058048):
 
-> ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
+> You're mistaken about what the word means to you, I demonstrate thus: https://en.wikipedia.org/wiki/XX_male_syndrome
+>
+> But even ignoring that, you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning.
 
-> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
+Dear reader, this is the moment where I _flipped the fuck out_. Let me explain.
 
-> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
+This "hill of meaning in defense of validity" proclamation was just such a striking contrast to the Eliezer Yudkowsky I remembered—the Eliezer Yudkowsky whom I had variously described as having "taught me everything I know" and "rewritten my personality over the internet"—who didn't hesitate to criticize uses of language that he thought were failing to carve reality at the joints, even going so far as to [call them "wrong"](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong):
+
+> [S]aying "There's no way my choice of X can be 'wrong'" is nearly always an error in practice, whatever the theory. You can always be wrong. Even when it's theoretically impossible to be wrong, you can still be wrong. There is never a Get-Out-Of-Jail-Free card for anything you do. That's life.
+
+[Similarly](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary):
+
+> Once upon a time it was thought that the word "fish" included dolphins. Now you could play the oh-so-clever arguer, and say, "The list: {Salmon, guppies, sharks, dolphins, trout} is just a list—you can't say that a list is _wrong_. I can prove in set theory that this list exists. So my definition of _fish_, which is simply this extensional list, cannot possibly be 'wrong' as you claim."
+>
+> Or you could stop playing nitwit games and admit that dolphins don't belong on the fish list.
+>
+> You come up with a list of things that feel similar, and take a guess at why this is so. But when you finally discover what they really have in common, it may turn out that your guess was wrong. It may even turn out that your list was wrong.
+>
+> You cannot hide behind a comforting shield of correct-by-definition. Both extensional definitions and intensional definitions can be wrong, can fail to carve reality at the joints.
 
+One could argue the "Words can be wrong when your definition draws a boundary around things that don't really belong together" moral doesn't apply to Yudkowsky's new Tweets, which only mentioned pronouns and bathroom policies, not the [extensions](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions) of common nouns.
+
+But this seems pretty unsatifying in the context of his claim to ["not [be] taking a stand for or against any Twitter policies"](https://twitter.com/ESYudkowsky/status/1067185907843756032). One of the Tweets that had recently led to radical feminist Meghan Murphy getting [kicked off the platform](https://quillette.com/2018/11/28/twitters-trans-activist-decree/) read simply, ["Men aren't women tho."](https://archive.is/ppV86) This doesn't seem like a policy claim; rather, Murphy was using common language to express the fact-claim that members of the natural category of adult human males, are not, in fact, members of the natural category of adult human females.
+
+If the extension of common words like 'woman' and 'man' is an issue of epistemic importance that rationalists should care about, then presumably so is Twitter's anti-misgendering policy—and if it _isn't_ (because you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning) then I wasn't sure what's _left_ of the "Human's Guide to Words" sequence if the [37-part grand moral](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) needs to be retracted.
+
+I think I _am_ standing in defense of truth if have an _argument_ for _why_ my preferred word usage does a better job at "carving reality at the joints", and the one bringing my usage explicitly into question doesn't have such an argument. As such, I didn't see the _practical_ difference between "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning", and "I can define a word any way I want." About which, again, a previous Eliezer Yudkowsky had written:
+
+> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
+>
+> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+>
+> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+>
+> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
+>
+> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
+>
+> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+>
+> ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
+>
+> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
+>
+> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
+>
 > ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
 
-[TODO: careful breakdown of exactly what's wrong with the thread (pull from "I still owe you money; and, discourse on categories and the fourth virtue")]
+One could argue that this is unfairly interpreting Yudkowsky's Tweets as having a broader scope than was intended—that Yudkowsky _only_ meant to slap down the specific false claim that using 'he' for someone with a Y chromosome is lying, without intending any broader implications about trans issues or the philosophy of language. It wouldn't be realistic or fair to expect every public figure to host a truly exhaustive debate on all related issues every time a fallacy they encounter in the wild annoys them enough for them to Tweet about that specific fallacy.
+
+However, I don't think this "narrow" reading is the most natural one. Yudkowsky had previously written of what he called [the fourth virtue of evenness](http://yudkowsky.net/rational/virtues/): "If you are selective about which arguments you inspect for flaws, or how hard you inspect for flaws, then every flaw you learn how to detect makes you that much stupider." He had likewise written [of reversed stupidity](https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence) (bolding mine):
+
+> **To argue against an idea honestly, you should argue against the best arguments of the strongest advocates**. Arguing against weaker advocates proves _nothing_, because even the strongest idea will attract weak advocates.
+
+Relatedly, Scott Alexander had written about how ["weak men are superweapons"](https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/): speakers often selectively draw attention to the worst arguments in favor of a position, in an attempt to socially discredit people who have better arguments for the position (which the speaker ignores). In the same way, by _just_ slapping down a weak man from the "anti-trans" political coalition without saying anything else in a similarly prominent location, Yudkowsky was liable to mislead his readers (who trusted him to argue against ideas honestly) into thinking that there were no better arguments from the "anti-trans" side.
+
+To be sure, it imposes a cost on speakers to not be able to Tweet about one specific annoying fallacy and then move on with their lives without the need for [endless disclaimers](http://www.overcomingbias.com/2008/06/against-disclai.html) about related but stronger arguments that they're _not_ addressing. But the fact that [Yudkowsky disclaimed that](https://twitter.com/ESYudkowsky/status/1067185907843756032) he wasn't taking a stand for or against Twitter's anti-misgendering policy demonstrates that he _didn't_ have an aversion to spending a few extra words to prevent the most common misunderstandings.
+
+Given that, it's hard to read the Tweets Yudkowsky published as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity. [For example](https://twitter.com/ESYudkowsky/status/1067490362225156096), deeper in the thread, Yudkowsky wrote:
+
+> The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
+
+Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not itself take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
+
+The _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different: men are taller, and stronger, and faster, and have bigger lungs. If you just had one integrated league, females wouldn't be competitive (in the vast majority of sports, with a few exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/) that happen to sample an unusually female-favorable corner of sportspace).
+
+Given the empirical reality of the different trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine. Including male people in female sports leagues undermines the point of having a separate female league, and [_empirically_, hormone replacement therapy after puberty](https://link.springer.com/article/10.1007/s40279-020-01389-3) [doesn't substantially change the picture here](https://bjsm.bmj.com/content/55/15/865).
+
+(Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
+
+In light of these empirical observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions."
+
+I'm picking on the "sports segregated around an Aristotelian binary" remark because sports is a case where the relevant effect sizes are _so_ large as to make the point [hard for all but the most ardent gender-identity partisans to deny](/2017/Jun/questions-such-as-wtf-is-wrong-with-you-people/), but the point is very general: biological sex actually exists and is sometimes decision-relevant. People who want to be able to talk about sex and make policy decisions on the basis of sex are not making an ontology error, because the ontology in which sex "actually" "exists" continues to make very good predictions in our current tech regime.
+
+Yudkowsky's claim to merely have been standing up for the distinction between facts and policy questions doesn't seem credible. It is, of course, true that pronoun and bathroom conventions are policy decisions rather than a matter of fact, but it's _bizarre_ to condescendingly point this out _as if it were the crux of contemporary trans-rights debates_. Conservatives and gender-critical feminists _know_ that trans-rights advocates aren't falsely claiming that trans women have XX chromosomes. If you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
+
+If any concrete negative consequence of gender self-identity categories is going to be waved away with, "Oh, but that's a mere _policy_ decision that can be dealt with on some basis other than gender, and therefore doesn't count as an objection to the new definition of gender words", then it's not clear what the new definition is _for_. The policymaking categories we use to make decisions are _closely related_ to the epistemic categories we use to make predictions, and people need to be able to talk about them.
+
+An illustration: like many gender-dysphoric males, I [cosplay](/2016/Dec/joined/) [female](/2017/Oct/a-leaf-in-the-crosswind/) [characters](/2019/Aug/a-love-that-is-out-of-anyones-control/) at fandom conventions sometimes. And, unfortunately, like many gender-dysphoric males, I'm _not very good at it_. I think someone looking at some of my cosplay photos and trying to describe their content in clear language—not trying to be nice to anyone or make a point, but just trying to use language as a map that reflects the territory—would say something like, "This is a photo of a man and he's wearing a dress." The word _man_ in that sentence is expressing _cognitive work_: it's a summary of the [lawful cause-and-effect evidential entanglement](https://www.lesswrong.com/posts/6s3xABaXKPdFwA3FS/what-is-evidence) whereby the photons reflecting off the photograph are correlated with photons reflecting off my body at the time the photo was taken, which are correlated with my externally-observable secondary sex characteristics (facial structure, beard shadow, _&c._), from which evidence an agent using an [efficient naïve-Bayes-like model](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes) can assign me to its "man" category and thereby make probabilistic predictions about some of my traits that aren't directly observable from the photo, and achieve a better [score on those predictions](http://yudkowsky.net/rational/technical/) than if the agent had assigned me to its "adult human female" category, where by "traits" I mean not (just) particularly sex chromosomes ([as Yudkowsky suggested on Twitter](https://twitter.com/ESYudkowsky/status/1067291243728650243)), but the _conjunction_ of dozens or hundreds of measurements that are [_causally downstream_ of sex chromosomes](/2021/Sep/link-blood-is-thicker-than-water/): reproductive organs _and_ muscle mass (sex difference effect size of [Cohen's _d_](https://en.wikipedia.org/wiki/Effect_size#Cohen's_d)≈2.6) _and_ Big Five Agreeableness (_d_≈0.5) _and_ Big Five Neuroticism (_d_≈0.4) _and_ short-term memory (_d_≈0.2, favoring women) _and_ white-to-gray-matter ratios in the brain _and_ probable socialization history _and_ [any number of other things](https://en.wikipedia.org/wiki/Sex_differences_in_human_physiology)—including differences we might not necessarily currently know about, but have prior reasons to suspect exist: no one _knew_ about sex chromosomes before 1905, but given all the other systematic differences between women and men, it would have been a reasonable guess (that turned out to be correct!) to suspect the existence of some sort of molecular mechanism of sex determination.
+
+Forcing a speaker to say "trans woman" instead of "man" in that sentence depending on my verbally self-reported self-identity may not be forcing them to _lie_, exactly. (Because it's understood, "openly and explicitly and with public focus on the language and its meaning", what _trans women_ are; no one is making a false-to-fact claim about them having ovaries, for example.) But it _is_ forcing the speaker to obfuscate the probabilistic inference they were trying to communicate with the original sentence (about modeling the person in the photograph as being sampled from the "man" [cluster in configuration space](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace)), and instead use language that suggests a different cluster-structure ("trans women", two words, are presumably a subcluster within the "women" cluster). Crowing in the public square about how people who object to be forced to "lie" must be ontologically confused is _ignoring the interesting part of the problem_. Gender identity's [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) mostly functions as a way to [avoid the belief's real weak points](https://www.lesswrong.com/posts/dHQkDNMhj692ayx78/avoiding-your-belief-s-real-weak-points).
+
+To this one might reply that I'm giving too much credit to the "anti-trans" coalition for how stupid they're not being: that _my_ careful dissection of the hidden probabilistic inferences implied by words (including pronoun choices) is all well and good, but that calling pronouns "lies" is not something you do when you know how to use words.
+
+But I'm _not_ giving them credit for _for understanding the lessons of "A Human's Guide to Words"_; I just think there's a useful sense of "know how to use words" that embodies a lower standard of philosophical rigor. If a person-in-the-street says of my cosplay photos, "That's a man! I _have eyes_ and I can _see_ that that's a man! Men aren't women!"—well, I _probably_ wouldn't want to invite such a person-in-the-street to a _Less Wrong_ meetup. But I do think the person-in-the-street is _performing useful cognitive work_. Because _I_ have the hidden-Bayesian-structure-of-language-and-cognition-sight (thanks to Yudkowsky's writings back in the 'aughts), _I_ know how to sketch out the reduction of "Men aren't women" to something more like "This [cognitive algorithm](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms) detects secondary sex characteristics and uses it as a classifier for a binary female/male 'sex' category, which it uses to make predictions about not-yet-observed features ..."
+
+But having _done_ the reduction-to-cognitive-algorithms, it still looks like the person-in-the-street _has a point_ that I shouldn't be allowed to ignore just because I have 30 more IQ points and better philosophy-of-language skills? As it is written: "intelligence, to be useful, must be used for something other than defeating itself."
+
+I bring up my bad cosplay photos as an edge case that helps illustrate the problem I'm trying to point out, much like how people love to bring up [complete androgen insensitivity syndrome](https://en.wikipedia.org/wiki/Complete_androgen_insensitivity_syndrome) to illustrate why "But chromosomes!" isn't the correct reduction of sex classification. But to differentiate what I'm saying from mere blind transphobia, let me note that I predict that most people-in-the-street would be comfortable using feminine pronouns for someone like [Blaire White](http://msblairewhite.com/) (an androphilic transsexual who passes very well). That's evidence about the kind of cognitive work people's brains are doing when they use English language singular third-person pronouns! Certainly, English is not the only language; ours is not the only culture; maybe there is a way to do gender categories that would be more accurate and better for everyone! But to _find_ what that better way is, I think we need to be able to _talk_ about these kinds of details in public. And _in practice_, the attitude evinced in Yudkowsky's Tweets seemed to function as a [semantic stopsign](https://www.lesswrong.com/posts/FWMfQKG3RpZx6irjm/semantic-stopsigns) to get people to stop talking about the details.
+
+If you were actually interested in having a real discussion (instead of a fake discussion that makes you look good to progressives), why would you slap down the "But, but, chromosomes" fallacy and then not engage with the _drop-dead obvious_ "But, but, clusters in [high-dimensional](https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy-1) [configuration space](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) that [aren't actually changeable with contemporary technology](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions)" steelman, [which was, in fact, brought up in the replies](https://twitter.com/EnyeWord/status/1068983389716385792)?
+
+Satire is a very weak form of argument: the one who wishes to doubt will always be able to find some aspect in which the obviously-absurd satirical situation differs from the real-world situation being satirized, and claim that that difference destroys the relevence of the joke. But on the off-chance that it might help _illustrate_ my concern, imagine you lived in a so-called "rationalist" subculture where conversations like this happened—
+
+<div class="dialogue">
+<p><span class="dialogue-character-label">Bob</span>: "Look at this <a href="https://twitter.com/mydogiscutest/status/1079125652282822656">adorable cat picture</a>!"</p>
+<p><span class="dialogue-character-label">Alice</span>: "Um, that looks like a dog to me, actually."</p>
+<p><span class="dialogue-character-label">Bob</span>: "<a href="https://twitter.com/ESYudkowsky/status/1067198993485058048">You're not standing</a> in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning. <a href="https://twitter.com/ESYudkowsky/status/1067294823000887297">Now, maybe as a matter of policy</a>, you want to make a case for language being used a certain way. Well, that's a separate debate then."</p>
+</div>
+
+If you were Alice, and a _solid supermajority_ of your incredibly smart, incredibly philosophically sophisticated friend group _including Eliezer Yudkowsky_ (!!!) seemed to behave like Bob (and reaped microhedonic social rewards for it in the form of, _e.g._, hundreds of Twitter likes), that would be a _pretty worrying_ sign about your friends' ability to accomplish intellectually hard things (_e.g._, AI alignment), right? Even if there isn't any pressing practical need to discriminate between dogs and cats, the _problem_ is that Bob is [_selectively_](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) using his sophisticated philosophy-of-language insight to try to _undermine Alice's ability to use language to make sense of the world_, even though Bob _obviously knows goddamned well what Alice was trying to say_; it's _incredibly_ obfuscatory in a way that people would not tolerate in almost _any_ other context.
+
+Imagine an Islamic theocracy in which one Meghan Murphee had recently gotten kicked off the dominant microblogging platform for speaking disrespectfully about the prophet Muhammad. Suppose that [Yudkowsky's analogue in that world](/2020/Aug/yarvin-on-less-wrong/) then posted that Murphee's supporters were ontologically confused to object on free inquiry grounds: saying "peace be unto him" after the name of the prophet Muhammad is a _speech act_, not a statement of fact: Murphee wasn't being forced to lie.
+
+I think the atheists of our world, including Yudkowsky, would not have any trouble seeing the problem with this scenario, nor hesitate to agree that it _is_ a problem for that Society's rationality. It is, of course, true as an isolated linguistics fact that saying "peace be unto him" is a speech act rather than a statement of fact, but it's _bizarre_ to condescendingly point this out _as if it were the crux of debates about religious speech codes_. The _function_ of the speech act is to signal the speaker's affirmation of Muhammad's divinity. That's _why_ the Islamic theocrats want to mandate that everyone says it: it's a lot harder to atheism to get any traction if no one is allowed to _talk_ like an atheist.
+
+And that's exactly why trans advocates want to mandate against misgendering people on social media: it's harder for trans-exclusionary ideologies to get any traction if no one is allowed to _talk_ like someone who believes that sex (sometimes) matters and gender does not.
+
+Of course, such speech restrictions aren't necessarily "irrational", depending on your goals! If you just don't think "free speech" should go that far—if you _want_ to suppress atheism or gender-critical feminism—speech codes are a perfectly fine way to do it! And _to their credit_, I think most theocrats and trans advocates are _honest_ about the fact that this is what they're doing: atheists or transphobes are _bad people_, and we want to make it harder for them to spread their lies or their hate.
+
+In contrast, by claiming to be "not taking a stand for or against any Twitter policies" while asserting that people who oppose the policy are ontologically confused, Yudkowsky was being either (somewhat implausibly) stupid or (more plausibly) intellectually dishonest: of _course_ the point of speech codes is suppress ideas! Given that the distinction between facts and policies is so obviously _not anyone's crux_—the smarter people in the "anti-trans" coalition already know that, and the dumber people in the coalition wouldn't change their coalitional alignment if they were taught—it's hard to see what the _point_ of harping on the fact/policy distiction would be, _except_ to be seen as implicitly taking a stand for the "pro-trans" coalition, while putting on a show of being politically "neutral."
+
+It makes sense that Yudkowsky might perceive political constraints on what he might want to say in public—especially when you look at what happened to the _other_ Harry Potter author. (Despite my misgivings—and the fact that at this point it's more of a genre convention or a running joke, rather than any attempt at all to conceal my identity—this blog _is_ still published under a pseudonym; it would be hypocritical of me to accuse someone of cowardice about what they're willing to attach their real name to.)
+
+But if Yudkowsky didn't want to get into a distracting political fight about a topic, then maybe the responsible thing to do would have been to just not say anything about the topic, rather than engaging with the _stupid_ version of the opposition and stonewalling with "That's a policy question" when people tried to point out the problem?!
+
+------
+
+... I didn't have all of that criticism collected and carefully written up on 28 November 2018. But that, basically, is why I _flipped the fuck out_ when I saw that Twitter thread. If the "rationalists" didn't [click](https://www.lesswrong.com/posts/R3ATEWWmBhMhbY2AL/that-magical-click) on the autogynephilia thing, that was disappointing, but forgivable. If the "rationalists", on Scott Alexander's authority, were furthermore going to get our own philosophy of language wrong over this, that was—I don't want to say _forgivable_ exactly, but it was—tolerable. I had learned from my misadventures the previous year that I had been wrong to trust "the community" as a reified collective and put it on a pedastal—that had never been a reasonable mental stance in the first place.
+
+But trusting Eliezer Yudkowsky—whose writings, more than any other single influence, had made me who I am—_did_ seem reasonable. If I put him on a pedastal, it was because he had earned the pedastal, for supplying me with my criteria for how to think—including, as a trivial special case, how to think about what things to put on pedastals.
+
+So if the rationalists were going to get our own philosophy of language wrong over this _and Eliezer Yudkowsky was in on it_ (!!!), that was intolerable, inexplicable, incomprehensible—like there _wasn't a real world anymore_.
 
-—exhaustive breakdown of exactly what's wrong ; I trusted Yudkowsky and I _did_ think I was entitled to more]
+But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help. (And I hadn't intended to talk about gender on that account yet, although that seemed unimportant in light of the present cause for _flipping the fuck out_.)
 
-[TODO: getting support from Michael + Ben + Sarah, harrassing Scott and Eliezer]
+It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232)—and that, because I cared very much about correcting what I claimed were confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time—and that, if he liked the post, he might consider Tweeting a link—and that I was cc'ing my friends Anna Salamon and Michael Vassar as a character reference (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)"). Then I texted Anna and Michael begging them to chime in and vouch for my credibility.
 
-[TODO: proton concession]
+The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
 
-[TODO: minor psych episode in March 2019]
+Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ one of your posts? What? Why? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that, along with tagging in Anna and Michael, who I thought Yudkowsky respected, it was a way to signal that I _really really really didn't want to be ignored_, which I assumed was the default outcome. Surely a simple person such as me was as a mere _worm_ in the presence of the great Eliezer Yudkowsky. I wouldn't have had the audacity to contact him at _all_, about _anything_, if I didn't have Something to Protect.
 
-[TODO: "Blegg Mode", "Where to Draw the Boundaries?", and failure /2019/May/hiatus/ ]
+Anna didn't reply, but I apparently did interest Michael, who chimed in on the email thread to Yudkowsky. We had a long phone conversation the next day lamenting how the "rationalists" were dead as an intellectual community.
+
+As for the attempt to intervene on Yudkowsky—well, [again](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-privacy-constraint), I don't think I should say whether he replied to Michael's and my emails, or whether he accepted the money, because any conversation that may or may not have occured would have been private. But what I _can_ say, because it was public, is we saw [this addition to the Twitter thread](https://twitter.com/ESYudkowsky/status/1068071036732694529):
+
+> I was sent this (by a third party) as a possible example of the sort of argument I was looking to read: [http://unremediatedgender.space/2018/Feb/the-categories-were-made-for-man-to-make-predictions/](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/). Without yet judging its empirical content, I agree that it is not ontologically confused. It's not going "But this is a MAN so using 'she' is LYING."
+
+Look at that! The great _Eliezer Yudkowsky_ said that my position is not ontologically confused. That's _probably_ high praise coming from him! You might think that should be the end of the matter. Yudkowsky denounced a particular philosophical confusion; I already had a related objection written up; and he acknowledged my objection as not being the confusion he was trying to police. I _should_ be satisfied, right?
+
+I wasn't, in fact, satisfied. This little "not ontologically confused" clarification buried in the replies was _much less visible_ than the bombastic, arrogant top level pronouncement insinuating that resistance to gender-identity claims _was_ confused. (1 Like on this reply, _vs._ 140 Likes/21 Retweets on start of thread.) I expected that the typical reader who had gotten the impression from the initial thread that the great Eliezer Yudkowsky thought that gender-identity skeptics didn't have a leg to stand on, would not, actually, be disabused of this impression by the existence of this little follow-up. Was it greedy of me to want something _louder_?
+
+Greedy or not, I wasn't done flipping out. On 1 December, I wrote to Scott Alexander (cc'ing a few other people), asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
+
+The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to [draw your category boundaries such that](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes) of short words on the simplest and most wide-rangingly useful categories.
+
+It's true that [the reason _I_ was continuing to freak out about this](/2019/Jul/the-source-of-our-power/) to the extent of sending him this obnoxious email telling him what to write (seriously, who does that?!) had to with transgender stuff, but wasn't the reason _Scott_ should care.
+
+The other year, Alexander had written a post, ["Kolmogorov Complicity and the Parable of Lightning"](http://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/), explaining the consequences of political censorship by means of an allegory about a Society with the dogma that thunder occurs before lightning. The problem isn't so much the sacred dogma itself (it's not often that you need to _directly_ make use of the fact that thunder comes first), but that the need to _defend_ the sacred dogma _destroys everyone's ability to think_.
+
+It was the same thing here. It wasn't that I had any direct practical need to misgender anyone in particular. It still wasn't okay that trying to talk about the reality of biological sex to so-called "rationalists" gets you an endless deluge of—polite! charitable! non-ostracism-threatening!—_bullshit nitpicking_. (What about [complete androgen insensitivity syndrome](https://en.wikipedia.org/wiki/Complete_androgen_insensitivity_syndrome)? Why doesn't this ludicrous misinterpretation of what you said [imply that lesbians aren't women](https://thingofthings.wordpress.com/2018/06/18/man-should-allocate-some-more-categories/)? _&c. ad infinitum_.) With enough time, I thought the nitpicks could and should be satisfactorily answered. (Any ones that couldn't would presumably be fatal criticisms rather than bullshit nitpicks.) But while I was in the process of continuing to write all that up, I hoped Alexander could see why I feel somewhat gaslighted.
+
+(I had been told by others that I wasn't using the word "gaslighting" correctly. _Somehow_ no one seemed to think I had the right to define _that_ category boundary for my convenience.)
+
+If our vaunted rationality techniques result in me having to spend dozens of hours patiently explaining why I don't think that I'm a woman and that [the person in this photograph](https://daniellemuscato.startlogic.com/uploads/3/4/9/3/34938114/2249042_orig.jpg) isn't a woman, either (where "isn't a woman" is a _convenient rhetorical shorthand_ for a much longer statement about [naïve Bayes models](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes) and [high-dimensional configuration spaces](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) and [defensible Schelling points for social norms](https://www.lesswrong.com/posts/Kbm6QnJv9dgWsPHQP/schelling-fences-on-slippery-slopes)), then our techniques are _worse than useless_.
+
+If Galileo ever muttered "And yet it moves", there's a long and nuanced conversation you could have about the consequences of using the word "moves" in Galileo's preferred sense or some other sense that happens to result in the theory needing more epicycles. It may not have been obvious in November 2014, but in retrospect, _maybe_ it was a _bad_ idea to build a [memetic superweapon](https://archive.is/VEeqX) that says that the number of epicycles _doesn't matter_.
+
+And the reason to write this as a desperate email plea to Scott Alexander when I could be working on my own blog, was that I was afraid that marketing is a more powerful force than argument. Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Alexander and Yudkowsky rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't [win the talent lottery](http://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) but think they see a flaw in the _Zeitgeist_, the winning move is "persuade Scott Alexander."
+
+Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we didn't. If Scott didn't want to cite my creepy blog about my creepy fetish, that was _totally fine_; I _liked_ getting credit, but the important thing is that this "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming _that!_—it's just that utilitarianism implies that the _social_ property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needed to _die_, and he alone could kill it.
+
+... Scott didn't get it.
+
+But I _did_ end up in more conversation with Michael Vassar, Ben Hoffman, and Sarah Constantin, who were game to help me with reaching out to Yudkowsky again to explain the problem in more detail. If we had this entire posse, I felt bad and guilty and ashamed about focusing too much on my special interest except insofar as it was geniunely a proxy for "Has Eliezer and/or everyone else lost the plot, and if so, how do we get it back?" But the group seemed to agree that my philosophy-of-language grievance was a useful test case for prosecuting deeper maladies affecting our subculture.
+
+There were times during these weeks where it felt like my mind shut down with the only thought, "What am I _doing_? This is _absurd_. Why am I running around picking fights about the philosophy of language—and worse, with me arguing for the _Bad_ Guys' position? Maybe I'm wrong and should stop making a fool out of myself. After all, using Aumann-like reasoning, in a dispute of 'me and Michael Vassar vs. _everyone fucking else_', wouldn't I want to bet on 'everyone else'? Obviously."
+
+Except ... I had been raised back in the 'aughts to believe that you're you're supposed to concede arguments on the basis of encountering a superior counterargument that makes you change your mind, and I couldn't actually point to one. "Maybe I'm making a fool out of myself by picking fights with all these high-status people" is _not a counterargument_.
+
+Meanwhile, Anna continued to be disinclined to take a side in the brewing Category War, and it was beginning to put a strain on our friendship, to the extent that I kept ending up crying at some point during our occasional meetings. She told me that my "You have to pass my philosophy-of-language litmus test or I lose all respect for you as a rationalist" attitude was psychologically coercive. I agreed—I was even willing to go up to "violent"—in the sense that I'd cop to [trying to apply social incentives towards an outcome rather than merely exchanging information](http://zackmdavis.net/blog/2017/03/an-intuition-on-the-bayes-structural-justification-for-free-speech-norms/). But sometimes you need to use violence in defense of self or property, even if violence is generally bad. If we think of the "rationalist" label as intellectual property, maybe it's property worth defending, and if so, then "I can define a word any way I want" isn't obviously a terrible time to start shooting at the bandits?
+
+My _hope_ was that it was possible to apply just enough "What kind of rationalist are _you_?!" social pressure to cancel out the "You don't want to be a Bad (Red) person, do you??" social pressure and thereby let people look at the arguments—though I wasn't sure if that actually works, and I was growing exhausted from all the social aggression I was doing about it. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)
+
+There's a view that assumes that as long as everyone is being cordial, our truthseeking public discussion must be basically on-track: if no one overtly gets huffily offended and calls to burn the heretic, then the discussion isn't being warped by the fear of heresy.
+
+I do not hold this view. I think there's a _subtler_ failure mode where people know what the politically-favored bottom line is, and collude to ignore, nitpick, or just be targetedly _uninterested_ in any fact or line of argument that doesn't fit the party line. I want to distinguish between direct ideological conformity enforcement attempts, and "people not living up to their usual epistemic standards in response to ideological conformity enforcement in the general culture they're embedded in." 
+
+Especially compared to normal Berkeley, I had to give the Berkeley "rationalists" credit for being _very good_ at free speech norms. (I'm not sure I would be saying this in the world where Scott Alexander didn't have a traumatizing experience with social justice in college, causing him to dump a ton of anti-social-justice, pro-argumentative-charity antibodies in the "rationalist" collective "water supply" after he became our subculture's premier writer. But it was true in _our_ world.)
+
+I didn't want to fall into the [bravery-debate](http://slatestarcodex.com/2013/05/18/against-bravery-debates/) trap of, "Look at me, I'm so heroically persecuted, therefore I'm right (therefore you should have sex with me)". I wasn't angry at the "rationalists" for being silenced or shouted down (which I wasn't); I was angry at them for _making bad arguments_ and systematically refusing to engage with the obvious counterarguments when they're made.
+
+Ben thought I was wrong to think of this as non-ostracisizing. The deluge of motivated nitpicking _is_ an implied marginalization threat, he explained: the game people are playing when they do that is to force me to choose between doing arbitarily large amounts of interpretive labor, or being cast as never having answered these construed-as-reasonable objections, and therefore over time losing standing to make the claim, being thought of as unreasonable, not getting invited to events, _&c._
+
+I saw the dynamic he was pointing at, but as a matter of personality, I was more inclined to respond, "Welp, I guess I need to write faster and more clearly", rather than to say "You're dishonestly demanding arbitrarily large amounts of interpretive labor from me." I thought Ben was far too quick to give up on people who he modeled as trying not to understand, whereas I continued to have faith in the possibility of _making_ them understand if I just never gave up. Even _if_ the other person was being motivatedly dense, giving up wouldn't make me a stronger writer.
+
+(Picture me playing Hermione Granger in a post-Singularity [holonovel](https://memory-alpha.fandom.com/wiki/Holo-novel_program) adaptation of _Harry Potter and the Methods of Rationality_ (Emma Watson having charged me [the standard licensing fee](/2019/Dec/comp/) to use a copy of her body for the occasion): "[We can do anything if we](https://www.hpmor.com/chapter/30) exert arbitrarily large amounts of interpretive labor!")
+
+Ben thought that making them understand was hopeless and that becoming a stronger writer was a boring goal; it would be a better use of my talents to jump up an additional meta level and explain _how_ people were failing to engage. That is, I had a model of "the rationalists" that kept making bad predictions. What's going on there? Something interesting might happen if I try to explain _that_.
+
+(I guess I'm only now, after spending an additional three years exhausting every possible line of argument, taking Ben's advice on this by writing this memoir. Sorry, Ben—and thanks.)
+
+
+[TODO SECTION: RIP Culture War thread, and defense against alt-right categorization
+ * I wasn't the only one those life was being wracked with political drama: Scott exiled the /r/slatestarcodex Culture War Thread to /r/TheMotte due to private harrassment
+ * Yudkowsky: "Your annual reminder that Slate Star Codex is not and never was alt-right, every real stat shows as much, and the primary promoters of this lie are sociopaths who get off on torturing incredibly nice targets like Scott A."
+ * Suppose the one were to reply: "Using language in a way you dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (Scott Alexander's explicit advocacy of a white ethnostate?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret. You're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning. Now, maybe as a matter of policy, you want to make a case for language like 'alt-right' being used a certain way. Well, that's a separate debate then. But you're not making a stand for Truth in doing so, and your opponents aren't tricking anyone or trying to."
+ * What direct falsehood is being asserted by Scott's detractors? I don't think anyone is claiming that, say, Scott identifies as alt-right (not even privately), any more than anyone is claiming that trans women have two X chromosomes. Sneer Club has been pretty explicit in their criticism
+ * examples:
+    * https://old.reddit.com/r/SneerClub/comments/atgejh/rssc_holds_a_funeral_for_the_defunct_culture_war/eh0xlgx/
+    * https://old.reddit.com/r/SneerClub/comments/atgejh/rssc_holds_a_funeral_for_the_defunct_culture_war/eh3jrth/
+ * that the Culture War thread harbors racists (&c.) and possibly that Scott himself is a secret racist, with respect to a definition of racism that includes the belief that there are genetically-mediated population differences in the distribution of socially-relevant traits and that this probably has decision-relevant consequences should be discussable somewhere.
+
+And this is just correct: e.g., "The Atomic Bomb Considered As Hungarian High School Science Fair Project" favorably cites Cochran et al.'s genetic theory of Ashkenazi achievement as "really compelling." Scott is almost certainly "guilty" of the category-membership that the speech against him is meant to convey—it's just that Sneer Club got to choose the category. The correct response to the existence of a machine-learning classifer that returns positive on both Scott Alexander and Richard Spencer is not that the classifier is "lying" (what would that even mean?), but that the classifier is not very useful for understanding Scott Alexander's effects on the world.
+
+Of course, Scott is great and we should defend him from the bastards trying to ruin his reputation, and it's plausible that the most politically convenient way to do that is to pound the table and call them lying sociopaths rather than engaging with the substance of their claims, much as how someone being tried under an unjust law might dishonestly plead "Not guilty" to save their own skin rather than tell the whole truth and hope for jury nullification.
+
+But political convenience comes at a dire cost to our common interest! There's a proverb you once failed to Google, which runs something like, "Once someone is known to be a liar, you might as well listen to the whistling of the wind."
+
+Similarly, once someone is known to vary the epistemic standards of their public statements for political convenience (even if their private, unshared thoughts continue to be consistently wise)—if they say categorizations can be lies when that happens to help their friends, but seemingly deny the possibility of categorizations being lies when that happens to make them look good ...
+
+Well, you're still somewhat better off listening to them than the whistling of the wind, because the wind in various possible worlds is presumably uncorrelated with most of the things you want to know about, whereas clever arguers who don't tell explicit lies are very constrained in how much they can mislead you. But it seems plausible that you might as well listen to any other arbitrary smart person with a blue check and 20K followers. I remain,
+ * (The claim is not that "Pronouns aren't lies" and "Scott Alexander is not a racist" are similarly misinformative; it's about the _response_)
+ * "the degree to which category boundaries are being made a conscious and deliberate focus of discussion": it's a problem when category boundaries are being made a conscious and deliberate focus of discussion as an isolated-demand-for-rigor because people can't get the conclusion they want on the merits; I only started focusing on the hidden-Bayesian-structure-of-cognition part after the autogynephilia discussions kept getting derailed
+ * I know you're very busy; I know your work's important—but it might be a useful exercise? Just for a minute, to think of what you would actually say if someone with social power _actually did this to you_ when you were trying to use language to reason about Something you had to Protect?
+]
+
+Without disclosing any _specific content_ from private conversations with Yudkowsky that may or may not have happened, I think I am allowed to say that our posse did not get the kind of engagement from him that we were hoping for. (That is, I'm Glomarizing over whether Yudkowsky just didn't reply, or whether he did reply and our posse was not satisfied with the response.) Michael said that it seemed important that, if we thought Yudkowsky wasn't interested, we should have common knowledge among ourselves that we consider him to be choosing to be a cult leader.
+
+[TODO SECTION: relying on Michael too much; I'm not crazy
+ * This may have been less effective than it was in my head; I _remembered_ Michael as being high-status
+ * "I should have noticed earlier that my emotional dependence on "Michael says X" validation is self-undermining, because Michael says that the thing that makes me valuable is my ability to think independently."
+ * fairly destructive move
+* _Everyone got it wrong_. there was a comment on /r/slatestarcodex the other week that cited Scott, Eliezer, Ozy, Kelsey, and Rob as leaders of rationalist movement. https://www.reddit.com/r/slatestarcodex/comments/anvwr8/experts_in_any_given_field_how_would_you_say_the/eg1ga9a/
+
+"We ... we had a whole Sequence about this. Didn't we? And, and ... [_you_ were there](https://tvtropes.org/pmwiki/pmwiki.php/Main/AndYouWereThere), and _you_ were there ... It—really happened, right? I didn't just imagine it? The [hyperlinks](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) [still](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) [work](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace) ..."
+]
+
+[TODO: Anna Michael feud
+ * Anna's 2 Mar comment badmouthing Michael
+ * my immediate response: I strongly agree with your point about "ridicule of obviously-fallacious reasoning plays an important role in discerning which thinkers can (or can't) help fill these functions"! That's why I'm so heartbroken about the "categories are arbitrary, therefore trans women are women" thing, which deserves to be laughed out of the room.
+ * Anna's case against Michael: he was talking to Devi even when Devi needed a break, and he wanted to destroy EA
+ * I remember at a party in 2015ish, asking Michael what else I should invest my money in, if not New Harvest/GiveWell, and his response was, "You"
+ * backstory of anti-EA sentiment: Ben's critiques, Sarah's "EA Has a Lying Problem"—Michael had been in the background
+]
+
+Meaninwhile, my email thread with Scott got started back up, although I wasn't expecting anything to come out of it. I expressed some regret that all the times I had emailed him over the past couple years had been when I was upset about something (like psych hospitals, or—something else) and wanted something from him, which was bad, because it was treating him as a means rather than an end—and then, despite that regret, continued prosecuting the argument.
+
+One of Alexander's [most popular _Less Wrong_ posts ever had been about the noncentral fallacy, which Alexander called "the worst argument in the world"](https://www.lesswrong.com/posts/yCWPkLi8wJvewPbEp/the-noncentral-fallacy-the-worst-argument-in-the-world): for example, those who crow that abortion is _murder_ (because murder is the killing of a human being), or that Martin Luther King, Jr. was a _criminal_ (because he defied the segregation laws of the South), are engaging in a dishonest rhetorical maneuver in which they're trying to trick their audience into attributing attributes of the typical "murder" or "criminal" onto what are very noncentral members of those categories.
+
+_Even if_ you're opposed to abortion, or have negative views about the historical legacy of Dr. King, this isn't the right way to argue. If you call Janie a _murderer_, that causes me to form a whole bunch of implicit probabilistic expectations—about Janie's moral character, about the suffering of victim whose hopes and dreams were cut short, about Janie's relationship with the law, _&c._—most of which get violated when you subsequently reveal that the murder victim was a fetus.
+
+Thus, we see that Alexander's own "The Worst Argument in the World" is really complaining about the _same_ category-gerrymandering move that his "... Not Man for the Categories" comes out in favor of. We would not let someone get away with declaring, "I ought to accept an unexpected abortion or two deep inside the conceptual boundaries of what would normally not be considered murder if it'll save someone's life."
+
+... Scott still didn't get it. He said that he didn't see why he shouldn't accept one unit of categorizational awkwardness in exchange for sufficiently large utilitarian benefits. I started drafting a long reply—but then I remembered that in recent discussion with my posse about what had gone wrong in our attempted outreach to Yudkowsky, the idea had come up that in-person meetings are better for updateful disagreement-resolution. Would Scott be up for meeting in person some weekend? Non-urgent. Ben would be willing to moderate, unless Scott wanted to suggest someone else, or no moderator.
+
+... Scott didn't want to meet. At this point, I considered resorting to the tool of cheerful prices again, which I hadn't yet used against Scott—to say, "That's totally understandable! Would a financial incentive change your decision? For a two-hour meeting, I'd be happy to pay up to $4000 to you or your preferred charity. If you don't want the money, then sure, yes, let's table this. I hope you're having a good day." But that seemed sufficiently psychologically coercive and socially weird that I wasn't sure I wanted to go there. I emailed my posse asking what they thought—and then added that maybe they shouldn't reply until Friday, because it was Monday, and I really needed to focus on my dayjob that week.
+
+This is the part where I began to ... overheat. I tried ("tried") to focus on my dayjob, but I was just _so angry_. Did Scott _really_ not understand the rationality-relevant distinction between "value-dependent categories as a result of only running your clustering algorithm on the subspace of the configuration space spanned by the variables that are relevant to your decisions" (as explained by the _dagim_/water-dwellers _vs._ fish example) and "value-dependent categories _in order to not make my friends sad_"? I thought I was pretty explicit about this? Was Scott _really_ that dumb?? Or is it that he was only verbal-smart and this is the sort of thing that only makes sense if you've ever been good at linear algebra?? Did I need to write a post explaining just that one point in mathematical detail? (With executable code and a worked example with entropy calculations.)
+
+My dayjob boss made it clear that he was expecting me to have code for my current Jira tickets by noon the next day, so I resigned myself to stay at the office late to finish that.
+
+But I was just in so much (psychological) pain. Or at least—as I noted in one of a series of emails to my posse that night—I felt motivated to type the sentence, "I'm in so much (psychological) pain." I'm never sure how to intepret my own self-reports, because even when I'm really emotionally trashed (crying, shaking, randomly yelling, _&c_.), I think I'm still noticeably _incentivizable_: if someone were to present a credible threat (like slapping me and telling me to snap out of it), then I would be able to calm down: there's some sort of game-theory algorithm in the brain that subjectively feels genuine distress (like crying or sending people too many hysterical emails) but only when it can predict that it will be either rewarded with sympathy or at least tolerated. (Kevin Simler: [tears are a discount on friendship](https://meltingasphalt.com/tears/).)
+
+I [tweeted a Sequences quote](https://twitter.com/zackmdavis/status/1107874587822297089) to summarize how I felt (the mention of @ESYudkowsky being to attribute credit; I figured Yudkowsky had enough followers that he probably wouldn't see a notification):
+
+> "—and if you still have something to protect, so that you MUST keep going, and CANNOT resign and wisely acknowledge the limitations of rationality— [1/3]
+>
+> "—then you will be ready to start your journey[.] To take sole responsibility, to live without any trustworthy defenses, and to forge a higher Art than the one you were once taught. [2/3]
+>
+> "No one begins to truly search for the Way until their parents have failed them, their gods are dead, and their tools have shattered in their hand." —@ESYudkowsky (https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) [end/3]
+
+Only it wasn't quite appropriate. The quote is about failure resulting in the need to invent new methods of rationality, better than the ones you were taught. But ... the methods I had been taught were great! I don't have a pressing need to improve on them! I just couldn't cope with everyone else having _forgotten!_
+
+I did, eventually, get some dayjob work done that night, but I didn't finish the whole thing my manager wanted done by the next day, and at 4 _a.m._, I concluded that I needed sleep, the lack of which had historically been very dangerous for me (being the trigger for my [2013](http://zackmdavis.net/blog/2013/04/prodrome/) and [2017](/2017/Mar/fresh-princess/) psychotic breaks and subsequent psych imprisonments). We didn't want another bad outcome like that; we really didn't. There was a couch in the office, and probably another four hours until my coworkers started to arrive. The thing I needed to do was just lie down on the couch in the dark and have faith that sleep will come. Meeting my manager's deadline wasn't _that_ important. When people come in to the office, I might ask for help getting an Uber home? Or help buying melatonin? The important thing was to be calm.
+
+I sent an email explaining this to Scott and my posse and two other friends (Subject: "predictably bad ideas").
+
+Lying down didn't work. So at 5:26 _a.m._, I sent an email to Scott cc my posse plus Anna about why I was so mad (both senses). I had a better draft sitting on my desktop at home, but since I was here and couldn't sleep, I might as well type this version (Subject: "five impulsive points, hastily written because I just can't even (was: Re: predictably bad ideas)"). Scott had been continuing to insist that it's OK to gerrymander category boundaries for trans people's mental health, but there were a few things I didn't understand. If creatively reinterpreting the meanings of words because the natural interpretation would make people sad is OK ... why doesn't that just generalize to an argument in favor of _outright lying_ when the truth would make people sad? The mind games seemed much crueler to me than a simple lie. Also, if "mental health benefits for trans people" matter so much, then, why didn't _my_ mental health matter? Wasn't I trans, sort of? Getting shut down by appeal-to-utilitarianism (!?!?) when I was trying to use reason to make sense of the world was observably really bad for my sanity! Did that matter at all? Also, Scott had asked me if it wouldn't be embarrassing, if the community solved Friendly AI and went down in history as the people who created Utopia forever, and I had rejected it because of gender stuff? But the _original reason_ it had ever seemed _remotely_ plausible that we would create Utopia forever wasn't "because we're us, the self-designated world-saving good guys", but because we were going to perfect an art of _systematically correct reasoning_. If we're not going to do systematically correct reasoning because that would make people sad, then that undermines the _reason_ that it was plausible that we would create Utopia forever; you can't just forfeit the mandate of Heaven like that and still expect to still rule China. Also, Scott had proposed a super-Outside View of the culture war as an evolutionary process that produces memes optimized to trigger PTSD syndromes in people, and suggested that I think of _that_ was what was happening to me. But, depending on how much credence Scott put in social proof, mightn't the fact that I managed to round up this whole posse to help me repeatedly argue with (or harrass) Yudkowsky shift his estimate over whether my concerns had some objective merit that other people could see, too? It could simultaneously be the case that I had the culture-war PTSD that he propsed, _and_ that my concerns have merit.
+
+[TODO: Michael jumps in to help, I rebuff him, Michael says WTF and calls me, I take a train home, Alicorn visits with her son—I mean, her son at the time]
+
+(Incidentally, the code that I wrote intermittently between 11 _p.m._ and 4 _a.m._ was a horrible mess, and the company has been paying for it ever since, every time someone needs to modify that function, and finds it harder to navigate than it would be if I had been less emotionally overwhelmed in March 2019 and written something sane instead.)
+
+I think at some level, I wanted Scott to know how frustrated I was about his use of "mental health for trans people" as an Absolute Denial Macro. But then when Michael started advocating on my behalf, I started to minimize my claims because I had a generalized attitude of not wanting to sell myself as a victim. (Michael seemed to have a theory that people will only change their bad behavior when they see a victim who is being harmed.)
+
+I supposed that, in Michael's worldview, aggression is more honest than passive-aggression. That seemed obviously true, but I was psychologically limited in how much aggression I was willing to deploy against my friends. (And particularly Yudkowsky, who I still hero-worshipped.) But clearly, the tension between "I don't want to do too much social aggression" and "losing the Category War within the rationalist community is _absolutely unacceptable_" was causing me to make wildly inconsistent decisions. (Emailing Scott at 4 a.m., and then calling Michael "aggressive" when he came to defend me was just crazy.)
+
+Was the answer just that I needed to accept that there wasn't such a thing in the world as a "rationalist community"? (Sarah had told me as much two years ago, at BABSCon, and I just hadn't made the corresponing mental adjustments.)
+
+On the other hand, a possible reason to be attached to the "rationalist" brand name and social identity that wasn't just me being stupid was that _the way I talk_ had been trained really hard on this subculture for _ten years_. Most of my emails during this whole campaign had contained multiple Sequences or _Slate Star Codex_ links that I could just expect people to have read. I could spontaneously use the phrase "Absolute Denial Macro" in conversation and expect to be understood. That's a massive "home field advantage." If I just gave up on "rationalists" being a thing, and go out in the world to make intellectual friends elsewhere (by making friends with _Quillette_ readers or arbitrary University of Chicago graduates), then I would lose all that accumulated capital.
+
+The language I spoke was _mostly_ educated American English, but I relied on subculture dialect for a lot. My sister has a chemistry doctorate from MIT (and so speaks the language of STEM intellectuals generally), and when I showed her ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), she reported finding it somewhat hard to read, likely because I casually use phrases like "thus, an excellent [motte](https://slatestarcodex.com/2014/11/03/all-in-all-another-brick-in-the-motte/)", and expect to be understood without the reader taking 10 minutes to read the link. That essay, which was me writing from the heart in the words that came most naturally to me, could not be published in _Quillette_. The links and phraseology were just too context-bound.
+
+Maybe that's why I felt like I had to stand my ground and fight a culture war to preserve the world I was made in, even though the contradiction between the war effort and my general submissiveness was having me making crazy decisions.
+
+[TODO SECTION: proton concession
+ * as it happened, the next day, Wednesday, we got this: https://twitter.com/ESYudkowsky/status/1108277090577600512 (Why now? maybe he saw the "tools have shattered in their hand"; maybe the Quillette article just happened to be timely)
+ * A concession! In the war frame, you'd think this would make me happy
+  * "I did you a favor by Tweeting something obliquely favorable to your object-level crusade, and you repay me by criticizing me? How dare you?!" My model of Sequences-era Eliezer-2009 would never do that, because the species-typical arguments-as-social-exchange
+ * do you think Eliezer is thinking, "Fine, if I tweet something obliquely favorable towards Zack's object-level agenda, maybe Michael's gang will leave me alone now"
+ * If there's some other reason you suspect there might by multiple species of dysphoria, but you tell people your suspicion is because dysphoria has more than one proton, then you're still kind of misinforming them for political reasons, which is the generalized problem that we're worried about?
+ * Michael's take: not worth the digression; we need to confront the actual crisis
+ * We need to figure out how to win against bad faith arguments
+]
+
+[TODO: Jessica joins the coalition; she tell me about her time at MIRI (link to Zoe-piggyback and Occupational Infohazards); Michael said that me and Jess together have more moral authority]
+
+[TODO: wrapping up with Scott; Kelsey; high and low Church https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/]
+
+[TODO: Ben reiterated that the most important thing was explaining why I've written them off; self-promotion imposes a cost on others; Jessica on creating clarity; Michael on less precise is more violent]
+
+[TODO: after some bouncing off the posse, what was originally an email draft became a public _Less Wrong_ post, "Where to Draw the Boundaries?" (note, plural)
+ * Wasn't the math overkill?
+ * math is important for appeal to principle—and as intimidation https://slatestarcodex.com/2014/08/10/getting-eulered/
+ * four simulacra levels got kicked off here
+ * no politics! just philosophy!
+ * Ben on Michael on whether we are doing politics; "friendship, supplication, and economics"
+ * I could see that I'm including subtext and expecting people to only engage with the text, but if we're not going to get into full-on gender-politics on Less Wrong, but gender politics is motivating an epistemology error, I'm not sure what else I'm supposed to do! I'm pretty constrained here!
+ * I had already poisoned the well with "Blegg Mode" the other month, bad decision
+ * We lost?! How could we lose??!!?!?
+]
+
+------
+
+
+[TODO: I was floored; math and wellness month 
+ Anna doesn't want money from me
+ scuffle on "Yes Requires the Possibility of No"
+ LessWrong FAQ https://www.lesswrong.com/posts/MqrzczdGhQCRePgqN/feedback-requested-draft-of-a-new-about-welcome-page-for#iqEEme6M2JmZEXYAk
+]
 
 [TODO: more blogging (https://www.lesswrong.com/posts/5aqumaym7Jd2qhDcy/containment-thread-on-the-motivation-and-political-context), 2019 Christmas party, disclaimer on "Categories Were Made"]
 ["Univariate fallacy" also a concession]
 
 [TODO: categories clarification from EY—victory?!]
 
-[TODO: "simplest and best" pronoun proposal, sometimes personally prudent; support from Oli]
-
-
+[TODO: I didn't put this together until looking at my email just now, but based on the timing, the Feb. 2021 pronouns post was likely causally downstream of me being temporarily more salient to EY because of my highly-Liked response to his "anyone at this point that anybody who openly hates on this community generally or me personally is probably also a bad person inside" from 17 February; it wasn't gratuitously out of the blue]
 
+[TODO: "simplest and best" pronoun proposal, sometimes personally prudent; support from Oli]
+[TODO: the Law violation]
 
 [TODO: the dolphin war, our thoughts about dolphins are literally downstream from Scott's political incentives in 2014; this is a sign that we're a cult]
 
 [TODO: why you should care; no one should like Scott and Eliezer's proposals; knowledge should go forward, not back — what I would have hoped for, what you can do; hating that my religion is bottlenecked on one guy; the Church is _still there_ sucking up adherents; this is unambiguously a betrayal rather than a mistake]
-[TODO: the Death With Dignity era]
\ No newline at end of file
+[TODO: the Death With Dignity era]
index 50427c6..6230d5e 100644 (file)
@@ -224,7 +224,7 @@ With some prompting from a right-wing friend (a self-aware autogynephile who I h
 
 Among many works which I had previously skimmed in the process of skimming lots of things on the internet was Mencius Moldbug's anti-democratic (!) political theory blog [_Unqualified Reservations_](https://www.unqualified-reservations.org/), which caught my renewed interest in light of my recent troubles.
 
-Moldbug paints a picture in which, underneath the fiction of "democracy", the United States is better modeled as an oligarchic theocracy ruled by universities and the press and the civil service. The apparent symmetry between the Democrats and Republicans is fake: the Democrats represent an alliance of the professional–managerial ruling class and their black and Latino underclass clients; the Republicans, representing non-elite whites and the last vestiges of the old ruling elite, can sometimes demagogue their way into high offices, but the left's ownership of the institutions prevents them "conserving" anything for very long. The reason it ended up this way is because power abhors a vacuum: if you ostensibly put the public mind in charge of the state, that just creates an incentive for power-seeking agents to try to _control the public mind_; if you have a nominal separation of church and state, but all the incentives that lead to the establishment of a state religion in other Societies are still in play, you've just created selection pressure for a _de facto_ state religion that sheds the ideological trappings of "God" in favor of "progress" and "equality" in order to sidestep the [Establishment Clause](TODO linky). Moldbug contends that all of this is Bad insofar as the oligarchic theocracy, for all its lofty rhetoric, is structurally incapable of good governance; it's not a coincidence that all functional _non_-government organizations are organized as monarchies, with an owner or CEO (possibly supervised by a board of directors who can fire the leader but not meddle in day-to-day operations) with the joint authority and responsibility to hand down sane decisions, rather than being hamstrung by the insanity of politics (which, as Moldbug frequently notes, is synonymous with _democracy_). [TODO: linky UR refs]
+Moldbug paints a picture in which, underneath the fiction of "democracy", the United States is better modeled as an oligarchic theocracy ruled by universities and the press and the civil service. The apparent symmetry between the Democrats and Republicans is fake: the Democrats represent [an alliance of the professional–managerial ruling class and their black and Latino underclass clients](https://www.unqualified-reservations.org/2007/05/castes-of-united-states/); the Republicans, [representing non-elite whites and the last vestiges of the old ruling elite](https://www.unqualified-reservations.org/2007/05/bdh-ov-conflict_07/), can sometimes demagogue their way into high offices, but the left's ownership of the institutions prevents them "conserving" anything for very long. The reason it ended up this way is because power abhors a vacuum: if you ostensibly put the public mind in charge of the state, that just creates an incentive for power-seeking agents to try to _control the public mind_; if you have a nominal separation of church and state, but all the incentives that lead to the establishment of a state religion in other Societies are still in play, you've just created selection pressure for a _de facto_ state religion that sheds the ideological trappings of "God" in favor of "progress" and "equality" in order to sidestep the [Establishment Clause](https://en.wikipedia.org/wiki/Establishment_Clause). Moldbug contends that all of this is Bad insofar as the oligarchic theocracy, for all its lofty rhetoric, is structurally incapable of good governance; it's not a coincidence that all functional _non_-government organizations are organized as monarchies, with an owner or CEO (possibly supervised by a board of directors who can fire the leader but not meddle in day-to-day operations) with the joint authority and responsibility to hand down sane decisions, rather than being hamstrung by the insanity of politics (which, as Moldbug frequently notes, is synonymous with _democracy_).
 
 (Some of Moldbug's claims about the nature of the American order that seemed outlandish or crazy when _Unqualified Reservations_ was being written in the late 'aughts and early 'tens, now seem much more obvious after Trump and Brexit and the summer of George Floyd. I remember that in senior year of high school back in 'aught-five, on [Coming Out Day](https://en.wikipedia.org/wiki/National_Coming_Out_Day), my physics teacher said that she was coming out as a Republican. Even then, I got the joke, but I didn't realize the implications.)
 
@@ -246,9 +246,9 @@ The claim that political privileges are inculcating "a culture of worthless, unr
 
 While I was in this flurry of excitement about my recent updates and the insanity around me, I thought back to that "at least 20% of the ones with penises are actually women" Yudkowsky post from back in March that had been my wake-up call to all this. What _was_ going on with that?
 
-I wasn't, like, _friends_ with Yudkowsky, obviously; I didn't have a natural social affordance to _just_ ask him the way you would ask a work buddy or a college friend something. But ... he _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about he trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation, and I had his email address from previous contract work I had done for MIRI back in '12, so on 29 September 2016, I wrote him offering $1,000 to talk about what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228), mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong."
+<a id="cheerful-price"></a>I wasn't, like, _friends_ with Yudkowsky, obviously; I didn't have a natural social affordance to _just_ ask him the way you would ask a work buddy or a college friend something. But ... he _had_ posted about how he was willing to accept money to do things he otherwise wouldn't in exchange for enough money to feel happy about he trade—a Happy Price, or [Cheerful Price, as the custom was later termed](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price)—and his [schedule of happy prices](https://www.facebook.com/yudkowsky/posts/10153956696609228) listed $1,000 as the price for a 2 hour conversation, and I had his email address from previous contract work I had done for MIRI back in '12, so on 29 September 2016, I wrote him offering $1,000 to talk about what kind of _massive_ update he made on the topics of human psychological sex differences and MtF transsexuality sometime between [January 2009](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and [March of the current year](https://www.facebook.com/yudkowsky/posts/10154078468809228), mentioning that I had been "feeling baffled and disappointed (although I shouldn't be) that the rationality community is getting this _really easy_ scientific question wrong."
 
-At this point, any _normal people_ who are (somehow?) reading this might be thinking, isn't that weird and kind of cultish?—some blogger you follow posted something you thought was strange earlier this year, and you want to pay him _one grand_ to talk about it? To the normal person I would explain thusly—
+<a id="cheerful-price-reasons"></a>At this point, any _normal people_ who are (somehow?) reading this might be thinking, isn't that weird and kind of cultish?—some blogger you follow posted something you thought was strange earlier this year, and you want to pay him _one grand_ to talk about it? To the normal person I would explain thusly—
 
 First, in our subculture, we don't have your weird hangups about money: people's time is valuable, and paying people money in exchange for them using their time differently from how they otherwise would is a perfectly ordinary thing for microeconomic agents to do. Upper-middle–class normal people don't blink at paying a licensed therapist $100 to talk for an hour, because their culture designates that as a special ritualized context in which paying money to talk to someone isn't weird. In my culture, we don't need the special ritualized context; Yudkowsky just had a somewhat higher rate than most therapists.
 
@@ -262,7 +262,7 @@ That's the context in which my happy-price email thread ended up including the s
 
 I say all this to emphasize just how much Yudkowsky's opinion meant to me. If you were a devout Catholic, and something in the Pope's latest encyclical seemed wrong according to your understanding of Scripture, and you had the opportunity to talk it over with the Pope for a measly $1000, wouldn't you take it? Of course you would!
 
-Anyway, I can't talk about the results of my happy price inquiry (whether he accepted the offer and a conversation occured, or what was said if it did occur), because I think the rule I should follow for telling this Whole Dumb Story is that while I have complete freedom to talk about _my_ actions and things that happened in public, I'm not allowed to divulge information about what Yudkowsky may or may not have said in private conversations that may or may not have occured, because even without an explicit secrecy promise, people might be less forthcoming in private conversations if they knew that you might blog about them later. Personally, I think most people are _way_ too paranoid about this, and often wish I could just say what relevant things I know without worrying about whether it might infringe on someone's "privacy", but I'm eager to cooperate with widely-held norms even if I personally think they're dumb.
+<a id="cheerful-price-privacy-constraint"></a>Anyway, I can't talk about the results of my cheerful price inquiry (whether he accepted the offer and a conversation occured, or what was said if it did occur), because I think the rule I should follow for telling this Whole Dumb Story is that while I have complete freedom to talk about _my_ actions and things that happened in public, I'm not allowed to divulge information about what Yudkowsky may or may not have said in private conversations that may or may not have occured, because even without an explicit secrecy promise, people might be less forthcoming in private conversations if they knew that you might blog about them later. Personally, I think most people are _way_ too paranoid about this, and often wish I could just say what relevant things I know without worrying about whether it might infringe on someone's "privacy", but I'm eager to cooperate with widely-held norms even if I personally think they're dumb.
 
 (Incidentally, it was also around this time that I snuck a copy of _Men Trapped in Men's Bodies_ into the [MIRI](https://intelligence.org/) office library, which was sometimes possible for community members to visit. It seemed like something Harry Potter-Evans-Verres would do—and ominously, I noticed, not like something Hermione Granger would do.)
 
@@ -381,3 +381,5 @@ I met Jessica in March
 [TODO: ... continue harvesting email to see what happened in April]
 
 [TODO: credit assignment ritual ($18200 credit-assignment ritual): $5K to Michael, $1200 each to trans widow friend, 3 care team members (Alicorn Sarah Anna), Ziz, Olivia, and Sophia, $400 each to Steve, A.M., Watson, "Wilhelm", Jonah, James, Ben, Kevin, Alexei (declined), Andrew, Divia, Lex, Devi]
+
+[On my last day at SwiftStack, I said that I was taking a sabbatical from my software engineering career to become a leading intellectual figure of the alternative right. That was a joke, but not one that I would have made after Charlottesville.]
diff --git a/content/drafts/book-review-johnny-the-walrus.md b/content/drafts/book-review-johnny-the-walrus.md
new file mode 100644 (file)
index 0000000..e056d6b
--- /dev/null
@@ -0,0 +1,9 @@
+Title: Book Review: Matt Walsh's <em>Johnny the Walrus</em>
+Date: 2021-05-15 05:00
+Category: commentary
+Tags: natalism, review (book)
+Status: draft
+
+This is a terrible children's book that could have been great if the author could have just _pretended to be subtle_.
+
+Our protagonist, Johnny, is a kid who loves to play make-believe.
diff --git a/content/drafts/challenges-coda.md b/content/drafts/challenges-coda.md
deleted file mode 100644 (file)
index 0623184..0000000
+++ /dev/null
@@ -1,252 +0,0 @@
-Title: I Don't Trust Eliezer Yudkowsky's Intellectual Honesty
-Date: 2022-01-01 11:00
-Category: commentary
-Tags: Eliezer Yudkowsky
-Status: draft
-
-> If you are silent about your pain, they'll kill you and say you enjoyed it.
->
-> —Zora Neale Hurston
-
-### Summary
-
- * [TODO]
-
-In ["Challenges to Yudkowsky's Pronoun Reform Proposal"](TODO: link), I analyze a proposal by Eliezer Yudkowsky to normatively redefine the English pronouns _she_ and _he_ as referring to those who have asked us to use those pronouns. That object-level argument about pronoun conventions is probably not very interesting to many readers. For those who find my arguments persuasive (perhaps just from reading the summary bullet points rather than the entire post), what is perhaps more interesting is to jump up a meta level and ask: why is Eliezer Yudkowsky playing dumb like this? If his comments obviously can't be taken seriously, what's _actually_ going on here?
-
-(But on pain of committing [Bulverism](https://en.wikipedia.org/wiki/Bulverism), it's important that I wrote up the object-level counterargument _first_ as its own post, before engaging in [the fraught endeavor of speculating about psychology](https://arbital.com/p/psychologizing/) in this separate post.)
-
-Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228) on the post:
-
-> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. That is, in the logical counterfactual universe where I knew of very strong arguments against freedom of pronouns, I would have probably stayed silent on the issue, as would many other high-profile community members, and only Zack M. Davis would have said anything where you could hear it.
->
-> This is a filter affecting your evidence; it has not to my own knowledge filtered out a giant valid counterargument that invalidates this whole post. I would have kept silent in that case, for to speak then would have been dishonest.
-
-I claim that my point that _she_ and _he_ already have existing meanings that you can't just ignore by fiat given that the existing meanings are _exactly_ what motivate people to ask for new pronouns in the first place, is a giant valid counterargument that invalidates the claim that "the simplest and best protocol is, '"He" refers to the set of people who have asked us to use "he", with a default for those-who-haven't-asked that goes by gamete size' and to say that this just _is_ the normative definition." (It doesn't invalidate the whole post: the part about English being badly designed is fine.)
-
-Moreover, I claim that this point is _obvious_. This is not a _subtle_ objection. Any sane adult—really, any bright seven-year-old in the year 2016—who puts _any thought whatsoever_ into thinking about why someone might object to the pronouns-by-self-identity convention is going to think of this. And yet, remarkably, Yudkowsky continues:
-
-> Personally, I'm used to operating without the cognitive support of a civilization in controversial domains, and have some confidence in my own ability to independently invent everything important that would be on the other side of the filter and check it myself before speaking. So you know, from having read this, that I checked all the speakable and unspeakable arguments I had thought of, and concluded that this speakable argument would be good on net to publish, as would not be the case if I knew of a stronger but unspeakable counterargument in favor of Gendered Pronouns For Everyone and Asking To Leave The System Is Lying.
->
-> But the existence of a wide social filter like that should be kept in mind; to whatever quantitative extent you don't trust your ability plus my ability to think of valid counterarguments that might exist, as a Bayesian you should proportionally update in the direction of the unknown arguments you speculate might have been filtered out.
-
-So, the explanation of [the problem of political censorship filtering evidence](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting) here is great, but the part where Yudkowsky claims "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter" is utterly _laughable_.
-
-In some ways, it would be _less_ embarrassing for Yudkowsky if he were just outright lying about having tried to think of counterarguments. The original post isn't _that_ bad if you assume that Yudkowsky was writing off the cuff, that he clearly just _didn't put any effort whatsoever_ into thinking about why someone might object. If he _did_ put in the effort—enough that he felt comfortable bragging about his ability to see "everything important" (!!) on the other side of the argument—and _still_ ended up proclaiming his "simplest and best protocol" without even so much as _mentioning_ any of its incredibly obvious costs ... that's just _pathetic_. If someone's ability to explore the space of arguments is _that_ bad, why would you trust their opinion about _anything_?
-
-But perhaps it's premature to judge Yudkowsky without appreciating what tight constraints he labors under. The disclaimer comment mentions "speakable and unspeakable arguments"—but what, exactly, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421871809228):
-
-> People might be able to speak that. A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
-
-(As an aside, the wording of "we might well hear about it from _the other side_" (emphasis mine) is _very_ interesting, suggesting that the so-called "rationalist" community, is, effectively, a partisan institution, despite its claims to be about advancing the generically human art of systematically correct reasoning.)
-I think (a) and (b) _as stated_ are clearly false, so "we" (who?) fortunately aren't losing much by allegedly not being able to speak them. But what about some _similar_ hypotheses, that might be similarly unspeakable for similar reasons?
-
-Instead of (a), consider the claim that (a′) self-reports about gender dysphoria are substantially distorted by [socially-desirable responding tendencies](https://en.wikipedia.org/wiki/Social-desirability_bias)—as a notable and common example, heterosexual males with [sexual fantasies about being female](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html) [often falsely deny or minimize the erotic dimension of their desire to change sex](/papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf) (The idea that self-reports can be motivatedly inaccurate without the subject consciously "lying" should not be novel to someone who co-blogged with [Robin Hanson](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain) for years!)
-
-And instead of (b), consider the claim that (b′) transitioning is socially rewarded within particular _subcultures_ (although not Society as a whole), such that many of the same people wouldn't think of themselves as trans or even gender-dysphoric if they lived in a different subculture.
-
-I claim that (a′) and (b′) are _overwhelmingly likely to be true_. Can "we" talk about _that_? Are (a′) and (b′) "speakable", or not?
-
-We're unlikely to get clarification from Yudkowsky, but based on my experiences with the so-called "rationalist" community over the past coming-up-on-six years—I'm going to _guess_ that the answer is broadly No: no, "we" can't talk about that.
-
-But if I'm right that (a′) and (b′) should be live hypotheses and that Yudkowsky would consider them "unspeakable", that means "we" can't talk about what's _actually going on_ with gender dysphoria and transsexuality, which puts the whole discussion in a different light. In another comment, Yudkowsky lists some gender-transition interventions he named in [a November 2018 Twitter thread](https://twitter.com/ESYudkowsky/status/1067183500216811521) that was the precursor to the present discussion—using a different bathroom, changing one's name, asking for new pronouns, and getting sex reassignment surgery—and notes that none of these are calling oneself a "woman". [He continues](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159424960909228):
-
-> [Calling someone a "woman"] _is_ closer to the right sort of thing _ontologically_ to be true or false. More relevant to the current thread, now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to _debate_ whether this sentence is indeed true or false, and have people express their nuanced opinions by uttering this sentence, or perhaps a more complicated sentence using a bunch of caveats, or maybe using the original sentence uncaveated to express their belief that this is a bad place for caveats. Policies about who uses what bathroom also have consequences and we can debate the goodness or badness (not truth or falsity) of those policies, and utter sentences to declare our nuanced or non-nuanced position before or after that debate.
->
-> Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
-
-Sure, _if we were in the position of designing a constructed language from scratch_ under current social conditions in which a person's "gender" is a contested social construct, rather than their sex an objective and undisputed fact, then yeah: in that situation _which we are not in_, you definitely wouldn't want to pack sex or gender into pronouns. But it's a disingenuous derailing tactic to grandstand about how people need to alter the semantics of their _already existing_ native language so that we can discuss the real issues under an allegedly superior pronoun convention when, _by your own admission_, you have _no intention whatsoever of discussing the real issues!_
-
-(Lest the "by your own admission" clause seem too accusatory, I should note that given constant behavior, admitting it is _much_ better than not-admitting it; so, huge thanks to Yudkowsky for the transparency on this point!)
-
-Again, as discussed in "Challenges to Yudkowsky's Pronoun Reform Proposal", a comparison to [the _tú_/_usted_ distinction](https://en.wikipedia.org/wiki/Spanish_personal_pronouns#T%C3%BA/vos_and_usted) is instructive. It's one thing to advocate for collapsing the distinction and just settling on one second-person singular pronoun for the Spanish language. That's principled.
-
-It's quite another thing altogether to _simultaneously_ try to prevent a speaker from using _tú_ to indicate disrespect towards a social superior (on the stated rationale that the _tú_/_usted_ distinction is dumb and shouldn't exist), while _also_ refusing to entertain or address the speaker's arguments explaining _why_ they think their interlocutor is unworthy of the deference that would be implied by _usted_ (because such arguments are "unspeakable" for political reasons). That's just psychologically abusive.
-
-If Yudkowsky _actually_ possessed (and felt motivated to use) the "ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking", it would be _obvious_ to him that "Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" isn't the hill anyone would care about dying on if it weren't a Schelling point. A lot of TERF-adjacent folk would be _overjoyed_ to concede the (boring, insubstantial) matter of pronouns as a trivial courtesy if it meant getting to _actually_ address their real concerns of "Biological Sex Actually Exists", and ["Biological Sex Cannot Be Changed With Existing or Foreseeable Technology"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and "Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity." The reason so many of them are inclined to stand their ground and not even offer the trivial courtesy is because they suspect, correctly, that the matter of pronouns is being used as a rhetorical wedge to try to prevent people from talking or thinking about sex.
-
-----
-
-Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
-
-Of course, presumably he _doesn't_ think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421901809228):
-
-> it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment [...] I think people are better off at the end of that.
-
-Ah, _prudence_! He continues:
-
-> I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
-
-The problem with trying to "exhibit generally rationalist principles" in an line of argument that you're constructing in order to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
-
-The best explanation of this I know was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
-
-> As a campaign manager reading a book on rationality, one question lies foremost on your mind: "How can I construct an impeccable rational argument that Mortimer Q. Snodgrass is the best candidate for Mayor of Hadleyburg?"
->
-> Sorry. It can't be done.
->
-> "What?" you cry. "But what if I use only valid support to construct my structure of reason? What if every fact I cite is true to the best of my knowledge, and relevant evidence under Bayes's Rule?"
->
-> Sorry. It still can't be done. You defeated yourself the instant you specified your argument's conclusion in advance.
-
-The campaign manager is in possession of a survey of mayoral candidates on which Snodgrass compares favorably to other candidates, except for one question. The post continues (bolding mine):
-
-> So you are tempted to publish the questionnaire as part of your own campaign literature ... with the 11th question omitted, of course.
->
-> **Which crosses the line between _rationality_ and _rationalization_.** It is no longer possible for the voters to condition on the facts alone; they must condition on the additional fact of their presentation, and infer the existence of hidden evidence.
->
-> Indeed, **you crossed the line at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it.** "What!" you cry. "A campaign should publish facts unfavorable to their candidate?" But put yourself in the shoes of a voter, still trying to select a candidate—why would you censor useful information? You wouldn't, if you were genuinely curious. If you were flowing _forward_ from the evidence to an unknown choice of candidate, rather than flowing _backward_ from a fixed candidate to determine the arguments.
-
-The post then briefly discusses the idea of a "logical" argument, one whose conclusions follow from its premises. "All rectangles are quadrilaterals; all squares are quadrilaterals; therefore, all squares are rectangles" is given as an example of _illogical_ argument, even though the both premises are true (all rectangles and squares are in fact quadrilaterals) _and_ the conclusion is true (all squares are in fact rectangles). The problem is that the conclusion doesn't _follow_ from the premises; the _reason_ all squares are rectangles isn't _because_ they're both quadrilaterals. If we accepted arguments of the general _form_ "all A are C; all B are C; therefore all A are B", we would end up believing nonsense.
-
-Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's conception in 2007, which the Yudkowsky of the current year seems to disagree with—has a similar flavor: the stated reasons should be the actual reasons. The post concludes:
-
-> If you really want to present an honest, rational argument _for your candidate_, in a political campaign, there is only one way to do it:
->
-> * _Before anyone hires you_, gather up all the evidence you can about the different candidates.
-> * Make a checklist which you, yourself, will use to decide which candidate seems best.
-> * Process the checklist.
-> * Go to the winning candidate.
-> * Offer to become their campaign manager.
-> * When they ask for campaign literature, print out your checklist.
->
-> Only in this way can you offer a _rational_ chain of argument, one whose bottom line was written flowing _forward_ from the lines above it. Whatever _actually_ decides your bottom line is the only thing you can _honestly_ write on the lines above.
-
-I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
-
-This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
-
-... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
-
-"I don't see what the alternative is besides getting shot," Yudkowsky muses (where presumably, 'getting shot' is a metaphor for a large negative utility, like being unpopular with progressives). Yes, an astute observation! And _any other partisan hack could say exactly the same_, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot.
-
-If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
-
-I see the phrase "bad faith" thrown around more than I think people know what it means. "Bad faith" doesn't mean "with ill intent", and it's more specific than "dishonest": it's [adopting the surface appearance of being moved by one set of motivations, while actually acting from another](https://en.wikipedia.org/wiki/Bad_faith).
-
-For example, an [insurance company employee](https://en.wikipedia.org/wiki/Claims_adjuster) who goes through the motions of investigating your claim while privately intending to deny it might never consciously tell an explicit "lie", but is definitely acting in bad faith: they're asking you questions, demanding evidence, _&c._ in order to _make it look like_ you'll get paid if you prove the loss occurred—whereas in reality, you're just not going to be paid. Your responses to the claim inspector aren't completely casually _inert_: if you can make an extremely strong case that the loss occurred as you say, then the claim inspector might need to put some effort into coming up with some ingenious excuse to deny your claim in ways that exhibit general claim-inspection principles. But at the end of the day, the inspector is going to say what they need to say in order to protect the company's loss ratio, as is personally prudent.
-
-With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's genuinely engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
-
-To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ blatantly mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
-
-Counterarguments aren't completely causally _inert_: if you can make an extremely strong case that Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity, Yudkowsky will put some effort into coming up with some ingenious excuse for why he _technically_ never said otherwise, in ways that exhibit generally rationalist principles. But at the end of the day, Yudkowsky is going to say what he needs to say in order to protect his reputation, as is personally prudent.
-
-Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description that makes predictions about behavior, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces! For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I engage in a bit of what is sometimes called ["concern trolling"](https://geekfeminism.fandom.com/wiki/Concern_troll): I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception in the service of correcting the distortion where I don't think my interlocutor _should_ be paying attention to my personal alignment.
-
-That is, my bad faith concern-trolling gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
-
-In contrast, the "it is sometimes personally prudent [...] to post your agreement with Stalin" gambit is the exact reverse: it's _introducing_ a distortion into the discussion in the hopes of correcting people's beliefs about the speaker's ideological alignment. (Yudkowsky is not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
-
-Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
-
-Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be extremely relevant.
-
-But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that _not_ everybody knows and that someone with power wants to _keep_ it that way.
-
-For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then the savvy people wouldn't have to face the tough choice between acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
-
-Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
-
-But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose numerous flaws I have analyzed in detail).
-
-"[P]eople do _know_ they're living in a half-Stalinist environment," Yudkowsky says to justify himself. "I think people are better off at the end of that," he says. But who are "people", specifically? I'm asking because I have a long sob story about how _I_ didn't know, and _I'm_ not better off.
-
-For a long time, I've been meaning to write up the Whole Dumb Story. 
-
-
-[TODO: For a long time, I've been meaning to write up the Whole Dumb Story, but it's been hard for me to finish, and it would be too long for you to read, so I hope it's OK if I just hit the highlights]
-
-[back in the Sequences-era, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to My Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)]
-
-In [a 26 March 2016 Facebook post](https://www.facebook.com/yudkowsky/posts/10154078468809228), he wrote—
-
-> I'm not sure if the following generalization extends to all genetic backgrounds and childhood nutritional backgrounds. There are various ongoing arguments about estrogenlike chemicals in the environment, and those may not be present in every country ...
-
-> Still, for people roughly similar to the Bay Area / European mix, I think I'm over 50% probability at this point that at least 20% of the ones with penises are actually women.
-
-(***!?!?!?!?***)
-
-> A lot of them don't know it or wouldn't care, because they're female-minds-in-male-bodies but also cis-by-default (lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities). Or they don't know it because they haven't heard in detail what it feels like to be gender dysphoric, and haven't realized 'oh hey that's me'. See, e.g., <https://sinesalvatorem.tumblr.com/post/141690601086/15-regarding-the-4chan-thing-4chans> and <https://slatestarcodex.com/2013/02/18/typical-mind-and-gender-identity/>
-
-https://www.facebook.com/yudkowsky/posts/10154110278349228
-> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
-> ==DOES ALL OF THE HAPPY DANCE FOREVER==
-
-
-
-
-uncritically (uncharacteristically uncritically) taking the newly-ascendant gender-identity theory for granted ("lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities"), without considering the obvious-in-retrospect hypothesis that "guy who speculates about his female analogue on a transhumanist mailing list in 2004" and "guy who thinks he might be a trans women in Berkeley 2016" are the same guy.
-
-
-[The claim that the "Hill of Validity" thread wasn't partisan, but was just neutrally trying to teach the difference between facts and policy decisions is not credible. Imagine if someone was complaining about being required to say "Peace Be Upon Him" before referencing the prophet Muhammad. "It's a speech act, there's nothing factually false about saying 'peace be unto him'"]
-unremediatedgender.space/2020/Aug/yarvin-on-less-wrong/
-
-
-[For example](https://twitter.com/ESYudkowsky/status/1067490362225156096):
-> The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
-
-
-
-"Beliefs about the self aren't special" is part of the whole AI reflectivity thing, too!!
-
-
-> Still think this was a perfectly fine tweet btw.  Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on.  Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
-https://twitter.com/ESYudkowsky/status/1356535300986523648
-If you were actually HONESTLY tring to narrow it, you would have said, "By the way, this is just about pronouns, I'm not taking a position on whether trans women are women"
-
-> If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
-https://twitter.com/ESYudkowsky/status/1435618825198731270
-
-Speaking of narcissism and perspective-taking, "deception" isn't about whether you personally "lied" according to your own re-definitions; it's about whether you predictably made others update in the wrong direction
-
-> I have never in my own life tried to persuade anyone to go trans (or not go trans) - I don't imagine myself to understand others that much.
-https://twitter.com/ESYudkowsky/status/1404697716689489921
-
-https://twitter.com/ESYudkowsky/status/1404821285276774403
-> It is not trans-specific.  When people tell me I helped them, I mostly believe them and am happy.
-
-https://twitter.com/ESYudkowsky/status/1434906470248636419
-> Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
-
-https://www.facebook.com/yudkowsky/posts/10154981483669228
-> I know that it's a bad sign to worry about which jokes other people find funny. But you can laugh at jokes about Jews arguing with each other, and laugh at jokes about Jews secretly being in charge of the world, and not laugh at jokes about Jews cheating their customers. Jokes do reveal conceptual links and some conceptual links are more problematic than others.
-
-
-
-What makes all of this especially galling is the fact that _all of my heretical opinions are literally just Yudkowsky's opinions from the 'aughts!_ My whole thing about how changing sex isn't possible with existing technology because the category encompasses so many high-dimensional details? Not original to me! I [filled in a few trivial technical details](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard), but again, this was _in the Sequences_ as ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions). My thing about how you can't define concepts any way you want, because there are mathematical laws governing which category boundaries compress your anticipated experiences? Not original to me! I [filled in](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [a few technical details](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception), but [_we had a whole Sequence about this._](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)
-
-Seriously, you think I'm _smart enough_ to come up with all of this indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts _when he still thought he could politically afford to gave a shit about telling the truth_ in this domain.
-
-Now that the political environment has changed and he doesn't think he can afford to give a shit, does ... does he expect us not to _notice_? Or does he just think that "everybody knows"?
-
-
-
-But I don't think that everybody knows. So I'm telling you.
-
-
-
-
-
-[Why does this matter? It would be dishonest for me to claim that this is _directly_ relevant to xrisk, because that's not my real bottom line]
-
-Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
-
-
-a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
-
-It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
-
-> _Perhaps_, replied the cold logic. _If the world were at stake._
->
-> _Perhaps_, echoed the other part of himself, _but that is not what was actually happening._
-https://www.yudkowsky.net/other/fiction/the-sword-of-good
-
-https://www.readthesequences.com/
-> Because it is all, in the end, one thing. I talked about big important distant problems and neglected immediate life, but the laws governing them aren't actually different.
-
-> the challenge is almost entirely about high integrity communication by small groups
-https://twitter.com/HiFromMichaelV/status/1486044326618710018
-
-https://www.econlib.org/archives/2016/01/the_invisible_t.html
index f061ad2..0f36741 100644 (file)
@@ -6,15 +6,33 @@ Status: draft
 
 In the days of auld lang syne on Earth-that-was, in the Valley of of Plain Speech in the hinterlands beyond the Lake of Ambiguous Fortune, there lived a population of pre-intelligent squirrels. Historical mammologists have classified them into two main subspecies: the west-valley ground squirrels and the east-valley tree squirrels—numbers 9792 and 9794 in Umi's grand encyclopædia of Plain Speech creatures, but not necessarily respectively: I remember the numbers, but I can never remember which one is which.
 
-Like many pre-intelligent creatures, both subspecies of Plain Speech Valley squirrels were highly social animals. Much of their lives concerned the sharing of information about how to survive: how to fashion simple tools for digging up nuts, the best techniques for running away from predators, what kind of hole or tree offered the best shelter, _&c._ Possession of such information was valuable, and closely guarded: squirrels would only share true secrets with their closest friends. Maneuvering to be told secrets, and occasionally to spread false secrets to rivals, was the subject of much drama and intrigue in the squirrels' lives.
+Like many pre-intelligent creatures, both subspecies of Plain Speech Valley squirrels were highly social animals, with adaptations for entering stable repeated-cooperation relations with conspecifics: _friendships_ being the technical term. Much of the squirrels' lives concerned the sharing of information about how to survive: how to fashion simple tools for digging up nuts, the best running patterns for fleeing predators, what kind of hole or tree offered the best shelter, _&c._ Possession of such information was valuable, and closely guarded: squirrels would only share secrets with their closest friends. Maneuvering to be told secrets, and occasionally to spread fake secrets to rivals, was the subject of much drama and intrigue in their lives.
 
-[TODO: why be secretive? Surely if they pooled information together, they could accumulate mastery over the environment]
+At this, some novice students of historical mammology inquire: why be secretive? Surely if the squirrels were to pool their knowledge together, and build on each other's successes, they could accumulate ever-greater mastery over their environment, and possibly even spark their world's ascension?!
 
-(well, there's a reason the ascension of Earth-that-was would be sparked by the _H. sapiens_ line of hominids some millions of years later, rather than by the Plain Speech species 9792 and 9794.)
+To which it is replied: evolution wouldn't necessarily select for that. Survival-relevant opportunities are often rivalrous: two squirrels can't both eat the same nut, or hide in the same one-squirrel-width hole. Or as it was put in a joke popular amongst the west-valley ground squirrels (according to Harrod's post-habilitation thesis on pre-intelligence in the days of auld lang syne): I don't need to outrun the _predator_, I just need to outrun my _conspecifics_. Thus, secrecy instincts turned out to be adaptive: a squirrel keeping a valuable secret to itself and its friends would gain more fitness than a squirrel who shared its knowledge freely with anysquirrel who could listen.
 
-[TODO: novelty instincts about secrets make cross-species friends more desirable, but species differences also make them frustrating]
+A few students inquire further: but that's a _contingent_ fact about the distribution of squirrel-survival-relevant opportunities in the Valley of of Plain Speech in the days of auld lang syne, right? A different distribution of adaptive problems might induce a less secretive psychology?
 
-"I wish I had a special friend. Someone who understood me. Someone to share my secrets with."
+To which it is replied: yes, well, there's a reason the ascension of Earth-that-was would be sparked by the _H. sapiens_ line of hominids some millions of years later, rather than by the Plain Speech subspecies 9792 and 9794.
+
+Another adaptive infromation-processing instinct in subspecies 9792 and 9794 was a taste for novelty. Not all information is equally valuable. A slight variation on a known secret was less valuable than a completely original secret the likes of which had never been hitherto suspected. (Among pre-intelligent creatures generally, novelty-seeking instincts are _more_ convergent than secrecy instincts, but with considerable variation in strength depending on the derivatives of the distribution of adaptive problems; Dripler's Pre-Intelligent Novelty-Seeking Scale puts subspecies 9792 and 9794 in the 76th percentile on this dimension.)
+
+The coincidental conjunction of a friendship-forming instinct, a novel-secret-seeking instinct, _and_ a nearby distinct subspecies with similar properties, led to some unusual behavior patterns. Given the different survival-relevant opportunities in their respective habitats, each subspecies predominantly hoarded _different_ secrets: the secret of how to jump and land on the thinner branches of the reedy pilot tree was of little relevance to the daily activity of a west-valley ground squirrel, but the secret of how to bury nuts without making it obvious that the ground had been upturned was of little import to an east-valley tree squirrel.
+
+But the squirrels' _novelty-seeking instincts_ didn't track such distinctions. Secrets from one subspecies thus functioned as a superstimulus to the other subspecies, on account of being so exotic, thus making cross-species friendships 
+
+[TODO: but species differences also make them frustrating]
+
+At this, some extremely naïve novice students of historical mammology inquire: [TODO ...]
+
+To which it is replied: 
+
+A few particularly naïve students inquire further: [TODO ...]
+
+To which it is replied: there's _no reason whatsoever_ for evolution to select for that, _dummy_. What's wrong with you?
+
+And so, many, many times in the days of auld lang syne, a squirrel in a burrow or a tree would sadly settle down to rest for the night, lamenting, "I wish I had a special friend. Someone who understood me. Someone to share my secrets with."
 
 And beside them, a friend or a mate would attempt to comfort them, saying, "But _I'm_ your friend. _I_ understand you. You can share your secrets with _me_."
 
diff --git a/content/drafts/reducing-bias-and-improving-safety.md b/content/drafts/reducing-bias-and-improving-safety.md
new file mode 100644 (file)
index 0000000..37be4ad
--- /dev/null
@@ -0,0 +1,22 @@
+Title: "Reducing" Bias and Improving "Safety"
+Date: 2022-07-19
+Category: commentary
+Tags: artificial intelligence
+Status: draft
+
+https://openai.com/blog/reducing-bias-and-improving-safety-in-dall-e-2/
+
+> Today, we are implementing a new technique so that DALL·E generates images of people that more accurately reflect the diversity of the world's population. This technique is applied at the system level when DALL·E is given a prompt describing a person that does not specify race or gender, like "firefighter."
+
+https://www.reddit.com/r/dalle2/comments/w1mflp/gender_bias_gone/igmevpj/
+https://twitter.com/waxpancake/status/1549076996935675904
+https://twitter.com/rzhang88/status/1549472829304741888
+https://twitter.com/cis_female/status/1549526889420947456
+
+> it doesn't seem to want to give me a male nurse
+https://twitter.com/robertskmiles/status/1549559401622691840
+
+https://www.lesswrong.com/posts/pRkFkzwKZ2zfa3R6H/without-specific-countermeasures-the-easiest-path-to
+
+------
+
index 00be6cf..0dfb22e 100644 (file)
@@ -124,3 +124,10 @@ A much better analogy is ||the thing where you, Linta, and Swimmer report fantas
 
 S. (she doesn't get it):
 > I do also enjoy fantasizing from the perspective of a fictional very attractive woman and imagining the inner details of a hypothetical other person's attraction to her; this is maybe a form of autogynephilia? (Though it is a bit hard for me to distinguish autogenyphilia from just getting turned on by imagining other people being attracted to you / imagining how other people see you)
+
+
+https://link.springer.com/epdf/10.1007/s10508-022-02359-8?sharing_token=jzX6q1NAJAY6-F_jSZ9wmfe4RwlQNchNByi7wbcMAY4WOO91AGBPQEW4W5GA-5HjFFBOW6MbqFHl6iM4xVsaD3DHcIMra_eBV8WQP5ACn0suHGXlnXqqAYAmkbrYzfglseOmxogZQqQ9SymDk_KPLQTlCvTiA2MPLdV_k8lldyE%3D
+
+https://link.springer.com/article/10.1007/s10508-022-02359-8
+
+https://sillyolme.wordpress.com/2022/06/27/no-women-are-not-autogynephilic/
diff --git a/content/drafts/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model.md b/content/drafts/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model.md
deleted file mode 100644 (file)
index ce43feb..0000000
+++ /dev/null
@@ -1,99 +0,0 @@
-Title: The Two-Type Taxonomy Is a Useful Approximation for a More Detailed Causal Model
-Date: 2022-03-30 05:00
-Category: commentary
-Tags: causality, two-type taxonomy
-Status: draft
-
-A lot of people tend to balk when first hearing about the [two-type taxonomy of male-to-female transsexualism](https://en.wikipedia.org/wiki/Blanchard's_transsexualism_typology). What, one scoffs, you're saying _all_ trans women are exactly one of these two things? It seems at once both too simple and too specific.
-
-In some ways, it's a fair complaint! Psychology is _complicated_; every human is their own unique snowflake. But it would be impossible to navigate the world using the "every human is their own unique _maximum-entropy_ snowflake" theory. In order to [compress our observations](https://www.lesswrong.com/posts/mB95aqTSJLNR9YyjH/message-length) of the world we see, we end up distilling our observations into categories, clusters, diagnoses, [taxons](https://lorienpsych.com/2020/10/30/ontology-of-psychiatric-conditions-taxometrics/): no one matches any particular clinical-profile stereotype _exactly_, but [the world makes more sense when you have language for theoretical abstractions](https://astralcodexten.substack.com/p/ontology-of-psychiatric-conditions) like ["comas"](https://slatestarcodex.com/2014/08/11/does-the-glasgow-coma-scale-exist-do-comas/) or "depression" or "borderline personality disorder"—or "autogynephilia".
-
-Concepts and theories are good to the extent that they can "pay for" their complexity by making more accurate predictions. How much complexity is worth how much accuracy? Arguably, it depends! General relativity has superceded Newtonian classical mechanics as the ultimate theory of how gravity works, but if you're not dealing with velocities approaching the speed of light, Newton still makes _very good_ predictions: it's pretty reasonable to still talk about Newtonian gravitation being "true" if it makes the math easier on you, and the more complicated math doesn't give appreciably different answers to the problems you're interested in.
-
-Moreover, if relativity hasn't been invented yet, it makes sense to stick with Newtonian gravity as the _best_ theory you have _so far_, even if there are a few anomalies [like the precession of Mercury](https://en.wikipedia.org/wiki/Tests_of_general_relativity#Perihelion_precession_of_Mercury) that it struggles to explain.
-
-The same general principles of reasoning apply to psychological theories, even though psychology is a much more difficult subject matter and our available theories are correspondingly much poorer and vaguer. There's no way to make precise quantitative predictions about a human's behavior the way we can about the movements of the planets, but we still know _some_ things about humans, which get expressed as high-level generalities that nevertheless admit many exceptions: if you don't have the complicated true theory that would account for everything, then simple theories plus noise are better than _pretending not to have a theory_. As you learn more, you can try to pin down a more complicated theory that explains some of the anomalies that looked like "noise" to the simpler theory.
-
-What does this look like for psychological theories? In the crudest form, when we notice a pattern of traits that go together, we give it a name. Sometimes people go through cycles of elevated arousal and hyperactivity, punctuated by pits of depression. After seeing the same distinctive patterns in many such cases, doctors decided to reify it as a diagnosis, ["bipolar disorder"](https://en.wikipedia.org/wiki/Bipolar_disorder).
-
-If we notice further patterns _within_ the group of cases that make up a category, we can spit it up into sub-categories: for example, a diagnosis of bipolar I requires a full-blown manic episode, but hypomania and a major depressive episode qualify one for bipolar II.
-
-Is the two-type typology of bipolar disorder a good theory? Are bipolar I and bipolar II "really" different conditions, or slightly different presentations of "the same" condition, part of a "bipolar spectrum" along with [cyclothymia](https://en.wikipedia.org/wiki/Cyclothymia)? In our current state of knowledge, this is debateable, but if our understanding of the etiology of bipolar disorder were to advance, and we were to find evidence that that bipolar I has a different underlying _causal structure_ from bipolar II with decision-relevant consequences (like responding to different treatments), that would support a policy of thinking and talking about them as mostly separate things—even while they have enough in common to both be kinds of "bipolar". The simple high-level category ("bipolar disorder") is a useful approximation in the absence of knowing the sub-category (bipolar I _vs._ II), and the subcategory is a useful approximation in the absence of knowing the patient's detailed case history.
-
-With a _sufficiently_ detailed causal story, you could even dispense with the high-level categories altogether and directly talk about the consequences of different neurotransmitter counts or whatever—but lacking that supreme precise knowledge, it's useful to sum over the details into high-level categories, and meaningful to debate whether a one-type or two-type taxonomy is a better statistical fit to the underlying reality whose full details we don't know.
-
------
-
-In the case of male-to-female transsexualism, we notice a pattern where androphilic and non-androphilic trans women seem to be different from each other—not just in their sexuality, but also in their age of dysphoria onset, interests, and personality.
-
-This claim is most famously associated with the work of [Blanchard](/papers/blanchard-typology_of_mtf_transsexualism.pdf), [Bailey](https://en.wikipedia.org/wiki/The_Man_Who_Would_Be_Queen), and [Lawrence](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html), who argue that there are two discrete types of male-to-female transsexualism: an autogynephilic type (basically, [men who love women and want to become what they love](/papers/lawrence-becoming_what_we_love.pdf)), and an androphilic/homosexual type (basically, the extreme right tail of feminine gay men).
-
-But many authors have noticed the same bimodal clustering of traits under various names, [while disagreeing about the underlying causality](/2021/Feb/you-are-right-and-i-was-wrong-reply-to-tailcalled-on-causality/). [Veale, Clarke, and Lomax](/papers/veale-lomax-clarke-identity_defense_model.pdf) attribute the differences to whether defense mechanisms are used to suppress a gender-variant identity. [Anne Vitale](http://www.avitale.com/developmentalreview.htm) identifies distinct groups (Group One and Group Three, in her terminology), but hypothesizes that the difference is due to degree of prenatal androgenization. Julia Serano [concedes that "the correlations that Blanchard and other researchers prior to him described generally hold true"](http://unremediatedgender.space/papers/serano-agp-a_scientific_review_feminist_analysis_and_alternative.pdf), but denies their causal or taxonometric significance.
-
-Is a two type typology of male-to-female transsexualism a good theory? Is it "really" two different conditions (following Blanchard _et al._), or slightly different presentations of "the same" condition (following Veale _et al._)?
-
-When the question is posed as such—if I have to choose between a one-type and a two-type theory—then I think the two-type theory is superior. But I also think we can do better and say more about the underlying causal structure that the simple two-types story is approximating, and hopefully explain anomalous cases that look like "noise" to the simple theory.
-
-In the language of [causal graphs](https://en.wikipedia.org/wiki/Causal_graph) (where the arrows point from cause to effect), here's what I think is going on:
-
-![transition causal graph](/images/transition_dag.svg)
-
-Let me explain. 
-
-What are the reasons a male-to-female transition might seem like a good idea to someone? _Why_ would a male be interested in undergoing medical interventions to resemble a female and live socially as a woman? I see three prominent reasons, depicted as the parents of the "transition" node in a graph.
-
-First and most obviously, femininity: if you happen to be a male with unusually female-typical psychological traits, you might fit into the social world better as a woman rather than as an anomalously effeminate man.
-
-Second—second is hard to quickly explain if you're not already familiar with the phenomenon, but basically, autogynephilia is very obviously a real thing; [I wrote about my experiences with it in a previous post](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/). Crucially, autogynephilic identification with the _idea_ of being female, is distinct from naturally feminine behavior, of which other people [know it when they see it](/2022/May/gaydar-jamming/).
-
-Third—various cultural factors. You can't be trans if your culture doesn't have a concept of "being trans", and the concepts [and incentives](/2017/Dec/lesser-known-demand-curves/) that your culture offers, make a difference as to how you turn out. People who think of themselves as trans women in today's culture, could very well be "the same" as people who thought of themselves as drag queens or occasional cross-dressers 10 or 20 or 30 years ago. (Either "the same" in terms of underlying dispositions, or, in many cases, just literally the same people.)
-
-If there are multiple non-mutually-exclusive reasons why transitioning might seem like a good idea to someone, then the decision of whether to transition could take the form of a liability–threshold model: males transition if the _sum_ of their levels of femininity, autogynephilia, and culture-related-trans-disposition exceed some threshold (given some sensible scheme for quantifying and adding (!) these traits).
-
-You might ask: okay, but then where do the two types come from? This graph is just illustrating (conjectured) cause-and-effect relationships, but if we were actually to flesh it out as a complete Bayesian network, there would be additional data that quantitatively specifies what (probability distribution over) values each node takes conditional on the values of its parents. When I claim that Blanchard–Bailey–Lawrence's two-type taxonomy is a useful approximation for this causal model, I'm conjecturing that the distribution represented by this Bayesian network (if we had the complete network) could also be approximated a two-cluster model: _most_ people high in the "femininity" factor will be low in the "autogynephilia" factor and _vice versa_, such that you can buy decent predictive accuracy by casually speaking as if there were two discrete "types".
-
-
-[TODO—
-[The sexual orientation node increases femininity and decreases AGP, so those pathways are anti-correlated; however, the fact that straight AGP men also vary somewhat in their degree of femininity; some informal accounts (link Sailer) have emphasized how masculine (even hypermasculine) AGPs are, but this seems wrong]
-[briefly mention ETLE]
-[Berkson's paradox is also a thing]
-[People who don't quite seem to fit the coarse taxonomy might still be explained by the graph and a threshold model]
-]
-
-
-You might ask: okay, but hhy do I believe this? Anyone can name some variables and sketch a directed graph between them. Why should you believe this particular graph is _true_?
-
-Ultimately, the reader cannot abdicate responsibility to think it through and decide for herself ... but it seems to _me_ that all six arrows in the graph are things that we separately have a pretty large weight of evidence for, either in published scientific studies, or just informally looking at the world.
-
-The femininity→transition arrow is obvious. The sexual orientation→femininity arrow (representing the fact that gay men are more feminine than straight men), besides being stereotypical folk knowledge, has also been extensively documented, for example by [Lippa](/papers/lippa-gender-related_traits_in_gays.pdf) and by [Bailey and Zucker](/papers/bailey-zucker-childhood_sex-typed_behavior_and_sexual_orientation.pdf).
-
-The v-structure between 
-
-[ETLE sexual orientation AGP v-structure, and effect of AGP on transition documented by Lawrence]
-
-[I don't have a good formal citation on cultural factors, but it seems really obvious if you've been paying attention for the last decade]
-]
-
-[quantifying the two-type effect:
-Lippa 2000 "Gender-Related Traits in [...]"
-2.70 effect of femininity for gay vs. not-day  and 1.07 for "any" vs. "no" attraction to men
-mean GD score for non-lesbian women as 0.31; mean score for gay men was 0.30!
-—oh, maybe I want to be using Study 2, which had a better sample of gays
-GD occupations in study 2
-gay men are at .48 (.14); straight women at .36 (.13); straight men at .68 (.12)
-that's d=–1.61 between gay and straight men
-a gay man only needs to be 1 standard deviation (.48-.36 = 0.12) more feminine than average to be as feminine as a straight women
-whereas a straight man needs to be (.68-.36 = 0.32) 0.32/0.12=2.67 more feminine than average to be as feminine as a straight woman—that's rarer, but not impossible
-
-In percentile terms, 1-norm.cdf(1) = 0.15 of gay men are as feminine as a woman
-whereas 1-norm.cdf(2.67) = 0.003 of straight men are
-that's a likelihood ratio of 50 ... but the prior is not that far from 50:1 in the other direction! They cancel out!!
-
-For concreteness: what does the Bayes net spit out if 3% of men are gay, and 5% are AGP, and whatever other assumptions I need to make this work?
-Suppose gays transition if they're 2-sigma feminine ...
-
-]
-
-[further implications: as cultural factors increase, the late-onset type becomes more of a "NOS" rather than AGP type]
-
-_(Thanks to the immortal [Tailcalled](https://surveyanon.wordpress.com/) for discussion.)_
diff --git a/notes/a-hill-email-review.md b/notes/a-hill-email-review.md
new file mode 100644 (file)
index 0000000..622f308
--- /dev/null
@@ -0,0 +1,832 @@
+Email timeline—
+1 Dec 2018: "super-presumptuous mail about categorization and the influence graph" to Scott cc Anna Jonah Sarah Michael
+... discussion with Scott runs to 3 Dec
+3 Dec: forward Scott thread to Ben and Katie, privacy leak
+4 Dec: Ben—bullshit nitpicking is an implied ostracism threat
+5 Dec: Ben—the interesting part is your model of the "rationalists" is wrong
+6 Dec: Michael—this is important, share with Aurora?
+10 Dec: asking Anna for her take
+11 Dec: social proof from Sarah to Scott
+11 Dec: Michael—argument should be compelling unless Craft Is Not the Community
+12 Dec: emailing Harmanas after running into him at the train
+16 Dec: to Sarah and Michael, "I still owe you" first draft
+16 Dec: Michael—I want EY to respond to arguments, but wait a few weeks?
+18–19 Dec: to Anna and Michael, on conversational violence and self-defense
+19 Dec: met Aurora
+21 Dec: to Sarah, something to protect
+21 Dec: Sarah—Let's Get This Gender Thing Over With (unpublished)
+24 Dec: ... further discussion with Ben/Sarah/Michael
+26 Dec: my intelligence notes on Ziz
+30 Dec: Ben—phatic declaration of respect makes me feel less safe
+1 Jan: final draft of "I still owe you money"
+1 Jan: Eliezer has taken initiative to spend Eliezerself's time, Rob as police
+3 Jan: meatspace met with Michael/Sarah/Auora/Ben/Andrew
+5 Jan: met with Ziz and Gwen with Michael and Aurora, lawsuits 
+6 Jan: backchannel to Anna about Ziz
+6 Jan: EY thread cont'd
+9 Jan: I want to see you be brave (was: Re: I still owe you money; and, discourse on categories and the fourth virtue)
+11 Jan: me—What do think submitting to social pressure looks like?!
+15 Jan: unsent "thunder comes before gaslighting" draft
+16 Jan: Ben to me/Anna on old thread: esotericism is less of a problem if flagged
+18 Jan: gender refugees, moral patiency, and BBL
+29 Jan: me to Kay Brown: have you noticed LGBTQ/queer culture getting worse?
+8 Feb: me to Katie about Rust All-Hands
+8 Feb: me to Ben and Michael about social competence
+20 Feb: impulsive email to Scott (subject: a howl of despair which is nameless)
+20 Feb: cold outreach to Ben Landau-Taylor
+21 Feb: telling Marcus, I'm out of cards: we created a monster
+22 Feb: "RIP Culture War" thread
+22 Feb: Michael offers advice; I forward with Scott; Michael calls it a destructive move
+25 Feb: first draft of defending against "alt-right" categorization
+27 Feb: more support from the gang
+27-28 Feb: on private universes
+1 Mar: intra-group disagreement re "ambient epistemic violence"
+2 Mar: Michael—independence of perspectives vs. failure to present an united front
+2 Mar: I saw the new Rebel Wilson movie last night, went to Simon's birthday (I remember seeing Scott there), then met Anna
+2 Mar: Anna's comment about Michael
+3 Mar: "Apologies are always intrinsically worthless, but that fact that we are able to legitimately demand an apology means that we can legitimately demand that he look at something."
+3 Mar: I heard Anna say my desire for good arugments to win was "selfish"; what she actually said was "self-centered", "it seems less important than what happens on topics that we don't all know there isn't free speech about."
+3 Mar: "told them that the thing that would most help AI risk from them anyhow was for them to continue on their present career," is that if I try to only focus on "important" things, I'll probably just come up with something fake
+3 Mar: more draft, more thanks for social proof
+5 Mar: Scott gets back to me
+5 Mar: 12 short stories about language (and, expressing regret that I only email Scott when I need something from him)
+6 Mar: SJWs without guns doing this than you are about mostly white men with money, gavels and guns doing it? ...  SJW agenda is to play by the same rules as the legal system plays by, and they do it with less support from tradition and from ritual, so it's more obvious,
+6 Mar: much better draft to EY (defending against alt-right)
+10 Mar: send revised draft to EY
+14 Mar: meeting with Ben/Sarah/Marie/Jessica; Ben assist on "Blegg Mode"
+17 Mar: me to Scott, bringing up idea that in-person ideas were better
+17 Mar: Michael characterizing EY as choosing to be a cult leader
+18 Mar: starting to overheat (subject: "strategy huddle II")—
+I referred to Sarah and Ben at Sunday conversation saying in-person meetings were better
+Scott says "I try to avoid in-person meetings in general, and this is probably in my bottom 1% of things that I would enjoy talking about in person"
+I write to my team wondering if I should propose a $4000 happy price
+then I say, maybe don't reply before Friday
+6 p.m.: really angry at Scott for not understanding the difference between cluster in a value-dependent subspace (as with the dagim/fish example), and value-dependent to not make my friends sad. But my boss was expecting code by noon tomorrow
+7 p.m.: let go of the anger somehow and just do my job this week and then write up the mathy version
+8:44 p.m.: fantasizing about recruiting Buck or Duncan to our coalition; never sure how to interpret my self-reports; even when crying, shaking, randomly yelling, &c. I think I'm still noticeably incentivizable: I think that if someone were to present a credible threat (e.g., slapping me and telling me to snap out of it), then I would be able to calm down: there's some sort of game-theory algorithm in the brain that subjectively feels genuine distress (like crying or sending people too many hysterical emails) but only when it can predict that it will be tolerated
+10:27 p.m.: I tweeted a Sequences quote that summarizes how I'm feeling (mention is to attribute credit; Eliezer has so many followers that he probably won't even see the mention notification), except it's not quite appropriate, because the quote is about failure resulting in the need to invent new methods of rationality, better than the ones you were taught. But ... the methods I was taught are great! I don't have a pressing need to improve on them! I just can't cope with everyone else having forgotten!
+11:01 p.m.: OK, the dayjob situation is really bad right now (it's almost 2300), so let's try one of those commitment-contract things. I hereby pledge not to check my personal email, Facebook, or Twitter until 1700 Pacific Daylight time on Friday the twenty-second of March. (I have an /etc/hosts manipulation script and I can turn off my home computer to help.) If I fail in this pledge, then ... um, I'm having trouble thinking of a good incentive here. (Traditionally you use money, but unfortunately, I'm only 78% Ashkenazi and my brain doesn't believe money is real.) So, um, "or else"!
+2:47-3:55 a.m.: some replies from Michael
+4:01 a.m.: I got the unit test passing; why do I keeping lying about email hiatus?
+4:15 a.m.: "predictably bad ideas" email to Anna/Michael/Ben/Sarah/Zvi/Scott/Alicorn/Mike
+5:26 a.m.: five impulsive points
+5:58 a.m.: everyone's first priority should be to make sure Zack can sleep
+6:14 a.m.: I'm really sorry about this. I don't need Scott's help and I think Michael is being a little aggressive about that, but I guess that's also kind of Michael's style?
+6:18 a.m.: Michael's response: What the FUCK Zack!?!
+7:27 a.m.: Home now. Going to get in bed. I could say more, but that would be high-variance, and we don't want variance right now
+19 Mar: Michael seems disappointed with me for what he perceived as me escalating and then deescalating just after he came to help, but which from my perspective felt like me just trying to communicate that I don't want to impose too many costs on my friends just because I felt upset today. (Subject: "yet another strategy huddle (III)")
+19 Mar: Ben writes off Scott and ignores a boundary; nominates Jessica for helping me
+19 Mar: maybe there's a reason to be attached to the "rationalist" brand name/social identity, because my vocabulary has been trained really hard on this subculture; theistic evolution Church analogy
+20 Mar: planning to meet Zvi in person for first time
+20 Mar: Ben asks Scott to alter the beacon (I think this became https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/ )
+20 Mar: super-proton concession (why now? maybe he saw my "tools shattered" Tweet, or maybe the Quillette article just happened to be timely)
+21 Mar: I think of the proton criticism; nominate Ben as mission commander
+21 Mar: I suggest to Anna that chiming in would be a movement towards peace with Michael's gang
+21 Mar: Ben and Michael don't think the techincal quibble makes any progress
+22 Mar: I literally ran into Scott on the train
+22 Mar: Scott does understand the gerrymandering/unnaturalness problem, but it sort of seems like he doesn't understand that this is about cognitive algorithms rather than verbal behavior ("someone tells you that classifying a burrito as a sandwich will actually save ten million lives and ensure friendly AI in our lifetime, would you still refuse to classify a burrito as a sandwich?"—well, it doesn't matter what I say), whereas Eliezer definitely understands
+24 Mar: Michael to me on Anna as cult leader
+24 Mar: I tell Michael that I might be better at taking his feedback if he's gentler
+30 Mar: hang out with Jessica (previous week was Zvi and Nick and anti-fascist Purim)
+30 Mar: Michael—we need to figure out how to win against bad faith arguments
+30 Mar: wrapping up drafts
+me to Scott: _what_ post about transgender
+conceptual gerrymandering is not unique
+it's fine if you don't help; you've suffered enough
+Kelsey agreeing on the object level for a different reason
+crippling the orcs' general ability to reason
+early draft of what became "Where to Draw the Boundaries?"
+31 Mar: the real issue is whether we want to destroy everyone's 
+31 Mar: Sarah—isn't the math overkill?
+31 Mar: Ben thinks I'm reading Kelsey wrong, that she's counting happiness as part of usability
+31 Mar: I think that math is important for principle—and intimidation (https://slatestarcodex.com/2014/08/10/getting-eulered/)
+31 Mar: "a very vague understanding of what you're trying to do with the second email but it seems kind of sketchy to me, like you're writing an email to Scott meant to look persuasive to Eliezer"
+31 Mar: I want a court ruling; I'm betting that it's psychologically harder for someone who knows the Rules to continue being dishonest against someone who has the correct answer and isn't willing to give up on good-faith argument.
+31 Mar: Ben— this just seemed like the kind of bank shot where, given the track record of Zack's intuitions, I expect it to fail unless he's explicitly modeling what he's doing
+31 Mar: email prosecution not useful, explicitly asking for a writ of certiorari is better than sending "cc in case you're interested" mail and delusionally hoping for it to function as an appeal.
+31 Mar: I recount to Michael Jessica's account of her time at MIRI
+31 Mar: Michael—"since there is absolutely no plausible narrative in which I was bringing them into a cult, there is no symmetry in our narratives." this didn't age well
+31 Mar: Ben—the most important thing for LessWrong readers to know about - a similarly careful explanation of why you've written off Scott, Eliezer, and the "Rationalists"
+31 Mar: I'm reluctant, because I don't want to attack my friends in public (and don't want to leak info from private conversations)
+31 Mar: Ben—self-promotion imposes a cost on others
+1 Apr: fantasizing Susan the Senior sorter parable turing violent
+1 Apr: Avoiding politically-expensive topics is fine! Fabricating bad epistemology to support a politically-convenient position and then not retracting it after someone puts a lot of effort into explaining the problem is not OK. Some of the things you said on the phone call made it sound like you didn't understand that I'm making that distinction?
+2 Apr: me to Anna cc Ben—"Reasoning in public is too expensive; reasoning in private is good enough" is less damaging when there's some sort of recruiting pipeline from the public into the monasteries
+2 Apr: Ben: I do not consider the claim that intact monasteries exist to be plausible at all right now.
+2 Apr: Twitter poll about dropping pseudonymity
+3 Apr: I don't see any advantage to speaking non-anonymously when people are persecuting you. I also find it REALLY DIFFICULT to deal with the fact that you are cooperating with people who are openly defecting against you and against me. 
+6 Apr: "Where to Draw the Boundaries?" draft, Putting It Together epigraph; plan to beg Anna and Eliezer for endorsement afterwards
+8 Apr: Jessica—creating clarity about behavioral patterns, and specifically ones that people claim not to have.  What you're saying here implies that you believe creating such clarity is an attack on someone.  If so, your blog is attacking trans people.
+8 Apr: the distinction between truthfully, publicly criticizing group identities and named individuals still seems very significant to me
+8 Apr: Michael—less precise is more violent
+"Boundaries" discussion ...
+9 Apr: "VP" is also political
+10 Apr: Ben and Jessica coin four simulacra levels
+10 Apr: Ben—Eliezer's in denial about whether he's making decisions out of fear. / Scott's only unevenly in denial about this.
+me—Anna claims to be calculating rather than fearful. I don't have any particular evidence to dispute her self-report, but I would asphyxiate under that level of risk aversion.
+12 Apr: Ben again on, " to trying to explain why Eliezer seems to you like the court of last resort, what he's done that leads you to expect him to play this role, etc."; more money seems wrong
+12 Apr: I'm still too cowardly
+Sarah explaining how to ask things of people in general
+Ben reiterating, "You don't want either an overtly paid endorsement, or to ask Eliezer to lie about whether it's a paid endorsement."
+12 Apr: Sarah—what would you do if Eliezer never follows up?
+13 Apr: me—I don't know, what would there be left to do?—I don't have any particular claim over Eliezer.
+13 Apr: pull the trigger on "Boundaries?" (for this reason it is written: don't hate the player, hate the game-theoretic nature of all life.)
+ask Anna
+direct marketing to Nick T.
+direct marketing and/or conspiracy invitation
+court filing with Yudkowsky (Subj: "movement to clarity; or, rationality court filing")
+Ben: So, um, this _is_ politics, and we _aren't_ safe, so how about not lying?
+Michael: We are safe to understand arguments and logic, and it is Not politics to try to pin understanding down. It is politics to try to pin down the understanding of people as part of credit allocation, and we should be doing politics to try to motivate engagement here, but so far, Zack has been doing a mix of friendship, supplication and economics.  
+me: Is ... is there a good place for me to _practice_ politics against someone who isn't Eliezer Yudkowsky? The guy rewrote my personality over the internet. I want more credit-allocation for how relatively well I'm performing under constrained cognition!
+me: Like, okay, I see the case that I'm doing a sneaky evil deceptive thing (bad faith is a disposition, not a feeling!) by including subtext and expecting people to only engage with the text, but if we're not going to get into full-on gender-politics on Less Wrong, but gender politics is motivating an epistemology error, I'm not sure what else I'm supposed to do! I'm pretty constrained here!
+Michael: Once people think they know what the political sides are, the political thing to do is (trivially, I am annoyed at you pretending not to know this) to be completely unprincipled and partisan in any anonymous situation.
+15 Apr: me—concern about bad faith nitpicking, Jessica says I'm not
+15 Apr: Jessica's comment, the lesson of Funk-tunul
+15 Apr: trying to recruit Steven Kaas
+16 Apr: I feel sad and gaslighted 
+16 Apr: Jessica sparks engagement by appealing to anti-lying
+Ben— I think a commitment to lying is always wrong just straightforwardly leads to deciding that anything power demands you say is true.
+16 Apr:  If it were just a matter of my own pain, I wouldn't bother making a fuss about this. But there's a principle here that's way bigger than any of us: that's why Michael and Ben and Sarah and Zvi and Jessica are here with me.
+we're in favor of Jessica's existence
+17 Apr: plantiff/pawn/puppydog
+17 Apr: Jessica— This person had an emotional reaction described as a sense that "Zack should have known that wouldn't work" (because of the politics involved, not because Zack wasn't right).  Those who are savvy in high-corruption equilibria maintain the delusion that high corruption is common knowledge, to justify expropriating those who naively don't play along, by narratizing them as already knowing and therefore intentionally attacking people, rather than being lied to and confused.
+18 Apr: Ben on our epistemic state
+18 Apr: me—I'd rather say "Actually, I don't think I'm saner than Jessica, because ..." rather than "You owe Jessica an apology."
+18 Apr: Ben to me—"It’s sketchy to accept insults leveled at you, but it’s actually a betrayal of trust if you ask friends to back you up and then don’t back them up"
+me— You're right; I hereby retract the phrase "or my friends" from the prior email. I was trying to convey a "turn the other cheek"/"social reality is fake, anyway" attitude, but I agree that everyone can only turn her own cheek.
+18 Apr: Ben—STAY IN FORMATION
+me— I've been struggling with how to "chime in" for hours, but it looks like Eliezer just shut the door on us at 10:12 p.m. / Mission failed?
+This closure actually makes me feel a little bit less heartbroken and cognitively-dissonant about the "rationalists" already. If Scott doesn't want to talk, and Eliezer doesn't want to talk, and I'm unambiguously right ... then I guess that's that?
+Michael—common knowledge achieved
+19 Apr: Zack, that's not what a war looks like. That was ... trying to educate people who were trying not to be educated, by arguing in good faith.
+me: Ben, I mean, you're right, but if my "Category War" metaphorical name is bad, does that also mean we have to give up on the "guided by the beauty of our weapons" metaphorical catchphrase? (Good-faith arguments aren't weapons!)
+19 Apr: Ben and Jack "sadism and tactics" chat transcript
+20 Apr: my closing thoughts 
+20 Apr: Michael on Anna as an enemy
+30 Apr: me—I don't know how to tell the story without (as I perceive it) escalating personal conflicts or leaking info from private conversations.
+30 Apr: If we're in a war, can I apply for psych leave for like, at least a month? (Michael implied that this was OK earlier.) Or does asking get me shot for desertion? It's fair for Ben to ask for an accounting of why I'm stuck, but the fact that I'm sitting at my desk crying at 5:45 p.m. suggests a reordering of priorities for my own health.
+30 Apr: No urgency on that timescale. Just don't buy a nerf gun and make shooting noises to pretend you're fighting. On leave means on leave.
+3 May: dayjob workplace dynamics
+6 May: multivariate clarification https://twitter.com/ESYudkowsky/status/1124751630937681922
+7 May: angry at Anna for thinking I was delusional for expecting the basics
+8 May: Anna doesn't want money from me—it'll appear in some Ben Hoffman essay as "using you" or some similar such thing
+17 May: Jessica points out that Yudkowsky's pro-infanticide isn't really edgier than Peter Singer
+21 May:
+If someone claims, as someone did, that saying that words having meanings matters is politically loaded and is code for something, that can really be seen as [...] their problem.
+I mean, ordinarily yes, but when the person saying that is a MIRI Research Associate, then it's the light cone's problem.
+22 May: to Anna cc Sarah Steven—Viaweb and CfAR have importantly different missions (Sarah is Nice, unlike people like Ben or Michael or Jessica, who are Mean)
+31 May: "Categories Were Made" LessWrong FAQ https://www.lesswrong.com/posts/MqrzczdGhQCRePgqN/feedback-requested-draft-of-a-new-about-welcome-page-for#iqEEme6M2JmZEXYAk
+8 Jun: I think I subconsciously did an interesting political thing in appealing to my price for joining
+8 Jun: maybe "EA Has a Lying Problem" seemed like a similarly pointless hit piece to you? And you have as much invested in the "Effective Altruism" brand name as I have in the "Michael Vassar" brand name?
+17 Jun: "It was Dave Mitchum who now belonged on this railroad and he, Bill Brent, who did not." basically sums up how I feel about Ozy
+22 Jun: I'm expressing a little bit of bitterness that a mole rats post got curated https://www.lesswrong.com/posts/fDKZZtTMTcGqvHnXd/naked-mole-rats-a-case-study-in-biological-weirdness
+23 Jun: Schelling Categories, and Simple Membership Tests
+25 Jun: scuffle with Ruby
+26 Jun: Ben trying to talk to the Less Wrong team
+29 Jun: I talked with Ray from 7 to 10:30 tonight. My intellectual performance was not so great and I did a lot of yelling and crying.
+29 Jun: talked to Buck (who's working at MIRI these days) at the Asgard (Will and Divia's house) party tonight. He was broadly sympathetic to my plight, thinks EA leaders have it together (saying people like Holden had thought through more plies than him when he talks to them about the Issues), thinks public reason is hopeless, doesn't think much/well of Ben or Michael or Zvi.
+1 Jul: I think we can avoid getting unnecessarily frustrated/angry at these people if we can be clear to ourselves and each other that they're MOPs, and could not possibly succeed in being geeks even if they tried
+2 Jul: "Everyone Knows", pinging Anna about it
+4 Jul:  https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/ published
+11 Jul: AI timelines scam
+11 Jul: me—I'm sympathetic to tone-policing on "scam"
+Ben—What exactly is a scam, if it's not misinforming people systematically about what you have to offer, in a direction that moves resources towards you?
+me—but the law does use mens rea, like the distinction between manslaughter and murder
+me—call with Michael,  the Pope surely knows that he doesn't really have a direct line to God (despite holding office based on this pretense), to how GiveWell must know that they're not really making decisions based on numbers (despite holding credibility based on this premise)
+17 Jul: Alyssa's false claim about my pseudonyms, HRT effects side note
+18 Jul: my accusation of mis-citing Ozy was wrong
+20 Jul: me to Anna and Steven about LW mods colluding to protect feelings
+23 Jul: "epistemic defense" meeting
+24 Jul: Michael Vassar and the theory of optimal gossip
+
+
+
+
+
+> When I look at the world, it looks like [Scott](http://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) and [Eliezer](https://twitter.com/ESYudkowsky/status/1067183500216811521) and [Kelsey](https://theunitofcaring.tumblr.com/post/171986501376/your-post-on-definition-of-gender-and-woman-and) and [Robby Bensinger](https://www.facebook.com/robbensinger/posts/10158073223040447?comment_id=10158073685825447&reply_comment_id=10158074093570447&comment_tracking=%7B%22tn%22%3A%22R2%22%7D) seem to think that some variation on ["I can define a word any way I want"]() is sufficient to end debates on transgender identity.
+
+> And ... I want to be nice to my trans friends, too, but that can't possibly be the definitive end-of-conversation correct argument. Not _really_. Not if you're being serious.
+
+> But I want to live in a rationalist community that can actually _update_—where a bad argument by a high-status person will _eventually_ be publicly known to lose to a superior counterargument, even if the person originating the counterargument is lower status and the counterargument happens to have genuinely unfavorable political implications.
+
+> But ultimately, I've got _something to protect_. This is even more humiliating, really. It's not even a good or wholesome something to protect that you'd feel comfortable blogging about under your own name. It's actually kind of obscene. Good or not, wholesome or not, obscene or not, it's for all the boys like me who had a dream whose proper realization happens to have [_more complicated implementation details_](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) than applying social pressure to make everyone pretend that they've coordinated to redefine a top-20 word. Those boys deserve to not be lied to.
+
+> I've tried to be pretty explicit about only expecting buy-in for a minimal flag that says, "'I Can Define a Word Any Way I Want' can't be the end of the debate, because choosing to call things different names doesn't change the empirical cluster-structure of bodies and minds in the world; while the same word might legitimately be used with different definitions/extensions in different contexts
+
+> I keep thinking of the part where Dagny entreats the great Dr. Robert Stadler to denounce a not-technically-lying statement by the State Science Institute
+
+> Imagine your friends got a new front porch installed on your house, and you noticed that the boards were smoother and shinier than you expected. A question you might then ask your friend is, "Oh, is this real wood, or one of those wood-plastic composites?"
+
+> In phrasing it that way, you're not saying that composites are bad; it's just that it makes sense to use language to asymmetrically distinguish between the natural thing that already existed, and the synthetic thing that has been deliberately engineered to resemble the original thing as much as possible.
+
+The Craft Is Not The Community, (https://srconstantin.wordpress.com/2017/08/08/the-craft-is-not-the-community/amp/) 
+
+
+Anyway, meanwhile, other conversations were happening. 
+
+
+Michael—
+> Ben once told me that conversation with me works like this. I try to say things that are literally true and people bend over backwards to pretend to agree but to think that I am being metaphorical.
+
+
+> Yes, exactly. I'm still framing it as "appeal to the conscience of someone who built their career on higher standards" rather than appealing to a standard a court or a community could enforce. Eliezer reportedly didn't think much of Atlas Shrugged ... I assume Andrew has read it? I keep thinking of the part where Dagny entreats the great Dr. Robert Stadler to denounce a not-technically-lying statement by the State Science Institute:
+
+> I do want to distinguish between direct ideological conformity enforcement attempts, and "people not living up to their usual epistemic standards in response to ideological conformity enforcement in the general culture." So-called "rationalists" are actually very good at not-being-persecutory! (I don't think I'd be saying this in the nearby possible world where Scott Siskind didn't have a traumatizing social-justice-shaming experience in college, but it's true here.)
+
+You see the problem, right? I'm kind of at my wits' end here, because I thought the point of this whole "rationality" project was to carve out one place in the entire world where good arguments would eventually triumph over bad arguments, even when the good arguments happen to be mildly politically inconvenient.
+
+appeal-to-arbitrariness conversation halter
+https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters
+
+(I _want_ to confidently predict that everything I've just said is completely obvious to you, because I learned it all specifically from you! A 130 IQ _nobody_ like me shouldn't have to say _any_ of this to the _author_ of "A Human's Guide to Words"! But then I don't know how to reconcile that with your recent public statement about [not seeing "how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232). Hence this desperate and [_confused_](https://www.lesswrong.com/posts/5JDkW4MYXit2CquLs/your-strength-as-a-rationalist) email plea.)
+
+And I'm still really confused, because I still feel like everything I'm saying here is a trivial application of Sequences-lore. If I'm getting something wrong, I should be overjoyed to be harshly corrected by the Great Teacher! A simple person like me is as but a mere worm in the presence of the great Eliezer Yudkowsky! But if it looks like the Great Teacher is getting something wrong (wrong with respect to the balanced flow of arguments and evidence in which every "step is precise and has no room in it for your whims", although not wrong in the sense of making a factually incorrect statement) and the 
+
+
+
+Great Teacher neither corrects me nor says "OK, you're right and I was wrong, well done, my student", what am I supposed to conclude? Is this a prank—a test? Am I like Brennan in "Initiation Ceremony", being evaluated to see if I have the guts to stand by my vision of the Way in the face of social pressure? (If so, I'm not doing a very good job, because I definitely wouldn't be writing this if I hadn't gotten social proof from Michael, Ben, and Sarah.) Did I pass??
+
+In a functioning rationalist community, there should never be any occasion in which "appeal to Eliezer Yudkowsky's personal authority" seems like a good strategy: the way this is supposed to work is that I should just make my arguments with the understanding that good arguments will be accepted and bad arguments will be rejected. But I've been trying that, and it's mostly not working. On any other topic, I probably would have just given up and accepted the social consensus by now: "Sure, OK, whatever, trans women are women by definition; who am I to think I've seen into the Bayes-structure?" I still think this from time to time, and feel really guilty about arguing for the Bad Guys (because in my native Blue Tribe culture, only Bad people want to talk about sexual dimorphism). But then I can't stop seeing the Bayes-structure that says that biological sex continues to be a predictively-useful concept even when it's ideologically unfashionable—and I've got Something to Protect. What am I supposed to do?
+
+I agree that this is the only reason you should care.
+
+ut if it looks like the Great Teacher is getting something wrong (wrong with respect to the balanced flow of arguments and evidence in which every "step is precise and has no room in it for your whims", although not wrong in the sense of making a factually incorrect statement) and the Great Teacher neither corrects me nor says "OK, you're right and I was wrong, well done, my student", what am I supposed to conclude? Is this a prank—a test? Am I like Brennan in "Initiation Ceremony", being evaluated to see if I have the guts to stand by my vision of the Way in the face of social pressure? (If so, I'm not doing a very good job, because I definitely wouldn't be writing this if I hadn't gotten social proof from Michael, Ben, and Sarah.) Did I pass??
+
+> I don't think it's as clear as that. The trans community has never been solely focused on people who believe they've always been of x gender. It's just that it's such a freeing and helpful explanation when trying to get people to accept that you in fact are of that gender. The x in a body of y explanation has always been a shortcut to get cis people to leave us alone more than a real feeling, honestly.
+> And then the thread did not explode into acrimony. 
+
+My paraphrase: "Oh, it's not actually true; it's a non-true thing that we tell cis people to get them to model us the way we want to be modeled"!?
+
+Isn't that at least kind of like lying? (Or if these authors get to choose their preferred category boundary for "woman", do I get to choose my preferred category boundary for "lie"?)
+
+
+f you want people to use your preferred categories, you're going to need to convince them with some sort of argument that those categories are predictively useful. I don't see the point of saying "There's no epistemic issue here, although maybe there's a policy debate about how to use language; end-of-discussion" if it's not to justify the mind games? Why can't we get a clear ex cathedra statement that gender categories are not an exception to the rule that categories are nonarbitrary? Isn't it true, and important, and something that people who ought to know better are getting wrong? Surely there's some way for "not alt-right" signaling to be purchased separately?
+
+
+
+
+[TODO: Ben—
+> I am pretty worried that if I actually point out the physical injuries sustained by some of the smartest, clearest-thinking, and kindest people I know in the Rationalist community as a result of this sort of thing, I'll be dismissed as a mean person who wants to make other people feel bad.
+
+I assumed he was talking about Katie's institutionalization, not SRS
+
+> where gaslighting escalated into more tangible harm in a way that people wouldn't know about by default. In contrast, people already know that bottom surgery is a thing; you just have reasons to think it's Actually Bad—reasons that your friends can't engage with if we don't know what you're talking about. It's already bad enough that Eliezer is being so pointlessly cagey; if everyone does it, then we're really doomed.
+
+Ben's actual worry—
+> "saying the wrong keywords causes people in this conversation to start talking about me using the wrong keywords in ways that cause me illegible, hard-to-trace damage."
+
+> marginalization happens through processes designed to be hard for the "rider" in the horse-rider system to see. This makes the threat model hard to communicate, which puts the rider in a double-bind with respect to things like courage, because it's dependent on the horse for most of its information.
+
+I thought the conjunction of the "mere worm" rhetoric and the thousands of words of "Here's why your own writing proves that you're wrong, you coward" and the context of Eliezer's own arrogant writing style, should have implied a certain level of conceit/tongue-in-cheekness? (I wouldn't write like this—or, um, pay someone $1000 to read my blog post—for anyone else in the world, but Eliezer is really special to me.) 
+
+I already tried to say this in my message of the seventh, but let me try again more explicitly: I agree that the rationalists are very good at free speech norms. Ozy is writing in good faith! There is no concealed blade! I can totally do my thing without getting shouted down for heresy! I am not a victim of anything!
+
+I do, however, think there's a subtler failure mode than "heretics get shouted down", namely, "heretics have to put up with spurious isolated demands for rigor, logical rudeness, conversation-halters, &c., such that the community doesn't update or updates slower than it could have."
+
+This is, of course, a much harder problem to solve, because "Speaker gets shouted down" is easy for third parties to detect as a discourse-norm violation, whereas "Speaker's (polite!) interlocutors are engaging in [motivated continuation](https://www.lesswrong.com/posts/L32LHWzy9FzSDazEg/motivated-stopping-and-motivated-continuation)" is a subtle judgment call that a lot of third-parties are going to get wrong. But if and to the extent that such a thing does happen in our community—and you shouldn't take my word for it—I think it's causally downstream of silencing going on elsewhere in the trash fire that is Society (which we're not isolated from).
+
+Ben—
+> It seems like for the socioeconomic class likely to become Rationalists, employability increasingly requires the kind of sensitivity to social threat and opportunity that makes people easily silenceable in the absence of a clear distinct threat, even in the Bay, even for programmers (though not 100% yet), since workplaces have become more politicized and less about getting something specific done
+
+Except people are actually super hypocritical about this: everyone knows to say that men are Bad, but only weird nerds who Take Ideas Seriously (e.g., me, Scott Aaronson, Jessica, Ziz), take the idea seriously. In a world where we know that men are Bad, but women are Good, and that women are people who identify as women ... well, for normal, well-adjusted men, it makes no difference. But for the nerds who live in a world made out of words, there's a natural incentive to cross the border between a lonely straight man with no intersectionality points, and a thrice-oppressed lesbian trans woman with three intersectionality points—and thus, a seat at the Blue table.
+
+The gender-refugees story is story is the extra ingredient we need to make sense of the new and crazier thing that's going on in Current Year Berkeley: the escaping-Bad-man-status incentive gradient, and decreasing stigma (or even a status boost in sufficiently social-justice-converged subcultures), make for a much lower threshold of required AGPness before transitioning starts to look like a good idea—and potentially none at all (see Ziz again).
+
+I really did not anticipate that the controversial part of "men who fantasize about being actual women for sexual reasons" would be the phrase "actual women"!
+
+I've got some exciting open-source events coming up (first the Rust team all-hands, then I'm giving a talk at !!Con West) where I want to make friends and impress people, and I'm a little bit worried about being revealed as a thought-criminal earlier than I intended. Among the ~30 !!Con speakers (they're lightning talks), I count 3 trans women, three obvious men who prefer they/them pronouns, and one obvious woman who prefers they/them pronouns.
+
+Karaoke night was fun, but social-justice culture has me on edge (the little things; like, Manish showed me this funny Tweet on his phone, and my uncontrolled facial reaction was probably more disdainful than mirthful, and I don't know how to calculate if or how much I'm being socially penalized these little things)
+
+I've lived in the "rationalist" cult-bubble my entire adult life, and I don't know the rules for forming cross-cult alliances. If some of the social-justicey open-source people seem like they're starting to Accept me and invite me to things, can I say to one of them, "Look, I'm worried about being socially rejected for ideological reasons; maybe we should talk about this privately now rather than risking Drama later"? If that doesn't work (and it works with my "rationalist" friends, for all their other faults), then what do people do??
+
+My original fantasy-plan was to strive for Acceptance, then suddenly stop preference-falsifying on Twitter (rough draft) at an opportune moment (after securing compiler-team membership or another conference speaker slot) as a calculated bid for glorious Damore- or Lindsay-Shepherd-like free-speech martyrdom. (If you don't preference-falsify at first when you're a nobody, then you can be quietly frozen out, but if you get Accepted first, then getting kicked out is a loud event that forces the bastards to make their ideological litmus test visible.)
+
+But I'm pretty sure the martyrdom-seeking intuition is Actually Bad. (They're not bastards; they're people exactly like me who read different books in a different order.)
+
+After more private discussion with Eliezer (after rounding up Michael Vassar, Ben Hoffman, and Sarah Constantin for social proof), and fighting Alicorn's Discord server three times, at this point I'm leaning towards just giving up on the so-called "rationalist" community. We had an entire goddamned Sequence about the hidden Bayesian structure of language and cognition and why "I can define a word/category any way I want" is generalized anti-epistemology.
+
+I think something got derailed in our last discussion. I begged you to remind your readers about the meta-level epistemology-insight about hidden-Bayesian-structure-of-language-and-cognition thing, and somehow we ended up in an object-level discussion about which categories to use, with you appealing to "mental health benefits to trans people."
+
+I'm not upset about the object-level. What I care about is this: as an aspiring epistemic rationalist, seeking out the map that reflects the territory, to cut through to the correct answer in a single movement, I have a moral duty to not care about people's feelings when forming my world-model. I can certainly not-talk about unpleasant ideas or concepts when they're not too relevant when in the presence of non-rationalists who might feel hurt. But when I'm being serious? With people who call themselves fucking aspiring rationalists? Trying to make sense of the world? The correct amount of "mild inconveniences and slight cognitive friction" to accept for utilitarian reasons is zero.
+
+Like, I want to be fair and give credit where credit is due. Like, rationalists are very good at free speech norms. The Alicorner discussion actually made some progress! But ... not enough progress?
+
+You wrote, "some compromise solution like always using 'sex: male/female' to mean 'biological sex' and 'gender: man/woman' to mean 'self-identified gender' would, if it were universally understood and agreed upon, be pretty fair and optimal."
+
+But have you fucking tried trying to talk about biological sex with Berkeley psuedo-rationalists? They won't fucking acknowledge it.
+
+I said, "I need language that asymmetrically distinguishes between the original thing that already exists without having to try, and the artificial thing that's trying to imitate it to the limits of available technology."
+
+Kelsey said, "[T]he people getting surgery to have bodies that do 'women' more the way they want are mostly cis women [...] I don't think 'people who'd get surgery to have the ideal female body' cuts anything at the joints."
+
+Elena said, "'the original thing that already exists without having to try' sounds fake to me" ... and gets 4 "+1" emoji.
+
+And like ... I don't know, these motherfuckers talk a good game about "charity", but when I'm clearly trying to talk about the 'biological sex' thing, and I get a response about women who don't like their own bodies ... I don't think the principle of charity is being applied?! I haven't sent you the whole transcript; you could argue that maybe I'm taking too much out of context and that the full context would be mitigating? I want to be fair and make sure that I'm not strawmanning, but I can't make sense of this; I don't know how to perform the mental contortions to make it look like people are speaking in good faith; I don't trust that these people are trying to help me reason about reality
+
+I'm still pretty horrified that the sticking point in discussions seems to have been not the AGP etiology itself (which is what I was focusing on in 2016/2017), but the category-boundaries-are-arbitrary "insight." So it's not just that we failed to break the irrationalist trans ideology: we actually invented something arguably worse! (Ordinary trans activists at least try to make (confused) truth claims; we invented a fully general counteragument against truth claims that's all the more dangerous thanks to the virtue of a very narrow kind of technical correctness.)
+
+> point out to him your sympathies regarding his mental breakdown under soft political persecution and silencing, make it clear that you are not requesting that he now or at any time in the future do anything in public regarding gender issues, and ask him to remember that you have recently been mentally incarcerated more than under similar political pressure (applied in the name of the mental health needs of non-specific people many of whom are in the same natural category as yourself) that he is totally forgiven for participating in it, but that you would like to discuss the shared aspect of your circumstances  face to face, and maybe both consider not posting anything online for a couple weeks.
+
+> That was a fairly destructive move to pull without consulting me, but OK, you played it and I will run with it.
+
+(Notwithstanding how it's bad that I've been leaning on you for social proof way too much, I've been writing with the assumption that the author of the Sequences still cares about the common interest of many causes. I can see the "MIRI exists, that was all the raising-the-sanity-waterline project turned out to be good for; I don't have any teaching duties besides my not-explicitly-lying Wizard's Oath" CDT logic, but ... ugh, really? I can't be the one to suggest it.)
+
+
+
+You write:
+
+    
+
+
+
+How would you begin to respond to this? That's not a rhetorical question: I'm actually curious.
+
+My model of Sequences-era 2009!Eliezer says, "This is an attempt to sneak in connotations by performing a categorization and trying to avoid the burden of having to justify it with an appeal-to-arbitrariness conversation-halter. Go read 'A Human's Guide to Words,' and if you've already read it, then you're being incredibly intellectually dishonest and not worth my time to interact with."
+
+But I have no idea what 2019!Eliezer says.
+
+You wrote to me on 28 November:
+
+    The notion of a lie is as sancrosanct as the notion of a truth, and you do not get to say 'lie' when somebody is doing something that you think might tempt somebody to add on a lie as an additional act. [...] 'Lying' is for per se direct falsehoods.
+
+
+> If the statement "Pronouns aren't lies" has the same type of misapprehension-forming impact on the listener as "Scott Alexander is a racist" or "Slate Star Codex is an alt-right blog" then
+
+Wait! That's not the analogy I'm trying to make!
+
+What I'm trying to say is, whether "You're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning" makes sense as a response to "X isn't a Y" shouldn't depend on the specific values of X and Y.
+
+Your behavior the other month made it look like you think that "You're not standing in defense of truth if ..." is a valid response when, say, X = "Caitlyn Jenner" and Y = "woman."
+
+I'm saying that whether or not it's a valid response, we should, as a matter of local validity, apply the same standard when X = "Scott Alexander" and Y = "racist."
+
+The preceding three paragraphs are glossing over some details, and I totally understand if you want to disagree with the exact way I've formulated them! (Like, maybe you think it's inappropriate that I'm focusing on category-membership even though your explicit statement was about pronouns. It's important to notice that! We may be living in different mental universes with respect to how Gricean implicature works!)
+
+But ... I'm not claiming that Eliezer's statement that "Pronouns aren't lies" has the same type of misapprehension-forming impact on the listener as Sneer Club's statement that "Scott Alexander is a racist." That's just not what the analogy was trying to do!
+
+
+But like, does anyone understand what the fuck could possibly be going on in Eliezer's head? I've spent thousands of words with lots of direct links and quotes to his own writings from ten years ago trying to explain that there's a problem where people who call themselves "rationalists" are somehow very intent on playing clever definition-hacking mind games to make it artificially expensive to express the idea that humans cannot change sex (given current technology), and that I think he could fix the problem because people might listen to him when they don't listen to me. I agree that trans issues aren't important, but I also think that if you're doing systematically correct reasoning, you should get the right answer even when the issue isn't important.
+
+I think I've been pretty explicit! And today Eliezer is chastising me and Ben for not having enough empathy to realize that people live in different mental universes. And like—I agree that people live in different mental universes! But—that seems bizarrely nonresponsive to the thousands of words I wrote explaining the problem! You see it, right?! What is there left for me to say?
+
+Michael—
+> I think that if Zack is having difficulties it would be ideal if we could move this ahead without him. Needless to say, he doesn't need to feel any responsibility and has done all that could be asked of him and more to cause this project to survive unanticipated difficulties.  Right now, I don't think there's much help he can offer except for periodic pushes, like the current one, for the rest of us to keep at it. 
+
+
+
+> On my model, it's good to send this because there are two possibilities
+> 1) that this demonstrates the independence of our perspectives, which causes them to count as additional evidence for a proposition, and that means that this makes us more convincing
+> 2) that this shows a lack of unity, a failure to present a United Front, which is bad, because Arguments are Soldiers, and thus we are making ourselves less convincing. 
+> In the latter case, Eliezer is dead to us and it would probably help if we were to bury something in a funeral. In the former case, our friends are still in there, and the way to reach them isn't by balancing the social forces arrayed against them.
+
+I'm pretty sure I can directly link to Ozy and Kelsey speaking favorably of literal self-identity, not gating on hormones or social passability. And just ... I keep rereading this stuff trying to check that I'm not misreading, because I can't take it seriously. They're just fucking with me, right???? I don't harbor ill will against any individual people, but I just can't share a rationalist community with this level of mindfuckery.
+
+I mean, okay, if that's what you want to do. (If the outcome of these hopefully-not-too-annoying emails is that Eliezer Yudkowsky feels more social/political constraints on what he can say rather than less, then this horribly backfired and you should forget we said anything.)
+
+"How would you feel if someone else tried to get away with the 'hill of meaning in defense of validity' appeal-to-arbitrariness conversation-halter against you when you were trying to use language to reason about something you actually cared about (like defending Scott, who is great)? If it would be logically rude in that context, maybe it was also logically rude the first time?"
+
+Michael
+> We have all been essentially trained to believe that we are not entitled to voice our complaints. When someone backs off, we are prone to loosing confidence and to think that maybe we shouldn't be talking with them, yet function institutions have existed in the past, and if people aren't adhering to the normal of functional institutions, we have to not allow that to cause us to stop adhering to those norms. Therefore, we should keep doubling down with reminders regarding the rules for discussion. If he decides to not play, we should establish that to ourselves with no plausible deniability and move on. 
+
+
+ "An alternative categorization system is not an error", like all appeals-to-arbitrariness, is necessarily what you called a symmetric weapon: the same form of argument works just as well for being mean to our friends as it does for being nice to our friends. The best the good guys can hope for is to win by coincidence. (Assuming there's any way to distinguish who the "good guys" are, if alternative systems that draw the "good guys" category boundary differently aren't in error, assuming there's any way to distinguish what "winning" is, if alternative systems that draw the "winning" category boundary differently aren't in error, &c.)
+
+If someone showed up at a Less Wrong meetup claiming that they had an invisible dragon, I would expect ordinary meetup attendees to exert social pushback against the dragon-claimant: "Dude, that doesn't make sense. Beliefs need to be falsifiable! You should read the Sequences!" I would even expect the social pushback to be strong enough such that the claimant would eventually either internalize the "Beliefs need to be falsifiable" idea or get the fuck out of my rationalist community.
+
+If I show up at a Less Wrong meetup claiming that people don't have invisible genders, and I get social pushback ... then I'm not really sure what my options are other than writing off the entire community.
+
+     
+
+I'm not extremely troubled by my minor disagreements with you. All the actually-smart high-status old-timers I've talked to (you, Eliezer, Anna, Michael Vassar, Sarah Constantin, Ben Hoffman, Steve Rayhawk, &c.) clearly see the hidden-Bayesian-structure-of-language-and-cognition thing I'm trying to point at. Even if you say it's mere awkwardness and not a serious epistemology problem, at least you acknowledge the awkwardness, which is more than I've gotten out of Kelsey.
+
+The thing I find extremely troubling is that none of the old-timers who clearly understand the thing are willing to say so loudly and in public where other people can learn from it, with the exceptions of Ben and Vassar—and Vassar's in-community status is getting debased. (Sarah drafted a post supporting me on the categories thing, but decided not to publish it.)
+
+You wrote about the "inevitable" forces pointing towards a future guided by the beauty of our weapons, where good arguments eventually win out over bad arguments. What if you were too optimistic? What if good arguments don't win—not even in the so-called "rationalist" community?
+
+I think "Categories should carve reality at the joints to help us make efficient probabilistic predictions" is a better argument than "Categories capture tradeoffs you care about; they don't have to carve reality at the joints if that makes people sad." Right now, the better argument is losing. Unless something changes, the better argument will continue to lose. In other words, we live in a world where reason doesn't work. If we live in a world where reason doesn't work, then we're dead. If we can't get consensus on easy problems (Q: Can men become women by means of saying so? A: No. Why would you think that?), then how are we supposed to solve AI alignment?
+
+
+
+> I don't know if you read the glowfic that Alicorn and Kelsey write. There was a scene in one of their LoTR things where some elves capture some orcs. They learn that the orcs are nice people deep down, evil god Melkor has forced the orcs to swear an oath to serve him and do evil all the time and kill people. And for complicated magic reasons, orcs cannot break oaths, or else they are tormented by unbearable pain. So even though the orcs are nice, they are compelled to serve Melkor, who usually wants them to kill people and stuff.
+
+> After a while, our hero comes up with a solution. She founds a religion on the spot devoted to a Deist-style omnipotent observer God, who just so happens to also be named Melkor. Deist-Melkor just wants people to live their lives and be happy and help others. She claims that the orcs did swear an oath to follow Melkor, but they didn't specify *which* Melkor, and since her Melkor is omnipotent he takes preference over evil-Melkor. The orcs (who are all kind of dumb, and also incentivized toward highly motivated reasoning) agree this makes sense, this seems to satisfy whatever magic enforces their oath, and so they go off and live their lives and be happy and help others.
+
+> Part of this story is that occasionally some people will approach the orcs and be like "This is kind of dumb, right, on some level you know you're supposed to be following evil Melkor", and this information is infohazardous to orcs and can put them in unbearable pain (or compel them to kill people and stuff) until they're able to talk themselves out of it.
+
+> I asked Alicorn whether this was an intentional metaphor for this discussion, since I know you've been talking to her about it. She says no. But it captures a lot of how I think about this. Are the *real rationalists!!!* the ones who go to the orcs and tell them that they obviously meant to serve evil Melkor and so should be in constant pain all the time? Are those the people who are """winning"""?  Or would saying that just be pointlessly harming them for no reason?
+
+> I couldn't care less about transgender.
+
+Michael—
+> I agree that he isn't, but it seems Important to me that if we think he isn't interested we actually establish common knowledge that we consider him at this point to be choosing to try to be a cult leader. 
+
+
+I was kind of considering replying, "That's totally understandable! Would a financial incentive change your decision? For a two-hour meeting, I'd be happy to pay up to $4000 to you or your preferred charity. If you don't want the money, then sure, yes, let's table this. I hope you're having a good day."
+
+But, maybe I shouldn't do this because the "Volunteer to throw four-figure amounts of money at people in order to get them to hear me out" move is simultaneously personally degrading, psychologically coercive, extremely socially weird, and bad for my economic self-interest.
+https://meltingasphalt.com/tears/
+
+commit a5316c23ac837c004922e2d192c2bea914a21ebc
+Author: Zack M. Davis <zack@thecoalition.com>
+Date:   Tue Mar 19 00:27:53 2019 -0700
+
+    DIS-327: broker-facing duplicate-quote route
+    
+    It's sharing code with the internal resïssue-quote endpoint, because
+    that's convenient.
+
+
+
+
+Scott, like, you sent me that email piously arguing that it's OK to gerrymander category boundaries because it's important for trans people's mental health. And there's a couple things that I don't understand.
+
+(1) If creatively reinterpreting the meanings of words because the natural interpretation would make people sad is OK ... why doesn't that just generalize to an argument in favor of outright lying when the truth would make people sad?  I don't understand why semantic mind games are OK, but lying is wrong. (Compare: "If you’re going to ignore a probabilistic counterargument, why not ignore a proof, too?") From my perspective the motte-and-bailey definition-hacking mind games are far more cruel than a simple lie. Speaking of which----
+
+(2) If "mental health benefits for trans people" matter so much, then, like, why doesn't my mental health matter? Aren't I trans, sort of? Like, what do I have to do in order to qualify, was my being on hormones for only 5 months not good enough? Or do I have to be part of the political coalition in order for my feelings to count? We had an entire Sequence whose specific moral was that words can be wrong. And of the 37 Ways that Words Can Be Wrong, number 30 is "Your definition draws a boundary around things that don't really belong together," and number 31 is, "You use a short word for something that you won't need to describe often, or a long word for something you'll need to describe often." And this is the thing I've been trying to tell everyone about. And when I try to talk to you about it, you're like, "Doesn't matter, mental health benefits for trans people are more important according to the utilitarian calculus! Also, you're wrong." And like ... getting shut down by appeal-to-utilitarianism (!?!?) when I'm trying to use reason to make sense of the world is observably really bad for my mental health! Does that matter at all? Also, if I'm philosophically wrong, then Eliezer was wrong in 2009, because everything I'm doing now, I learned from him. Do you really think "c'mon, parsimony doesn't matter" is an improvement on the Sequences?!
+
+(3) You write, "wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
+
+But the original reason it seemed plausible that we would create Utopia forever wasn't "because we're us", it was because we were trying to do systematically correct reasoning, with the hope of using the systematically correct reasoning to build aligned superintelligence. If we're not going to do systematically correct reasoning because that would make people sad, then that undermines the reason that it was plausible that we would create Utopia forever. You can't just forfeit the mandate of Heaven like that and still expect to still rule China.
+
+(4) You write, "I realize you are probably thinking something like 'This isn't just me getting triggered by some culture war thing evolved to trigger me, it actually really *is* that important that rationalists get transgender right!' [...] All I can say is that I beseech you, in the bowels of Christ, think it possible that you may be mistaken."
+
+I don't know how much social proof influences you, but is the fact that I managed to round up Michael and Ben and Sarah and [name redacted] into a coalition to help me argue with Eliezer shift your estimate at all of whether my concerns have some objective merit? It can simultaneously be the case that I have the culture-war PTSD that you propose, and that my concerns have merit.
+
+(5) I don't know how other people's confidentiality intuitions work. Am I being an asshole by cc'ing in my coalition members (plus Anna, who is my friend even though she hasn't been helping me with this particular quest) in an email that references things you said in an email that was addressed only to me? I think this should be OK; I don't think we're talking about anything particularly secret.
+----
+
+
+I'm really sorry about this. I don't need Scott's help and I think Michael is being a little aggressive about that, but I guess that's also kind of Michael's style? I'm really sorry, because I still think that even very emotionally disturbed people are clearly incentivizable, and so the narrative of, "Oh, poor Zack, he's crazy, he can't help it" is not attributing me enough agency. Like, if I get really upset literally once every two years and impose a lot of care costs on other people in the process, I should be held accountable for that somehow. Last time, I ended up giving people some money (I didn't end up doing the public-praise part that I proposed in the blog post about it, because it turned out that that would have been too socially weird) but I don't know if even the money was a good social experiment or not.
+
+> No.
+> We don't have punishment.
+> We don't have morality.
+> I'm trying to change that and you are undermining the attempt!
+> We won't be friends. 
+> We're not friends anymore already! Once again, I am trying to change that and you are making it impossible. 
+In terms of making intellectual progress, I'm still most excited about the idea I was talking myself into all day in the "strategy huddle II" thread (I'll forward that to Jessica): "If Scott and Eliezer don't want to talk, whatever, I can just write those guys off (why did I think they were so important anyway?) and just focus on writing up the mathematically rigorous version of the thing I'm trying to say about how categories can be value-dependent because your values determine which dimensions you pay attention to (like 'birds' vs. 'flying things'), but that's really different from 'people will be sad if I use this category', and we should be able to demonstrate mathematically that the 'people will be sad if I think this' categories are less useful for making inferences. Not only will I learn lots of stuff in the process of figuring out the details, but when it's finished, our coalition can hype it up as interesting new 'Human's Guide to Words'-like content, and then at least the mathy people in our alleged community will see the parsimonious-categories-are-important thing in a context where the math will convince them and politics won't distract them."
+So ... I really should have just stuck to that plan and not freaked out: forget this stupid "appeal to local celebrities" game and just do cool math for two months. But when it was 4 a.m. (because I'd been obsessing all day, and I really wanted to meet my manager's deadline for the code that we want for our business, and I did write some code intermittently between 11 p.m. and 4 a.m.), I was just really upset at the whole situation, and I sent some more hasty emails, I think because at some psychological level I wanted Scott to know, "I'm so frustrated about your use of 'mental health for trans people' as an Absolute Denial Macro that I'm losing sleep over it even though we know sleep is really important for me." But then when Michael started advocating on my behalf (Michael seems to have a theory that people will only change their bad behavior when they see a victim who is being harmed), I started to minimize my claims because I have a generalized attitude of not wanting to portray/sell myself as a victim, even if it is technically literally true that I'm really hurt in a way that is causally related to other people behaving in ways that are bad. And I feel really guilty and wanting-to-appease about disappointing Michael (who has done so much for me), even though I know that Michael doesn't want me to care about disappointing him in particular, because I should just care about doing the Right Thing. I think that Michael thinks that aggression is more honest than passive-aggression. I think that's obviously true, but I just can't be too aggressive to my friends and people I admire (e.g., Anna, Scott, Eliezer). I just won't do it. I can passively let my metaphorical lawyers like Ben do it while accurately claiming to represent my interests, but I won't do it myself because I'm scared of damaging relationships. (Or offending people I worship as demigods.)
+
+So, I don't know. I think having been on the edge of a bad outcome but stepping away (I got 2ish hours worth of napping; I'll be just fine) will help me move on, and dissolve my unhealthy attachment to the "rationalist" brand name/social identity? (At the meeting on Sunday, it was pointed out that forging a new brand-name/Schelling-point-for-interesting-people-to-gather is easier than recapturing an old one.) I just ... we had a whole Sequence specifically about how you can't define a word any way you want, because you need words to map to the statistical structure in the world. I keep trying to point out, "Look, isn't that inconsistent with this newly fashionable 'categories were made for man'/'hill of meaning in defense of validity' moral? Right? Right? You have to see it? It can't possibly just be me who sees it?!" and Scott and Eliezer seem to keep rounding me off to, "Zack is upset about trans stuff which doesn't matter" even though I keep explicitly disclaiming that (while it's true that I'm upset about trans stuff that doesn't matter), that's not the part I expect them to care about. And I've just been really freaking out for three and a half months on end, because I learned everything I know from Eliezer, and the other half of everything I know from Scott, and like ... they can't really be that stupid, right? They have to just be fucking with me, right??
+
+That's really unhealthy. (We were warned that it's unhealthy: "nervously seeking reassurance is not the best frame of mind in which to evaluate questions of rationality".)
+
+The tension between "I don't want to do too much social aggression" and "losing the Category War within the rationalist community is absolutely unacceptable; if I have to do social aggression and lose friends and burn bridges if there's any hope of getting people to see the hidden-Bayesian-structure-of-language-and-cognition thing again, then I'll do it" has been causing me a lot of pain and making me make wildly inconsistent decisions. (Emailing Scott at 4 a.m., and then calling Michael "aggressive" when he came to defend me is just crazy.)
+
+If there isn't actually any such thing in the world as a "rationalist community" (it's just a category boundary in my head that I keep attaching importance to, even though Sarah clearly explained to my why this is dumb two years ago, and I just haven't made the corresponding mental adjustments), then maybe losing the Category War within it is acceptable? Maybe that's the answer? If so, I wish I had been able to find the answer without leaving so much of a mess.
+
+Wait, maybe there is a reason to be attached to the "rationalist" brand name/social identity that isn't just me being stupid, and if we can find what the non-stupid reason is, then we can make better decisions.
+
+I think a non-stupid reason is that the way I talk has actually been trained really hard on this subculture for ten years: most of my emails during this whole campaign have contained multiple Sequences or Slate Star Codex links that I can just expect people to have read. I can spontaneously use the phrase "Absolute Denial Macro" in conversation and expect to be understood. That's a massive "home field advantage." If I just give up on "rationalists" being as sane as we were in 2009 (when we knew that men can't become women by means of saying so), and go out in the world to make intellectual friends elsewhere (by making friends with Quillette readers or arbitrary University of Chicago graduates), then I lose all that accumulated capital. The language I speak is mostly educated American English, but I rely on subculture dialect for a lot. My sister has a chemistry doctorate from MIT (so speaks the language of STEM intellectuals generally), and when I showed her "... To Make Predictions", she reported finding it somewhat hard to read, probably because I casually use phrases like "thus, an excellent motte", and expect to be understood without the reader taking 10 minutes to read the link. This essay, which was me writing from the heart in the words that came most naturally to me, could not be published in Quillette. The links and phraseology are just too context-bound.
+
+Maybe that's why I feel like I have to stand my ground and fight a culture war (even though I really don't want to be socially aggressive, and the contradiction between the war effort and my general submissiveness makes me make crazy decisions).
+
+I feel like I have to be careful phrasing my complaints about Berkeley culture, because if I'm not super-careful, people will round me off as saying, "Help! Censorship! I'm being repressed!" and then counterargue that I'm observably not being censored (which is true, modulo Ben's concerns about distributed silencing, which I feel motivated to downplay because I don't want to sell myself as a victim). The problem is much subtler than that. Berkeley "rationalists" are very good at free speech norms and deserve credit for that! But it still feels like a liberal church where you can say "I believe in evolution" without getting socially punished. Like, it's good that you can do that. But I had a sense that more is possible: a place where you can not just not-get-punished for being an evolutionist, but a place where you can say, "Wait! Given all this evidence for natural selection as the origin of design in the biological world, we don't need this 'God' hypothesis anymore. And now that we know that, we can work out whatever psychological needs we were trying to fulfil with this 'church' organization, and use that knowledge to design something that does an even better job at fulfilling those needs!" and have everyone just get it, at least on the meta level.
+
+I can accept a church community that disagrees on whether evolution is true. (Er, on the terms of this allegory.) I can accept a church community that disagrees on what the implications are conditional on the hypothesis that evolution is true. I cannot accept a church in which the canonical response to "Evolution is true! God isn't real!" is "Well, it depends on how you choose to draw the 'God' category boundary." I mean, I agree that words can be used in many ways, and that the answer to questions about God does depend on how the asker and answerer are choosing to draw the category boundary corresponding to the English language word 'God'. That observation can legitimately be part of the counterargument to "God isn't real!" But if the entire counterargument is just, "Well, it depends on how you define the word 'God', and a lot of people would be very sad if we defined 'God' in a way such that it turned out to not exist" ... unacceptable! Absolutely unacceptable! If this is the peak of publicly acceptable intellectual discourse in Berkeley, CA, and our AI alignment research group is based out of Berkeley (where they will inevitably be shaped by the local culture), and we can't even notice that there is a problem, then we're dead! We're just fucking dead! Right? Right?? I can't be the only one who sees this, am I? What is Toronto??????
+
+Ben—
+> Just wrote to Scott explicitly asking him to alter the beacon so that people like Zack don't think that's the place to go for literally doing the thing anymore, and ideally to redirect them to us (but that's a stretch). If he actually does this, that would be a really good time to start the new group blog.
+
+> This seems like the sort of thing where it's actually in his local interest to help us, as it reduces our incentive to ask him to do hard things.
+
+
+Michael—
+> This all seems sound, but also not worth the digression.  Zack, do you feel comfortable with generalizing the sort of things that Scott said, and the things that others here have said about fear of talking openly, and assuming that something similar is probably happening with Eliezer too?  
+
+> If so, now that we have common knowledge, there is really no point in letting technical quibbles distract us. We need to deal with the actual crisis, which is that dread is tearing apart old friendships and causing fanatics to betray everything that they ever stood for while it's existence is still being denied. 
+
+
+He said that he wasn't sure why the grand moral of "A Human's Guide to Words" was "You can't define a word any way you want" rather than "You can define a word any way you want, but then you have to deal with the consequences."
+
+Ultimately, I think this is a pedagogy decision that Eliezer got right. If you write your summary slogan in relativist language, people predictably take that as license to believe whatever they want without having to defend it. Whereas if you write your summary slogan in objectivist language—so that people know they don't have social permission to say that "it's subjective so I can't be wrong"—then you have some hope of sparking a useful discussion about the exact, precise ways that specific, definite things are, in fact, relative to other specific, definite things.
+
+
+You texted last week, "Am I agitating you in a manner that isn't a good idea? If so, please tell me."
+
+I'm tempted to speculate that I might be better at taking your feedback about how to behave reasonably rather than doing the "cowering and submission to whoever I'm currently most afraid of losing relationship-points with" thing, if you try to be gentler sometimes, hopefully without sacrificing clarity? (Concrete examples: statements like, "What the FUCK Zack!?!" are really hard on me, and I similarly took "We're not friends anymore already!" badly at the time because I was reading it as you damning me, but that one is mostly my poor reading comprehension under sleep deprivation, because in context you were almost certainly responding to my "everyone will still be friends" babbling.)
+
+But, if you think that gentleness actually sacrifices clarity in practice, then I guess I could just do a better job of sucking it up.
+
+Michael—
+> I think that the strongest argument for continuing to press on is that we need to actually be able to press on into opposition to clarity if we are going to succeed regardless of where we go. We actually have to figure out, either here or elsewhere, how to win this sort of argument decisively, as a group, against people who are acting in bad faith, and can't afford to simply accept a status quo that says that we accept defeat when faced with bad faith arguments in general.
+
+     
+Wait, you lost me. What post about transgender? I've been objecting to the post about how category boundaries are arbitrary and we can redraw them for utilitarian benefits. Sure, the post used transgenderism as an illustrative example, but the main point should succeed or fail independently of the choice of illustrative example. (Obviously a person of your brilliance and integrity wouldn't invent a fake epistemology lesson just to get a convenient answer on one particular question!)
+
+> I realize that allowing one thing violates a Schelling fence that potentially keeps other people from making me do awkward things, but as far as I can tell gender dysphoria is a pretty unique problem
+
+"Conceptual gerrymandering to sneak in connotations" is _not_ a unique problem! I know you know this, because you've written about it extensively. 
+
+"Conceptual gerrymandering to sneak in connotations" is not a unique problem! I know you know this, because you've written about it extensively. That's why my "twelve short stories about language" email gave "(repeat for the other examples from "The noncentral fallacy—the worst argument in the world?")" as entries II.–VII.
+
+>    Zack I think - everyone else experiences their disagreement with you as a disagreement about where the joints are and which joints are important, including Scott
+>    and parses the important part of Scott's post as 'the usability of the categories for humans is one thing we should use to decide which joints are important'
+>    and it is annoying to be told that actually we all believe the categories should be whatever makes people happy and that this is an inexcusable rationalist sin
+>    when no one believes that
+I didn't want to bring it up at the time because I was so overjoyed that the discussion was actually making progress on the core philosophy-of-language issue, but ... you seem to be pretty explicit that your position is about happiness rather than usability? If Kelsey thinks she agrees with you, but actually doesn't, that's kind of bad for our collective sanity, right?
+
+
+
+(The tenth virtue is precision! Even if you cannot do the math, knowing that the math exists tells you that the dance step is precise and has no room in it for your whims.)
+
+ "Naïvely" hauling out the most exhaustively rigorous analytical machinery I have is the only way to shatter the surface-level symmetry between "How much do you care about this? C'mon, it isn't worth it" versus "Well, I think it is worth it."
+
+Perhaps it is "overkill" to transform the debate into "How much do you care about this? C'mon, it isn't worth it" versus "No! Fuck you! I have math, and I have a pretty decent heuristic argument about how the math translates into human practice, and I'm willing to put in more blood and pain and sweat and money and hours to make it even more rigorous if there's any hope left of getting you savvy lying bastards to stop fucking with my head."
+
+I want the people I love and trust and respect to stop fucking with my head. That's more important to me than whatever proportionality-intuition generates the word "overkill."
+
+
+Ben, I know that you've previously written about how holding criticism to a higher standard than praise distorts our collective map (in the context of effective altruism). You're obviously correct that this is a distortionary force relative to what Bayesian agents would do, but I'm worried that when we're talking about criticism of people (as opposed to ideas), the removal of the distortionary force would just result in an ugly war (and not more truth). Criticism of institutions and social systems should be filed under "ideas" rather than "people", but the smaller-scale you get, the harder this distinction is to maintain: criticizing, say, "the Center for Effective Altruism", somehow feels more like criticizing Will MacAskill personally than criticizing "the United States" does, even though neither CEA nor the U.S. is a person.
+
+This is why I feel like I can't give up faith that good-faith discourse eventually wins (even though I'm starting to suspect that Michael is right to suggest that it doesn't in our world). Under my current strategy and consensus social norms, I can criticize Scott or Kelsey or Ozy's ideas without my social life dissolving into a war of all against all, whereas if I give in to the temptation to flip a table and say, "Okay, now I know you guys are just fucking with me," then I don't see how that leads anywhere good, even if they really are just fucking with me.
+
+I think Anna's input could potentially be really valuable here, because this kind of issue (whether to cooperate with Society and have peace, or give it the lie at risk of war) seems like one of the core tensions between her and Michael's crew (of which I've been saying for a while that I would really like to see a peace treaty).
+
+> Self-promotion is imposing a cost on others. Eliezer, to a lesser extent Scott, and formerly Will, have all collected actual revenue from their self-promotion, on top of the less legible social capital they've acquired. It sounds like you think that this somehow creates a reciprocal obligation on our part to avoid talking about ways in which they've disappointed us or people like us. ?!?!?!?!?!
+
+> Unilateral surrender to someone strong enough to hold and defend territory, with a low enough time preference not to consume everything in it can be a good way to avoid the war of all against all. Do you think Eliezer or Scott is meeting that standard? It seems to me like Eliezer's not interested in having you as a subject, and Scott will just pass any threats from the outside right through to you.
+
+> Separately there are good pragmatic reasons to be careful about this and I don't want to ignore them - I'm really specifically arguing against what I perceive as a misapplied moralism around not criticizing people who definitely aggressed first, in a way that's much more clearly objectively aggression than criticizing someone's conduct, accurately described.
+
+
+I'd like to elaborate on what seems off to me about this.
+
+> Um. I see the value you're pointing at, but I also really don't want to attack my friends in public.
+
+What is being proposed here is creating clarity about behavioral patterns, and specifically ones that people claim not to have.  What you're saying here implies that you believe creating such clarity is an attack on someone.  If so, your blog is attacking trans people.
+
+What's going on here?  Here's a hypothesis.  Creating clarity about behavioral patterns is interpreted as an attack by the social field, and can sometimes (but not always) result in concretely worse outcomes for someone.  As such, it is much easier to create clarity about behavior patterns down power gradients than up power gradients.  So it's easy for you to create clarity about trans people's narcissistic behavior but hard for you to create clarity about Eliezer and Scott's narcissistic behavior (where they pretend to be pro-truth/rational/agenty and in fact aren't, and even optimize against those things).
+
+In effect, creating clarity about behavior patterns down power gradients but not up power gradients is just going to reinforce the scapegoating system.  In a world with high amounts of hypocrisy about drug use, it's rather perverse to only investigate and report on the drug use of majority-black neighborhoods; it ends up maintaining the impression (to privileged people) that it's other people's problem, that someone else can be blamed, and so it does nothing to reform the drug laws.
+
+You don't get to claim that creating clarity about trans people's behavior patterns is justified because that which can be destroyed by the truth should be, and also that creating clarity about Eliezer/Scott's behavioral patterns is unjustified because it would be an attack and start a war or whatever.  If you're being cowardly here or otherwise unprincipled, own that instead of producing spurious justifications.
+
+> You're obviously correct that this is a distortionary force relative to what Bayesian agents would do, but I'm worried that when we're talking about criticism of people (as opposed to ideas), the removal of the distortionary force would just result in an ugly war (and not more truth).
+
+Oh come on, calling all non-androphilic trans women delusional perverts (which you've done) is totally a criticism of people.  We're actual people, you know.  If you call all non-androphilic trans women delusional perverts, then you are calling me a delusional pervert, and having corresponding effects on e.g. my chances of being scapegoated.  (Which is not to say you shouldn't do this, but you should be honest about what you are doing!)
+
+To conclude, I'm on board with a project to tear down narcissistic fantasies in general, but not on board with a project that starts by tearing down trans people's narcissistic fantasies and then doesn't continue that effort where it leads (in this case, to Eliezer and Scott's narcissistic fantasies), and especially not if it produces spurious justifications for this behavior.
+
+
+I would be way more comfortable writing a scathing blog post about the behavior of "rationalists" (e.g.), than "Scott Alexander and Eliezer Yudkowsky didn't use good discourse norms in an email conversation that they had good reason to expect to be private." I think I'm consistent about this: contrast my writing to the way that some anti-trans-activism writers name-and-shame named individuals. (The closest I've come is mentioning Danielle Muscato as someone who doesn't pass, and even there, I admitted it was "unclassy" and done in desperation of other ways to make the point having failed.)
+
+Am I wrong here?
+
+Like, I acknowledge that criticism of non-androphilic trans women in general implies criticism of Jessica Taylor, and criticism of "rationalists" in general implies criticism of Eliezer Yudkowsky and Scott Alexander and Zack Davis, but the extra inferential step and "fog of probability" seems really useful for maximizing the information-conveying component of the speech and minimizing the social-warfare component?
+
+
+If someone says "the Jews are OK, but they aren't Real Americans" I feel similarly concerned, and if they say "Michael is OK but he isn't a Real American" likewise not. 
+
+Targeting that is Less Precise is always more violent.
+
+On Mon, Apr 8, 2019, 4:33 PM Michael Vassar <michael.vassar@gmail.com> wrote:
+
+    I think that is really really importantly backwards. If someone says "Michael Vassar is a terrible person" I hope they are OK, and I try to be empathically curious, but if they don't have an argument, I don't worry much and I worry more For them than About them. If someone says The Jews are Terrible People I see that as a much more serious threat to my safety. "rationalists and trans-girls very clearly appear to me to be the exact categories of people that get targeted by the sorts of people who would also target Jews, so this analogy is *particularly* apt.  
+
+This actually interacts with the good-faith kind of social constructionism! (Which mostly isn't done, but could be done.) Speakers of my generation are more likely to say "person" when sex isn't relevant, whereas older works (pre-second wave feminism?) would actually say "man" (or "woman"—see how anachronistic it feels to put the female option second and in parentheses?), presumably not because human nature has changed that much, but because of shifting cultural priorities about when sex is "relevant." (Modern speakers similarly frown on mentioning race when it's not relevant.)
+
+
+I want to be careful not to fall into the trap of being a generic social conservative. My gender crusade becomes much less interesting insofar as it can be explained simply by me being born too early and not getting "kids these days." It's not that cultural change is necessarily bad; it's that I want culture to innovate in the direction of "achieving godlike understanding of objective reality and optimizing the hell out of it" rather than "playing mind games on each other to make it artificially harder to notice that we don't actually live in a Total Morphological Freedom tech regime."
+
+
+cut from the first draft—
+> You scream and punch him in the face. Clutching his bloody nose, Bob seems more shocked than angry. "You—you punched me."
+
+> "I wouldn't say that," you say. "It depends on how you choose to draw the category boundaries of the word 'punch.'"
+
+Um, I guess it's important to notice that the only reason I think the "Vice President" example is "depoliticized" is because I live in a bubble that's obsessed with identity (gender, &c.) politics and doesn't care about class politics. It still works if my audience lives in the same bubble as me, but it would be pretty poor performance on my part to not notice the bubble.
+
+
+
+One reason someone might hypothetically be reluctant to correct mistakes when pointed out, is the fear that such a policy could be abused by bad-faith nitpickers. It would be pretty annoying to be obligated to churn out an endless stream of trivial corrections by someone motivated to comb through your entire portfolio and point out every little thing you did imperfectly, ever.
+
+This is why I found myself wondering if, in Scott or Eliezer's mental universe, I'm a blameworthy (or pitiably mentally ill) nitpicker for freaking the fuck out over a blog post from 2014 (!!) and a Tweet (!!!) from November. Like, really? I, too, have probably said things that were wrong five years ago that I would be annoyed about being pressured to issue a correction for now!
+
+But ... I don't know, I thought I put in a lot of interpretive labor making a pretty convincing case that a lot of people are making a correctable and important rationality mistake, such that the cost of a correction would actually be justified in this case, and that it should be possible to take a hard stance on "categories aren't arbitrary, you idiots, just like Eliezer said in 2008" without taking a stance on what implications that might have for other more contentious questions?? Right? Right?? Like, there are noticeable differences between me and the hypothetical bad-faith nitpicker, right????
+
+My mental health is continuing to deteriorate today, so I may need to focus on that (and therefore staying employable and having money, &c.) for a while rather than whatever we're trying to accomplish here.
+
+
+I still feel sad and upset and gaslighted and I haven't done any dayjob work so far this week even though it's Tuesday afternoon. So, I feel motivated to send this email to communicate that I feel sad, even though this message is of questionable value to the recipients.
+
+
+
+
+
+Eliezer, I've spent my entire adult life in the subculture you created. You created me. Everything I'm doing now, I learned from you. I've put in a lot of effort—along with Ben and Michael and Sarah and Zvi and now Jessica—trying to explain that there's a collective sanity problem that we could really use your help with. (You should see the strategy email threads we've been having behind your back!) I don't understand how repeating that people live in different mental universes is a relevant response to our thousands of words of careful arguments?
+
+I'm pretty sure everyone here is strongly in favor of Jessica's existence. But maybe, if someone thinks really carefully about it, there could be some way to protect Jessica's interests without destroying the faculty of language?! (Especially given that Jessica herself may have interests in being able to talk.)
+
+Michael—
+> My guess is that at this point Zack and Ben should both sign off actually, and maybe Sarah as well, and that this should become a conversation between Eliezer and Jessica, Zvi, myself, and other people who have or have historically had strong MIRI affiliations and have paid serious attention to logical decision theories.  Maybe we should bring in Wei Dai, since along with Eliezer, he created logical decision theory, so in so far as there's a natural heir to the Caliphate other than Eliezer it's him.  At this point, I think that if this doesn't resolve with Eliezer backing down I am pretty much obligated to involve everyone who I believe has historically taken seriously Eliezer's claims of strong principles against lying.  Among other things, I think that it's clear that without standing on such a moral bedrock, Eliezer is no longer claiming to be the spiritual leader of the Caliphate (intuitively, that title passes to me?), and that the secular leader of the AI Risk Caliphate has been Demis for many years now.  
+
+> Sarah, don't worry, this definitely doesn't imply involving shit-heads who want to carpet-bomb us.  It might involve explicitly discussing the pros and cons of involving leftist shit-heads as part of motivating Eliezer (and/or Scott) and I think that we should try to become psychologically immune to their carpet-bombing in any event, but there may be good reasons for Sarah to remain economically coupled to their good-will, since of all of us she's the only one who may stand to receive resources from the Corporate Center-Left Coalition or to direct their resources.  It does seem to me that technically, in so far as their attacks are harmless to those not seeking privilege, leftist shit-heads are Guided by the Goodness of their Weapons, and working out whether this is in fact true may be related to the logical decision theory that will enable us to integrate political threats with compassionate rational engagement and bring Eliezer and Scott back from the team of deception and privilege.
+
+In retrospect, I totally backwards to say that I was worried about you using up our bandwidth! My message was probably pretty predictable given everything else I've said, whereas you actually made progress, even if I didn't quite understand where you were going in the moment.)
+
+... I'm kind of perversely enjoying my position as plantiff/pawn/puppydog.
+
+But—wait. Eliezer is accusing you guys of driving me crazy?? I think I might be obligated to respond to that. But, on a weekend.
+
+
+Ben on our epistemic state—
+
+> Zack started out operating on object-level trust that "Rationalists" would generically be trying to build true maps, and that while there might be errors, even quite bad errors, in individuals, coordination would be towards truth on net, on the meta-level and all higher levels of recursion. This hypothesis was decisively falsified - political factors caused it to be false. Zack's level of trust did not pay rent, except insofar as he ended up helping catalyze the formation of a dissident circle who are sympathetic to coordinating towards truth, and not just pretending to do so.
+
+> Eliezer, as the best plausible individual representative of the "Rationalists" as currently constituted, is Eliza the bot therapist in Zack's story, letting the clock run out on the interaction with Zack instead of trying to inform him. He even initially accepted in principle financial compensation for doing this, and more generally is getting paid by MIRI donors. We should consider the whole system structurally similar to Zack's Eliza story. Regardless of the initial intent, anxious scrupulous Rationalists are paying rent to something claiming moral authority, which has no concrete specific plan to do anything other than run out the clock, but remains in a facsimile of dialogue with them in ways well-calibrated to continue to generate revenue, at least insofar as bigger revenue streams aren't available yet.
+
+> Zacks don't survive long-run in this ecosystem. If we want minds like Zack's to survive somewhere, we need an interior that justifies that level of trust. In the short run, Zack just isn't useful until he self-mods to not be vulnerable to this sort of trolling again, and give up on people exhibiting behaviors like Eliezer's (or Scott's) as not worth his time. This means modeling the politics of the situation proactively, not just defensively as a horrible mess "we" want to fix.
+
+> Jessica started out thinking that things like Eliezer's code of meta-honesty were worth parsing in detail, instead of just dismissing them as the sort of thing someone formerly scrupulous who wanted to narrate their transition to a deceptive strategy as technically okay would do. This hypothesis has been falsified as well - Jessica's attention was wasted by Eliezer on the object level, and was only valuable - like Zack's - because it clarified that people like Eliezer are not operating on the level of fidelity that justifies that attention to detail.
+
+> We should expect others who are modeling politics, including the good guys who would like to build robust networks of truth-oriented trust, to ignore clever explanations we give for our behavior that substantially resemble what Eliezer is doing, and to rationally predict that we have intent to expropriate via clever rationalizations if we behave like someone with intent to appropriate via clever rationalizations. If we were mistaken to trust Eliezer, then others would be mistaken to trust us if we externally seem to behave like Eliezer.
+
+> I'm not sure what this means on the object level except that SOME leftists and anarchists are probably much better allies than they seem to us right now. Possibly some of them have analogous confusions with respect to their faction's internal coordination mechanisms, and haven't figured out how to look trustworthy to people like us. (And also, there are way more than two or three factions.)
+
+
+Michael—
+> I don't think that we should be permanently giving up on people, but I do think that we should be regarding them as temporarily without the appeal to rights in relationship to ourselves. Varelse in Orson Scott Card speak. 
+
+> I think that it was extremely worth our time to engage at this level of detail, and at an even greater level of detail in order to achieve common knowledge, as I don't think that we have achieved common knowledge*yet* if Zvi  still thinks that we shouldn't confidently act on the assumption that Eliezer is not doing useful things unobserved. 
+
+> I would defend engagement with Eliezer for as long as we did in the past and in several future cases if we had several future relationships that seemed comparably valuable to the one we were hoping for, e.g. with a reformed Eliezer Yudkowsky, but I think that it's important that we be clear in our own minds that as of now there should be no presumptive loyalty to Eliezer over, for instance, Demis who is the Schelling Point for leader for an AI Risk coalition not Guided by the Goodness of it's Weapons.
+
+> In fact,bin all seriousness, we should see Eliezer as less trustworthy than Demis by default in light of the fact that Eliezer claimed to be following a nuanced strategy but defected while Demis never stood on any claims of morality/trustworthiness and is thus entitled to the standing of any person who seems to have managed to be successful while remaining sane enough to advance technology and to turn down large monetary gains for strategic advantage.
+
+Ben—
+> Zack, I'm not asking you not to say that publicly if that's how you honestly feel and you want to report it, but as a political matter I don't expect it to help Eliezer understand; I just expect it to make him feel sad.
+
+Jessica—
+> Worth making explicit why Eliezer's response to my criticism is sufficient reason to write him off until something majorly changes (e.g. apology and serious signals of intent to recognize and act against corruption):
+
+> - Instead of responding to my criticisms, he does a "tu quoque" (in this case accusing me of making a conflation I didn't make), which is particularly illegitimate (and thus, amusing) because I'm holding him to his standards, not mine.
+
+> - He implies I'm insane for modeling psychology.  This is classic play in high-corruption gaslighting equilibria: act in bad faith while pretending to act in good faith, and label those who see it is pretend (and talk about this) as insane, to discredit them.  (It's rather obvious that psychological modeling is actually a sign of sanity, not of insanity)
+
+> - He praises Zack relative to me (saying he is comparably sane because he doesn't psychologize... which, Zack does too, that's a lie).  Another classic political tactic: praise one member of an alliance while blaming another, to split cracks in the alliance, turning former allies against each other.
+
+> Eliezer shifted from bullshitting in ways that plausibly defend his reputation, to actively trying to hurt me in ways that do not plausibly defend his reputation.  (Him initiating a political slap fight with me actually looks worse for him than it does for me)
+
+
+>  I think this is what happens when one plays politics too long without sufficiently robust defenses, and develops habits and modes of thinking in different ways. Thinking of such action as being goal-oriented with a detailed map is the wrong way to model it - as you put it, Eliezer's thinking isn't worth this level of attention to its details, as Jessica/Zack observed with its meta-honesty.
+
+> He also engaged in rhetorical actions that the Eliezer we know and value would never do, so he can't be that person at present. He is 'insane' in the sense that he has lost his mind, but it's his mind that he has lost rather than a mind in general, as such views are alas normal round these parts. 
+
+Michael—
+> Common knowledge achieved. 
+> Intention to transition to politics achieved in so far as everyone agrees regarding 'stay in formation, this is not a drill'.
+
+> Can everyone please let me know what you think about the value of achieving common knowledge. To my mind, we don't need Eliezer, but we absolutely need to be able to count that as value when using our 'board evaluators' or we are Totally Fucking Dead!
+
+> Now that we are doing politics at all, and conveniently, against the least skilled opponent around, it's time to start practicing offense.  We have an extremely large, clear-cut weapon here. Eliezer has publicly stated his intention to commit fraud. He has publicly defrauded a number of us. If the guns that we can point at his head aren't larger than the guns already points at his head that means that he has forgotten how to see guns.
+
+Ben—
+> Eliezer's claim to legitimacy really did amount to a claim that while nearly everyone else was criminally insane (causing huge amounts of damage due to disconnect from reality, in a way that would be criminal if done knowingly), he almost uniquely was not.
+
+> "Eliezer is criminally insane" and "Eliezer's behavior is a normal failure of rationality" are not competing hypotheses from the perspective of the Sequences - they're the same hypothesis.
+
+> WE CAN'T GRADE OBJECTIVE CATEGORY DESCRIPTORS ON A CURVE.
+
+I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here?
+
+In general, if someone writes to me with a criticism of the form of "That was really misleading in context; I really think it's worth clarifying to your readers", I think I would either say something like "Actually, I argue that it's not misleading because ..." or "You're right, I'll clarify." Promising to never speak about the topic again just seems weird?
+
+Michael—
+> From my perspective, she is an enemy combatant and can claim no rights in regards to either me or you.  We should be lying to her because we should also be trying, when convenient, to slash her tires.  I do think that it's pretty important that you absorb that point. Like, we know her to be actively acting against me in a manner that I think is unambiguously unrighteous, unprovoked and not self-serving, and we have established that Eliezer is actively breaking his oaths despite everything he has ever said about how 'you can break your principles once. After that, you don't have principles to break' and the like. Do we at least agree that he is unambiguously wither a criminal or an enemy combatant?  
+
+> The latter frame is more accurate both because criminals have rights and because enemy combatants aren't particularly blameworthy. They exist under a blameworthy moral order and for you to act in their interests implies acting against their current efforts, at least temporary, but you probably would like to execute on a Marshall Plan later. 
+
+> I don't really need this information, so don't bring it if it makes you uncomfortable, and it's totally fine to be 'friends' with enemy combatants, just not to feel obligations towards them mediated by lawful intuitions. We should work out the logic of this with Ben, as it's important, but basically one can have an obligation of beneficence towards a small child, a tame animal, or many other things, but to attribute rights to those things rather than entitlement to beneficence is actually to give up on the belief in rights.
+
+Um. I can imagine that you might find my attitude here frustrating for reasons analogous to how I find it frustrating when people reach for the fake precision of talking about hormone levels and genitalia as separate dimensions in a context where I think the concept they actually want is "biological sex." But that's just the objection I come up with when I run my "How could a hypothetical adversary argue that I'm being hypocritical?" heuristic; it doesn't actually make me feel more eager to talk about criminality myself.
+
+
+Ben—
+> I don't think it's worth your time to read that thread - the result was Zack decided to do all the public interpretive labor himself, just asked Eliezer for an endorsement of a pretty straightforward but insightful extension of A Human's Guide To Words, and then we have the recent thread. [...] The coordination capital we are building seems way more important than persuading Eliezer.
+
+Jack—
+> And the more this sort of thing continues the more embarrassed I am to be associated
+> Ptting this level of effort in looks pitiful
+> Like actually just pathetic
+> Sharing thread with the 3 most promising MIRI employees and offering to chat with them about it seems like not a horrible idea
+> But sharing it with the whole cult just seems like poking a nest of dog shit - nothing in this thread was sufficiently obviously bad by the standards of either cynicism or naive pattern matching, so making a fuss rather than writing off the troll looks either stupid (can't see obvious troll) or weak (have nothing better to do than kick a pile of excrement)
+> Oh or weak like Sarah read it
+> Someone needs to slap Zack. Not literally, probably.
+> But I already don't have much hope for the level of cultist cuck that Nick is. Zack seems like he might be further in that direction, but otoh he at least has narratized internal conflict about it.
+
+> Zack sacrificed all hope of success in favor of maintaining his own sanity by CC'ing you guys (which I think he was correct to do conditional on email happening at all). We're (accurately) narratized as a political coalition who people feel obligated to talk to but to not take too seriously.
+
+
+I was _just_ trying to publicly settle a very straightforward philosophy thing that seemed really solid to me
+
+if, in the process, I accidentally ended up being an unusually useful pawn in Michael Vassar's deranged four-dimensional hyperchess political scheming
+
+that's ... _arguably_ not my fault
+
+
+
+"Harry, were you involved in the breakout from Azkaban?" "Involved doesn't have a simple truth condition ..."
+
+
+
+There's this thing where some people are way more productive than others and everyone knows it, but no one wants to make it common knowledge (like with the blue-eyed islanders), which is really awkward for the people who are simultaneously (a) known but not commonly-known to be underperforming (such that the culture of common-knowledge-prevention is to my self-interest because I get to collect the status and money rents of being a $150K/yr software engineer without actually performing at that level, and my coworkers and even managers don't want to call attention to it because that would be mean—and it helps that they know that I already feel guilty about it) but also (b) tempermentally unsuited and ideologically opposed to subsisting on unjustly-acquired rents rather than value creation
+
+(where I'm fond of the Ayn Rand æsthetic of "I earn my keep, and if the market were to decide that I don't deserve to live anymore, I guess it would be right and I should accept my fate with dignity" and I think the æsthetic is serving a useful function in my psychology even though it's also important to model how I would change my tune if the market actually decided that I don't deserve to live)
+
+(also, I almost certainly don't have a coherent view of what "unjustly-acquired rents" are)
+
+but the "Everyone knows that Zack feels guilty about underperforming, so they don't punish him, because he's already doing enough internalized-domination to punish himself" dynamic is unsustainable if it evolves (evolves is definitely the right word here) into a loop of "feeling gulit in exchange for not doing work" rather than the intended function of "feeling guilt in order to successfully incentivize work"
+
+I'm not supposed to be sending email during Math and Wellness Month, but I'm sending/writing this anyway because it's Wellness-relevant
+
+You've got to be strong to survive in the O-ring sector
+
+(I can actually see the multiplicative "tasks are intertwined and have to all happen at high reliability in order to create value" thing playing out in the form of "if I had fixed this bug earlier, then I would have less manual cleanup work", in contrast to the "making a bad latte with not enough foam, that doesn't ruin any of the other customer's lattes" from my Safeway-Starbucks-kiosk days)
+
+This is genuinely pretty bad
+
+I should do some of the logging-package prototyping stuff on the weekend (it looks fun/interesting enough such that I might be able to psych myself into thinking of it as a "fun" project)
+30 April saying, essentially (and sincerely), "Oh man oh jeez, Ben and Michael want me to join in a rationalist civil war against the corrupt mainstream-rationality establishment, and I'd really rather not, and I don't like how they keep using scary hyperbolic words like 'cult' and 'war' and 'criminal', but on the other hand, they're the only ones backing me up on this incredibly basic philosophy thing and I don't feel like I have anywhere else to go."
+
+(In a darkly adorable twist, Mike and Alicorn's two-year-old son Merlin was reportedly saying the next day that Kelsey doesn't like his daddy, which was confusing until it was figured out he had heard Kelsey talking about why she doesn't like Michael Vassar.)
+
+Anyway, all of this leading up to a psychological hypothesis (maybe this is "obvious", but I hadn't thought about it before): when people see someone wavering between their coalition and a rival coalition, they're motivated to offer a few concessions to keep the wavering person on their side. Kelsey could afford to not-understand (pace Upton Sinclair) the "words need to carve reality at the joints" thing when it was just me freaking out alone, but "got it" almost as soon as I could credibly threaten to walk (defect to a coalition of people she dislikes)—and maybe my "closing thoughts" email had a similar effect on Eliezer (assuming he otherwise wouldn't have spontaneously tweeted something about the univariate fallacy two weeks later)??
+
+This probably doesn't work if you repeat it (or if you try to do it consciously)?
+
+> I keep scratching my head here Zack. Weaker language on this would just be weaker.  We aren't dealing with a problem of pedagogy here. We are dealing with a group of people who literally got together and built a movement around the need to do charity non-fraudulently but who were eventually shaped by the feedback systems they were in into doing exactly the thing they built their movement in opposition to while claiming that "anyone else would have done it and anyway some of us are vegans".  Nobody is endorsing punishing people for doing things that anyone else would have done, but we are asking them to stop preventing others from trying to do actual charity and actual science, which they are currently actually opposing in order to defend their egos. 
+
+Yes, this is a lame rationalization: if everyone actually knew, what would the act be for? Present day senile!Eliezer wrote of people being "pseudo-fooled in part of themselves even when they are not really-fooled" as if it were no big deal, but 2007!Eliezer identified people being pseudo-fooled as a bad thing. I'll add this to my post-ideas list (working title: "Fake Common Knowledge"). 
+
+he seems to be conflating transhumanist optimism with "causal reality", and then tone-policing me when I try to model good behavior of what means-end reasoning about causal reality actually looks like. This ... seems pretty cultish to me?? Like, it's fine and expected for this grade of confusion to be on the website, but it's more worrisome when it's coming from the mod team.
+
+I talked with Ray from 7 to 10:30 tonight. My intellectual performance was not so great and I did a lot of yelling and crying. Ray thinks that people need to feel safe before they can seek truth, because otherwise they'll distort stuff until they can feel safe. I think this is mostly true: it's not a coincidence that I put out a poor intellectual performance during the same conversations that I do a lot of yelling and crying. But then Ray goes on to say something about stag hunts and coordination, and I'm like, "In slogan form, 'Telling the truth is not a coordination problem!' You can just unilaterally tell the truth!" And ... it doesn't seem to land?
+
+I wish I hadn't done so much yelling and crying with Ray (it's undignified, and it makes me stupid), but when people seem to be pretty explicitly denying the possibility of actually reasoning with them, it's as if I don't perceive any alternative but to express myself in a language they might have a better hope of understanding
+
+Also, I think it's pretty ironic that this happened on a post that was explicitly about causal reality vs. social reality! It's entirely possible that I wouldn't feel inclined to be such a hardass about "Whether I respect you is off-topic" if it weren't for that prompt!
+
+
+I think mens rea as a concept is pretty clearly necessary for good incentives, at least some of the time. The law distinguishes between accidentally hitting a pedestrian in one's car ("manslaughter") from premeditated killing ("first-degree murder"), and this is an important distinction, because traffic accidents are significantly less disincentivizable ("elastic"?) than offing one's enemies. (Anyone who drives is going to have analogues in nearby possible worlds who are guilty of vehicular manslaughter.) In the absence of mindreading tech, it may not be easy for the court to determine intent, but it should be possible in at least some cases: if the victim is a stranger and the weapon was a car, then it's probably manslaughter; if the victim was recently revealed to have slept with the perp's wife and the weapon was a gun purchased the previous day, then it's probably murder.
+
+I would be pretty surprised if any of you disagree with this, at least in the case of homicide? The case of misinformation that moves resources is a lot trickier, to be sure (for one extremely important disanalogy, perps don't gain from manslaughter), but I don't see what would reverse the extremely weak principle that "intent matters, somewhat, sometimes"?
+
+
+1. I didn't stay on them for long enough for the full/interesting effects. (I chickened out at 5 months because of health/fertility conservatism; might try again sometime.)
+
+2. I in particular am unusually bad at introspection?? (I think I mentioned this in the posts: there could very well have been lots of changes that I just didn't consciously/verbally register as "change due to HRT".) Possible evidence: I drink coffee often, but I don't feel like I can consciously notice its effects most of the time, except when I'm very sleepy, feel not-sleepy some time after drinking coffee, and infer, "Oh, I'm not sleepy any more; it must have been the coffee, which I know is a stimulant because everyone says so and I believe them." But the fact that I feel motivated to seek out coffee even though it doesn't "objectively" taste particularly good suggests that the drug is doing something to my brain even though I wouldn't be very good at blogging about it.
+
+3. People-in-general's verbal self-reports are heavily influenced by priors/selective-attention: if you expect HRT (or coffee) to drastically change your experience, you'll find things to notice; if you don't, then you won't. The actual effects of biochemistry are presumably real and in-principle-measuable, but the translation from "brain biochemistry" to "blog post" destroys almost all non-culturally-preconceived information.
+
+
+ My previous understanding of the present struggle (filtered through the lens of my idiosyncratic Something to Protect) seemed like a simple matter of Bay Area political correctness; I didn't really feel like I understood what Michael/Ben/Jessica were seeing as a more general dire problem. But now we have two Less Wrong moderators (Ruby and Ray, not rando n00bs) who seem pretty actively opposed to honest discourse (on the grounds that we need to solve the coordination problem of colluding to protect each other's feelings before we can feel safe enough to have arguments). Michael's cockamamie social theories about there being a socio-psychological attractor optimizing for fraud-in-general are actually starting to seem plausible??
+
+Steven, if you have time and are interested, could you read the secret ("secret") thread and my earlier meta-scuffle with Ruby and a just-now thread with Ray tell me if you're seeing what I'm seeing?
+
+Anna, I continue to be pretty baffled at how (from my perspective, stated bluntly) you seem to be basically uninterested in the mounting evidence that your entire life's work is a critical failure?
+
+(Ruby's profile says he's one of two people to have volunteered for CfAR on three continents. If this is the level of performance we can expect from a veteran CfAR participant, what is CfAR for? Like, yes, we've succeeded at getting money and eyeballs pointed at the alignment problem, which is good. But I pretty clearly remember back in 2009 that we thought this was going to take more than money and eyeballs. If we were wrong, that's good news for humanity! But there should be some sort of argument that explains why we changed our minds, rather than everyone seemingly just conveniently forgetting the original vision.)
+
+Really interested in spending time with either of you in person to double-crux on some of this! (Or more Friendship maintenance with Anna.)
+
+>  People sometimes think of it as "a math problem", but that's because of the branding, not because of the reality.  Yes, a lot of it is a math problem, but it's also an analytic philosophy problem, a cognitive science problem, a social psychology problem, a sociobiology problem, a sociology of science problem, a political strategy problem, and so on.  Many of these are politics-laden domains, where it isn't sufficient to merely be skeptical; it's also necessary to directly talk about politics without the conversation getting derailed.
+
+Jessica—
+> 1. GiveWell (talking about how current charities are inefficient/fraudelent/useless, and how it's possible to do better with cost-benefit analyses)
+> 2. The Atheism movement (talking about how religion is false and people who promote it are being deceptive)
+> 3. The fable of the dragon tyrant (talking about how deathists are being insane, worshipping death instead of fighting it)
+> 4. AI safety as a concern for people not in the AI field (talking about how current AGI approaches would result in the discussion of the world; isn't that saying that what AI researchers are doing is bad, and they won't figure out how to do better themselves?)
+> 5. The Sequences (talking about human rationality, including talking about lies and dark side epistemology)
+> 6. Inadequate Equilibria (talking about how e.g. academia is producing disinformation or useless research, due to perverse incentives)
+
+What I was trying to point out in the thread is a pattern where people say, "Yes, of course criticism and truthseeking is important; I just think that tact is important, too," only to go on and dismiss any particular criticism as insufficiently tactful. More generally: the surface indicators of rationality are easy to fake, and if we don't know how to detect when someone is faking, then it might be surprisingly hard to notice if fake versions of "rationality" are memetically outcompeting better versions. (To which a standard reply seems to go: "Ah, but the behavior of claiming that the surface indicators are easy to fake and that you know how to do better is also easy to fake." Well, yes. That's why this is a hard problem.)
+
+
+
+Ben and Jessica, what did you get out of yesterday's meeting? Do you even remember what anyone said?
+
+I think it was Vaniver who brought up "sanity-maximizers" and admitted that that's not what "the team" is trying to do (because Society would destroy it for heresy, like Anna has told me before)? I like Vaniver, who seemed to "get" me.
+
+For me and my selfish perspective, I think the main outcome is finally shattering my "rationalist" social identity. (We knew this was coming, and I still need to mourn, but I needed to exhaust all possible avenues of appeal before it became real to me; this is the first morning where "rationalists ... them" feels more natural than "rationalists ... us".)
+
+I hope I wasn't too emotional, but I guess I had nothing to lose. I have my friends and I have money, and if Oli thinks I'm annoying, I guess I can live with that. (I mean, that which can be destroyed by the truth should be: I am, in fact, annoying.)
+
+Ben—
+
+> Seems like Oli would rather have ongoing internal political disagreements than make Lesswrong anything in particular. Vaniver actually believes that they should behave esoterically. Jim claimed that he updated during the meeting towards believing that norms had in fact shifted - possible he’ll make more downstream updates later. I don’t know how to characterize Ray.
+
+> Everyone agreed that Zack was right and Scott wrong on the substantive issue of category boundaries, and I think agreed with my characterization of Scott as conflating basic decency with giving into extortion.
+
+> There basically seems like there is no appetite for becoming the sort of counterparty we could negotiate with, and it seems like they think we’re probably right to leave.
+
+I actually still feel pretty motivated to write for Less Wrong, but now more in the spirit of "marketing channel for my own writing" and "fuck you guys" rather than my previous hope of recapturing the beacon.
+
+I was really grateful to Jim for piping up with, "We are somewhat cowardly about what we curate" (concerning why "Where to Draw the Boundaries?" didn't get Curated). (I'm not sure if he actually used the word "cowardly", but that was the sense.) I was like, "Thanks, that makes me respect you more!" (Ray was maintaining that my pedagogy wasn't good enough.)
+
+I am a high-neuroticism person (the sex difference is only d = 0.4, so this isn't model-breakingly surprising; it's like being a woman who's 6'2")
\ No newline at end of file
diff --git a/notes/a-hill-marketing.txt b/notes/a-hill-marketing.txt
new file mode 100644 (file)
index 0000000..6363cdd
--- /dev/null
@@ -0,0 +1,56 @@
+(No private reply expected.)
+
+> If it is as you describe
+
+Done (1 2 3), although I think the final product turned out more aggressive than my earlier messages in this thread made it sound ([TODO quotes]), thus justifying this additional notification email (because "a true friend stabs you in the front").
+
+If you care about defending yourself, the comments for the _Less Wrong_ linkpost on the last part is probably the best place to do so.
+
+------
+
+But you probably don't care. (If you already thought sucking up to Stalin was more important than living up to my standards, it's hard to see why me explaining the standards-violation to everyone else would change anything.)
+
+--------
+
+Or maybe the summary comment would actually make things worse? It would turn the memoir into an instrument of war. But maybe the Whole Dumb Story speaks for itself. (In the process of writing, I realize that Yudkowsky _did_ give me a _lot_ of concessions—so many, that I shouldn't want to make war against him, because war is the wrong framing: I want to explain, to anyone who can still listen, about how it's terrible that our incentives make people take for granted that speech doesn't work.)
+
+------
+
+I could use some politics/ettiquiete advice
+
+I want to publish (as a comment on the _Less Wrong_ linkpost for my forthcoming memoir) a summary of Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty, and promote the comment on social media
+
+and I'm kind of facing conflicting deciderata
+
+Right now, I have Yudkowsky blocked on Twitter. It seems wrong to leave him blocked while Tweet-promoting my comment, because that's attacking his reputation _behind his back_, which is dishonorable. ("A true friend stabs you in the front.")
+
+But if I unblock and tag him, then I'm effectively bidding for his attention, which I had said that I wasn't going to do anymore, which is the reason I have him blocked.
+
+(Really, that's _also_ why I'm publishing the comment. I tried talking to the guy _first_, a lot, before eventually concluding (after using up what I assume is my lifetime supply of Eliezer-bandwidth) that it's a waste of time. My final email to him said, "I think the efficient outcome here is that I tell the Whole Dumb Story on my blog and never bother you again", and even if that wasn't a _promise_, it seems healthier to basically stick to that—I mean, like, I said a few words to him about _Planecrash_ at the anti-smallpox party, but my position is that that doesn't count as "bothering him" in the relevant sense.)
+
+If he _wants_ to engage to defend his reputation, that's _great_—I would actually prefer that—but I don't want it to look like I'm trying to demand that, or threaten him into more engagement: rather, the function of the comment is to explain to _everyone else_ why I, in fact, don't trust him anymore, which is something I seflishly want them to know before the world ends
+
+probably the right move is to unblock and tag, but then explain the "stabs you in the front" rationale in a followup Tweet?
+
+-----
+
+
+I'm attacking his reputation seflishly; he's _welcome_ to defend himself, if he wants, but I'm trying to do this in a way where I'm not _asking_ for that; I'm addressing the audience rather than him (because I said the efficient outcome is that i never bother him again)
+Definitely in-bounds—
+_ UUT posts
+_ short Twitter thread promoting the posts
+_ "I Don't Trust EY's Intellectual Honesty" comment on pt. 3
+
+
+Questionably in-bounds—
+_ maybe a comment on the pronouns post (does that count as bothering him? probably the Facebook algorithm doesn't give enough visibility to comments on old posts that this isn't worth it anyway?)
+_ unblock and tag him in the Twitter thread
+_ ask Alicorner #drama for advice about this?
+
+(if he sees the #drama discussion, that's not my fault)
+
+I want this to be a _targeted_ update about his character, not a generic EY=Bad tarring that would spill onto "EY Bad, therefore AI safety Bad"
+
+(my rightness on the object level is locally detachable from my optimal political strategy; for the purposes of the drama discussion, you can assume that I'm trying to get some Kitten Facts on the shared map, and Yudkowsky has been opposing me with dirty tricks because he's in the pocket of Big Kitten; your honest _strategy_ advice to me _conditional_ on my worldview doesn't depend on whether you think I'm wrong about kittens)
+
index e697756..fc2666c 100644 (file)
@@ -2,16 +2,6 @@ The thing about our crowd is that we have a lamentably low proportion of women (
 
 https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
-So, a striking thing about my series of increasingly frustrating private conversations and subsequent public Facebook meltdown (the stress from which soon landed me in psychiatric jail, but that's [another](/2017/Mar/fresh-princess/) [story](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)) was the tendency for some threads of conversation to get _derailed_ on some variation of, "Well, the word _woman_ doesn't necessarily mean that," often with a link to ["The Categories Were Made for Man, Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), a 2014 post by Scott Alexander
-
-, the _second_ most prominent writer in our robot cult.
-
-So, this _really_ wasn't what I was trying to talk about; _I_ thought I was trying to talk about autogynephilia as an _empirical_ theory in psychology, the truth or falsity of which 
-
-Psychology is a complicated empirical science: no matter how "obvious" I might think something is, I have to admit that I could be wrong—not just as a formal profession of modesty, but _actually_ wrong in the real world.
-
-But this "I can define the word _woman_ any way I want" mind game? _That_ part was _absolutely_ clear-cut. That part of the argument, I knew I could win.
-
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
 Scott has written exhaustively about the dangers of strategic equivocation ("Worst Argument", "Brick in the Motte"); insofar as I can get a _coherent_ posiiton out of the conjunction of "... for the Categories" and Scott's other work, it's that he must think strategic equivocation is OK if it's for being nice to people
@@ -24,7 +14,7 @@ At first I did this in the object-level context of gender on this blog, in ["The
 
 Later, after [Eliezer Yudkowsky joined in the mind games on Twitter in November 2018](https://twitter.com/ESYudkowsky/status/1067183500216811521) [(archived)](https://archive.is/ChqYX), I _flipped the fuck out_, and ended up doing more [stictly abstract philosophy-of-language work](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [on](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) [the](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception) [robot](https://www.lesswrong.com/posts/4hLcbXaqudM9wSeor/philosophy-in-the-darkest-timeline-basics-of-the-evolution)-[cult](https://www.lesswrong.com/posts/YptSN8riyXJjJ8Qp8/maybe-lying-can-t-exist) [blog](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception).
 
-An important thing to appreciate is that the philosophical point I was trying to make has _absolutely nothing to do with gender_. In 2008, Yudkowsky had explained that _for all_ nouns N, you can't define _N_ any way you want, because _useful_ definitions need to "carve reality at the joints."
+_for all_ nouns N, you can't define _N_ any way you want, because _useful_ definitions need to "carve reality at the joints."
 
 It [_follows logically_](https://www.lesswrong.com/posts/WQFioaudEH8R7fyhm/local-validity-as-a-key-to-sanity-and-civilization) that, in particular, if _N_ := "woman", you can't define the word _woman_ any way you want. Maybe trans women _are_ women! But if so—that is, if you want people to agree to that word usage—you need to be able to _argue_ for why that usage makes sense on the empirical merits; you can't just _define_ it to be true. And this is a _general_ principle of how language works, not something I made up on the spot in order to attack trans people.
 
@@ -132,8 +122,6 @@ I'm trying to _get the theory right_. My main victory condition is getting the t
 
 It worked once, right?
 
-(Picture me playing Hermione Granger in a post-Singularity [holonovel](https://memory-alpha.fandom.com/wiki/Holo-novel_program) adaptation of _Harry Potter and the Methods of Rationality_ (Emma Watson having charged me [the standard licensing fee](/2019/Dec/comp/) to use a copy of her body for the occasion): "[We can do anything if we](https://www.hpmor.com/chapter/30) exert arbitrarily large amounts of [interpretive labor](https://acesounderglass.com/2015/06/09/interpretive-labor/)!")
-
 > An extreme case in point of "handwringing about the Overton Window in fact constituted the Overton Window's implementation"
 OK, now apply that to your Kolomogorov cowardice
 https://twitter.com/ESYudkowsky/status/1373004525481598978
@@ -275,8 +263,10 @@ https://distill.pub/2021/multimodal-neurons/
 
 https://www.jefftk.com/p/an-update-on-gendered-pronouns
 
-> Still think this was a perfectly fine tweet btw.  Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on.  Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
+> Still think this was a perfectly fine tweet btw. Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on. Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
 https://twitter.com/ESYudkowsky/status/1356535300986523648
+
+
 If you were actually HONESTLY tring to narrow it, you would have said, "By the way, this is just about pronouns, I'm not taking a position on whether trans women are women"
 
 https://www.gingersoftware.com/content/grammar-rules/adjectives/order-of-adjectives/
@@ -416,16 +406,8 @@ But I think Eliezer and I _agree_ on what he's doing; he just doesn't see it's b
 
 Speaking of narcissism and perspective-taking, "deception" isn't about whether you personally "lied" according to your own re-definitions; it's about whether you predictably made others update in the wrong direction
 
-[
-> I have never in my own life tried to persuade anyone to go trans (or not go trans) - I don't imagine myself to understand others that much.
-https://twitter.com/ESYudkowsky/status/1404697716689489921
-
-Tweet said "I've never persuaded anyone to go trans" in light of his track record; is like thinking it's personally prudent and not community-harmful to bash Democrats and praise Republicans. If any possible good thing about Democrats is something you mention that "the other side" would say.  Even if you can truthfully say "I've never _told_ anyone to _vote_ Republican", you shouldn't be surprised if people regard you as a Republican shill ; the "30% of the ones with penises" proclamation sort of was encouraging it, really!
 
 
-https://twitter.com/ESYudkowsky/status/1404821285276774403
-> It is not trans-specific.  When people tell me I helped them, I mostly believe them and am happy.
-
 I really appreciated Anatoly Vorobey's comments:
 
 > to provide context how it may  (justifiably?) seem like over the last 7-8 years the rat. community largely fell *hard* for a particular gender philosophy
@@ -434,11 +416,6 @@ I really appreciated Anatoly Vorobey's comments:
 
 > ...(then twitter dogma of the time, and now almost the blue tribe dogma of our time)... that I can understand how someone like Zack, embedded in the rat culture physically and struggling with this reigning ideology, could feel it as gaslighting.
 
-]
-
-https://www.facebook.com/yudkowsky/posts/10154110278349228
-> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
-> ==DOES ALL OF THE HAPPY DANCE FOREVER==
 
 
 https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
@@ -455,7 +432,6 @@ https://www.facebook.com/algekalipso/posts/4769054639853322?comment_id=477040850
 > recursively cloning Scott Alexander—with promising allelic variations - and hothousing the “products” could create a community of super-Scotts with even greater intellectual firepower
 
 https://twitter.com/ESYudkowsky/status/1434906470248636419
-
 > Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
 
 Okay, I get that it was meant as humorous exaggeration. But I think it still has the effect of discouraging people from criticizing Scott or Eliezer because they're the leaders of the caliphate. I spent three and a half years of my life explaining in exhaustive, exhaustive detail, with math, how Scott was wrong about something, no one serious actually disagrees, and Eliezer is still using his social power to boost Scott's right-about-everything (!!) reputation. That seems really unfair, in a way that isn't dulled by "it was just a joke."
@@ -478,7 +454,7 @@ Respect needs to be updateable. No one can think fast enough to think all their
 I think it's a problem for our collective epistemology that Scott has the power to sneeze his mistakes onto everyone else—that our 2021 beliefs about dolphins (literally, dolphins in particular!) is causally downstream of Scott's political incentives in 2014, even if Scott wasn't consciously lying and Nate wasn't thinking about gender politics. I think this is the problem that Eliezer identified as dark side epistemology: people invent fake epistemology lessons to force a conclusion that they can't get on the merits, and the fake lessons can spread, even if the meme-recipients aren't trying to force anything themselves. I would have expected people with cultural power to be interested in correcting the problem once it was pointed out.
 
 https://twitter.com/esyudkowsky/status/1374161729073020937
-> Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements.  There are a *lot* of good reasons to have "no comments" about things.  Anybody who tells you otherwise has no life experience, or is lying.
+> Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements. There are a *lot* of good reasons to have "no comments" about things. Anybody who tells you otherwise has no life experience, or is lying.
 
 "Speak out in order to make it clear how not alt-right you are; nothing wrong with that because I'm not lying" is being inconsistent about whether signaling and mood-affiliation matters—it's trying to socially profit by signaling pro-Stalin-ness, while simultaneously denying that anyone could object (because you didn't lie—pivoting to a worldview where only literal meanings matter and signals aren't real). Can I sketch this out mathematically?
 
@@ -491,61 +467,11 @@ https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wron
 > The act of defining a word to refer to all humans, except black people, seems kind of suspicious.
 That's not the only implication on race of the philosophy of categorization—actually, I'm going to bite the bullet here; "Eurasian" is actually fine as a paraphyletic category (and @CovfefeAnon uses it productively)
 
-And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"), but when you read the text that was actually published at the time, parts of it are hard to read as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity.
-
-[For example](https://twitter.com/ESYudkowsky/status/1067490362225156096):
-
-> The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
-
-Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
-
-Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
+And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"),
 
-But the _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different.
 
-[TODO: (clean up and consolidate the case here after reading the TW-in-sports articles)
 
-The "multivariate" part is important, because
 
-Different traits have different relevance to different sports; the fact that it's apples-to-oranges is _why_ women do better in ultraswimming—that competition is sampling a corner of sportspace where body fat is an advantage
-
-It's not that females and males are exactly the same except males are 10% stronger on average
-
-It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight"
-
-https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
-https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
-
-If you just had one integrated league, females wouldn't be competitive (in almost all sports, with some exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/)).
-
-]
-
-Given the empirical reality of the different multivariate trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine.
-
-(Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
-
-Including males people in female sports leagues undermines the point of having a separate female league. 
-
-[TODO: more sentences explaining why HRT doesn't break taxonicity of sex, and why "gender identity" is a much less plausible joint anyway]
-
-[TODO: sentences about studies showing that HRT doesn't erase male advantage
-https://twitter.com/FondOfBeetles/status/1368176581965930501
-https://link.springer.com/article/10.1007/s40279-020-01389-3
-https://bjsm.bmj.com/content/55/15/865
-]
-
-[TODO sentences about Lia Thomas and Cece Tefler  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's feats occured after Yudkowsky's 2018 Tweets, but this kind of thing was easily predictable to anyone familiar with sex differences)
-https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
-https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
-https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
-https://www.swimmingworldmagazine.com/news/a-look-at-the-numbers-and-times-no-denying-the-advantages-of-lia-thomas/
-]
-
-In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
-
-Yudkowsky's pretension to merely have been standing up for the distinction between facts and policy questions isn't credible: if you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
-
-(And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
 
 when worrying about the future and what I should do about it, I find myself more concerned with whether Eliezer would disapprove rather than the everyone-dying part
 
@@ -559,7 +485,7 @@ If Yudkowsky is obviously playing dumb (consciously or not) and his comments can
 
 Fortunately, Yudkowsky graciously grants us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
 
-> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. [...]
+> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. That is, in the logical counterfactual universe where I knew of very strong arguments against freedom of pronouns, I would have probably stayed silent on the issue, as would many other high-profile community members, and only Zack M. Davis would have said anything where you could hear it.
 >
 > This is a filter affecting your evidence; it has not to my own knowledge filtered out a giant valid counterargument that invalidates this whole post. I would have kept silent in that case, for to speak then would have been dishonest.
 >
@@ -571,27 +497,43 @@ So, the explanation of [the problem of political censorship filtering evidence](
 
 Really, it would be _less_ embarassing for Yudkowsky if he were outright lying about having tried to think of counterarguments. The original post isn't _that_ bad if you assume that Yudkowsky was writing off the cuff, that he clearly just _didn't put any effort whatsoever_ into thinking about why someone might disagree. If he _did_ put in the effort—enough that he felt comfortable bragging about his ability to see the other side of the argument—and _still_ ended up proclaiming his "simplest and best protocol" without even so much as _mentioning_ any of its incredibly obvious costs ... that's just _pathetic_. If Yudkowsky's ability to explore the space of arguments is _that_ bad, why would you trust his opinion about _anything_?
 
+But perhaps it's premature to judge Yudkowsky without appreciating what tight constraints he labors under. The disclaimer comment mentions "speakable and unspeakable arguments"—but what, exactly, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421871809228):
 
-... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it feels still necessary relative to everything else I need to get around to writing. (It's not actually a very interesting story; I just need to get it out of my system so I can stop grieving and move on with my life.)
+> People might be able to speak that. A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
 
-I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
+(As an aside, the wording of "we might well hear about it from _the other side_" (emphasis mine) is _very_ interesting, suggesting that the so-called "rationalist" community, is, effectively, a partisan institution, despite its claims to be about advancing the generically human art of systematically correct reasoning.)
+I think (a) and (b) _as stated_ are clearly false, so "we" (who?) fortunately aren't losing much by allegedly not being able to speak them. But what about some _similar_ hypotheses, that might be similarly unspeakable for similar reasons?
 
-You see, back in the 'aughts when Yudkowsky was writing his Sequences, he occasionally said some things about sex differences that I often found offensive at the time, but which ended up being hugely influential on me, especially in the context of my ideological denial of psychological sex differences and my secret lifelong-since-puberty erotic fantasy about being magically transformed into a woman. I wrote about this at length in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)]
-.
+Instead of (a), consider the claim that (a′) self-reports about gender dysphoria are substantially distorted by [socially-desirable responding tendencies](https://en.wikipedia.org/wiki/Social-desirability_bias)—as a notable and common example, heterosexual males with [sexual fantasies about being female](http://www.annelawrence.com/autogynephilia_&_MtF_typology.html) [often falsely deny or minimize the erotic dimension of their desire to change sex](/papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf) (The idea that self-reports can be motivatedly inaccurate without the subject consciously "lying" should not be novel to someone who co-blogged with [Robin Hanson](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain) for years!)
 
-In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains that "changing sex" is vastly easier said than done—
+And instead of (b), consider the claim that (b′) transitioning is socially rewarded within particular _subcultures_ (although not Society as a whole), such that many of the same people wouldn't think of themselves as trans or even gender-dysphoric if they lived in a different subculture.
 
+I claim that (a′) and (b′) are _overwhelmingly likely to be true_. Can "we" talk about _that_? Are (a′) and (b′) "speakable", or not?
 
+We're unlikely to get clarification from Yudkowsky, but based on my experiences with the so-called "rationalist" community over the past coming-up-on-six years—I'm going to _guess_ that the answer is broadly No: no, "we" can't talk about that.
 
-[[[ TODO summarize the Whole Dumb Story (does there need to be a separate post? I'm still not sure)
+But if I'm right that (a′) and (b′) should be live hypotheses and that Yudkowsky would consider them "unspeakable", that means "we" can't talk about what's _actually going on_ with gender dysphoria and transsexuality, which puts the whole discussion in a different light. In another comment, Yudkowsky lists some gender-transition interventions he named in [a November 2018 Twitter thread](https://twitter.com/ESYudkowsky/status/1067183500216811521) that was the precursor to the present discussion—using a different bathroom, changing one's name, asking for new pronouns, and getting sex reassignment surgery—and notes that none of these are calling oneself a "woman". [He continues](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159424960909228):
 
-[TODO: But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
+> [Calling someone a "woman"] _is_ closer to the right sort of thing _ontologically_ to be true or false. More relevant to the current thread, now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to _debate_ whether this sentence is indeed true or false, and have people express their nuanced opinions by uttering this sentence, or perhaps a more complicated sentence using a bunch of caveats, or maybe using the original sentence uncaveated to express their belief that this is a bad place for caveats. Policies about who uses what bathroom also have consequences and we can debate the goodness or badness (not truth or falsity) of those policies, and utter sentences to declare our nuanced or non-nuanced position before or after that debate.
+>
+> Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
 
-_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
+Sure, _if we were in the position of designing a constructed language from scratch_ under current social conditions in which a person's "gender" is a contested social construct, rather than their sex an objective and undisputed fact, then yeah: in that situation _which we are not in_, you definitely wouldn't want to pack sex or gender into pronouns. But it's a disingenuous derailing tactic to grandstand about how people need to alter the semantics of their _already existing_ native language so that we can discuss the real issues under an allegedly superior pronoun convention when, _by your own admission_, you have _no intention whatsoever of discussing the real issues!_
+
+(Lest the "by your own admission" clause seem too accusatory, I should note that given constant behavior, admitting it is _much_ better than not-admitting it; so, huge thanks to Yudkowsky for the transparency on this point!)
 
-[So I ended up arguing with people about the two-type taxonomy, and I noticed that those discussions kept getting _derailed_ on some variation of "The word woman doesn't actually mean that". So I took the bait, and starting arguing against that, and then Yudkowsky comes back to the subject with his "Hill of Validity in Defense of Meaning"—and I go on a philosophy of language crusade, and Yudkowsky eventually clarifies, and _then_ he comes back _again_ in Feb. 2022 with his "simplest and best protocol"]
+Again, as discussed in "Challenges to Yudkowsky's Pronoun Reform Proposal", a comparison to [the _tú_/_usted_ distinction](https://en.wikipedia.org/wiki/Spanish_personal_pronouns#T%C3%BA/vos_and_usted) is instructive. It's one thing to advocate for collapsing the distinction and just settling on one second-person singular pronoun for the Spanish language. That's principled.
 
-]]]
+It's quite another thing altogether to _simultaneously_ try to prevent a speaker from using _tú_ to indicate disrespect towards a social superior (on the stated rationale that the _tú_/_usted_ distinction is dumb and shouldn't exist), while _also_ refusing to entertain or address the speaker's arguments explaining _why_ they think their interlocutor is unworthy of the deference that would be implied by _usted_ (because such arguments are "unspeakable" for political reasons). That's just psychologically abusive.
+
+If Yudkowsky _actually_ possessed (and felt motivated to use) the "ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking", it would be _obvious_ to him that "Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" isn't the hill anyone would care about dying on if it weren't a Schelling point. A lot of TERF-adjacent folk would be _overjoyed_ to concede the (boring, insubstantial) matter of pronouns as a trivial courtesy if it meant getting to _actually_ address their real concerns of "Biological Sex Actually Exists", and ["Biological Sex Cannot Be Changed With Existing or Foreseeable Technology"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) and "Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity." The reason so many of them are inclined to stand their ground and not even offer the trivial courtesy is because they suspect, correctly, that the matter of pronouns is being used as a rhetorical wedge to try to prevent people from talking or thinking about sex.
+
+---------
+
+I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
+
+_After it's been pointed out_, it should be a pretty obvious hypothesis that "guy on the Extropians mailing list in 2004 who fantasizes about having a female counterpart" and "guy in 2016 Berkeley who identifies as a trans woman" are the _same guy_. 
 
 At this point, the nature of the game is very clear. Yudkowsky wants to make sure he's on peaceful terms with the progressive _Zeitgeist_, subject to the constraint of not saying anything he knows to be false. Meanwhile, I want to actually make sense of what's actually going on in the world as regards sex and gender, because _I need the correct answer to decide whether or not to cut my dick off_.
 
@@ -665,6 +607,8 @@ congrats after Whale and Sawyer chimed in: https://twitter.com/ESYudkowsky/statu
 https://twitter.com/ESYudkowsky/status/1404700330927923206
 > That is: there's a story here where not just particular people hounding Zack as a responsive target, but a whole larger group, are engaged in a dark conspiracy that is all about doing damage on issues legible to Zack and important to Zack.  This is merely implausible on priors.
 
+the "It is sometimes personally prudent to be seen to agree with Stalin" attitude behaves like a conspiracy, even if 
+
 I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378/
 
 > Admitting something when being pushed a little, but never thinking it spontaneously and hence having those thoughts absent from your own thought processes, remains not sane.
@@ -788,89 +732,6 @@ https://twitter.com/satisfiesvalues/status/1524475059695505409
 flu virus that cures Borderer culture
 https://twitter.com/Kenku_Allaryi/status/1524646257976877057
 
-Anna thinks that committees can't do anything worthwhile; for endeavors requiring a lot of coordination, it's useful for leaders to have slack to make decisions without having to justify themselves to a mob. Anna endorses Straussianism: writing for the few is different from writing for the many, and that some of Ben's stuff may have veered too far towards loading negative affect on EA leaders; I and my model of Michael have reservations about the extent to which \"writing for the few\" could also be described as \"colluding to deceive the rest of the world\
-
-an irony: in my psychosis, I was scared that the world was far less legible than I had imagined, but that _wasn't_ why my ordeal's and Devi's were so traumatic _at all_: the psych ward is _very much_ governed by legible rules, rules that I had no control over
-
-[initial fan mail to Bailey on 7 January, followup to include blog link on 11 February; initial fan mail to Blanchard 10 August]
-
-I had some self-awareness that I was going off the rails—
-> She had a delusional mental breakdown; you're a little bit manic; I'm in the Avatar state. https://www.facebook.com/zmdavis/posts/10154813104220199
-
-to Ben: "I thought I got a message from Michael Vassar saying that the main coalitions were you, and Sarah Constantine, and Zack Davis vs. the world" Fri Feb 17 2017 14:30:55 GMT-0800
-
-scared that Orion was going to kill me
-
-to Ben: You can use police cars as Ubers???? Fri Feb 17 2017 15:19:59 GMT-0800
-
-]
-
-You gave me hot chocolate last night, right? I was worried that you were subconsciously poisoning me; not on purpose, but because there are just a lot of contaminants in cities; things that taste sweet to children but are actually poisonous; but, Anna said that most events are normal; I don't remember that note"
-Mon Apr 10 08:51:03 PDT 2017
-
-Michael's "Congratulations on not going back to work at the carpet store!" was a reference to Rick & Morty "Mortynight Run" which aired in August 2015, but I hadn't seen it yet
-
-winning Hamilton tickets at $2200
-
-meeting Katie—
-
-Sun Jan 15 2017 08:35:40 
-Folks, I'm not sure it's feasible to have an intellectually-honest real-name public conversation about the etiology of MtF. If no one is willing to mention some of the key relevant facts, maybe it's less misleading to just say nothing.\"",
-
-He was always more emotionally tentative and less comfortable with the standard gender role and status stuff"
-But in the way of like, a geeky nerd guy
-Not in the way of someone feminine
-The only thing I knew about it at the point we got married was that he thought it was fun to go in drag sometimes
-Like Halloween
-
-And he thought feminization kink was fun
-Like me making him dress up?  But he said it was about humiliation
-We didn't even do it more than a handful of times, it wasn't really my thing
-Nothing in my experience ever caused me to think he was trans
-
-"He talked about being a child always feeling out of place
-"But out of place seemed like because he was shy and anxious
-He said he was convinced his anxiety and social problems was *because* he was trans
-
-Spencer seemed much less happy to me after admitting to want transition, often crying about how ugly his body was
-
-because it basically amounts to, \"You rebuilt your entire life around your perverted narcissistic fantasy and didn't even notice\
-like, there's no nice way to say that
-
-My taxon, right or wrong; if right, to be kept right; and if wrong, to be set right.\
-
-all those transwomen are going to be so embarrassed when the FAI gives us telepathy after the Singularity
-and it turns out that what actual women feel as _absolutely nothing to do_ with what AGP fantasy feels like
-
-
-
-Tue Feb 14 2017 11:26:20 (this conversation was actually during the tantrum)—
-K: I really *was* getting to the point that I hated transwomen
-Z: I hate them, too!
-Z: Fuck those guys!
-K: I hated what happened to my husband, I hate the insistence that I use the right pronouns and ignore my senses, I hate the takeover of women's spaces, I hate the presumption that they know what a woman's life is like, I was *getting* to the point that I deeply hated them, and saw them as the enemy
-K: But you're actually changing that for me
-K: You're reconnecting me with my natural compassion
-K: To people who are struggling and have things that are hard
-K: It's just that, the way they think things is hard is not the way I actually think it is anymore
-Z: the \"suffering\" is mostly game-theoretic victimhood-culture
-K: You've made me hate transwomen *less* now
-K: Because I have a model
-K: I understand the problem
-[...]
-K: I understand why it's hard
-K: I feel like I can forgive it, to the extent that forgiveness is mine to give
-K: This is a better thing for me
-I did not *want* to be a hateful person",
-I did not want to take seeming good people as an enemy in my head, while trying to be friends with them in public
-I think now I can do it more honestly
-They might not want *me* as a friend
-But now I feel less threatened and confused and insulted
-And that has dissolved the hatred that was starting to take root
-I'm very grateful for that
-
-https://www.lesswrong.com/posts/ZEgQGAjQm5rTAnGuM/beware-boasting-about-non-existent-forecasting-track-records
-
 
 https://www.lesswrong.com/tag/criticisms-of-the-rationalist-movement
 
@@ -925,7 +786,7 @@ https://postchimpblog.wordpress.com/2020/03/05/alexs-guide-to-transitioning/
 The LW community is a bubble/machine that made me who I am (it doesn't infringe on my independence more than school, but it's still shaping force in the way that going to University or Google shapes people)
 
 https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-dignity-strategy
-> If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves.  But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point.  Why should they believe anything you say?
+> If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
 
 the Extropians post _explicitly_ says "may be a common sexual fantasy"
 > So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after  the Singularity.  I would not be surprised to find that it took three  subjective centuries before anyone had grown far enough to attempt a gender switch.
@@ -973,16 +834,281 @@ re Yudkowsky not understanding the "That's So Gender" sense, I suspect this is b
 
 ------
 
+[TODO:
+Email to Scott at 0330 a.m.
+> In the last hour of the world before this is over, as the nanobots start consuming my flesh, I try to distract myself from the pain by reflecting on what single blog post is most responsible for the end of the world. And the answer is obvious: "The Categories Were Made for the Man, Not Man for the Categories." That thing is a fucking Absolute Denial Macro!
+]
+
+------
+
+So, because
 
+[TODO: the rats not getting AGP was excusable, the rats not getting the category boundary thing was extremely disappointing but not a causis belli; Eliezer Yudkowsky not getting the category boundary thing was an emergency]
 
+-----
 
+Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
 
+a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
+
+It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
+
+https://www.econlib.org/archives/2016/01/the_invisible_t.html
+
+------
+
+
+Having analyzed the _ways_ in which Yudkowsky is playing dumb here, what's still not entirely clear is _why_. Presumably he cares about maintaining his credibility as an insightful and fair-minded thinker. Why tarnish that by putting on this haughty performance?
+
+Of course, presumably he _doesn't_ think he's tarnishing it—but why not? [He graciously explains in the Facebook comments](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421901809228):
+
+> it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do _know_ they're living in a half-Stalinist environment [...] I think people are better off at the end of that.
+
+Ah, _prudence_! He continues:
+
+> I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
+
+The problem with trying to "exhibit generally rationalist principles" in an line of argument that you're constructing in order to be prudent and not community-harmful, is that you're thereby necessarily _not_ exhibiting the central rationalist principle that what matters is the process that _determines_ your conclusion, not the reasoning you present to _reach_ your presented conclusion, after the fact.
+
+The best explanation of this I know was authored by Yudkowsky himself in 2007, in a post titled ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument). It's worth quoting at length. The Yudkowsky of 2007 invites us to consider the plight of a political campaign manager:
+
+> As a campaign manager reading a book on rationality, one question lies foremost on your mind: "How can I construct an impeccable rational argument that Mortimer Q. Snodgrass is the best candidate for Mayor of Hadleyburg?"
+>
+> Sorry. It can't be done.
+>
+> "What?" you cry. "But what if I use only valid support to construct my structure of reason? What if every fact I cite is true to the best of my knowledge, and relevant evidence under Bayes's Rule?"
+>
+> Sorry. It still can't be done. You defeated yourself the instant you specified your argument's conclusion in advance.
+
+The campaign manager is in possession of a survey of mayoral candidates on which Snodgrass compares favorably to other candidates, except for one question. The post continues (bolding mine):
+
+> So you are tempted to publish the questionnaire as part of your own campaign literature ... with the 11th question omitted, of course.
+>
+> **Which crosses the line between _rationality_ and _rationalization_.** It is no longer possible for the voters to condition on the facts alone; they must condition on the additional fact of their presentation, and infer the existence of hidden evidence.
+>
+> Indeed, **you crossed the line at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it.** "What!" you cry. "A campaign should publish facts unfavorable to their candidate?" But put yourself in the shoes of a voter, still trying to select a candidate—why would you censor useful information? You wouldn't, if you were genuinely curious. If you were flowing _forward_ from the evidence to an unknown choice of candidate, rather than flowing _backward_ from a fixed candidate to determine the arguments.
+
+The post then briefly discusses the idea of a "logical" argument, one whose conclusions follow from its premises. "All rectangles are quadrilaterals; all squares are quadrilaterals; therefore, all squares are rectangles" is given as an example of _illogical_ argument, even though the both premises are true (all rectangles and squares are in fact quadrilaterals) _and_ the conclusion is true (all squares are in fact rectangles). The problem is that the conclusion doesn't _follow_ from the premises; the _reason_ all squares are rectangles isn't _because_ they're both quadrilaterals. If we accepted arguments of the general _form_ "all A are C; all B are C; therefore all A are B", we would end up believing nonsense.
+
+Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's conception in 2007, which the Yudkowsky of the current year seems to disagree with—has a similar flavor: the stated reasons should be the actual reasons. The post concludes:
+
+> If you really want to present an honest, rational argument _for your candidate_, in a political campaign, there is only one way to do it:
+>
+> * _Before anyone hires you_, gather up all the evidence you can about the different candidates.
+> * Make a checklist which you, yourself, will use to decide which candidate seems best.
+> * Process the checklist.
+> * Go to the winning candidate.
+> * Offer to become their campaign manager.
+> * When they ask for campaign literature, print out your checklist.
+>
+> Only in this way can you offer a _rational_ chain of argument, one whose bottom line was written flowing _forward_ from the lines above it. Whatever _actually_ decides your bottom line is the only thing you can _honestly_ write on the lines above.
+
+I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
+
+This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
+
+... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
+
+"I don't see what the alternative is besides getting shot," Yudkowsky muses (where presumably, 'getting shot' is a metaphor for a large negative utility, like being unpopular with progressives). Yes, an astute observation! And _any other partisan hack could say exactly the same_, for the same reason. Why does the campaign manager withhold the results of the 11th question? Because he doesn't see what the alternative is besides getting shot.
+
+If the idea of being fired from the Snodgrass campaign or being unpopular with progressives is _so_ terrifying to you that it seems analogous to getting shot, then, if those are really your true values, then sure—say whatever you need to say to keep your job and your popularity, as is personally prudent. You've set your price. But if the price you put on the intellectual integrity of your so-called "rationalist" community is similar to that of the Snodgrass for Mayor campaign, you shouldn't be surprised if intelligent, discerning people accord similar levels of credibility to the two groups' output.
+
+I see the phrase "bad faith" thrown around more than I think people know what it means. "Bad faith" doesn't mean "with ill intent", and it's more specific than "dishonest": it's [adopting the surface appearance of being moved by one set of motivations, while actually acting from another](https://en.wikipedia.org/wiki/Bad_faith).
+
+For example, an [insurance company employee](https://en.wikipedia.org/wiki/Claims_adjuster) who goes through the motions of investigating your claim while privately intending to deny it might never consciously tell an explicit "lie", but is definitely acting in bad faith: they're asking you questions, demanding evidence, _&c._ in order to _make it look like_ you'll get paid if you prove the loss occurred—whereas in reality, you're just not going to be paid. Your responses to the claim inspector aren't completely casually _inert_: if you can make an extremely strong case that the loss occurred as you say, then the claim inspector might need to put some effort into coming up with some ingenious excuse to deny your claim in ways that exhibit general claim-inspection principles. But at the end of the day, the inspector is going to say what they need to say in order to protect the company's loss ratio, as is personally prudent.
+
+With this understanding of bad faith, we can read Yudkowsky's "it is sometimes personally prudent [...]" comment as admitting that his behavior on politically-charged topics is in bad faith—where "bad faith" isn't a meaningless insult, but [literally refers](http://benjaminrosshoffman.com/can-crimes-be-discussed-literally/) to the pretending-to-have-one-set-of-motivations-while-acting-according-to-another behavior, such that accusations of bad faith can be true or false. Yudkowsky will never consciously tell an explicit "lie", but he'll go through the motions to _make it look like_ he's genuinely engaging with questions where I need the right answers in order to make extremely impactful social and medical decisions—whereas in reality, he's only going to address a selected subset of the relevant evidence and arguments that won't get him in trouble with progressives.
+
+To his credit, he _will_ admit that he's only willing to address a selected subset of arguments—but while doing so, he claims an absurd "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter and check it [himself] before speaking" while _simultaneously_ blatantly mischaracterizing his opponents' beliefs! ("Gendered Pronouns For Everyone and Asking To Leave The System Is Lying" doesn't pass anyone's [ideological Turing test](https://www.econlib.org/archives/2011/06/the_ideological.html).)
+
+Counterarguments aren't completely causally _inert_: if you can make an extremely strong case that Biological Sex Is Sometimes More Relevant Than Self-Declared Gender Identity, Yudkowsky will put some effort into coming up with some ingenious excuse for why he _technically_ never said otherwise, in ways that exhibit generally rationalist principles. But at the end of the day, Yudkowsky is going to say what he needs to say in order to protect his reputation, as is personally prudent.
+
+Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description that makes predictions about behavior, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces! For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I engage in a bit of what is sometimes called ["concern trolling"](https://geekfeminism.fandom.com/wiki/Concern_troll): I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception in the service of correcting the distortion where I don't think my interlocutor _should_ be paying attention to my personal alignment.
+
+That is, my bad faith concern-trolling gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
+
+In contrast, the "it is sometimes personally prudent [...] to post your agreement with Stalin" gambit is the exact reverse: it's _introducing_ a distortion into the discussion in the hopes of correcting people's beliefs about the speaker's ideological alignment. (Yudkowsky is not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
+
+Yudkowsky names the alleged fact that "people do _know_ they're living in a half-Stalinist environment" as a mitigating factor. But the _reason_ censorship is such an effective tool in the hands of dictators like Stalin is because it ensures that many people _don't_ know—and that those who know (or suspect) don't have [game-theoretic common knowledge](https://www.lesswrong.com/posts/9QxnfMYccz9QRgZ5z/the-costly-coordination-mechanism-of-common-knowledge#Dictators_and_freedom_of_speech) that others do too.
+
+Zvi Mowshowitz has [written about how the false assertion that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) is typically used justify deception: if "everybody knows" that we can't talk about biological sex (the reasoning goes), then no one is being deceived when our allegedly truthseeking discussion carefully steers clear of any reference to the reality of biological sex when it would otherwise be extremely relevant.
+
+But if it were _actually_ the case that everybody knew (and everybody knew that everybody knew), then what would be the point of the censorship? It's not coherent to claim that no one is being harmed by censorship because everyone knows about it, because the entire appeal and purpose of censorship is precisely that _not_ everybody knows and that someone with power wants to _keep_ it that way.
+
+For the savvy people in the know, it would certainly be _convenient_ if everyone secretly knew: then the savvy people wouldn't have to face the tough choice between acceding to Power's demands (at the cost of deceiving their readers) and informing their readers (at the cost of incurring Power's wrath).
+
+Policy debates should not appear one-sided. Faced with this kind of dilemma, I can't say that defying Power is necessarily the right choice: if there really _were_ no other options between deceiving your readers with a bad faith performance, and incurring Power's wrath, and Power's wrath would be too terrible to bear, then maybe deceiving your readers with a bad faith performance is the right thing to do.
+
+But if you actually _cared_ about not deceiving your readers, you would want to be _really sure_ that those _really were_ the only two options. You'd [spend five minutes by the clock looking for third alternatives](https://www.lesswrong.com/posts/erGipespbbzdG5zYb/the-third-alternative)—including, possibly, not issuing proclamations on your honor as leader of the so-called "rationalist" community on topics where you _explicitly intend to ignore counteraguments on grounds of their being politically unfavorable_. Yudkowsky rejects this alternative on the grounds that it allegedly implies "utter silence about everything Stalin has expressed an opinion on including '2 + 2 = 4' because if that logically counterfactually were wrong you would not be able to express an opposing opinion", but this seems like yet another instance of Yudkowsky motivatedly playing dumb: if he _wanted_ to, I'm sure Eliezer Yudkowsky could think of _some relevant differences_ between "2 + 2 = 4" (a trivial fact of arithmetic) and "the simplest and best protocol is, "'He' refers to the set of people who have asked us to use 'he'" (a complex policy proposal whose numerous flaws I have analyzed in detail).
+
+"[P]eople do _know_ they're living in a half-Stalinist environment," Yudkowsky says. "I think people are better off at the end of that," he says. But who are "people", specifically? I'm asking because I have a long sob story about how _I_ didn't know, and _I'm_ not better off.
+
+------
+
+https://twitter.com/ESYudkowsky/status/1404697716689489921
+> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
+
+If you think it "sometimes personally prudent and not community-harmful" to strategically say positive things about Republican candidates, and make sure to never, ever say negative things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
+
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
+
+https://twitter.com/ESYudkowsky/status/1404821285276774403
+> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
+
+[The claim that the "Hill of Validity" thread wasn't partisan, but was just neutrally trying to teach the difference between facts and policy decisions is not credible. 
+
+Imagine if someone was complaining about being required to say "Peace Be Upon Him" before referencing the prophet Muhammad. "It's a speech act, there's nothing factually false about saying 'peace be unto him'"]
+unremediatedgender.space/2020/Aug/yarvin-on-less-wrong/
+
+-----
+
+comments to "Wilhelm", January 2019—
+
+I got concessions on all the important parts (categories should make predictions, trans women differ from cis women in a masc direction),  and these people just don't fucking CARE ... like, if I'm trying to be agreeable, I could agree that trans women resemble women if you restrict your vision to the subspace spanned by the "preferred pronouns" and "self-identified gender identity" dimensions ... but, but, WTF, be serious, guys
+
+Scott or Eliezer know better and could put an end to this bullshit (or at least put a dent in it), and I begged and I pleaded, and they just don't CARE
+
+even Ozy knows better
+
+I said: I probably do put too much rhetorical emphasis on passing; like, I agree that that's not the only criterion that one can use. I like drawing attention to that particular distinction because it at least has the benefit of not requiring people to override their perceptual system they way that self-identity does?
+
+and Ozy (correctly!) chimed in: "in fact it is the only criterion that doesn't involve people overriding their perceptual system!"
+
+as if she's objectively pro-gaslighting
+
+more charitably: people care a lot about this very thin layer of socual constructions (if you mindfuck ppl into believing that AGPs are women, that really does make it easier to transition) and are being instrumentally rational about that, whereas I'm an aspiring epistemic rationalist and want to study the deep structure if which social constructions are feasible, how we can be more reflective about them, &c.
+
+Ppl with less power than Scott or Eliezer can afford to be more honest with me that they see but don't care enough to pay the cost of fighting
+
+the rationalist lore here is that status makes you stupid; maybe the NRx twist is that status plus rivals/insecurity makes you stupid
+
+You _can't_ optimize your group's culture for not-talking-about-atheism without also optimizing against understanding Occam's razor; you _can't_ optimize for not questioning gender self-identity without also optimizing against understanding "A Human's Guide to Words."
+
+"yeah in public we say 'cis women' but tran to tran we just say 'women,' we‘re not insane lol"
+no transsexual is like 'from a young age all i ever wanted was to be.. cis'
+https://twitter.com/theorygurl/status/1062451652836446208
+
+Keltham and Carissa's attitude towards Pharima mirrors my attitude towards Yudkowsky (I'm grateful for him having created me, but he can't be allowed to get away with this shit)
+https://www.glowfic.com/replies/1834769#reply-1834769
+
+sometimes I get a cite, too—
+https://putanumonit.com/2022/05/02/genders-discrimination/
+https://axrp.net/episode/2022/05/23/episode-15-natural-abstractions-john-wentworth.html
+
+People learn a lot from Godel Escher Bach, too, but they don't form an identity around Douglas Hofstadter being the most important person in the world
+
+and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as possible, not do throw away your deontology too quickly.
+
+> It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
+
+like a crazy ex-girlfriend (I have no underlying issues to address; I'm certifiably cute, and adorably obsessed)
+
+But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
+
+https://extropians.weidai.com/extropians.3Q97/4361.html
+> Half the time I regard myself as "an AI wannabee trapped in a male human body"
+
+Nate's "missing the hard part" post is all strawmen—I'm not looking down on it because it's a blog post and not an "official" arXiv paper; I'm looking down because it's visibly low-effort
+
+"What do you say to the Republican?" !!!
+
+subject: "nothing left to lose; or, the end of my rope"
+
+4 November 2018 email to Marcus—
+> Concrete anecdote about how my incredibly-filtered Berkeley social circle is nuts: at a small gathering this weekend I counted seven MtTs. (I think seven; I guess it's possible that physically-very-passable Cassandra is actually female, but given the context and her personality, I doubt it.) Plus me (a man wearing a dress and makeup), and three ordinary men, one ordinary woman, and my FtM friend. Looking up the MtTs' birthdays on Facebook was instructive in determining exactly how many years I was born too early. (Lots of 1992-3 births, so about five years.)
+
+Scathing rhetoric to Scott—
+> (I've been told that I'm not using the word "gaslighting" correctly. Somehow no one seems to think I have the right to define that category boundary however I want.)
+
+> If our vaunted rationality techniques result in me having to spend dozens of hours patiently explaining why I don't think that I'm a woman and that the person in this photograph isn't a woman, either (where "isn't a woman" is a convenient rhetorical shorthand for a much longer statement about naïve Bayes models and high-dimensional configuration spaces and defensible Schelling points for social norms), then our techniques are worse than useless.
+
+> But at the same time, if Galileo ever muttered "And yet it moves", there's a very similar long and important discussion to be had about the consequences of using the word "moves" in Galileo's preferred sense or some other sense that happens to result in the theory needing more epicycles. It may not have been obvious in 2014, but in retrospect, maybe it was a bad idea to build a memetic superweapon that says the number of epicycles doesn't matter.
+
+> It's gotten the point where Nature (!!!) has an editorial proclaiming ["US proposal for defining gender has no basis in science"](https://www.nature.com/articles/d41586-018-07238-8). And if otherkin started becoming sufficiently popular, I have no doubt that they could write an equally sober editorial denouncing species classification as having no basis in science. (Have you heard of ring species? Checkmate, cisspeciesists!)
+
+> I don't care about the social right to call Sam "he", because I wasn't going to do that anyway. What I do care about is the right to say "That's not what I meant by 'woman' in this context, and you fucking know it" when I think that my interloctuor does, in fact, fucking know it.
+
+Anna thinks trust and integrity is an important resource
+https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
+
+The HEXACO personality model considers "honesty" and "humility" a single factor
+
+I'm not usually—at least, not always—so much of a scrub as to play chess with a pigeon (which shits on the board and then struts around like it's won), or wrestle with a pig (which gets you both dirty, and the pig likes it), or dispute what the Tortise said to Achilles
+
+(You might group things together _on the grounds_ of their similarly positive consequences—that's what words like _good_ do—but that's distinct from choosing _the categorization itself_ because of its consequences.)
+
+—and would be unforgivable if it weren't so _inexplicable_.
+
+... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
+
+At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's 
+
+
+Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
+
+[TODO: relevance of multivariate—
+
+(And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
+
+https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
+https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
 
-[TODO:
-Email to Scott at 0330 a.m.
-> In the last hour of the world before this is over, as the nanobots start consuming my flesh, I try to distract myself from the pain by reflecting on what single blog post is most responsible for the end of the world. And the answer is obvious: "The Categories Were Made for the Man, Not Man for the Categories." That thing is a fucking Absolute Denial Macro!
 ]
 
-So, because
+[TODO: sentences about studies showing that HRT doesn't erase male advantage
+https://twitter.com/FondOfBeetles/status/1368176581965930501
+]
+
+[TODO sentences about Lia Thomas and Cece Tefler]  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's —cite South Park)
+https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
+https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
+https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
+
+]
+
+Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
+
+Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
+
+
+> People probably change their mind more often than they explicitly concede arguments, which is fine because intellectual progress is more important than people who were wrong performing submission.
+> If your interlocutor is making progress arguing against your claim X, just say, "Oh, X is a strawman, no one actually believes X; therefore I'm not wrong and you haven't won" (and then don't argue for X in the future now that you know you can't get away with it).
+https://twitter.com/zackmdavis/status/1088459797962215429
+
+My 28 November 2018 text to Michael—
+> I just sent an email to Eliezer ccing you and Anna; if you think it might help inject sanity in into the world, maybe your endorsement would help insofar as Eliezer Aumman-updates [_sic_] with you?
+> hope all is well
+> just a thread reply to Eliezer that says "I trust Zack's rationality and think you should pay attention to what he has to say" (if and only if you actually believe that to be true, obviously)?
+
+
+(don't know how to summarize the part with Ian—)
+I remember going downstairs to impulsively confide in a senior engineer, an older bald guy who exuded masculinity, who you could tell by his entire manner and being was not infected by the Berkeley mind-virus, no matter how loyally he voted Democrat—not just about the immediate impetus of this Twitter thread, but this whole _thing_ of the past couple years where my entire social circle just suddenly decided that guys like me could be women by means of saying so. He was sympathetic.
+
+
+[TODO: paraphrase remaining interaction with Scott, or not worth the space?
+
+> I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
+
+helping Norton live in the real world
+
+Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious 
+]
+
+[TODO: connecting with Aurora 8 December, maybe not important]
+
+What do think submitting to social pressure looks like, if it's not exactly this thing (carefully choosing your public statements to make sure no one confuses you with the Designated Ideological Bad Guy)?!? The credible threat of being labeled an Ideological Bad Guy is _the mechanism_ the "Good" Guys use to retard potentially-ideologically-inconvenient areas of inquiry.
+
+Kerry Vaughan on deferral
+https://twitter.com/KerryLVaughan/status/1552308109535858689
+
+It's not that females and males are exactly the same except males are 10% stronger on average (in which case, you might just shrug and accept unequal outcomes, the way we shrug and accept it that some athletes have better genes). Different traits have different relevance to different sports: women do better in ultraswimming _because_ that competition is sampling a 
+
+where body fat is an advantage. 
+
+It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight".
+
+For example, the _function_ of sex-segrated bathrooms is to _protect females from males_, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
 
-[TODO: the rats not getting AGP was excusable, the rats not getting the category boundary thing was extremely disappointing but not a causis belli; Eliezer Yudkowsky not getting the category boundary thing was an emergency]
\ No newline at end of file
+all I actually want out of a post-Singularity utopia is the year 2007 except that I personally have shapeshifting powers
diff --git a/notes/a-hill-twitter-reply.md b/notes/a-hill-twitter-reply.md
new file mode 100644 (file)
index 0000000..60cb875
--- /dev/null
@@ -0,0 +1,9 @@
+28 November 2018
+
+[TODO: "not ontologically confused" concession]
+
+It's true that I was _originally_ thinking about all this in the context of autogynephilia and Blanchard's proposed two-type taxonomy. But the philosophical issues at hand here are _way_ more general than that specific hypothesis, and I think Yudkowsky _already_ had more than enough evidence—if [used efficiently](https://www.lesswrong.com/posts/MwQRucYo6BZZwjKE7/einstein-s-arrogance)—to see that the distribution of actual trans people we know is such that the categories-are-not-abritrary point is relevant in practice.
+
+Consider again the 6.7:1 (!!) cis-woman-to-trans-woman ratio among 2018 _Slate Star Codex_ survey respondents (which I cited in ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/)). A curious rationalist, having been raised to believe that trans women are women (or at least, that people who insist that trans women _aren't_ women are ontologically confused), and considering observations like this, might ask the question: "Gee, I wonder _why_ women who happen to be trans are _so much_ more likely to read _Slate Star Codex_, and be attracted to women, and, um, have penises, than women who happen to be cis?"
+
+If you're _very careful_, I'm sure it's possible to give a truthful answer to that question without misgendering anyone. But if you want to give a _concise_ answer—perhaps not a _maximally rigorous_ answer, but an answer that usefully [points](https://www.lesswrong.com/posts/YF9HB6cWCJrDK5pBM/words-as-mental-paintbrush-handles) to the true causal-structure-in-the-world while still fitting in a Tweet—I think you _need_ to be able to say something like, "Because trans women are men." (At least as a _live hypothesis_, even if you prefer an intersex-brain etiology for the people we know.)
index 02c8401..1818e0a 100644 (file)
@@ -208,3 +208,86 @@ On my last day at SwiftStack, I said that I was taking a sabbatical from my soft
 
 someone posted an inflation fetish joke in Kelsey's channel and got a lot of laugh reactions including from Big Yud, and it's salient to me that people don't gaslight people with other transformation fetishes
 https://cdn.discordapp.com/attachments/458329253595840522/987991378590052402/SPOILER_unknown.png
+
+
+Anna thinks that committees can't do anything worthwhile; for endeavors requiring a lot of coordination, it's useful for leaders to have slack to make decisions without having to justify themselves to a mob. Anna endorses Straussianism: writing for the few is different from writing for the many, and that some of Ben's stuff may have veered too far towards loading negative affect on EA leaders; I and my model of Michael have reservations about the extent to which \"writing for the few\" could also be described as \"colluding to deceive the rest of the world\
+
+an irony: in my psychosis, I was scared that the world was far less legible than I had imagined, but that _wasn't_ why my ordeal's and Devi's were so traumatic _at all_: the psych ward is _very much_ governed by legible rules, rules that I had no control over
+
+[initial fan mail to Bailey on 7 January, followup to include blog link on 11 February; initial fan mail to Blanchard 10 August]
+
+I had some self-awareness that I was going off the rails—
+> She had a delusional mental breakdown; you're a little bit manic; I'm in the Avatar state. https://www.facebook.com/zmdavis/posts/10154813104220199
+
+to Ben: "I thought I got a message from Michael Vassar saying that the main coalitions were you, and Sarah Constantine, and Zack Davis vs. the world" Fri Feb 17 2017 14:30:55 GMT-0800
+
+scared that Orion was going to kill me
+
+to Ben: You can use police cars as Ubers???? Fri Feb 17 2017 15:19:59 GMT-0800
+
+]
+
+You gave me hot chocolate last night, right? I was worried that you were subconsciously poisoning me; not on purpose, but because there are just a lot of contaminants in cities; things that taste sweet to children but are actually poisonous; but, Anna said that most events are normal; I don't remember that note"
+Mon Apr 10 08:51:03 PDT 2017
+
+Michael's "Congratulations on not going back to work at the carpet store!" was a reference to Rick & Morty "Mortynight Run" which aired in August 2015, but I hadn't seen it yet
+
+winning Hamilton tickets at $2200
+
+meeting Katie—
+
+Sun Jan 15 2017 08:35:40 
+Folks, I'm not sure it's feasible to have an intellectually-honest real-name public conversation about the etiology of MtF. If no one is willing to mention some of the key relevant facts, maybe it's less misleading to just say nothing.\"",
+
+He was always more emotionally tentative and less comfortable with the standard gender role and status stuff"
+But in the way of like, a geeky nerd guy
+Not in the way of someone feminine
+The only thing I knew about it at the point we got married was that he thought it was fun to go in drag sometimes
+Like Halloween
+
+And he thought feminization kink was fun
+Like me making him dress up?  But he said it was about humiliation
+We didn't even do it more than a handful of times, it wasn't really my thing
+Nothing in my experience ever caused me to think he was trans
+
+"He talked about being a child always feeling out of place
+"But out of place seemed like because he was shy and anxious
+He said he was convinced his anxiety and social problems was *because* he was trans
+
+Spencer seemed much less happy to me after admitting to want transition, often crying about how ugly his body was
+
+because it basically amounts to, \"You rebuilt your entire life around your perverted narcissistic fantasy and didn't even notice\
+like, there's no nice way to say that
+
+My taxon, right or wrong; if right, to be kept right; and if wrong, to be set right.\
+
+all those transwomen are going to be so embarrassed when the FAI gives us telepathy after the Singularity
+and it turns out that what actual women feel as _absolutely nothing to do_ with what AGP fantasy feels like
+
+Tue Feb 14 2017 11:26:20 (this conversation was actually during the tantrum)—
+K: I really *was* getting to the point that I hated transwomen
+Z: I hate them, too!
+Z: Fuck those guys!
+K: I hated what happened to my husband, I hate the insistence that I use the right pronouns and ignore my senses, I hate the takeover of women's spaces, I hate the presumption that they know what a woman's life is like, I was *getting* to the point that I deeply hated them, and saw them as the enemy
+K: But you're actually changing that for me
+K: You're reconnecting me with my natural compassion
+K: To people who are struggling and have things that are hard
+K: It's just that, the way they think things is hard is not the way I actually think it is anymore
+Z: the \"suffering\" is mostly game-theoretic victimhood-culture
+K: You've made me hate transwomen *less* now
+K: Because I have a model
+K: I understand the problem
+[...]
+K: I understand why it's hard
+K: I feel like I can forgive it, to the extent that forgiveness is mine to give
+K: This is a better thing for me
+I did not *want* to be a hateful person",
+I did not want to take seeming good people as an enemy in my head, while trying to be friends with them in public
+I think now I can do it more honestly
+They might not want *me* as a friend
+But now I feel less threatened and confused and insulted
+And that has dissolved the hatred that was starting to take root
+I'm very grateful for that
+
+https://www.lesswrong.com/posts/ZEgQGAjQm5rTAnGuM/beware-boasting-about-non-existent-forecasting-track-records
+
index 73d946a..2ab3424 100644 (file)
@@ -136,4 +136,6 @@ Haskell survey repoting got picked up
 https://twitter.com/BarneyFlames/status/1516637367821639680
 
 > wow, this site is extremely sch1z0
-https://twitter.com/typedfemale/status/1516642775764115458
\ No newline at end of file
+https://twitter.com/typedfemale/status/1516642775764115458
+
+https://axrp.net/episode/2022/05/23/episode-15-natural-abstractions-john-wentworth.html
index d9571dc..21b345e 100644 (file)
@@ -1224,16 +1224,10 @@ a Facebook acquaintance (who didn't pass very well when we met in October): 'Of
 
 https://www.telegraph.co.uk/news/2018/04/12/radical-feminist-warned-refer-transgender-defendant-assault/
 
-"yeah in public we say 'cis women' but tran to tran we just say 'women,' we‘re not insane lol"
-no transsexual is like 'from a young age all i ever wanted was to be.. cis'
-https://twitter.com/theorygurl/status/1062451652836446208
-
 https://www.reddit.com/r/GenderCritical/comments/bhulic/i_cant_do_this_any_more_i_need_to_divorce_my/
 
 thanks for the marketing advice! I should _definitely_ take that into account if I ever decide to put more effort into "persuading people", which sounds like something that an aspiring instrumental rationalist would care about. Perhaps unfortunately, however, I'm an aspiring epistemic rationalist: all I can do is try to communicate what I actually think and feel using clear language (and standard rhetorical techniques like sarcasm, satire, &c. that people know how to interpret even if they wouldn't be clear if someone naïvely took the words literally). If other people aren't persuaded by this ... maybe they _shouldn't_ be! Maybe I can live with that!
 
-You _can't_ optimize your group's culture for not-talking-about-atheism without also optimizing against understanding Occam's razor; you _can't_ optimize for not questioning gender self-identity without also optimizing against understanding "A Human's Guide to Words."
-
 I guess I can't argue with that, but I wish I knew what happened to my wallet
 
 https://www.nationalreview.com/2019/05/ray-blanchard-transgender-orthodoxy/
@@ -1896,6 +1890,10 @@ Still citing it (25 March 22): https://www.reddit.com/r/TheMotte/comments/tj525b
 
 Still citing it (13 May 22): https://forum.effectivealtruism.org/posts/FkFTXKeFxwcGiBTwk/against-longtermist-as-an-identity
 
+Still citing it, in Eliezerfic Discord (18 Jul 22): https://discord.com/channels/936151692041400361/954750671280807968/998638253588631613
+
+Still citing it (31 Jul 22): https://www.reddit.com/r/slatestarcodex/comments/wbqtg3/rationality_irl/
+
 The correctness of this post has been disputed at length: [object-level reply](http://unremediatedgender.space/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), [meta-level reply (part 1)](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries), [meta-level reply (part 2)](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception), [supplementary material on dolphins/whales](https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water)
 
 Object-level reply: http://unremediatedgender.space/2018/Feb/the-categories-were-made-for-man-to-make-predictions/
@@ -3170,3 +3168,33 @@ https://www.newyorker.com/magazine/2022/06/27/the-invention-of-the-trans-novel-i
 
 preference cascade is starting ...
 https://twitter.com/jessesingal/status/1538541182975877120
+
+[quantifying the two-type effect:
+GD occupations in study 2
+gay men are at .48 (.14); straight women at .36 (.13); straight men at .68 (.12)
+that's d=–1.61 between gay and straight men
+a gay man only needs to be 1 standard deviation (.48-.36 = 0.12) more feminine than average to be as feminine as a straight women
+whereas a straight man needs to be (.68-.36 = 0.32) 0.32/0.12=2.67 more feminine than average to be as feminine as a straight woman—that's rarer, but not impossible
+
+In percentile terms, 1-norm.cdf(1) = 0.15 of gay men are as feminine as a woman
+whereas 1-norm.cdf(2.67) = 0.003 of straight men are
+that's a likelihood ratio of 50 ... but the prior is not that far from 50:1 in the other direction! They cancel out!!]
+
+https://ovarit.com/o/GenderCritical/115874/shirley-conran-s-lace-body-slammed-agp-back-in-1982
+
+https://pitt.substack.com/p/headline-when-a-quarter-of-the-class
+
+https://www.reddit.com/r/TheMotte/comments/vlopk0/culture_war_roundup_for_the_week_of_june_27_2022/ieo2jzm/
+> Obsessive, pedantic, Talmudic talk of edge cases, cluster definitions, Bayesian filters or whatever else grey tribe weirdos might get fascinated with only gets in the way of an honest negotiation of a value handshake between majority groups. Not that I believe it would've taken place in a world with zero rationalists, but it's still annoying.
+
+> Me in 2008: I'm definitely not trans, just a regular guy who always thinks about being a woman and hates clothes shopping and hates hanging out with the guys and thinks about getting testicular cancer and loves gender-swap movies and TV shows and you know, normal guy things
+https://twitter.com/lauroralei/status/1548861652636139520
+
+24% black judges is pretty extreme affirmative action (if you know the IQ stats): https://twitter.com/RichardHanania/status/1549237889128509440
+
+They don't think this is a pornography app, but it is
+https://samsunglabs.github.io/MegaPortraits/
+
+https://drmaciver.substack.com/p/a-fractal-of-lies
+
+The woman at a party who says that she's also somewhat gender-dysphoric and always uses gender-neutral screennames specifically because she likes being treated as an unmarked person rather than The Girl, thereby becomes way more interesting to me as A Girl. (This is the thing about my preferences that I prefer not to explain clearly because I'm secretly terrified that it's implicitly misogynistic, which is why you were so surprised when you met Linda and noticed her distinct lack of resemblance to Aphrodite.)
index 5672885..76fb779 100644 (file)
@@ -1,21 +1,35 @@
+editing tier—
+_ Emperor Norton ordered Hayes executed
+_ address the "maybe it's good to be called names" point from "Hill" thread
+_ maybe quote Michael's Nov 2018 texts?
+_ the right way to explain how I'm respecting Yudkowsky's privacy
+_ clarify sequence of outreach attempts
+_ clarify existence of a shadow posse member
+
+
 Urgent/needed for healing—
-_ The Two-Type Taxonomy Is a Useful Approximation for ...
 _ I Am Not Great With Secrets (aAL)
+_ Reply to Scott Alexander on Autogenderphilia
 _ Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer
 _ A Hill of Validity in Defense of Meaning
 
+
 Big posts—
 _ Trans Kids on the Margin, and Harms From Misleading Training Data
 _ Book Review: Charles Murray's Facing Reality: Two Truths About Race in America
 
-
 Minor—
-_ Consilent Worldbuilding
+_ Timelines
+_ Xpression Camera Is the Uniquely Best Piece of Software in the World
+_ Hrunkner Unnerby and the Shallowness of Progress
+_ Book Review: Johnny the Walrus
 _ my medianworld: https://www.glowfic.com/replies/1619639#reply-1619639
 _ Happy Meal
+_ Rebecca Romijin
 _ Link: "On Transitions, Freedom of Form, [...]"
 _ Interlude XXII
 _ Excerpt from _Redefining Realness_
+_ "Reducing" Bias and Improving "Safety"
 
 _ Unicode adopt-a-character?? (would it be wrong to adopt "♀"?)
 _ https://www.lesswrong.com/posts/WikzbCsFjpLTRQmXn/declustering-reclustering-and-filling-in-thingspace
@@ -35,9 +49,7 @@ _ Sticks and Stones
 
 _ "Assigned at Birth" Is a Schelling Point (If You Live in an Insane Dystopia Where the Concept of Sex Is Somehow Controversial) 
 _ Friendship Practices of the Secret-Sharing Plain Speech Valley Squirrels
-_ Hrunkner Unnerby and the Shallowness of Progress
 _ Multi-Book Review: Various Sex-Ed Books for Children
-_ Timelines
 _ "Why the Hell It Means So Much to Me"
 
 
@@ -55,37 +67,6 @@ _ Link: Lease Bound comic
 _ Link: Quillette on Sons Becoming Daughters
 _ Link: Babylon Bee "It's a Good Life" parody https://www.youtube.com/watch?v=20ALZgd6_Ek
 
-LW—
-_ reply to David Silver on AI motivations: https://www.greaterwrong.com/posts/SbAgRYo8tkHwhd9Qx/deepmind-the-podcast-excerpts-on-agi#David_Silver_on_it_being_okay_to_have_AGIs_with_different_goals_____
-_ Charles Goodhart Elementary School (story about Reflection Sentences, and the afterschool grader being wrong
-_ Steering Towards Agreement Is Like Discouraging Betting
-_ (not really for LW) mediation with Duncan: https://www.lesswrong.com/posts/SWxnP5LZeJzuT3ccd/?commentId=KMoFiGMzxWkWJLWcN
-_ Conflict Theory of Bounded Distrust: https://astralcodexten.substack.com/p/bounded-distrust
-_ Generic Consequentialists Are Liars
-_ Comment on "The Logic of Indirect Speech" (multi-receivers vs. uncertainty about a single recieiver)
-_ There's No Such Thing as Unmotivated Reasoning
-_ "You'll Never Persuade Anyone"
-_ Longtermism + Hinge of History = Shorttermism (not my original idea, but don't remember whose blog I read this on, so I'll write my own version)
-_ Point of No Return is Relative to a Class of Interventions
-_ Simulationist Headcanon for Ontologically Basic Train Show
-_ Existential Risk Science Fiction Book Club: Rainbows End
-_ Existential Risk Science Fiction Book Club: The Gods Themselves
-_ Angelic Irony
-_ Good Bad Faith
-_ Cromwell's Rule Is About Physical Symmetry, Not Fairness
-_ The Motte-and-Bailey Doctrine as Compression Artifact
-_ The Kolmogorov Option Is Incompatible with Rationality as the Common Interest of Many Causes
-_ "Rationalists" Don't Exist (But Rationality Does)
-- And the Wisdom to Know the Difference
-_ importance of getting the direction of causality right
-_ Memetics vs. Discourse
-_ Multi-Level Moloch; Or, Technically, the Holocaust Was a Coordination Success
-_ Reasons to Go On
-_ Phenotypic Identity and Memetic Capture (working title)
-_ How do unwind one's "rationalist" social identity?
-_ Daniel C. Dennett on Near-Term Alignment Problems
-
-
 _ Honesty Is Activism
 
 _ agents with different learning algorithms would find it hard to agree on words?
@@ -167,8 +148,6 @@ https://ericatgswapcaps.blogspot.com/2020/10/swap-clinic-win-win-win.html
 
 reverse Wason selection task: https://twitter.com/ThetaGrunberg/status/1305296703088545792
 
-I'm not usually—at least, not always—so much of a scrub as to play chess with a pigeon (which shits on the board and then struts around like it's won), or wrestle with a pig (which gets you both dirty, and the pig likes it), or dispute what the Tortise said to Achilles
-
 (This needs to go into my "Motivations and Political Context")
 Transitioning is easy if you project into the subspace spanned by "given name" and "preferred pronouns" and "frequency of wearing dresses." The problem is that it's not psychologically realistic to expect everyone else to just throw away all the other dimensions—people were using those dimensions!
 
index 8ebff60..d912446 100644 (file)
@@ -197,13 +197,6 @@ https://slatestarcodex.com/2017/03/24/guided-by-the-beauty-of-our-weapons/
 This is the eye of the hurricane; this is the only way I can [protect](/2019/Jul/the-source-of-our-power/)
 
 
-cosplay—
-/2019/Aug/a-love-that-is-out-of-anyones-control/
-/2017/Oct/a-leaf-in-the-crosswind/
-/2016/Dec/joined/
-
-
-
 even after taking into account that the phrase "once you know what to look for" is a 20-meter fire-truck-red flag for [confirmation bias](https://www.lesswrong.com/posts/rmAbiEKQDpDnZzcRf/positive-bias-look-into-the-dark).
 
 Why not just say "cis" women? I do, often, depending on the audience and the context of what I'm trying to say. I can [code-switch](http://zackmdavis.net/blog/2016/10/code-switching-i/); I can entertain multiple frames—different maps that reflect different aspects of the same territory. I can even be polite, when being polite is _cheap_. But it's important to at least _acknowledge_ that "cis" and "actual" do not _convey the same meaning_. (Sufficiently advanced neuroscience would be able to confirm this by examining patterns of brain activity on hearing each word.) The _fact_ that they don't convey the same meaning is _why_ the latter is offensive—the source of controversy isn't that people love words that start with _c_ and hate words that that start with a vowel sound. Not being allowed to use the word "actual" in this context makes it harder to encode the _empirical hypothesis_ I'm trying to communicate, that "trans" isn't just pointing to a subcluster within the "woman" cluster (like "young woman" or "Japanese woman"), it's actually denoting a subcluster within the _male_ cluster in the subspace of dimensions corresponding to [developmental sex](http://unremediatedgender.space/2019/Sep/terminology-proposal-developmental-sex/)-related traits that—unfortunately, heartbreakingly—we don't know how to change with current technology.
index c4909bd..598a7d2 100644 (file)
@@ -21,8 +21,8 @@ AUTHOR_FEED_RSS = None
 
 # Blogroll
 LINKS = (
-    ('On the Science of Changing Sex', "https://sillyolme.wordpress.com/"),
     ('Survey Anon\'s Gender Blog', "https://surveyanon.wordpress.com/"),
+    ('On the Science of Changing Sex', "https://sillyolme.wordpress.com/"),
     ('Crossdreamers', "http://www.crossdreamers.com/"),
     ('Trans Blog', "http://transblog.grieve-smith.com/"),
     ('The New Thoughtcrime', "https://newthoughtcrime.com/"),
@@ -32,6 +32,7 @@ LINKS = (
     ('Female Sexual Inversion', "https://femalesexualinversion.blogspot.com/"),
     ('Kathleen Stock', "https://kathleenstock.substack.com/"),
     ('Pasha\'s Office ', "https://pashasoffice.blogspot.com/"),
+    ('Ținând de Mâinii Strigoii-lor', "https://strigoi.substack.com/"),
 )
 
 DEFAULT_PAGINATION = 20