memoir: defend/alter the beacon, enter Jessica, misc. edits
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
1 with internet available—
2 _ "What the Tortise Said" link
3 _ 13th century word meanings
4 _ the comment from old-OB where someone brought up the Dolphin objection and Yudkowsky linked "Mutual Information" in reply
5 _ the other Twitter conversation incl. Tail where Yudkowsky says he's not taking a stand
6 _ the exchange on old OB where I said to acknowledge that not all men _want_ to be masculine
7 _ screenshot Rob's Facebook comment which I link
8 _ compile Categories references from the Dolphin War
9
10 far editing tier—
11 _ clarify why Michael thought Scott was "gaslighting" me, include "beeseech bowels of Christ"
12 _ address the "maybe it's good to be called names" point from "Hill" thread
13 _ 2019 Discord discourse with Alicorner
14 _ edit discussion of "anti-trans" side given that I later emphasize that "sides" shouldn't be a thing
15 _ the right way to explain how I'm respecting Yudkowsky's privacy
16 _ explain the adversarial pressure on privacy norms
17 _ first EY contact was asking for public clarification or "I am being silenced" (so Glomarizing over "unsatisfying response" or no response isn't leaking anything Yudkowksy cares about)
18 _ Nov. 2018 continues thread from Oct. 2016 conversation
19 _ better explanation of posse formation
20 _ maybe quote Michael's Nov 2018 texts?
21 _ clarify sequence of outreach attempts
22 _ clarify existence of a shadow posse member
23 _ mention Nov. 2018 conversation with Ian somehow
24 _ Said on Yudkowsky's retreat to Facebook being bad for him
25 _ explain first use of "rationalist"
26 _ explain first use of Center for Applied Rationality
27 _ erasing agency of Michael's friends, construed as a pawn
28 _ mention the fact that Anna had always taken a "What You Can't Say" strategy
29 _ when to use first _vs. last names
30 _ explain why I'm not being charitable in 2018 thread analysis, that at the time, I thought it had to be a mistake
31 _ January 2019 meeting with Ziz and Gwen
32 _ better summary of Littman
33
34
35
36 people to consult before publishing, for feedback or right of objection—
37 _ Iceman
38 _ Ben/Jessica
39 _ Scott
40 _ Anna
41 _ secret posse member
42 _ Alicorn: about privacy, and for Melkor Glowfic reference link
43 _ someone from Alicorner #drama as a hostile prereader (Swimmer?)
44 _ maybe Kelsey (very briefly, just about her name)?
45 _ maybe SK (briefly about his name)?
46 (probably don't bother with Michael?)
47
48 things to bring up in consultation emails—
49 _ dropping "and Scott" in Jessica's description of attacking narcissim
50 _ I think it's OK to copy my friend's language from emails; plagiarism instincts
51
52
53 -------
54
55 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
56
57 https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
58
59 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
60 When the topic at hand is how to define "lying", Alexander 
61 Scott has written exhaustively about the dangers of strategic equivocation ("Worst Argument", "Brick in the Motte"); insofar as I can get a _coherent_ posiiton out of the conjunction of "... for the Categories" and Scott's other work, it's that he must think strategic equivocation is OK if it's for being nice to people
62 https://slatestarcodex.com/2019/07/16/against-lie-inflation/
63 ]
64
65 I ended up spending three years of my life re-explaining the relevant philosophy-of-language issues in exhaustive, _exhaustive_ detail.
66
67 At first I did this in the object-level context of gender on this blog, in ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), and the ["Reply on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/). And that would have been the end of the philosophy-of-language track specifically ...
68
69 Later, after [Eliezer Yudkowsky joined in the mind games on Twitter in November 2018](https://twitter.com/ESYudkowsky/status/1067183500216811521) [(archived)](https://archive.is/ChqYX), I _flipped the fuck out_, and ended up doing more [stictly abstract philosophy-of-language work](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [on](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) [the](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception) [robot](https://www.lesswrong.com/posts/4hLcbXaqudM9wSeor/philosophy-in-the-darkest-timeline-basics-of-the-evolution)-[cult](https://www.lesswrong.com/posts/YptSN8riyXJjJ8Qp8/maybe-lying-can-t-exist) [blog](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception).
70
71 _for all_ nouns N, you can't define _N_ any way you want, because _useful_ definitions need to "carve reality at the joints."
72
73 It [_follows logically_](https://www.lesswrong.com/posts/WQFioaudEH8R7fyhm/local-validity-as-a-key-to-sanity-and-civilization) that, in particular, if _N_ := "woman", you can't define the word _woman_ any way you want. Maybe trans women _are_ women! But if so—that is, if you want people to agree to that word usage—you need to be able to _argue_ for why that usage makes sense on the empirical merits; you can't just _define_ it to be true. And this is a _general_ principle of how language works, not something I made up on the spot in order to attack trans people.
74
75 In 2008, this very general philosophy of language lesson was _not politically controversial_. If, in 2018–present, it _is_ politically controversial (specifically because of the fear that someone will try to apply it with _N_ := "woman"), that's a _problem_ for our whole systematically-correct-reasoning project! What counts as good philosophy—or even good philosophy _pedagogy_—shouldn't depend on the current year!
76
77 There is a _sense in which_ one might say that you "can" define a word any way you want. That is: words don't have intrinsic ontologically-basic meanings. We can imagine an alternative world where people spoke a language that was _like_ the English of our world, except that they use the word "tree" to refer to members of the empirical entity-cluster that we call "dogs" and _vice versa_, and it's hard to think of a meaningful sense in which one convention is "right" and the other is "wrong".
78
79 But there's also an important _sense in which_ we want to say that you "can't" define a word any way you want. That is: some ways of using words work better for transmitting information from one place to another. It would be harder to explain your observations from a trip to the local park in a language that used the word "tree" to refer to members of _either_ of the empirical entity-clusters that the English of our world calls "dogs" and "trees", because grouping together things that aren't relevantly similar like that makes it harder to describe differences between the wagging-animal-trees and the leafy-plant-trees.
80
81 If you want to teach people about the philosophy of language, you should want to convey _both_ of these lessons, against naïve essentialism, _and_ against naïve anti-essentialism. If the people who are widely respected and trusted [(almost worshipped)](https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts) as the leaders of the systematically-correct-reasoning community, [_selectively_](https://www.lesswrong.com/posts/AdYdLP2sRqPMoe8fb/knowing-about-biases-can-hurt-people) teach _only_ the words-don't-have-intrinsic-ontologically-basic-meanings part when the topic at hand happens to be trans issues (because talking about the carve-reality-at-the-joints part would be [politically suicidal](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting)), then people who trust the leaders are likely to get the wrong idea about how the philosophy of language works—even if [the selective argumentation isn't _conscious_ or deliberative](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie) and [even if every individual sentence they say permits a true interpretation](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly).
82
83 (As it is written of the fourth virtue of evenness, ["If you are selective about which arguments you inspect for flaws, or how hard you inspect for flaws, then every flaw you learn how to detect makes you that much stupider."](https://www.yudkowsky.net/rational/virtues))
84
85 _Was_ it a "political" act for me to write about the cognitive function of categorization on the robot-cult blog with non-gender examples, when gender was secretly ("secretly") my _motivating_ example? In some sense, yes, but the thing you have to realize is—
86
87 _Everyone else shot first_. The timestamps back me up here: my ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (February 2018) was a _response to_ Alexander's ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (November 2014). My philosophy-of-language work on the robot-cult blog (April 2019–January 2021) was (stealthily) _in response to_ Yudkowsky's November 2018 Twitter thread. When I started trying to talk about autogynephilia with all my robot cult friends in 2016, I _did not expect_ to get dragged into a multi-year philosophy-of-language crusade! That was just _one branch_ of the argument-tree that, once begun, I thought should be easy to _definitively settle in public_ (within our robot cult, whatever the _general_ public thinks).
88
89 I guess by now the branch is as close to settled as it's going to get? Alexander ended up [adding an edit note to the end of "... Not Man to the Categories" in December 2019](https://archive.is/1a4zV#selection-805.0-817.1), and Yudkowsky would go on to clarify his position on the philosophy of language in Facebook posts of [September 2020](https://www.facebook.com/yudkowsky/posts/10158853851009228) and [February 2021](https://www.facebook.com/yudkowsky/posts/10159421750419228). So, that's nice.
90
91 [TODO: although I think even with the note, in practice, people are going to keep citing "... Not Man for the Categories" in a way that doesn't understand how the note undermines the main point]
92
93 But I will confess to being quite disappointed that the public argument-tree evaluation didn't get much further, much faster? The thing you have understand about this whole debate is—
94
95 _I need the correct answer in order to decide whether or not to cut my dick off_. As I've said, I _currently_ believe that cutting my dick off would be a _bad_ idea. But that's a cost–benefit judgement call based on many _contingent, empirical_ beliefs about the world. I'm obviously in the general _reference class_ of males who are getting their dicks cut off these days, and a lot of them seem to be pretty happy about it! I would be much more likely to go through with transitioning if I believed different things about the world—if I thought my beautiful pure sacred self-identity thing were a brain-intersex condition, or if I still believed in my teenage psychological-sex-differences denialism (such that there would be _axiomatically_ no worries about fitting with "other" women after transitioning), or if I were more optimistic about the degree to which HRT and surgeries approximate an actual sex change.
96
97 In that November 2018 Twitter thread, [Yudkowsky wrote](https://archive.is/y5V9i):
98
99 > _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
100
101 This seems to suggest that gender pronouns in the English language as currently spoken don't have effective truth conditions. I think this is false _as a matter of cognitive science_. If someone told you, "Hey, you should come meet my friend at the mall, she is really cool and I think you'll like her," and then the friend turned out to look like me (as I am now), _you would be surprised_. (Even if people in Berkeley would socially punish you for _admitting_ that you were surprised.) The "she ... her" pronouns would prompt your brain to _predict_ that the friend would appear to be female, and that prediction would be _falsified_ by someone who looked like me (as I am now). Pretending that the social-norms dispute is about chromosomes was a _bullshit_ [weakmanning](https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/) move on the part of Yudkowsky, [who had once written that](https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence) "[t]o argue against an idea honestly, you should argue against the best arguments of the strongest advocates[;] [a]rguing against weaker advocates proves _nothing_, because even the strongest idea will attract weak advocates." Thanks to the skills I learned from Yudkowsky's _earlier_ writing, I wasn't dumb enough to fall for it, but we can imagine someone otherwise similar to me who was, who might have thereby been misled into making worse life decisions.
102
103 [TODO: ↑ soften tone, be more precise, including about "dumb enough to fall for it"]
104
105 If this "rationality" stuff is useful for _anything at all_, you would _expect_ it to be useful for _practical life decisions_ like _whether or not I should cut my dick off_. 
106
107 In order to get the _right answer_ to that policy question (whatever the right answer turns out to be), you need to _at minimum_ be able to get the _right answer_ on related fact-questions like "Is late-onset gender dysphoria in males an intersex condition?" (answer: no) and related philosophy-questions like "Can we arbitrarily redefine words such as 'woman' without adverse effects on our cognition?" (answer: no).
108
109 At the cost of _wasting three years of my life_, we _did_ manage to get the philosophy question mostly right! Again, that's nice. But compared to the [Sequences-era dreams of changing the world](https://www.lesswrong.com/posts/YdcF6WbBmJhaaDqoD/the-craft-and-the-community), it's too little, too slow, too late. If our public discourse is going to be this aggressively optimized for _tricking me into cutting my dick off_ (independently of the empirical cost–benefit trade-off determining whether or not I should cut my dick off), that kills the whole project for me. I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here?
110
111 Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
112
113 But the _reason_ it seemed _at all_ remotely plausible that our little robot cult could be pivotal in creating Utopia forever was _not_ "[Because we're us](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/), the world-saving good guys", but rather _because_ we were going to discover and refine the methods of _systematically correct reasoning_.
114
115 If you're doing systematically correct reasoning, you should be able to get the right answer even when the question _doesn't matter_. Obviously, the safety of the world does not _directly_ depend on being able to think clearly about trans issues. Similarly, the safety of a coal mine for humans does not _directly_ depend on [whether it's safe for canaries](https://en.wiktionary.org/wiki/canary_in_a_coal_mine): the dead canaries are just _evidence about_ properties of the mine relevant to human health. (The causal graph is the fork "canary-death ← mine-gas → human-danger" rather than the direct link "canary-death → human-danger".)
116
117 If the people _marketing themselves_ as the good guys who are going to save the world using systematically correct reasoning are _not actually interested in doing systematically correct reasoning_ (because systematically correct reasoning leads to two or three conclusions that are politically "impossible" to state clearly in public, and no one has the guts to [_not_ shut up and thereby do the politically impossible](https://www.lesswrong.com/posts/nCvvhFBaayaXyuBiD/shut-up-and-do-the-impossible)), that's arguably _worse_ than the situation where "the community" _qua_ community doesn't exist at all. 
118
119 In ["The Ideology Is Not the Movement"](https://slatestarcodex.com/2016/04/04/the-ideology-is-not-the-movement/) (April 2016), Alexander describes how the content of subcultures typically departs from the ideological "rallying flag" that they formed around. [Sunni and Shia Islam](https://en.wikipedia.org/wiki/Shia%E2%80%93Sunni_relations) originally, ostensibly diverged on the question of who should rightfully succeed Muhammad as caliph, but modern-day Sunni and Shia who hate each other's guts aren't actually re-litigating a succession dispute from the 7th century C.E. Rather, pre-existing divergent social-group tendencies crystalized into distinct tribes by latching on to the succession dispute as a [simple membership test](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests).
120
121 Alexander jokingly identifies the identifying feature of our robot cult as being the belief that "Eliezer Yudkowsky is the rightful caliph": the Sequences were a rallying flag that brought together a lot of like-minded people to form a subculture with its own ethos and norms—among which Alexander includes "don't misgender trans people"—but the subculture emerged as its own entity that isn't necessarily _about_ anything outside itself.
122
123 No one seemed to notice at the time, but this characterization of our movement [is actually a _declaration of failure_](https://sinceriously.fyi/cached-answers/#comment-794). There's a word, "rationalist", that I've been trying to avoid in this post, because it's the subject of so much strategic equivocation, where the motte is "anyone who studies the ideal of systematically correct reasoning, general methods of thought that result in true beliefs and successful plans", and the bailey is "members of our social scene centered around Eliezer Yudkowsky and Scott Alexander". (Since I don't think we deserve the "rationalist" brand name, I had to choose something else to refer to [the social scene](https://srconstantin.github.io/2017/08/08/the-craft-is-not-the-community.html). Hence, "robot cult.")
124
125 What I would have _hoped_ for from a systematically correct reasoning community worthy of the brand name is one goddamned place in the whole goddamned world where _good arguments_ would propagate through the population no matter where they arose, "guided by the beauty of our weapons" ([following Scott Alexander](https://slatestarcodex.com/2017/03/24/guided-by-the-beauty-of-our-weapons/) [following Leonard Cohen](https://genius.com/1576578)).
126
127 [missing mood]
128
129 Instead, I think what actually happens is that people like Yudkowsky and Alexander rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and conformity with the local environment)—with the result that if Yudkowsky and Alexander _aren't interested in getting the right answer_ (in public)—because getting the right answer in public would be politically suicidal—then there's no way for anyone who didn't [win the talent lottery](https://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) to fix the public understanding by making better arguments.
130
131 It makes sense for public figures to not want to commit political suicide! Even so, it's a _problem_ if public figures whose brand is premised on the ideal of _systematically correct reasoning_, end up drawing attention and resources into a subculture that's optimized for tricking men into cutting their dick off on false pretenses. (Although note that Alexander has [specifically disclaimed aspirations or pretentions to being a "rationalist" authority figure](https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/); that fate befell him without his consent because he's just too good and prolific of a writer compared to everyone else.)
132
133 I'm not optimistic about the problem being fixable, either. Our robot cult _already_ gets a lot of shit from progressive-minded people for being "right-wing"—not because we are in any _useful_, non-gerrymandered sense, but because [attempts to achieve the map that reflects the territory are going to run afoul of ideological taboos for almost any ideology](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting).
134
135 Because of the particular historical moment in which we live, we end up facing pressure from progressives, because—whatever our _object-level_ beliefs about (say) [sex, race, and class differences](/2020/Apr/book-review-human-diversity/)—and however much many of us would prefer not to talk about them—on the _meta_ level, our creed requires us to admit _it's an empirical question_, not a moral one—and that [empirical questions have no privileged reason to admit convenient answers](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
136
137 I view this conflict as entirely incidental, something that [would happen in some form in any place and time](https://www.lesswrong.com/posts/cKrgy7hLdszkse2pq/archimedes-s-chronophone), rather than having to do with American politics or "the left" in particular. In a Christian theocracy, our analogues would get in trouble for beliefs about evolution; in the old Soviet Union, our analogues would get in trouble for [thinking about market economics](https://slatestarcodex.com/2014/09/24/book-review-red-plenty/) (as a [positive technical discipline](https://en.wikipedia.org/wiki/Fundamental_theorems_of_welfare_economics#Proof_of_the_first_fundamental_theorem) adjacent to game theory, not yoked to a particular normative agenda).
138
139 Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful what they say in public. (I am not smart.) Scott Aaronson wrote of [the Kolmogorov Option](https://www.scottaaronson.com/blog/?p=3376) (which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/): serve the cause of Truth by cultivating a bubble that focuses on truths that won't get you in trouble with the local political authorities. This after the Soviet mathematician Andrey Kolmogorov, who _knew better than to pick fights he couldn't win_.
140
141 Becuase of the conflict, and because all the prominent high-status people are running a Kolmogorov Option strategy, and because we happen to have to a _wildly_ disproportionate number of _people like me_ around, I think being "pro-trans" ended up being part of the community's "shield" against external political pressure, of the sort that perked up after [the February 2021 _New York Times_ hit piece about Alexander's blog](https://archive.is/0Ghdl). (The _magnitude_ of heat brought on by the recent _Times_ piece and its aftermath was new, but the underlying dynamics had been present for years.)
142
143 Jacob Falkovich notes, ["The two demographics most over-represented in the SlateStarCodex readership according to the surveys are transgender people and Ph.D. holders."](https://twitter.com/yashkaf/status/1275524303430262790) [Aaronson notes (in commentary on the _Times_ article)](https://www.scottaaronson.com/blog/?p=5310) "the rationalist community's legendary openness to alternative gender identities and sexualities" as something that would have "complicated the picture" of our portrayal as anti-feminist.
144
145 Even the _haters_ grudgingly give Alexander credit for "... Not Man for the Categories": ["I strongly disagree that one good article about accepting transness means you get to walk away from writing that is somewhat white supremacist and quite fascist without at least awknowledging you were wrong."](https://archive.is/SlJo1)
146
147 Given these political realities, you'd think that I _should_ be sympathetic to the Kolmogorov Option argument, which makes a lot of sense. _Of course_ all the high-status people with a public-facing mission (like building a movement to prevent the coming robot apocalypse) are going to be motivatedly dumb about trans stuff in public: look at all the damage [the _other_ Harry Potter author did to her legacy](https://en.wikipedia.org/wiki/Politics_of_J._K._Rowling#Transgender_people).
148
149 And, historically, it would have been harder for the robot cult to recruit _me_ (or those like me) back in the 'aughts, if they had been less politically correct. Recall that I was already somewhat turned off, then, by what I thought of as _sexism_; I stayed because the philosophy-of-science blogging was _way too good_. But what that means on the margin is that someone otherwise like me except more orthodox or less philosophical, _would_ have bounced. If [Cthulhu has swum left](https://www.unqualified-reservations.org/2009/01/gentle-introduction-to-unqualified/) over the intervening thirteen years, then maintaining the same map-revealing/not-alienating-orthodox-recruits tradeoff _relative_ to the general population, necessitates relinquishing parts of the shared map that have fallen of general favor.
150
151 Ultimately, if the people with influence over the trajectory of the systematically correct reasoning "community" aren't interested in getting the right answers in public, then I think we need to give up on the idea of there _being_ a "community", which, you know, might have been a dumb idea to begin with. No one owns _reasoning itself_. Yudkowsky had written in March 2009 that rationality is the ["common interest of many causes"](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes): that proponents of causes-that-benefit-from-better-reasoning like atheism or marijuana legalization or existential-risk-reduction might perceive a shared interest in cooperating to [raise the sanity waterline](https://www.lesswrong.com/posts/XqmjdBKa4ZaXJtNmf/raising-the-sanity-waterline). But to do that, they need to not try to capture all the value they create: some of the resources you invest in teaching rationality are going to flow to someone else's cause, and you need to be okay with that.
152
153 But Alexander's ["Kolmogorov Complicity"](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/) (October 2017) seems to suggest a starkly different moral, that "rationalist"-favored causes might not _want_ to associate with others that have worse optics. Atheists and marijuana legalization proponents and existential-risk-reducers probably don't want any of the value they create to flow to neoreactionaries and race realists and autogynephilia truthers, if video of the flow will be used to drag their own names through the mud.
154
155 [_My_ Something to Protect](/2019/Jul/the-source-of-our-power/) requires me to take the [Leeroy Jenkins](https://en.wikipedia.org/wiki/Leeroy_Jenkins) Option. (As typified by Justin Murphy: ["Say whatever you believe to be true, in uncalculating fashion, in whatever language you really think and speak with, to everyone who will listen."](https://otherlife.co/respectability-is-not-worth-it-reply-to-slatestarcodex/)) I'm eager to cooperate with people facing different constraints who are stuck with a Kolmogorov Option strategy as long as they don't _fuck with me_. But I construe encouragement of the conflation of "rationality" as a "community" and the _subject matter_ of systematically correct reasoning, as a form of fucking with me: it's a _problem_ if all our beautiful propaganda about the methods of seeking Truth, doubles as propaganda for joining a robot cult whose culture is heavily optimized for tricking men like me into cutting their dicks off.
156
157 Someone asked me: "If we randomized half the people at [OpenAI](https://openai.com/) to use trans pronouns one way, and the other half to use it the other way, do you think they would end up with significantly different productivity?"
158
159 But the thing I'm objecting to is a lot more fundamental than the specific choice of pronoun convention, which obviously isn't going to be uniquely determined. Turkish doesn't have gender pronouns, and that's fine. Naval ships traditionally take feminine pronouns in English, and it doesn't confuse anyone into thinking boats have a womb. [Many other languages are much more gendered than English](https://en.wikipedia.org/wiki/Grammatical_gender#Distribution_of_gender_in_the_world's_languages) (where pretty much only third-person singular pronouns are at issue). The conventions used in one's native language probably _do_ [color one's thinking to some extent](/2020/Dec/crossing-the-line/)—but when it comes to that, I have no reason to expect the overall design of English grammar and vocabulary "got it right" where Spanish or Arabic "got it wrong."
160
161 What matters isn't the specific object-level choice of pronoun or bathroom conventions; what matters is having a culture where people _viscerally care_ about minimizing the expected squared error of our probabilistic predictions, even at the expense of people's feelings—[_especially_ at the expense of people's feelings](http://zackmdavis.net/blog/2016/09/bayesomasochism/).
162
163 I think looking at [our standard punching bag of theism](https://www.lesswrong.com/posts/dLL6yzZ3WKn8KaSC3/the-uniquely-awful-example-of-theism) is a very fair comparison. Religious people aren't _stupid_. You can prove theorems about the properties of [Q-learning](https://en.wikipedia.org/wiki/Q-learning) or [Kalman filters](https://en.wikipedia.org/wiki/Kalman_filter) at a world-class level without encountering anything that forces you to question whether Jesus Christ died for our sins. But [beyond technical mastery of one's narrow specialty](https://www.lesswrong.com/posts/N2pENnTPB75sfc9kb/outside-the-laboratory), there's going to be some competence threshold in ["seeing the correspondence of mathematical structures to What Happens in the Real World"](https://www.lesswrong.com/posts/sizjfDgCgAsuLJQmm/reply-to-holden-on-tool-ai) that _forces_ correct conclusions. I actually _don't_ think you can be a believing Christian and invent [the concern about consequentialists embedded in the Solomonoff prior](https://ordinaryideas.wordpress.com/2016/11/30/what-does-the-universal-prior-actually-look-like/).
164
165 But the _same_ general parsimony-skill that rejects belief in an epiphenomenal ["God of the gaps"](https://en.wikipedia.org/wiki/God_of_the_gaps) that is verbally asserted to exist but will never the threat of being empirically falsified, _also_ rejects belief in an epiphenomenal "gender of the gaps" that is verbally asserted to exist but will never face the threat of being empirically falsified.
166
167 In a world where sexual dimorphism didn't exist, where everyone was a hermaphrodite, then "gender" wouldn't exist, either.
168
169 In a world where we _actually had_ magical perfect sex-change technology of the kind described in "Changing Emotions", then people who wanted to change sex would do so, and everyone else would use the corresponding language (pronouns and more), _not_ as a courtesy, _not_ to maximize social welfare, but because it _straightforwardly described reality_.
170
171 In a world where we don't _have_ magical perfect sex-change technology, but we _do_ have hormone replacement therapy and various surgical methods, you actually end up with _four_ clusters: females (F), males (M), masculinized females a.k.a. trans men (FtM), and feminized males a.k.a. trans women (MtF). I _don't_ have a "clean" philosophical answer as to in what contexts one should prefer to use a {F, MtF}/{M, FtM} category system (treating trans people as their social gender) rather than a {F, FtM}/{M, MtF} system (considering trans people as their [developmental sex](/2019/Sep/terminology-proposal-developmental-sex/)), because that's a complicated semi-empirical, semi-value question about which aspects of reality are most relevant to what you're trying think about in that context. But I do need _the language with which to write this paragraph_, which is about _modeling reality_, and not about marginalization or respect.
172
173 Something I have trouble reliably communicating about what I'm trying to do with this blog is that "I don't do policy." Almost everything I write is _at least_ one meta level up from any actual decisions. I'm _not_ trying to tell other people in detail how they should live their lives, because obviously I'm not smart enough to do that and get the right answer. I'm _not_ telling anyone to detransition. I'm _not_ trying to set government policy about locker rooms or medical treatments.
174
175 I'm trying to _get the theory right_. My main victory condition is getting the two-type taxonomy (or whatever more precise theory supplants it) into the _standard_ sex ed textbooks. If you understand the nature of the underlying psychological condition _first_, then people can make a sensible decision about what to _do_ about it. Accurate beliefs should inform policy, rather than policy determining what beliefs are politically acceptable.
176
177 It worked once, right?
178
179 > An extreme case in point of "handwringing about the Overton Window in fact constituted the Overton Window's implementation"
180 OK, now apply that to your Kolomogorov cowardice
181 https://twitter.com/ESYudkowsky/status/1373004525481598978
182
183 The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2021 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity or hurt feelings as costs), also [can't get heliocentrism right in 1633](https://en.wikipedia.org/wiki/Galileo_affair) [_for the same reason_](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to)—and I really doubt it can get AI alignment theory right in 2041.
184
185 Or at least—even if there are things we can't talk about in public for consequentialist reasons and there's nothing to be done about it, you would hope that the censorship wouldn't distort our beliefs about the things we _can_ talk about—like, say, the role of Bayesian reasoning in the philosophy of language. Yudkowsky had written about the [dark side epistemology](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology) of [contagious lies](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies): trying to protect a false belief doesn't just mean being wrong about that one thing, it also gives you, on the object level, an incentive to be wrong about anything that would _imply_ the falsity of the protected belief—and, on the meta level, an incentive to be wrong _about epistemology itself_, about how "implying" and "falsity" work.
186
187
188 https://www.lesswrong.com/posts/ASpGaS3HGEQCbJbjS/eliezer-s-sequences-and-mainstream-academia?commentId=6GD86zE5ucqigErXX
189 > The actual real-world consequences of a post like this when people actually read it are what bothers me, and it does feel frustrating because those consequences seem very predictable
190 (!!)
191
192 http://www.hpmor.com/chapter/47
193 https://www.hpmor.com/chapter/97
194 > one technique was to look at what _ended up_ happening, assume it was the _intended_ result, and ask who benefited.
195
196 > This about dath ilani, they are trained in a theory of social deception that says that people can arrange reasons, excuses, for anything, and so at the end of it all you look at what happened and try to build an explanation around that alone.
197 https://www.glowfic.com/replies/1820866#reply-1820866
198
199
200
201 > At least, I have a MASSIVE home territory advantage because I can appeal to Eliezer's writings from 10 years ago, and ppl can't say "Eliezer who? He's probably a bad man"
202
203 > Makes sense... just don't be shocked if the next frontier is grudging concessions that get compartmentalized
204
205 > Stopping reading your Tweets is the correct move for them IF you construe them as only optimizing for their personal hedonics
206 https://twitter.com/zackmdavis/status/1224433237679722500
207
208 > I aspire to make sure my departures from perfection aren't noticeable to others, so this tweet is very validating.
209 https://twitter.com/ESYudkowsky/status/1384671335146692608
210
211 "assuming that it was a 'he'"—people treating pronouns as synonymous with sex
212 https://www.youtube.com/watch?v=mxZBrbVqZnU
213
214 I realize it wasn't personal—no one _consciously_ thinking "I'm going to trick autogynpehilic men into cutting their dicks off", but
215
216 whom I have variously described as having "taught me everything I know" and "rewritten my personality over the internet"
217
218 * the moment in October 2016 when I switched sides http://zackmdavis.net/blog/2016/10/late-onset/ http://zackmdavis.net/blog/2017/03/brand-rust/
219 https://www.lesswrong.com/posts/jNAAZ9XNyt82CXosr/mirrors-and-paintings
220
221 > The absolute inadequacy of every single institution in the civilization of magical Britain is what happened! You cannot comprehend it, boy! I cannot comprehend it! It has to be seen and even then it cannot be believed! 
222 http://www.hpmor.com/chapter/108
223
224 EGS??
225
226 (If the world were smaller, you'd never give different people the same name; if our memories were larger, we'd give everyone a UUID.)
227
228 * papal infallability / Eliezer Yudkowsky facts
229 https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts?commentId=Aq9eWJmK6Liivn8ND
230 Never go in against Eliezer Yudkowsky when anything is on the line.
231 https://en.wikipedia.org/wiki/Chuck_Norris_facts
232
233 how they would actually think about the problem in dath ilan
234
235 https://www.reddit.com/r/TheMotte/comments/myr3n7/culture_war_roundup_for_the_week_of_april_26_2021/gw0nhqv/?context=3
236 > At some point you realize that your free bazaar of ideas has produced a core (or multiple cores). It is a chamber: semi-permeable, still receptive to external ideas and open to critique, but increasingly more connected on the inside.
237
238 https://arbital.greaterwrong.com/p/domain_distance?l=7vk
239
240 I'm writing to you because I'm afraid that marketing is a more powerful force than argument. Rather than good arguments propogating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who _didn't_ [win the talent lottery](http://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) but think they see a flaw in the _Zeitgeist_, the winning move is "persuade Scott Alexander".
241
242 https://www.facebook.com/yudkowsky/posts/10159611207744228?comment_id=10159611208509228&reply_comment_id=10159613820954228
243 > In the circles I run in, being poly isn't very political, just a sexual orientation like any other—it's normalized the way that LGBT is normalized in saner circles, not political the way that LGBT is political in crazier circles.
244
245 https://archive.is/7Wolo
246 > the massive correlation between exposure to Yudkowsky's writings and being a trans woman (can't bother to do the calculations but the connection is absurdly strong)
247 Namespace's point about the two EYs
248
249 [stonewalling](https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters)
250
251 The level above "Many-worlds is obviously correct, stop being stupid" is "Racial IQ differences are obviously real; stop being stupid"
252
253
254 Anyway, four years later, it turns out that this whole "rationality" subculture is completely fake. The thing that convinced me of this was not _even_ the late-onset-gender-dysphoria-in-males-is-not-an-intersex-condition thesis that I was originally trying to talk about. Humans are _really complicated_: no matter how "obvious" something in psychology or social science to me, I can't write someone off entirely simply for disagreeing, because the whole domain is so complex that I always have to acknowledge that, ultimately, I could just be wrong.
255
256 But in the _process_ of trying to _talk about_ this late-onset-gender-dysphoria-in-males-is-not-an-intersex-condition thesis, I noticed that my conversations kept getting _derailed_ on some variation of "The word _woman_ doesn't necessarily mean that." _That_ part of the debate, I knew I could win.
257
258 what the math actually means in the real world from "Reply to Holden"
259
260 I guess I feel pretty naïve now, but—I _actually believed our own propoganda_. I _actually thought_ we were doing something new and special of historical and possibly even _cosmological_ significance.
261
262
263 I got a pingback to "Optimized Propaganda" from in an "EDIT 5/21/2021" on https://www.lesswrong.com/posts/qKvn7rxP2mzJbKfcA/persuasion-tools-ai-takeover-without-agi-or-agency after Scott Alexander linked it—evidence for Scott having Power to shape people's attention
264
265 https://slatestarcodex.com/2020/02/10/autogenderphilia-is-common-and-not-especially-related-to-transgender/
266
267 https://twitter.com/HiFromMichaelV/status/1221771020534788098
268 "Rationalism starts with the belief that arguments aren't soldiers, and ends with the belief that soldiers are arguments."
269
270 The Eliezer Yudkowsky I remember wrote about [how facts are tightly-woven together in the Great Web of Causality](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies), such that [people who are trying to believe something false have an incentive to invent and spread fake epistemology lessons](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology), and about the [high competence threshold that _forces_ correct conclusions](http://sl4.org/archive/0602/13903.html).
271
272 A culture where there are huge catastrophic consequences for [questioning religion](https://www.lesswrong.com/posts/u6JzcFtPGiznFgDxP/excluding-the-supernatural), is a culture where it's harder to train alignment researchers that genuinely understand Occam's razor on a _deep_ level, when [the intelligent social web](https://www.lesswrong.com/posts/AqbWna2S85pFTsHH4/the-intelligent-social-web) around them will do anything to prevent them from applying the parsimony skill to the God hypothesis. 
273
274 A culture where there are huge catastrophic consequences for questioning gender identity, is a culture where it's harder to train alignment researchers that genuinely understand the hidden-Bayesian-structure-of-language-and-cognition on a _deep_ level, when the social web around them will do anything to prevent them from [invalidating someone's identity](http://unremediatedgender.space/2016/Sep/psychology-is-about-invalidating-peoples-identities/).
275
276 > First, it is not enough to learn something, and tell the world about it, to get the world to believe it. Not even if you can offer clear and solid evidence, and explain it so well that a child could understand. You need to instead convince each person in your audience that the other people who they see as their key audiences will soon be willing to endorse what you have learned.
277 https://www.overcomingbias.com/2020/12/social-proof-but-of-what.html
278
279 twenty-one month Category War is as long as it took to write the Sequences https://www.lesswrong.com/posts/9jF4zbZqz6DydJ5En/the-end-of-sequences
280
281 I'm worried about the failure mode where bright young minds [lured in](http://benjaminrosshoffman.com/construction-beacons/) by the beautiful propaganda about _systematically correct reasoning_, are instead recruited into what is, effectively, the Eliezer-Yudkowsky-and-Scott-Alexander fan club.
282
283 > I'm not trying to get Eliezer or "the community" to take a public stance on gender politics; I'm trying to get us to take a stance in favor of the kind of epistemology that we were doing in 2008. It turns out that epistemology has implications for gender politics which are unsafe, but that's more inferential steps, and ... I guess I just don't expect the sort of people who would punish good epistemology to follow the inferential steps? Maybe I'm living in the should-universe a bit here, but I don't think it "should" be hard for Eliezer to publicly say, "Yep, categories aren't arbitrary because you need them to carve reality at the joints in order to make probabilistic inferences, just like I said in 2008; this is obvious."
284
285 (Times have changed! BBL is locally quasi-mainstream after Ozy engaged)
286
287
288 It's weird that he thinks telling the truth is politically impossible, because the specific truths I'm focused on are things he _already said_, that anyone could just look up. I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather (a reader points out) the egregore has no reason to care about the past; if you get tagged as an enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009
289
290 Somni gets it! https://somnilogical.tumblr.com/post/189782657699/legally-blind
291
292 E.Y. thinks postrats are emitting "epistemic smog", but the fact that Eigenrobot can retweet my Murray review makes me respect him more than E.Y. https://twitter.com/eigenrobot/status/1397383979720839175
293
294 The robot cult is "only" "trying" to trick me into cutting my dick off in the sense that a paperclip maximizer is trying to kill us: an instrumental rather than a terminal value.
295
296 > the problem with taqiyya is that your sons will believe you
297 https://twitter.com/extradeadjcb/status/1397618177991921667
298
299 > I've informed a number of male college students that they have large, clearly detectable body odors. In every single case so far, they say nobody has ever told them that before. 
300 https://www.greaterwrong.com/posts/kLR5H4pbaBjzZxLv6/polyhacking/comment/rYKwptdgLgD2dBnHY
301
302 It would have been better if someone without a dog in the object-level fight could have loudly but disinterestedly said, "What? I don't have a dog in the object-level fight, but we had a whole Sequence about this", but people mostly don't talk if they don't have a dog.
303
304 But if someone without a dog spoke, then they'd get pattern-matched as a partisan; it _had_ to be me
305
306
307 As far as I can tell, Professor, I'm just doing what _you_ taught me—carve reality at the joints, speak the truth, even if your voice trembles, make an extraordinary effort when you've got Something to Protect.
308
309 "Beliefs about the self aren't special" is part of the whole AI reflectivity thing, too!!
310
311 > decision-theoretically, it's also not their fault. They were all following a strategy that was perfectly reasonable until they ran into someone with an anomalously high insistence that words should mean things
312
313 Sure: everyone in a conflict thinks they're acting defensively against aggressors infringing on their rights, because in the cases where everyone agrees what the "actual" property rights are, there's no conflict.
314
315 https://distill.pub/2021/multimodal-neurons/
316 > These neurons detect gender^10
317 > Footnote: By this, we mean both that it responds to people presenting as this gender, as well as that it responds to concepts associated with that gender.
318
319 https://www.jefftk.com/p/an-update-on-gendered-pronouns
320
321 > Still think this was a perfectly fine tweet btw. Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on. Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
322 https://twitter.com/ESYudkowsky/status/1356535300986523648
323
324
325 If you were actually HONESTLY tring to narrow it, you would have said, "By the way, this is just about pronouns, I'm not taking a position on whether trans women are women"
326
327 https://www.gingersoftware.com/content/grammar-rules/adjectives/order-of-adjectives/
328
329 https://www.unqualified-reservations.org/2008/01/how-to-actually-defeat-us-government/
330 > propagate a credible alternate reality that outcompetes the official information network.
331
332 https://www.unqualified-reservations.org/2007/12/explanation-of-democratic-centrism/
333
334 the second generation doesn't "get the joke"; young people don't understand physical strength differences anymore
335
336 I just thought of an interesting argument that almost no one else would (because it requires both prog-sight and NRx-sight)
337 You know the "signaling hazard" (pace Jim) argument against public tolerance of male homosexuality (tolerating gays interferes with normal men expressing affection for each other without being seen as gay, which is bad for unit cohesion, &c.). Until recently, I hadn't thought much of it (because of my prog upbringing)—why do you care if someone isn't sure you're straight?
338 but recent events have made me more sympathetic to its empirical reality—if human nature is such that 140+ IQ ppl actually can't publicly clear up a trivial philosophy-of-language dispute because of the fear of appearing transphobic—well, that's really dumb, but it's the SAME KIND of dumb as "can't express male friendship because of the fear of appearing gay"
339 which suggests a "signaling hazard" argument in favor of political correctness (!!)—we can't tolerate racism, or else Good people would have to incur more costs to signal antiracism (same structure as "we can't tolerate gays, or else normal guys have to incur more costs to signal not-gayness")
340
341 that's the thing; I read as lefty because I am morally lefty (in contrast to Real Men Who Lift &c.); it's just that I had the "bad luck" of reading everything I could about race and IQ after the James Watson affair in 'aught-seven, and all my leftness is filtered through ten years of living with inconvenient hypotheses
342
343 [TODO: reorganize to position the question first]
344
345 [TODO: lit search or ask linguistics.stackexchange for literature on what gender/plural/case/&c. distinctions are for? Is it just the collision/ambiuity reduction, or is there something else? Oh, or Anna T./Elena might know]
346
347 https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters
348 > anything that people are motivated to argue about is not arbitrary.  It is being controlled by invisible criteria of evaluation, it has connotations with consequences
349
350 If Scott Alexander's "The Categories Were Made For Man ..." had never been published, would we still be talking about dolphins and trees in the same way?
351
352 Scott has so many fans—
353 https://jasoncrawford.org/guide-to-scott-alexander-and-slate-star-codex
354 https://nothingismere.com/2015/09/12/library-of-scott-alexandria/
355 https://guzey.com/favorite/slate-star-codex/
356 https://www.lesswrong.com/posts/xaLHeoRPdb9oQgDEy/index-of-yvain-s-excellent-articles
357
358 Nate on dolphins (June 2021)—a dogwhistle??
359 https://twitter.com/So8res/status/1401670792409014273
360 Yudkowsky retweeted Nate on dolphins—
361 https://archive.is/Ecsca
362
363 my rationalist community has people asking a lot of questions already answered by my community's name
364
365 cite to "Not Especially Related to Transgender"
366 https://twitter.com/fortenforge/status/1402057829142302721
367
368 "Hero Licensing": to provide an earnest-token of all the techniques I couldn't show
369
370 uncritically (uncharacteristically uncritically) taking the newly-ascendant gender-identity theory for granted ("lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities"), without considering the obvious-in-retrospect hypothesis that "guy who speculates about his female analogue on a transhumanist mailing list in 2004" and "guy who thinks he might be a trans women in Berkeley 2016" are the same guy.
371
372 https://arbital.greaterwrong.com/p/logical_dt/?l=5gc
373 It even leaked into Big Yud!!! "Counterfactuals were made for humanity, not humanity for counterfactuals."
374
375 If hiring a community matchmaker was worth it, why don't my concerns count, too?
376
377 When I protested that I wasn't expecting a science fictional Utopia of pure reason, but just for people to continue to be right about things they already got right in 2008, he said, "Doesn't matter—doesn't _fucking_ matter."
378
379 humans have honor instead of TDT. "That's right! I'm appealing to your honor!"
380
381 The boundary must be drawn here! This far, and no further!
382
383 > just the thought that there are people out there who wanted to be rationalists and then their experience of the rationalist community was relentlessly being told that trans women are actually men, and that this is obvious if you are rational, and a hidden truth most people are too cowardly to speak, until you retreat in misery and are traumatized by the entire experience of interacting with us....
384
385 People change their opinion with the party line—similarly with Scott and Yud
386 https://onlinelibrary.wiley.com/doi/abs/10.1111/ajps.12550?campaign=woletoc
387
388 "No one begins to truly search for the Way until their parents have failed them, their gods are dead, and their tools have shattered in their hand."
389 https://twitter.com/zackmdavis/status/1107874587822297089
390
391 Robert Stadler
392
393 ----------
394
395
396
397
398 -----------
399
400 Really, it's impressive how far we got in establishing a cult of Bayesians in a world where "discimination" is a transgression against the dominant ideology! I can't be the only one who got the joke
401
402 https://stefanfschubert.com/blog/2020/12/22/legitimate-epistocracy
403
404 prevaricate
405
406 back in 'aught-nine, Anna commented that no one in our circle was that old, as if you had to be of a particular generation to understand the ideas—that could apply in both directions (the next generation's culture does not look promising to me; midwits say that elders have always said that, but maybe the elders were always right, by the standard preference-stability argument)
407
408 > [Anna] seemed to disapprove of our putting pressure on Scott, because the fact that Scott has done a lot of great work is exactly what made him a target for our pressure.
409
410 > Those who are savvy in high-corruption equilibria maintain the delusion that high corruption is common knowledge, to justify expropriating those who naively don't play along, by narratizing them as already knowing and therefore intentionally attacking people, rather than being lied to and confused
411
412 > I told Anna about Michael's "enemy combatants" metaphor, and how I originally misunderstood the point of the analogy. War metaphors sound Scary and Mean—I don't want to shoot my friends! But the point of the analogy (which Michael had explained at the time, but I wasn't ready to hear until I did a few more weeks of emotional processing) was specifically that soliders on the other side of a war aren't particularly morally blameworthy as individuals: their actions are just being controlled by the Power they're embedded in. And Anna was like, "But you could still be friends with someone on an animal level, like with a dog", and I was like, "Yeah, that's basically what Michael said."
413
414 > He says he likes "monastic rationalism vs. lay rationalism" as a frame for the schism Ben is proposing.
415
416 > I suspect Scott is calling the wrong side monastic, though - we basically believe it can be done by lay people, he doesn't. I'll be pleasantly surprised if he gets the sides right, though.
417
418 • at least Sabbatai Zevi had an excuse: his choices were to convert to Islam or be impaled https://en.wikipedia.org/wiki/Sabbatai_Zevi#Conversion_to_Islam
419
420 Really, self-respecting trans people who care about logical consistency should abhor Scott and Eliezer's opinions—you should want people to use the right pronouns _because_ of your gender soul or _because_ your transition actually worked, not because categories are flexible and pronouns shouldn't imply gender
421
422 https://twitter.com/ESYudkowsky/status/1435605868758765568
423 > Because it was you, I tried to read this when it came out.  But you do not know how to come to a point, because you are too horrified by the thought that a reader might disagree with you if you don't write even more first; so then I started skimming, and then I gave up.
424
425 > If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
426 https://twitter.com/ESYudkowsky/status/1435618825198731270
427
428 But I think Eliezer and I _agree_ on what he's doing; he just doesn't see it's bad
429
430 Speaking of narcissism and perspective-taking, "deception" isn't about whether you personally "lied" according to your own re-definitions; it's about whether you predictably made others update in the wrong direction
431
432 I really appreciated Anatoly Vorobey's comments:
433
434 > to provide context how it may  (justifiably?) seem like over the last 7-8 years the rat. community largely fell *hard* for a particular gender philosophy
435
436 > ... fell for it in ways that seemed so spectacularly uncritical, compared to other beliefs carefully examined and dissected, and more so, even justified with a veneer of "rationality" (as in Scott's Categories post) that beautifully coincided with the tumblr dogma of the time...
437
438 > ...(then twitter dogma of the time, and now almost the blue tribe dogma of our time)... that I can understand how someone like Zack, embedded in the rat culture physically and struggling with this reigning ideology, could feel it as gaslighting.
439
440
441 https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
442 > I'm curious about how much you think these opinions have been arrived at independently by yourself, Paul, and the rest of the OpenPhil complex?
443 If he's worried about Carl being corrupted by OpenPhil; it make sense for me to worry about him being corrupted by Glowfic cluster
444
445 https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
446 > If you mean that say Mike Blume starts getting paid $20m/yr base salary
447 Weirdly specific that Mike (random member of your robot cult) is getting namedropped
448
449 example of hero-worship, David Pearce writes—
450 https://www.facebook.com/algekalipso/posts/4769054639853322?comment_id=4770408506384602
451 > recursively cloning Scott Alexander—with promising allelic variations - and hothousing the “products” could create a community of super-Scotts with even greater intellectual firepower
452
453 https://twitter.com/ESYudkowsky/status/1434906470248636419
454 > Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
455
456 Okay, I get that it was meant as humorous exaggeration. But I think it still has the effect of discouraging people from criticizing Scott or Eliezer because they're the leaders of the caliphate. I spent three and a half years of my life explaining in exhaustive, exhaustive detail, with math, how Scott was wrong about something, no one serious actually disagrees, and Eliezer is still using his social power to boost Scott's right-about-everything (!!) reputation. That seems really unfair, in a way that isn't dulled by "it was just a joke."
457
458 Or as Yudkowsky put it—
459
460 https://www.facebook.com/yudkowsky/posts/10154981483669228
461 > I know that it's a bad sign to worry about which jokes other people find funny. But you can laugh at jokes about Jews arguing with each other, and laugh at jokes about Jews secretly being in charge of the world, and not laugh at jokes about Jews cheating their customers. Jokes do reveal conceptual links and some conceptual links are more problematic than others.
462
463 It's totally understandable to not want to get involved in a political scuffle because xrisk reduction is astronomically more important! But I don't see any plausible case that metaphorically sucking Scott's dick in public reduces xrisk. It would be so easy to just not engage in this kind of cartel behavior!
464
465 An analogy: racist jokes are also just jokes. Alice says, "What's the difference between a black dad and a boomerang? A boomerang comes back." Bob says, "That's super racist! Tons of African-American fathers are devoted parents!!" Alice says, "Chill out, it was just a joke." In a way, Alice is right. It was just a joke; no sane person could think that Alice was literally claiming that all black men are deadbeat dads. But, the joke only makes sense in the first place in context of a culture where the black-father-abandonment stereotype is operative. If you thought the stereotype was false, or if you were worried about it being a self-fulfilling prophecy, you would find it tempting to be a humorless scold and get angry at the joke-teller.
466
467 Similarly, the "Caliphate" humor only makes sense in the first place in the context of a celebrity culture where deferring to Scott and Eliezer is expected behavior. (In a way that deferring to Julia Galef or John S. Wentworth is not expected behavior, even if Galef and Wentworth also have a track record as good thinkers.) I think this culture is bad. Nullius in verba.
468
469
470
471 Respect needs to be updateable. No one can think fast enough to think all their own thoughts. I have a draft explaining the dolphins thing, about why Nate's distaste for paraphyly is wrong. In Nate's own account, he "suspect[s] that ['[...] Not Man for the Categories'] played a causal role in [...] starting the thread out on fish." Okay, where did Scott get it from, then? I don't have access to his thoughts, but I think he pulled it out of his ass because it was politically convenient for him. I suspect that if you asked him in 2012 whether dolphins are fish, he would have said, "No, they're mammals" like any other educated adult. Can you imagine "... Not Man for the Categories" being as popular as it is in our world if it just cut off after section III? Me neither.
472
473 I think it's a problem for our collective epistemology that Scott has the power to sneeze his mistakes onto everyone else—that our 2021 beliefs about dolphins (literally, dolphins in particular!) is causally downstream of Scott's political incentives in 2014, even if Scott wasn't consciously lying and Nate wasn't thinking about gender politics. I think this is the problem that Eliezer identified as dark side epistemology: people invent fake epistemology lessons to force a conclusion that they can't get on the merits, and the fake lessons can spread, even if the meme-recipients aren't trying to force anything themselves. I would have expected people with cultural power to be interested in correcting the problem once it was pointed out.
474
475 https://twitter.com/esyudkowsky/status/1374161729073020937
476 > Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements. There are a *lot* of good reasons to have "no comments" about things. Anybody who tells you otherwise has no life experience, or is lying.
477
478 "Speak out in order to make it clear how not alt-right you are; nothing wrong with that because I'm not lying" is being inconsistent about whether signaling and mood-affiliation matters—it's trying to socially profit by signaling pro-Stalin-ness, while simultaneously denying that anyone could object (because you didn't lie—pivoting to a worldview where only literal meanings matter and signals aren't real). Can I sketch this out mathematically?
479
480 3 January 2020 text from Michael to me:
481 > because I want to make it very clear to you, and to encourage you to make it very clear to others [...] that you are experiencing extremely articulate and extremely by the book trauma, caused in a very canonical manner by institutional betrayal and causing silencing of a sort very similar to that which causes investigation of sex crimes to be problematic (as in the high quality current Netflix show "Unbelievable", which you all might benefit from watching)
482
483 Forget it, Jake—it's the rationalist community
484
485 https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong
486 > The act of defining a word to refer to all humans, except black people, seems kind of suspicious.
487 That's not the only implication on race of the philosophy of categorization—actually, I'm going to bite the bullet here; "Eurasian" is actually fine as a paraphyletic category (and @CovfefeAnon uses it productively)
488
489 And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"),
490
491 when worrying about the future and what I should do about it, I find myself more concerned with whether Eliezer would disapprove rather than the everyone-dying part
492
493 me criticizing dath ilan (after being blocked from his Twitter) is also a nearest-unblocked-strategy
494
495 If there's a generalized remembering-history skill, it should apply to "remembering when pronouns implied sex" and as well as "remembering when neural nets weren't used in the Netflix contest" https://www.lesswrong.com/posts/cCrpbZ4qTCEYXbzje/ngo-and-yudkowsky-on-scientific-reasoning-and-pivotal-acts
496
497 -----
498
499 Why does this matter?
500
501 [Why does this matter? It would be dishonest for me to claim that this is _directly_ relevant to xrisk, because that's not my real bottom line]
502
503 a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
504
505 It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
506
507 > _Perhaps_, replied the cold logic. _If the world were at stake._
508 >
509 > _Perhaps_, echoed the other part of himself, _but that is not what was actually happening._
510 https://www.yudkowsky.net/other/fiction/the-sword-of-good
511
512 https://www.readthesequences.com/
513 > Because it is all, in the end, one thing. I talked about big important distant problems and neglected immediate life, but the laws governing them aren't actually different.
514
515 > the challenge is almost entirely about high integrity communication by small groups
516 https://twitter.com/HiFromMichaelV/status/1486044326618710018
517
518 https://www.glowfic.com/replies/1769064#reply-1769064
519 > "Dath ilani education is for having children grow up correctly.  None of it, that I know, is about how to safely repair children who grew up wrong."
520 It would be nice if children in rationalist Berkeley could grow up correctly
521
522 congrats after Whale and Sawyer chimed in: https://twitter.com/ESYudkowsky/status/1435706946158432258
523
524 https://twitter.com/ESYudkowsky/status/1404700330927923206
525 > That is: there's a story here where not just particular people hounding Zack as a responsive target, but a whole larger group, are engaged in a dark conspiracy that is all about doing damage on issues legible to Zack and important to Zack.  This is merely implausible on priors.
526
527 the "It is sometimes personally prudent to be seen to agree with Stalin" attitude behaves like a conspiracy, even if 
528
529 I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378/
530
531
532 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
533 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
534
535 > Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
536
537 > The people who aren't doing that mostly aren't participating in the LessWrong identity, but while factions like that are hostile to the confused people who behave as though they're part of a community trying to become less wrong, such factions are also parasitic on such people, claiming credit for their intellectual contributions. When such participation is fully extinguished, the group begins to decay, having nothing distinctive to offer, unless it has become too big to fail, in which case it's just another component of one political faction or another.
538
539 https://graymirror.substack.com/p/the-journalist-rationalist-showdown?s=r
540
541 Scott Aaronson on the Times's hit piece of Scott Alexander—
542 https://scottaaronson.blog/?p=5310
543 > The trouble with the NYT piece is not that it makes any false statements, but just that it constantly insinuates nefarious beliefs and motives, via strategic word choices and omission of relevant facts that change the emotional coloration of the facts that it does present.
544
545 contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard, you don't take it lying down
546
547 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
548
549 maybe he should have some sympathy for Stephen J. Gould's intellectual crimes
550
551 Feb. 2016 happy price schedule https://www.facebook.com/yudkowsky/posts/10153956696609228
552
553 one of the new collaborators on _Mad Investor Chaos_ is a _Catholic_
554
555 When my chat with EY at the independence day party degenerated into "I'm sorry for being dumb", he said if Zack Davis was too dumb, we're in trouble
556
557 OK, "paperclips" is a legitimate example of categories being subjective/value-dependent
558
559 http://paulgraham.com/heresy.html
560
561 A "rationalist" community worthy of the name would be able to do the thing Steve Sailer does, while retaining our humanistic ethics https://www.unz.com/isteve/what-is-elon-musks-plan-for-reversing-the-tyranny-of-the-ex-men/
562
563 https://graymirror.substack.com/p/the-twitter-coup
564 > a battle is won if the result of the battle is to make the next battle easier. The same is true of a political confrontation.
565 [...]
566 > I noticed that the streets had been largely cleared of homeless encampments (which have been pushed into the nearby forests). Most people take this as a conservative victory. It is actually a defeat.
567 > It is a victory in the ordinary sense of the term—an action which gets what the actors want. It is a tactical victory—but a strategic defeat. At a party the other day, I spoke to one of the people who orchestrated this “victory,” and explained why I saw it this way.
568 [...]
569 > for a rebel, all true victories are total. He who makes half a revolution digs his own grave
570 in this sense, I keep winning battles, but I've basically conceded the war
571
572 Rubices—
573 > with Zack in 2017 in particular, I don't know if it's still true now, there was also a lot of "women are brilliant and perfect and pure, and it would do damage to something beautiful for a man to pretend to be one"
574 gonna mostlky bite the bullet on this one
575
576
577 https://dilbert.com/strip/2022-04-09
578 > You all remember the thing I predicted correctly 12 years ago, therefore you should heed my word on this completely unrelated topic
579
580 The time E.Y. recommended dark side epistemology as shortform still feels telling—you could say it's circumstantial nitpicking, but I think it's revealing, like the "reducing negativity"
581 https://discord.com/channels/401181628015050773/471045466805633029/934929649421672488
582 https://www.lesswrong.com/posts/fYC3t6QQDvdBBwJdw/plutonic_form-s-shortform?commentId=dghPKBjgiA6pTcCKz
583
584 "Death With Dignity" isn't really an update; he used to refuse to give a probability, and now he says the probability is ~0
585
586 https://www.foxylists.com/etiquette
587 > 6. Do not ask for additional pictures, selfies or services they have not already agreed upon. 
588
589 > One nice thing about intellectuals is that when they turn, they frequently leave behind a detailed, mostly coherent record of what a person turning into a rhinoceros thinks is going on.
590 https://twitter.com/ben_r_hoffman/status/1477733825702936581
591
592 Rationality was supposed to be important!!
593
594 Paul says so—
595 >  My current sense is that cooperation has a better tradeoff than some forms of enhancement (e.g. giving humans bigger brains) and worse than others (e.g. improving the accuracy of people's and institution's beliefs about the world).
596
597 Rob says so, too—
598 > Help ourselves think more clearly. (I imagine this including a lot of trying-to-become-more-rational, developing and following relatively open/honest communication norms, and trying to build better mental models of crucial parts of the world.)
599
600 > their verbal theories contradict their own datapoints
601 https://www.facebook.com/yudkowsky/posts/10159408250519228?comment_id=10159411435619228&reply_comment_id=10159411567794228
602
603 dath ilan has Actual Evolutionary Psychology
604 > They end up wanting 42 major things and 314 minor things (on the current count of what's known and thought to be distinct in the way of adaptation)
605 https://www.glowfic.com/replies/1801140#reply-1801140
606
607 > When somebody stops coordinating with you, stop coordinating with them.  It's not 'punishment' to Defect against somebody who's Defecting against you, in a cooperation-defection dilemma; you're just withdrawing the Cooperation you were trying to coordinate with them
608 https://www.glowfic.com/replies/1801374#reply-1801374
609
610 I joined the "Eliezerfic" server in spite of my enmity, and JoshTriplett is in there (contrary to my gut instinct that Rust peeps hate my rationalist peeps)
611
612 The cowardice is remarkable, coming from someone who otherwise
613
614 jbeshir
615 > I have a writer/author friend, they had a problem a couple or so times with people who get really really into the work and community, then in their mind got disappointed in some way- and that investments converts at a surprisingly high exchange rate directly into investment in making your life worse. It... happens.
616 —this makes a callout post or Twitter thread seem less appealing
617
618
619 [previously, I had felt guilty about being less successfully feminst than Robby https://nothingismere.com/2013/12/26/union-names-objections-and-replies/]
620 [internet pharmacy]
621
622
623 > whereas I could imagine reading almost the same post on sneerclub and turning into a prickle about it
624 response—
625 > me when other trans girls call themselves and me AGP vs when genuine Blanchardians do
626
627 In a discussion on criticism of EA by outsiders, someone spontaneously (not prompted by me) mentioned the difference between when fellow trans women called themselves AGP, vs. actual Blanchardians. This is a conspiracy!! (The ingroup is allowed to notice things, but when other people notice, deny everything. Compare Michael Anton on "celebration parallax."]
628
629 https://www.clearerthinking.org/post/understanding-relationship-conflicts-clashing-trauma
630
631 postyud; Yudkowskyism without Yudkowsky
632
633 if you know Reality is red, blue, or green, and I know Reality is red but am trying to maximize the probability you assign to green, I can truthfully say "it's not blue"
634
635 Gell-Mann amnesia
636
637 EY's commenting guidelines
638
639 > Sneerclub gives him an excuse to just not engage with legitimate criticism
640 https://twitter.com/satisfiesvalues/status/1524475059695505409
641
642 flu virus that cures Borderer culture
643 https://twitter.com/Kenku_Allaryi/status/1524646257976877057
644
645
646 https://www.lesswrong.com/tag/criticisms-of-the-rationalist-movement
647
648 > possible that 2022 is the year where we start Final Descent and by 2024 it's over
649 https://www.lesswrong.com/posts/7MCqRnZzvszsxgtJi/christiano-cotra-and-yudkowsky-on-ai-progress?commentId=iKEuFQg7HZatoebps
650
651 > and yeah, when Joanna came out on Facebook Zack messaged her to have a 3-hour debate about it
652 > I think no matter how pure his pursuit of knowledge this is actually bad behavior and he should not
653
654 Standard excuses—
655 "i just don't think that gender is less of a politeness mind-control regime when it doesn't allow people to switch categories"
656 biosex actually exists
657 also no one cares about that fact of  the matter, unless they want to have sex with someone or are doing a weird ideological thing
658 I think you're the ones doing a weird ideological thing
659
660 brain: wow, eiko has a deep understanding of straight men for a lesbian! she must be so empathetic
661 me: ...
662
663 ... why validated and not offended??
664 Eiko — Today at 8:37 PM
665 ?_?
666 what... would i be... offended by...
667 Carrie Zelda-Michelle Davis — Today at 8:38 PM
668 The "brain: / me:" thing seems like it should be offensive for the same reason that the phrase-I-said-I-wasn't-going-to-say is offensive
669 the language is subtler, but it's gesturing at the same thing
670
671 (explanation: I read this as ozy saying they parsed Eiko as a girl so much that they didn't remember she used to be a straight guy)
672
673 ... I, just, really have trouble emphasizing with this culture where people are allowed to make jokes about the similarities between trans lesbians and straight guys, and as long as you talk in terms of "I thought I was a straight guy", it's all cool, but as soon as someone bites the bullet and says, "Yes, because trans lesbians are straight males, etiologically; you thought correctly", then they're ... marking themselves as not part of the coalition? From my perspective, it just looks like your culture is pro-lying
674
675 like if i look at a person and my brain's intuitive instinctive bucketing function goes "girl" and they tell me "i'm a boy actually" does whether that's mind control depend on what genitals the person has??
676 Carrie Zelda-Michelle Davis — Today at 10:02 PM
677 Yes?
678 Omega ω — Today at 10:02 PM
679 ?????
680
681 ... people just don't see the ideological bubble they live in! People tell me, "frankly you seem to be deeply unhappy about [being gendered male]", because they're relying on their prior of what trans women need. And having been born in 1987, I just don't share that prior! If you actually listen to the thing I'm been yelling for the last six years, I'm much more unhappy about the culture of mind-control than I am about being male, but people put more weight on their prior than my verbal self-report! I guess I can't blame them on the meta level (I also put more weight on priors that people's self-reports a lot of the time), but it's just—so shocking, that people don't see the thing
682
683 I don't actually want to return to the past permanently; I want to first rewind to 2007 or so, and then re-do the trans rights thing but with less 🐛  lying this time, "lying" being my heat-of-the-moment angry word for the thing where the born-in-the-wrong-body story that gets sold to the public is very different from the picture you get when you read what people write about their feelings when the general public isn't looking, and people know it's different, and they go on talking in terms of the standard story anyway, and when you challenge them on none of this stuff being true, they say, "Oh, well, those are just lies to cis people; that doesn't count" (https://thingofthings.wordpress.com/2015/01/27/lies-to-cis-people/) as if lies to cis people weren't still lies
684
685 And, just—I think if an alien or an AI or really any normal person outside of this very specific Berkeley 2016– ideological subculture were to try to objectively describe what's actually happening there in the real physical universe, I don't think they would want to talk about a woman born in the wrong body, coping with her tragic dysphoria; I think the alien or AI would talk about a male primate with some kind of brain malfunction in its sexual targeting system causing it to get confused about a self-other distinction, and I think the normal person would talk about a man with a gross, weird fetish who they don't want sharing a locker room with their daughter.
686
687 And I just, basically think the alien and the AI and the normal person have the right ontology here? The Berkeley 2016– denizen can come up with a lot of replies ("But cis women also enjoy being women", "But I don't care about someone's private thoughts; I only care about whether they'll come vintage dress shopping with me"), but they all just seem fundamentally unserious to me?
688
689 ----
690
691 Habryka's PalmCone memo mentions there being people whose top priority is to influence you—that's totally what I was doing to Scott and Eliezer
692
693 https://www.abc.net.au/news/2014-07-16/melbourne-teenage-mathlete-wins-gold-for-the-second-time-/5602226?nw=0&r=Image
694 https://postchimpblog.wordpress.com/2020/03/05/alexs-guide-to-transitioning/
695
696 The LW community is a bubble/machine that made me who I am (it doesn't infringe on my independence more than school, but it's still shaping force in the way that going to University or Google shapes people)
697
698 https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-dignity-strategy
699 > If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
700
701 the Extropians post _explicitly_ says "may be a common sexual fantasy"
702 > So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after  the Singularity.  I would not be surprised to find that it took three  subjective centuries before anyone had grown far enough to attempt a gender switch.
703
704 ------
705
706 If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
707
708 > "too many people think it's unvirtuous to shut up and listen to me" I wish I had never written about LDT and just told people to vote for reasons they understand when they're older [TODO full direct quote]
709 https://twitter.com/ESYudkowsky/status/1509944888376188929
710
711 Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I calim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
712
713 To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, the Sequences tell of how Yudkowsky once [TODO: linky] wrote to Judea Pearl to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
714
715 [TODO But crucially, "Defer to subject-matter experts" seems like a _different_ moral than "Too many people think it's unvirtuous to shut up and listen Judea Pearl."]
716
717 If Yudkowsky is frustrated that people don't defer to him enough _now_, he should remember the only reason he has _any_ people who defer to him _at all_ is _because_ he used to be such a good explainer who actually argued for things.
718
719 [TODO: if he had never spoken of TDT, why _should_ they trust him about voting?!]
720
721 [TODO That trust is a _finite resource_. Zvi Mowshowitz  claims the condescension is important information, which is why it's such a betrayal when he uses the condesension to score points
722 https://www.lesswrong.com/posts/ax695frGJEzGxFBK4/biology-inspired-agi-timelines-the-trick-that-never-works?commentId=HB3BL3Sa6MxSszqdq ]
723
724 ------
725
726 Lightwavers on Twitter (who Yudkowsky knew from /r/rational) dissed Charles Murray on Twitter
727
728 https://nostalgebraist.tumblr.com/post/686455476984119296/eliezer-yudkowsky-seems-really-depressed-these
729
730 > So now my definitely-not-Kelthorkarni have weird mental inhibitions against actually listening to me, even when I clearly do know much better than they do.  In retrospect I think I was guarding against entirely the wrong failure modes.  The problem is not that they're too conformist, it's that they don't understand how to be defiant without diving heedlessly into the seas of entropy.  It's plausible I should've just gone full Kelthorkarnen
731 https://www.glowfic.com/replies/1614129#reply-1614129
732
733 I was pleading to him in his capacity as rationality leader, not AGI alignment leader; I know I have no business talking about the latter
734
735 (As an aside, it's actually kind of _hilarious_ how far Yudkowsky's "rationalist" movement has succeeded at winning status and mindshare in a Society whose [_de facto_ state religion](https://slatestarcodex.com/2019/07/08/gay-rites-are-civil-rites/) is [founded on eliminating "discrimination."](https://richardhanania.substack.com/p/woke-institutions-is-just-civil-rights) Did—did anyone besides me "get the joke"? I would have expected _Yudkowsky_ to get the joke, but I guess not??)
736
737 [TODO: misrepresentation of the Light: Dath ilan has a concept of "the Light"—the vector in policyspace perpendicular outwards from the Pareto curve, in which everyone's interests coincide.]
738
739 "You're allowed to talk to me," he said at the Independence Day party
740
741 MIRI made a point of prosecuting Tyler Altman rather than participating (even if it was embarrassing to be embezzled from) because of game theory, but it sees folding to social-justice bullies as inevitable
742
743 re Yudkowsky not understanding the "That's So Gender" sense, I suspect this is better modeled as a nearest-unblocked-strategy alignment problem, rather than a capabilities problem ("doesn't comprehend"). Author has a Vision of a Reality; that Reality conflicts with the ideology of the readership, who complain; Author issues a patch that addresses the surface of the complaint without acknowledging the conflict of Visions, because describing the conflict in too much detail would be construed as aggression
744
745 ------
746
747 [TODO:
748 Email to Scott at 0330 a.m.
749 > In the last hour of the world before this is over, as the nanobots start consuming my flesh, I try to distract myself from the pain by reflecting on what single blog post is most responsible for the end of the world. And the answer is obvious: "The Categories Were Made for the Man, Not Man for the Categories." That thing is a fucking Absolute Denial Macro!
750 ]
751
752 ------
753
754 So, because
755
756 [TODO: the rats not getting AGP was excusable, the rats not getting the category boundary thing was extremely disappointing but not a causis belli; Eliezer Yudkowsky not getting the category boundary thing was an emergency]
757
758 -----
759
760 Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
761
762 a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
763
764 It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
765
766 https://www.econlib.org/archives/2016/01/the_invisible_t.html
767
768 ------
769
770 comments to "Wilhelm", January 2019—
771
772 I got concessions on all the important parts (categories should make predictions, trans women differ from cis women in a masc direction),  and these people just don't fucking CARE ... like, if I'm trying to be agreeable, I could agree that trans women resemble women if you restrict your vision to the subspace spanned by the "preferred pronouns" and "self-identified gender identity" dimensions ... but, but, WTF, be serious, guys
773
774 Scott or Eliezer know better and could put an end to this bullshit (or at least put a dent in it), and I begged and I pleaded, and they just don't CARE
775
776 even Ozy knows better
777
778 I said: I probably do put too much rhetorical emphasis on passing; like, I agree that that's not the only criterion that one can use. I like drawing attention to that particular distinction because it at least has the benefit of not requiring people to override their perceptual system they way that self-identity does?
779
780 and Ozy (correctly!) chimed in: "in fact it is the only criterion that doesn't involve people overriding their perceptual system!"
781
782 as if she's objectively pro-gaslighting
783
784 more charitably: people care a lot about this very thin layer of socual constructions (if you mindfuck ppl into believing that AGPs are women, that really does make it easier to transition) and are being instrumentally rational about that, whereas I'm an aspiring epistemic rationalist and want to study the deep structure if which social constructions are feasible, how we can be more reflective about them, &c.
785
786 Ppl with less power than Scott or Eliezer can afford to be more honest with me that they see but don't care enough to pay the cost of fighting
787
788 the rationalist lore here is that status makes you stupid; maybe the NRx twist is that status plus rivals/insecurity makes you stupid
789
790 You _can't_ optimize your group's culture for not-talking-about-atheism without also optimizing against understanding Occam's razor; you _can't_ optimize for not questioning gender self-identity without also optimizing against understanding "A Human's Guide to Words."
791
792 "yeah in public we say 'cis women' but tran to tran we just say 'women,' we‘re not insane lol"
793 no transsexual is like 'from a young age all i ever wanted was to be.. cis'
794 https://twitter.com/theorygurl/status/1062451652836446208
795
796 Keltham and Carissa's attitude towards Pharima mirrors my attitude towards Yudkowsky (I'm grateful for him having created me, but he can't be allowed to get away with this shit)
797 https://www.glowfic.com/replies/1834769#reply-1834769
798
799 sometimes I get a cite, too—
800 https://putanumonit.com/2022/05/02/genders-discrimination/
801 https://axrp.net/episode/2022/05/23/episode-15-natural-abstractions-john-wentworth.html
802
803 People learn a lot from Godel Escher Bach, too, but they don't form an identity around Douglas Hofstadter being the most important person in the world
804
805 and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as possible, not do throw away your deontology too quickly.
806
807 > It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
808
809 like a crazy ex-girlfriend (I have no underlying issues to address; I'm certifiably cute, and adorably obsessed)
810
811 But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
812
813 https://extropians.weidai.com/extropians.3Q97/4361.html
814 > Half the time I regard myself as "an AI wannabee trapped in a male human body"
815
816 Nate's "missing the hard part" post is all strawmen—I'm not looking down on it because it's a blog post and not an "official" arXiv paper; I'm looking down because it's visibly low-effort
817
818 "What do you say to the Republican?" !!!
819
820 subject: "nothing left to lose; or, the end of my rope"
821
822 4 November 2018 email to Marcus—
823 > Concrete anecdote about how my incredibly-filtered Berkeley social circle is nuts: at a small gathering this weekend I counted seven MtTs. (I think seven; I guess it's possible that physically-very-passable Cassandra is actually female, but given the context and her personality, I doubt it.) Plus me (a man wearing a dress and makeup), and three ordinary men, one ordinary woman, and my FtM friend. Looking up the MtTs' birthdays on Facebook was instructive in determining exactly how many years I was born too early. (Lots of 1992-3 births, so about five years.)
824
825 Anna thinks trust and integrity is an important resource
826 https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
827
828 The HEXACO personality model considers "honesty" and "humility" a single factor
829
830 (You might group things together _on the grounds_ of their similarly positive consequences—that's what words like _good_ do—but that's distinct from choosing _the categorization itself_ because of its consequences.)
831
832 —and would be unforgivable if it weren't so _inexplicable_.
833
834 ... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
835
836 At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's 
837
838
839 Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
840
841 [TODO: relevance of multivariate—
842
843 (And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
844
845 https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
846 https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
847
848 ]
849
850 [TODO: sentences about studies showing that HRT doesn't erase male advantage
851 https://twitter.com/FondOfBeetles/status/1368176581965930501
852 ]
853
854 [TODO sentences about Lia Thomas and Cece Tefler]  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's —cite South Park)
855 https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
856 https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
857 https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
858
859 ]
860
861 Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
862
863 Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
864
865
866 > People probably change their mind more often than they explicitly concede arguments, which is fine because intellectual progress is more important than people who were wrong performing submission.
867 > If your interlocutor is making progress arguing against your claim X, just say, "Oh, X is a strawman, no one actually believes X; therefore I'm not wrong and you haven't won" (and then don't argue for X in the future now that you know you can't get away with it).
868 https://twitter.com/zackmdavis/status/1088459797962215429
869
870 My 28 November 2018 text to Michael—
871 > I just sent an email to Eliezer ccing you and Anna; if you think it might help inject sanity in into the world, maybe your endorsement would help insofar as Eliezer Aumman-updates [_sic_] with you?
872 > hope all is well
873 > just a thread reply to Eliezer that says "I trust Zack's rationality and think you should pay attention to what he has to say" (if and only if you actually believe that to be true, obviously)?
874
875
876 (don't know how to summarize the part with Ian—)
877 I remember going downstairs to impulsively confide in a senior engineer, an older bald guy who exuded masculinity, who you could tell by his entire manner and being was not infected by the Berkeley mind-virus, no matter how loyally he voted Democrat—not just about the immediate impetus of this Twitter thread, but this whole _thing_ of the past couple years where my entire social circle just suddenly decided that guys like me could be women by means of saying so. He was sympathetic.
878
879
880 [TODO: paraphrase remaining interaction with Scott, or not worth the space?
881
882 > I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
883
884 helping Norton live in the real world
885
886 Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious 
887 ]
888
889 [TODO: connecting with Aurora 8 December, maybe not important]
890
891 What do think submitting to social pressure looks like, if it's not exactly this thing (carefully choosing your public statements to make sure no one confuses you with the Designated Ideological Bad Guy)?!? The credible threat of being labeled an Ideological Bad Guy is _the mechanism_ the "Good" Guys use to retard potentially-ideologically-inconvenient areas of inquiry.
892
893 Kerry Vaughan on deferral
894 https://twitter.com/KerryLVaughan/status/1552308109535858689
895
896 It's not that females and males are exactly the same except males are 10% stronger on average (in which case, you might just shrug and accept unequal outcomes, the way we shrug and accept it that some athletes have better genes). Different traits have different relevance to different sports: women do better in ultraswimming _because_ that competition is sampling a 
897
898 where body fat is an advantage. 
899
900 It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight".
901
902 For example, the _function_ of sex-segrated bathrooms is to _protect females from males_, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
903
904 all I actually want out of a post-Singularity utopia is the year 2007 except that I personally have shapeshifting powers
905
906 The McGongall turning into a cat parody may actually be worth fitting in—McCongall turning into a cat broke Harry's entire worldview. Similarly, the "pretend to turn into a cat, and everyone just buys it" maneuver broke my religion
907
908  * https://everythingtosaveit.how/case-study-cfar/#attempting-to-erase-the-agency-of-everyone-who-agrees-with-our-position  
909
910 Michael on EA suppressing credible criticism https://twitter.com/HiFromMichaelV/status/1559534045914177538
911
912 "epistemic hero"
913 https://twitter.com/ESYudkowsky/status/1096769579362115584
914
915 zinger from 93—
916 > who present "this empirical claim is inconsistent with the basic tenets of my philosophy" as an argument against the _claim_
917
918 reply to my flipping out at Jeff Ladish
919 https://twitter.com/ESYudkowsky/status/1356493440041684993
920
921 We don't believe in privacy 
922 > Privacy-related social norms are optimized for obscuring behavior that could be punished if widely known [...] an example of a paradoxical norm that is opposed to enforcement of norms-in-general").
923 https://unstableontology.com/2021/04/12/on-commitments-to-anti-normativity/
924
925 Sucking up the the Blue Egregore would make sense if you _knew_ that was the critical resource
926 https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
927
928 I don't think I can use Ben's "Eliza the spambot therapist" analogy because it relies on the "running out the clock" behavior, and I'm Glomarizing 
929
930 This should be common sense, though
931 https://forum.effectivealtruism.org/posts/3szWd8HwWccJb9z5L/the-ea-community-might-be-neglecting-the-value-of
932
933 she thought "I'm trans" was an explanation, but then found a better theory that explains the same data—that's what "rationalism" should be—including "That wasn't entirely true!!!!"
934 https://somenuanceplease.substack.com/p/actually-i-was-just-crazy-the-whole
935
936 sorrow at putting on a bad performance with respect to the discourse norms of the people I'm trying to rescue/convert; I think my hostile shorthand (saying that censorship costs nothing implies some combination "speech isn't useful" and "other people aren't real" is pointing at real patterns, but people who aren't already on my side are not going to be sympathetic)
937
938
939
940
941 https://twitter.com/ESYudkowsky/status/1067300728572600320
942 > You could argue that a wise policy is that we should all be called by terms and pronouns we don't like, now and then, and that to do otherwise is coddling.  You could argue that Twitter shouldn't try to enforce courtesy.  You could accuse, that's not what Twitter is really doing.
943
944 https://twitter.com/ESYudkowsky/status/1067302082481274880
945 > But Twitter is at least not *ontologically confused* if they say that using preferred pronouns is courtesy, and claim that they're enforcing a courtesy standard. Replying "That's a lie! I will never lie!" is confused. It'd be sad if the #IDW died on that hill of all hills.
946
947 > Acts aren't sentences, pronouns aren't lies, bathrooms aren't fundamental physical constants, and if you know what a motte-and-bailey is you're supposed to know that.
948 https://twitter.com/ESYudkowsky/status/1067287459589906432
949
950 > I don't care whose point it is on this planet, the point I'm making would stand in any galaxy:  You are not standing in noble defense of Truth when you ask who gets to use which bathroom.  This is true across all possible worlds, including those with no sociologists in them.
951 https://twitter.com/ESYudkowsky/status/1067187363544059905
952
953 ------
954
955 https://twitter.com/davidxu90/status/1436007025545125896
956
957 I'm curious what might count for you as a crux about this; candidate cruxes I could imagine include: whether some categories facilitate inferences that *do*, on the whole, cause more harm than benefit, and if so, whether it is "rational" to rule that such inferences...
958
959 ...should be avoided when possible, and if so, whether the best way to disallow a large set of potential inferences is the proscribe the use of the categories that facilitate them--and if *not*, whether proscribing the use of a category in *public communication* constitutes...
960
961 ..."proscribing" it more generally, in a way that interferes with one's ability to perform "rational" thinking in the privacy of one's own mind.
962
963 That's four possible (serial) cruxes I listed, one corresponding to each "whether". I could have included a fifth and final crux about whether, even *if* The Thing In Question interfered with rational thinking, that might be worth it; but this I suspect you would...
964
965 ...not concede, and (being a rationalist) it's not something I'm willing to concede myself, so it's not a crux in a meaningful sense between us (or any two self-proclaimed "rationalists").
966
967 My sense is that you have (thus far, in the parts of the public discussion I've had the opportunity to witness) been behaving as though the *one and only crux in play*--that is, the True Source of Disagreement--has been the fifth crux, the thing I refused to include with the...
968
969 ...others of its kind. Your accusations against the caliphate *only make sense* if you believe the dividing line between your behavior and theirs is caused by a disagreement as to whether "rational" thinking is "worth it"; as opposed to, say, what kind of prescriptions...
970
971 ..."rational" thinking entails, and which (if any) of those prescriptions are violated by using a notion of gender (in public, where you do not know in advance who will receive your communications) that does not cause massive psychological damage to some subset of people.
972
973 Perhaps it is your argument that all four of the initial cruxes I listed are false; but even if you believe that, it should be within your set of ponderable hypotheses that people might disagree with you about that, and that they might perceive the disagreement to be...
974
975 ...*about* that, rather than (say) about whether subscribing to the Blue Tribe view of gender makes them a Bad Rationalist, but That's Okay because it's Politically Convenient.
976
977 This is the sense in which I suspect you are coming across as failing to properly Other-model.
978
979 ·
980 Sep 9, 2021
981 Crux: "If you say that Stalin is a dictator, you'll be shot, therefore Stalin is not a dictator" has the same structure as "If you say that trans women are male, they'll take massive psych damage, therefore trans women are not male"; both arguments should get the same response.
982 Zack M. Davis
983 @zackmdavis
984 ·
985 Sep 9, 2021
986 Thoughts on your proposed cruxes: 1 (harmful inferences) is an unworkable AI design: you need correct beliefs first, in order to correctly tell which beliefs are harmful. 4 (non-public concepts) is unworkable for humans: how do you think about things you're not allowed words for?
987
988 https://twitter.com/ESYudkowsky/status/1436025983522381827
989 > Well, Zack hopefully shouldn't see this, but I do happen to endorse everything you just said, for your own personal information.