b6239819d8b606c1272fcc86a62f431990111f6f
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
1 _ "Lenore" psychiatric disaster
2 - Eliezerfic fight conclusion
3 _ Michael Vassar and the Theory of Optimal Gossip
4 _ plan to reach out to Rick 
5 - regrets, wasted time, conclusion
6 _ reaction to Ziz
7 _ State of Steven
8 _ culture off the rails; my warning points to Vaniver
9 _ complicity and friendship
10 _ out of patience email
11 _ the hill he wants to die on
12 _ recap of crimes, cont'd
13 _ lead-in to Sept. 2021 Twitter altercation
14 _ Dolphin War finish
15 _ Michael on creepy men/crazy men
16
17 ------
18
19 With internet available—
20 _ Is http://www.overcomingbias.com/2011/01/be-a-charity-angel.html the best link for after-the-fact prize funding?
21 _ P(doom)
22 _ Michael on OB in 'aught-eight on smart kids internalizing rules meant for the norm of reaction of a dumber population
23 _ Tweet from Dreger
24 _ when were Meeker Four out on bail? how long would they otherwise be held?
25 _ Slate Star "view from halfway" Holocaust guard comparison
26 _ link to shock therapy
27 _ "Gypsy Bard" link
28 _ outpatient psychiatry Kaiser notes
29 _ "PDD NOS"
30 _ etymology of "Arcadia"
31 _ double-check EnyeWord in archive.is?
32 _ Eliezerfic fight: where did the super-AIDS example fit in cronologically?
33 _ Keltham/Peranza exam answer should link specific tags
34 _ IQ 143 cite
35 _ double-check "the mood I thought dath ilan was missing" link target
36 _ double-check "the power that could not be removed" quote
37 _ click through to the case study in "Self-Consciousness"
38 _ click-to-reveal spoiler block image
39 _ more Discord italics-correction
40 _ "around plot relevant sentences" ... only revealing, which, specifically?
41 _ relevant screenshots for Eliezerfic play-by-play
42 _ lc on elves and Sparashki
43 _ Michael Bailey's new AGP in women study
44 _ footnote "said that he wishes he'd never published"
45 _ replace "Oh man oh jeez" Rick & Morty link
46 _ Nevada bona fides
47 _ Parfit's Hitchhiker
48 _ double-check correctness of Keltham-on-paternalism link
49 _ Arbital TDT explanation
50 _ find Sequences cite "if you don't know how your AI works, that's bad"
51 _ cover reply to my initial conspiracy complaint about dath ilan?
52 _ "not hard to find": link to more /r/itsafetish-like anecdotes
53 _ compile ancillary KP doctor's notes page and linky
54 _ acknowledging Wei Dai and Vladimir Nesov's decision theory contributions
55 _ go back and read all the masochism tags: https://www.glowfic.com/replies/search?board_id=&author_id=366&template_id=&character_id=&subj_content=masochism&sort=created_old&condensed=on&commit=Search
56 _ stats of SIAI vs. SingInst hits (for ^siai footnote)
57 _ quote other Eliezer Yudkowsky facts
58 _ footnote about Scott writing six times faster than me
59 _ include Eric Weinstein in archive.is spree
60 _ link to Kay Brown's summary of the "Social Desirability Response Set" paper, and footnote paper link and my brief methodology explanation
61 _ something to support Metz being a pro for decades
62 _ "not taking into account considerations" → rephrase to quote "God's dictionary"
63 _ Aaron Terrell and Corina Cohn
64 _ more examples of Yudkowsky's arrogance (MIRI dialogues, knew how to say anything at all)
65 _ my history of sniping in Yudkowsky's mentions
66 _ my comment about having changed my mind about "A Fable of Science and Politics"
67 _ more Yudkowsky Facebook comment screenshots
68 _ that neuroscience paper backing the two-types
69 _ examples of snarky comments about "the rationalists" 
70 _ 13th century word meanings
71 _ weirdly hostile comments on "... Boundaries?"
72 _ Anna's claim that Scott was a target specifically because he was good, my counterclaim that payment can't be impunity
73 _ Yudkowsky's LW moderation policy
74
75 far editing tier—
76 _ Caliphate / craft and the community
77 _ colony ship happiness lie in https://www.lesswrong.com/posts/AWaJvBMb9HGBwtNqd/qualitative-strategies-of-friendliness
78 _ re being fair to abusers: thinking about what behavior pattern you would like to see, generally, by people in your situation, instead of privileging the perspective and feelings of people who've made themselves vulnerable to you by transgressing against you
79 _ body odors comment
80 _ worry about hyperbole/jumps-to-evaluation; it destroys credibility
81 _ "Density in Thingspace" comment
82 _ Christmas with Scott: mention the destruction of "voluntary"?
83 _ Christmas with Scott: mention the grid of points?
84 _ dath ilan as a whining-based community
85 _ footnote to explain that when I'm summarizing a long Discord conversation to taste, I might move things around into "logical" time rather than "real time"; e.g. Yudkowsky's "powerfully relevant" and "but Superman" comments were actually one right after the other; and, e.g., I'm filling in more details that didn't make it into the chat, like innate kung fu; and that the fact that I can "enhance" the summaries of my part, but the people I'm talking to don't have the same privilege, should be taken into account—actually, this covers a lot of the memoir; maybe I should mention this earlier (and again in a footnote??)
86 _ 93's alternate theory of eliezera taste for deception
87 _ Ruby fight: "forces of blandness want me gone ... stand my ground" remark
88 _ "Even our pollution is beneficial" [pt. 6]
89 _ Scott Aaronson on the blockchain of science [pt. 6]
90 _ "EA" brand ate the "rationalism" brand—even visible in MIRI dialogues
91 _ Anna's heel–face turn
92 _ not talking about pivotal acts, downstream of not believing in Speech?
93 _ Alyssa lying about me [pt. 4]
94 _ Brian Skyrms??
95 _ mr-hire and pre-emptive steelmanning (before meeting LW mods)
96 _ meeting with Ray
97 _ is the Glowfic author "Lintamande ... they" or "Lintamande ... she"?
98 _ explain plot of _Planecrash_ better
99 _ CfAR's AI pivot??
100 _ example of "steelman before criticize" norm
101 _ explain mods protect-feelings
102 _ explain MOPs better
103 _ Motta-Mena and Puts probability-of-gynephilia-by-intersex-condition graph, re trans kids on the margin
104 _ probably give Amelia as pseudonym?
105 _ squeeze "Darkness and Light" into the Eliezerfic account
106 _ clarify Sarah dropping out of the coordination group
107 _ somewhere in dath ilan discussion: putting a wrapper on graphic porn is fine, de-listing Wikipedia articles is not
108 _ maybe current-year LW would be better if more marginal cases _had_ bounced off because of e.g. sexism
109 _ re "EY is a fraud": it's a _conditional_ that he can modus tollens if he wants
110 _ NRx point about HBD being more than IQ, ties in with how I think the focus on IQ is distasteful, but I have political incentives to bring it up
111 _ "arguing for a duty to self-censorship"—contrast to my "closing thoughts" email
112 _ explain Amelia Davis Ford ref
113 _ New York NRx conversation, flesh out "mostly guys"; I was acknowleding diversity as unrealistic and hypocritical; he outright doesn't believe in "people" as opposed to men/women
114 _ fold in observations from "trapped priors—at home"
115 _ earlier reference the children's books?! "And the Methods of Pre-Rationality"
116 _ Yudkowsky's "Is someone trolling?" comment as counterevidence to narcissim
117 _ "typographical attack surface" isn't clear
118 _ voting reputation section is weak, needs revision
119 _ incoprorate "downvote Eliezer in their head" remark from Jessica's memoir 
120 _ explain the "if the world were at stake" Sword of Good reference better
121 _ D. also acknowledged AGP
122 _ "no one else would have spoken" should have been a call-to-action to read more widely
123 _ mention Will MacAskill's gimped "longtermism" somehow
124 _ re-read a DALL-E explanation and decide if I think it's less scary now
125 _ Scott Aaronson on the blockchain of science https://scottaaronson.blog/?p=6821
126 _ footnote previous race-IQ baiting on "why do I keep bringing this up"
127 _ Bostrom email scandal, Oli's comment about him staying off of the pause letter
128 _ "I Wish You Well" as breakup song
129 _ acknowledge that 
130 _ pull "agreeing with Stalin" quote earlier in ms. to argue that Yudkowsky apparently doesn't disagree with my "deliberately ambiguous"
131 _ is the title of pt. 4 OK? (agreeing with Stalin _is_ correct when Stalin is right; the problem is that Stalin isn't right about gender)
132 _ illustrate "student dysphoria is worse" with anecdote about leaving physics class and going to the counselor to see if I could graduate earlier?
133 _ hate for secrecy probably correlates with autogynephilia blogging
134 _ mention Said rigor check somewhere, nervousness about Michael's gang being a mini-egregore
135 _ at some point, speculate on causes of brain damage
136 _ the "reducing negativity" post does obliquely hint at the regression point being general ("Let's say that the true level of negativity"), does that seriously undermine my thesis, or does it only merit a footnote?
137 _ footnote on "no one would even consider"
138 _ post-Christmas conversation should do a better job of capturing the war, that Jessica thinks Scott is Bad for being a psychiatrist
139 _ conversation with Scott should include the point where I'm trying to do AI theory
140 _ consistent-ize reference to Somni getting it in pt. 4, with mention of protest in pt. 3
141 _ Anna "everyone knows" we don't have free speech 2 Mar 2019, self-centeredness about which global goods matter
142 _ make sure to quote Yudkowsky's LW moderation policy before calling back to it
143 _ tie off Anna's plot arc?
144 _ explain earlier that my practice of "throw money at things" also applied to my friendship with Anna
145 _ mention my robot cult history (I've been here since the late 'aughts)
146 _ quote one more "Hill of Meaning" Tweet emphasizing fact/policy distinction
147 _ explains that the "cut my dick off rhetoric" came from conversation with Ben
148 _ being friends with Anna desipite being political enemies (~May 2019)
149 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
150 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
151 _ when I'm too close to verbatim-quoting someone's email, actually use a verbatim quote and put it in quotes
152 _ I'm sure Eliezer Yudkowsky could think of some relevant differences
153 _ 2019 Discord discourse with Alicorner
154 _ edit discussion of "anti-trans" side given that I later emphasize that "sides" shouldn't be a thing
155 _ maybe quote Michael's Nov 2018 texts?
156 _ Said on Yudkowsky's retreat to Facebook being bad for him
157 _ erasing agency of Michael's friends, construed as a pawn
158 _ when to use first _vs. last names
159 _ explain Rob
160 _ edit the child transition section in a way that Kay Brown would be OK with, have a few sentences about Clever Hans before the wrap-up
161 _ ask Jessica where Scott clarified his position on antipsychotics?
162 _ why doesn't he apply his anti-optimism to his gender statements?!
163 _ notice the symmetry where _both_ E and I want to partition the discussion with "That's a policy question" ... I just think it's unfair to partition after "words don't have intrinsic defn's" rather than 37 ways
164 _ contract-drafting em, SSC blogroll is most of my traffic
165 _ "Common Interest of Many Causes" and "Kolmogorov Complicity" offer directly contradictory strategies
166 _ Vassar's about-face on gender
167 _ better introduction of S.K.
168 _ risk of people bouncing off progressivism
169 _ an AGP teen boy could at least consent to transition, and make plans based on knowing what the thing is (you'd actually want to go through a little bit of male puberty)
170 _ better explanation of Scott's jailbreaking accusation against Vassar
171 _ archive.is karma history for Jessica's post
172 _ "tossed in a bucket" is ignoring advice from Sept. 2022 clarification to be clear about the type distinction
173 _ figure out full timeline of which of my Less Wrong posts to mention
174 _ update "80,000 words" refs with the near-final wordcount
175 _ the "outright bad faith" clause in "Your Price for Joining"
176 _ "Riley" pointing out that it worked better because it was Oli
177 _ I should respond to Ziz's charges that my criticism of concept-policing was a form of concept-policing
178 _ mention "special simulator attention" in cxn with https://en.wikipedia.org/wiki/Ideas_of_reference_and_delusions_of_reference
179 _ born five years too early
180 _ you didn't do a good job explaining to me why someone would think that being bullied into selective silence doesn't constitute a conflict strategy
181 _ "counterfactual boyfriend"/It's California in the year 2016??
182 _ mention Michael's influence and South Park recs in late 2016?
183 _ footnote to explain why I always include the year with the month even though it could be inferred from context
184 _ update "karma at press time"
185 _ better explain "lie inflation" ambiguity
186 _ Facing Reality
187 _ backlink condemning Emperor Norton Conspiracy
188 _ backlink AGP in women post (time permitting) in pt. 2 "don't think it's the same thing"
189 _ backlink "I've decided to drop the pseudonym" to pen name drop post
190 _ backlink (/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/)
191 _ backlink "I again refer to" Happy Price
192 _ backlink "(again) whether he accepted the Cheerful Price"
193 _ backlink "alter the beacon"
194 _ backlink only seen an escort once before (#confided-to-)
195 _ backlink Yudkowsky's implicit political concession
196 _ backlink "again grateful" for doctor's notes
197
198 pt. 1½ posterity tier (probably not getting published)—
199 _ "People": say something about the awkward racial/political dynamics of three of my four anecdotes being about black people? Salient because rare? Salient because of my NRx-pilling?
200 _ Re: on legitimacy and the entrepreneur; or, continuing the attempt to spread my sociopathic awakening onto Scott [pt. 2 somewhere]
201 _ include Wilhelm "Gender Czar" conversation? [pt. 2]
202 _ emailing Blanchard/Bailey/Hsu/Lawrence [pt. 2]
203
204
205
206 terms to explain on first mention—
207 _ inpatient/outpatient
208 _ NRx
209 _ TERF?
210 _ Civilization (context of dath ilan)
211 _ Valinor (probably don't name it, actually)
212 _ "Caliphate"
213 _ "rationalist"
214 _ Center for Applied Rationality
215 _ MIRI
216 _ "egregore"
217 _ eliezera
218
219
220
221
222 people to consult before publishing, for feedback or right of objection—
223 _ Iceman
224 _ Scott
225 _ hostile prereader (April—if not, J. Beshir, Swimmer, someone else from Alicorner #drama)
226 _ Kelsey
227 _ NRx Twitter bro
228 _ maybe SK (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
229 _ Megan (that poem could easily be about some other entomologist named Megan) ... I'm probably going to cut that §, though
230 _ David Xu? (Is it OK to name him in his LW account?)
231 _ afford various medical procedures
232 _ Buck? (get the story about Michael being escorted from events)
233 _ A/a alumna??
234 _ Ray
235 _ Ruby
236 _ Kay Brown?? (assuming I include the delusional emails to her)
237
238 marketing—
239 _ Twitter
240 _ Facebook
241 _ Less Wrong
242 _ should I buy Twitter ads to increase reach??
243 _ TheMotte.org
244
245 things to bring up in consultation emails—
246 _ dropping "and Scott" in Jessica's description of attacking narcissim
247 _ I think it's OK to copy my friends' language from emails; plagiarism instincts
248
249 Jack Clark's language model editor prompt: "Read this essay and give constructive and critical feedback, paying particular attention to logical inconsistencies or clunky phrasing:"
250
251 -------
252
253 Friend of the blog Ninety-Three has been nagging me about my pathetic pacing—looking at the diffs of my wordcount spreadsheet, I have four thousand-word days in January, two in February, and two in March (which is half-over). He ... has a point. With no dayjob and no responsibilities, four-figure wordcount days should be normal, something that happens four times a week, not four times a month.
254
255 -------
256
257 It might actually make sense for this to get split into eight parts??—I'm going to finish the five-part draft first before doing any more splitting. But—
258
259 Here's where we stand now—
260
261 24K Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer
262 23K A Hill of Validity in Defense of Meaning
263 21K If Clarity Seems Like Death to Them
264 16K Agreeing With Stalin in Ways That Exhibit Generally Rationalist Principles
265 31K Standing Under the Same Sky
266 -----
267 115K
268
269 What if that became something more like—
270 19K Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer
271 10K My Recent Madness (working title)
272 23K A Hill of Validity in Defense of Meaning
273 30K If Clarity Seems Like Death to Them
274 16K Agreeing With Stalin in Ways That Exhibit Generally Rationalist Principles
275 18K Dignity (working title)
276 20K Standing Under the Same Sky
277  3K Epilogue (working title)
278 -----
279 139K
280
281 If I did this, I would need three more good (non-working) titles and epigraph quotes. For epigraphs, I'm thinking—
282 My Recent Madness—Zoolander "crazy pills" quote
283 Dignity—it has all been said before, but you must say it again
284 Epilogue—the truth is great and shall prevail
285
286 ... I don't think I want to go to eight parts, though—that's way too self-indulgent! (I think I can go to six, because the dath ilan discussion actually is long and separable; I probably don't need a separate epilogue-post.) If one of my existing parts runs over 30K words, that's strong evidence that it can be cut.
287
288 30K Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer
289 23K A Hill of Validity in Defense of Meaning
290 30K If Clarity Seems Like Death to Them
291 16K Agreeing With Stalin in Ways That Exhibit Generally Rationalist Principles
292 20K Dignity (working title)
293 20K Standing Under the Same Sky
294 ---
295 139K
296
297 —which implies that I'm 25 double-digit writing days away, such that finishing a gapless ms. in April is at least thinkable ... but only if I stop daydreaming and get to work.
298
299 17K Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer
300 13K People, Evolved Social-Control Mechanisms, and Rocks
301 23K A Hill of Validity in Defense of Meaning
302 30K If Clarity Seems Like Death to Them
303 16K Agreeing With Stalin in Ways That Exhibit Generally Rationalist Principles
304 20K Zevi's Choice
305 20K Standing Under the Same Sky
306 ---
307 139K
308
309
310 -------
311
312 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
313
314
315 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
316 When the topic at hand is how to define "lying", Alexander 
317 Scott has written exhaustively about the dangers of strategic equivocation ("Worst Argument", "Brick in the Motte"); insofar as I can get a _coherent_ posiiton out of the conjunction of "... for the Categories" and Scott's other work, it's that he must think strategic equivocation is OK if it's for being nice to people
318 https://slatestarcodex.com/2019/07/16/against-lie-inflation/
319 ]
320
321 I ended up spending three years of my life re-explaining the relevant philosophy-of-language issues in exhaustive, _exhaustive_ detail.
322
323 At first I did this in the object-level context of gender on this blog, in ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), and the ["Reply on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/). And that would have been the end of the philosophy-of-language track specifically ...
324
325 Later, after [Eliezer Yudkowsky joined in the mind games on Twitter in November 2018](https://twitter.com/ESYudkowsky/status/1067183500216811521) [(archived)](https://archive.is/ChqYX), I _flipped the fuck out_, and ended up doing more [stictly abstract philosophy-of-language work](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [on](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests) [the](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception) [robot](https://www.lesswrong.com/posts/4hLcbXaqudM9wSeor/philosophy-in-the-darkest-timeline-basics-of-the-evolution)-[cult](https://www.lesswrong.com/posts/YptSN8riyXJjJ8Qp8/maybe-lying-can-t-exist) [blog](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception).
326
327 _for all_ nouns N, you can't define _N_ any way you want, because _useful_ definitions need to "carve reality at the joints."
328
329 It [_follows logically_](https://www.lesswrong.com/posts/WQFioaudEH8R7fyhm/local-validity-as-a-key-to-sanity-and-civilization) that, in particular, if _N_ := "woman", you can't define the word _woman_ any way you want. Maybe trans women _are_ women! But if so—that is, if you want people to agree to that word usage—you need to be able to _argue_ for why that usage makes sense on the empirical merits; you can't just _define_ it to be true. And this is a _general_ principle of how language works, not something I made up on the spot in order to attack trans people.
330
331 In 2008, this very general philosophy of language lesson was _not politically controversial_. If, in 2018–present, it _is_ politically controversial (specifically because of the fear that someone will try to apply it with _N_ := "woman"), that's a _problem_ for our whole systematically-correct-reasoning project! What counts as good philosophy—or even good philosophy _pedagogy_—shouldn't depend on the current year!
332
333 There is a _sense in which_ one might say that you "can" define a word any way you want. That is: words don't have intrinsic ontologically-basic meanings. We can imagine an alternative world where people spoke a language that was _like_ the English of our world, except that they use the word "tree" to refer to members of the empirical entity-cluster that we call "dogs" and _vice versa_, and it's hard to think of a meaningful sense in which one convention is "right" and the other is "wrong".
334
335 But there's also an important _sense in which_ we want to say that you "can't" define a word any way you want. That is: some ways of using words work better for transmitting information from one place to another. It would be harder to explain your observations from a trip to the local park in a language that used the word "tree" to refer to members of _either_ of the empirical entity-clusters that the English of our world calls "dogs" and "trees", because grouping together things that aren't relevantly similar like that makes it harder to describe differences between the wagging-animal-trees and the leafy-plant-trees.
336
337 If you want to teach people about the philosophy of language, you should want to convey _both_ of these lessons, against naïve essentialism, _and_ against naïve anti-essentialism. If the people who are widely respected and trusted [(almost worshipped)](https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts) as the leaders of the systematically-correct-reasoning community, [_selectively_](https://www.lesswrong.com/posts/AdYdLP2sRqPMoe8fb/knowing-about-biases-can-hurt-people) teach _only_ the words-don't-have-intrinsic-ontologically-basic-meanings part when the topic at hand happens to be trans issues (because talking about the carve-reality-at-the-joints part would be [politically suicidal](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting)), then people who trust the leaders are likely to get the wrong idea about how the philosophy of language works—even if [the selective argumentation isn't _conscious_ or deliberative](https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie) and [even if every individual sentence they say permits a true interpretation](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly).
338
339 (As it is written of the fourth virtue of evenness, ["If you are selective about which arguments you inspect for flaws, or how hard you inspect for flaws, then every flaw you learn how to detect makes you that much stupider."](https://www.yudkowsky.net/rational/virtues))
340
341 _Was_ it a "political" act for me to write about the cognitive function of categorization on the robot-cult blog with non-gender examples, when gender was secretly ("secretly") my _motivating_ example? In some sense, yes, but the thing you have to realize is—
342
343 _Everyone else shot first_. The timestamps back me up here: my ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (February 2018) was a _response to_ Alexander's ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (November 2014). My philosophy-of-language work on the robot-cult blog (April 2019–January 2021) was (stealthily) _in response to_ Yudkowsky's November 2018 Twitter thread. When I started trying to talk about autogynephilia with all my robot cult friends in 2016, I _did not expect_ to get dragged into a multi-year philosophy-of-language crusade! That was just _one branch_ of the argument-tree that, once begun, I thought should be easy to _definitively settle in public_ (within our robot cult, whatever the _general_ public thinks).
344
345 I guess by now the branch is as close to settled as it's going to get? Alexander ended up [adding an edit note to the end of "... Not Man to the Categories" in December 2019](https://archive.is/1a4zV#selection-805.0-817.1), and Yudkowsky would go on to clarify his position on the philosophy of language in Facebook posts of [September 2020](https://www.facebook.com/yudkowsky/posts/10158853851009228) and [February 2021](https://www.facebook.com/yudkowsky/posts/10159421750419228). So, that's nice.
346
347 [TODO: although I think even with the note, in practice, people are going to keep citing "... Not Man for the Categories" in a way that doesn't understand how the note undermines the main point]
348
349 But I will confess to being quite disappointed that the public argument-tree evaluation didn't get much further, much faster? The thing you have understand about this whole debate is—
350
351 _I need the correct answer in order to decide whether or not to cut my dick off_. As I've said, I _currently_ believe that cutting my dick off would be a _bad_ idea. But that's a cost–benefit judgement call based on many _contingent, empirical_ beliefs about the world. I'm obviously in the general _reference class_ of males who are getting their dicks cut off these days, and a lot of them seem to be pretty happy about it! I would be much more likely to go through with transitioning if I believed different things about the world—if I thought my beautiful pure sacred self-identity thing were a brain-intersex condition, or if I still believed in my teenage psychological-sex-differences denialism (such that there would be _axiomatically_ no worries about fitting with "other" women after transitioning), or if I were more optimistic about the degree to which HRT and surgeries approximate an actual sex change.
352
353 In that November 2018 Twitter thread, [Yudkowsky wrote](https://archive.is/y5V9i):
354
355 > _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
356
357 This seems to suggest that gender pronouns in the English language as currently spoken don't have effective truth conditions. I think this is false _as a matter of cognitive science_. If someone told you, "Hey, you should come meet my friend at the mall, she is really cool and I think you'll like her," and then the friend turned out to look like me (as I am now), _you would be surprised_. (Even if people in Berkeley would socially punish you for _admitting_ that you were surprised.) The "she ... her" pronouns would prompt your brain to _predict_ that the friend would appear to be female, and that prediction would be _falsified_ by someone who looked like me (as I am now). Pretending that the social-norms dispute is about chromosomes was a _bullshit_ [weakmanning](https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/) move on the part of Yudkowsky, [who had once written that](https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence) "[t]o argue against an idea honestly, you should argue against the best arguments of the strongest advocates[;] [a]rguing against weaker advocates proves _nothing_, because even the strongest idea will attract weak advocates." Thanks to the skills I learned from Yudkowsky's _earlier_ writing, I wasn't dumb enough to fall for it, but we can imagine someone otherwise similar to me who was, who might have thereby been misled into making worse life decisions.
358
359 [TODO: ↑ soften tone, be more precise, including about "dumb enough to fall for it"]
360
361 If this "rationality" stuff is useful for _anything at all_, you would _expect_ it to be useful for _practical life decisions_ like _whether or not I should cut my dick off_. 
362
363 In order to get the _right answer_ to that policy question (whatever the right answer turns out to be), you need to _at minimum_ be able to get the _right answer_ on related fact-questions like "Is late-onset gender dysphoria in males an intersex condition?" (answer: no) and related philosophy-questions like "Can we arbitrarily redefine words such as 'woman' without adverse effects on our cognition?" (answer: no).
364
365 At the cost of _wasting three years of my life_, we _did_ manage to get the philosophy question mostly right! Again, that's nice. But compared to the [Sequences-era dreams of changing the world](https://www.lesswrong.com/posts/YdcF6WbBmJhaaDqoD/the-craft-and-the-community), it's too little, too slow, too late. If our public discourse is going to be this aggressively optimized for _tricking me into cutting my dick off_ (independently of the empirical cost–benefit trade-off determining whether or not I should cut my dick off), that kills the whole project for me. I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here?
366
367 Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
368
369 But the _reason_ it seemed _at all_ remotely plausible that our little robot cult could be pivotal in creating Utopia forever was _not_ "[Because we're us](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/), the world-saving good guys", but rather _because_ we were going to discover and refine the methods of _systematically correct reasoning_.
370
371 If you're doing systematically correct reasoning, you should be able to get the right answer even when the question _doesn't matter_. Obviously, the safety of the world does not _directly_ depend on being able to think clearly about trans issues. Similarly, the safety of a coal mine for humans does not _directly_ depend on [whether it's safe for canaries](https://en.wiktionary.org/wiki/canary_in_a_coal_mine): the dead canaries are just _evidence about_ properties of the mine relevant to human health. (The causal graph is the fork "canary-death ← mine-gas → human-danger" rather than the direct link "canary-death → human-danger".)
372
373 If the people _marketing themselves_ as the good guys who are going to save the world using systematically correct reasoning are _not actually interested in doing systematically correct reasoning_ (because systematically correct reasoning leads to two or three conclusions that are politically "impossible" to state clearly in public, and no one has the guts to [_not_ shut up and thereby do the politically impossible](https://www.lesswrong.com/posts/nCvvhFBaayaXyuBiD/shut-up-and-do-the-impossible)), that's arguably _worse_ than the situation where "the community" _qua_ community doesn't exist at all. 
374
375 In ["The Ideology Is Not the Movement"](https://slatestarcodex.com/2016/04/04/the-ideology-is-not-the-movement/) (April 2016), Alexander describes how the content of subcultures typically departs from the ideological "rallying flag" that they formed around. [Sunni and Shia Islam](https://en.wikipedia.org/wiki/Shia%E2%80%93Sunni_relations) originally, ostensibly diverged on the question of who should rightfully succeed Muhammad as caliph, but modern-day Sunni and Shia who hate each other's guts aren't actually re-litigating a succession dispute from the 7th century C.E. Rather, pre-existing divergent social-group tendencies crystalized into distinct tribes by latching on to the succession dispute as a [simple membership test](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests).
376
377 Alexander jokingly identifies the identifying feature of our robot cult as being the belief that "Eliezer Yudkowsky is the rightful caliph": the Sequences were a rallying flag that brought together a lot of like-minded people to form a subculture with its own ethos and norms—among which Alexander includes "don't misgender trans people"—but the subculture emerged as its own entity that isn't necessarily _about_ anything outside itself.
378
379 No one seemed to notice at the time, but this characterization of our movement [is actually a _declaration of failure_](https://sinceriously.fyi/cached-answers/#comment-794). There's a word, "rationalist", that I've been trying to avoid in this post, because it's the subject of so much strategic equivocation, where the motte is "anyone who studies the ideal of systematically correct reasoning, general methods of thought that result in true beliefs and successful plans", and the bailey is "members of our social scene centered around Eliezer Yudkowsky and Scott Alexander". (Since I don't think we deserve the "rationalist" brand name, I had to choose something else to refer to [the social scene](https://srconstantin.github.io/2017/08/08/the-craft-is-not-the-community.html). Hence, "robot cult.")
380
381 What I would have _hoped_ for from a systematically correct reasoning community worthy of the brand name is one goddamned place in the whole goddamned world where _good arguments_ would propagate through the population no matter where they arose, "guided by the beauty of our weapons" ([following Scott Alexander](https://slatestarcodex.com/2017/03/24/guided-by-the-beauty-of-our-weapons/) [following Leonard Cohen](https://genius.com/1576578)).
382
383 [missing mood]
384
385 Instead, I think what actually happens is that people like Yudkowsky and Alexander rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and conformity with the local environment)—with the result that if Yudkowsky and Alexander _aren't interested in getting the right answer_ (in public)—because getting the right answer in public would be politically suicidal—then there's no way for anyone who didn't [win the talent lottery](https://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) to fix the public understanding by making better arguments.
386
387 It makes sense for public figures to not want to commit political suicide! Even so, it's a _problem_ if public figures whose brand is premised on the ideal of _systematically correct reasoning_, end up drawing attention and resources into a subculture that's optimized for tricking men into cutting their dick off on false pretenses. (Although note that Alexander has [specifically disclaimed aspirations or pretentions to being a "rationalist" authority figure](https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/); that fate befell him without his consent because he's just too good and prolific of a writer compared to everyone else.)
388
389 I'm not optimistic about the problem being fixable, either. Our robot cult _already_ gets a lot of shit from progressive-minded people for being "right-wing"—not because we are in any _useful_, non-gerrymandered sense, but because [attempts to achieve the map that reflects the territory are going to run afoul of ideological taboos for almost any ideology](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting).
390
391
392 ----
393
394
395 (which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/):
396
397 Becuase of the conflict, and because all the prominent high-status people are running a Kolmogorov Option strategy, and because we happen to have to a _wildly_ disproportionate number of _people like me_ around, I think being "pro-trans" ended up being part of the community's "shield" against external political pressure, of the sort that perked up after [the February 2021 _New York Times_ hit piece about Alexander's blog](https://archive.is/0Ghdl). (The _magnitude_ of heat brought on by the recent _Times_ piece and its aftermath was new, but the underlying dynamics had been present for years.)
398
399
400 Given these political realities, you'd think that I _should_ be sympathetic to the Kolmogorov Option argument, which makes a lot of sense. _Of course_ all the high-status people with a public-facing mission (like building a movement to prevent the coming robot apocalypse) are going to be motivatedly dumb about trans stuff in public: look at all the damage [the _other_ Harry Potter author did to her legacy](https://en.wikipedia.org/wiki/Politics_of_J._K._Rowling#Transgender_people).
401
402 And, historically, it would have been harder for the robot cult to recruit _me_ (or those like me) back in the 'aughts, if they had been less politically correct. Recall that I was already somewhat turned off, then, by what I thought of as _sexism_; I stayed because the philosophy-of-science blogging was _way too good_. But what that means on the margin is that someone otherwise like me except more orthodox or less philosophical, _would_ have bounced. If [Cthulhu has swum left](https://www.unqualified-reservations.org/2009/01/gentle-introduction-to-unqualified/) over the intervening thirteen years, then maintaining the same map-revealing/not-alienating-orthodox-recruits tradeoff _relative_ to the general population, necessitates relinquishing parts of the shared map that have fallen of general favor.
403
404 Ultimately, if the people with influence over the trajectory of the systematically correct reasoning "community" aren't interested in getting the right answers in public, then I think we need to give up on the idea of there _being_ a "community", which, you know, might have been a dumb idea to begin with. No one owns _reasoning itself_. Yudkowsky had written in March 2009 that rationality is the ["common interest of many causes"](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes): that proponents of causes-that-benefit-from-better-reasoning like atheism or marijuana legalization or existential-risk-reduction might perceive a shared interest in cooperating to [raise the sanity waterline](https://www.lesswrong.com/posts/XqmjdBKa4ZaXJtNmf/raising-the-sanity-waterline). But to do that, they need to not try to capture all the value they create: some of the resources you invest in teaching rationality are going to flow to someone else's cause, and you need to be okay with that.
405
406 But Alexander's ["Kolmogorov Complicity"](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/) (October 2017) seems to suggest a starkly different moral, that "rationalist"-favored causes might not _want_ to associate with others that have worse optics. Atheists and marijuana legalization proponents and existential-risk-reducers probably don't want any of the value they create to flow to neoreactionaries and race realists and autogynephilia truthers, if video of the flow will be used to drag their own names through the mud.
407
408 [_My_ Something to Protect](/2019/Jul/the-source-of-our-power/) requires me to take the [Leeroy Jenkins](https://en.wikipedia.org/wiki/Leeroy_Jenkins) Option. (As typified by Justin Murphy: ["Say whatever you believe to be true, in uncalculating fashion, in whatever language you really think and speak with, to everyone who will listen."](https://otherlife.co/respectability-is-not-worth-it-reply-to-slatestarcodex/)) I'm eager to cooperate with people facing different constraints who are stuck with a Kolmogorov Option strategy as long as they don't _fuck with me_. But I construe encouragement of the conflation of "rationality" as a "community" and the _subject matter_ of systematically correct reasoning, as a form of fucking with me: it's a _problem_ if all our beautiful propaganda about the methods of seeking Truth, doubles as propaganda for joining a robot cult whose culture is heavily optimized for tricking men like me into cutting their dicks off.
409
410 Someone asked me: "If we randomized half the people at [OpenAI](https://openai.com/) to use trans pronouns one way, and the other half to use it the other way, do you think they would end up with significantly different productivity?"
411
412 But the thing I'm objecting to is a lot more fundamental than the specific choice of pronoun convention, which obviously isn't going to be uniquely determined. Turkish doesn't have gender pronouns, and that's fine. Naval ships traditionally take feminine pronouns in English, and it doesn't confuse anyone into thinking boats have a womb. [Many other languages are much more gendered than English](https://en.wikipedia.org/wiki/Grammatical_gender#Distribution_of_gender_in_the_world's_languages) (where pretty much only third-person singular pronouns are at issue). The conventions used in one's native language probably _do_ [color one's thinking to some extent](/2020/Dec/crossing-the-line/)—but when it comes to that, I have no reason to expect the overall design of English grammar and vocabulary "got it right" where Spanish or Arabic "got it wrong."
413
414 What matters isn't the specific object-level choice of pronoun or bathroom conventions; what matters is having a culture where people _viscerally care_ about minimizing the expected squared error of our probabilistic predictions, even at the expense of people's feelings—[_especially_ at the expense of people's feelings](http://zackmdavis.net/blog/2016/09/bayesomasochism/).
415
416 I think looking at [our standard punching bag of theism](https://www.lesswrong.com/posts/dLL6yzZ3WKn8KaSC3/the-uniquely-awful-example-of-theism) is a very fair comparison. Religious people aren't _stupid_. You can prove theorems about the properties of [Q-learning](https://en.wikipedia.org/wiki/Q-learning) or [Kalman filters](https://en.wikipedia.org/wiki/Kalman_filter) at a world-class level without encountering anything that forces you to question whether Jesus Christ died for our sins. But [beyond technical mastery of one's narrow specialty](https://www.lesswrong.com/posts/N2pENnTPB75sfc9kb/outside-the-laboratory), there's going to be some competence threshold in ["seeing the correspondence of mathematical structures to What Happens in the Real World"](https://www.lesswrong.com/posts/sizjfDgCgAsuLJQmm/reply-to-holden-on-tool-ai) that _forces_ correct conclusions. I actually _don't_ think you can be a believing Christian and invent [the concern about consequentialists embedded in the Solomonoff prior](https://ordinaryideas.wordpress.com/2016/11/30/what-does-the-universal-prior-actually-look-like/).
417
418 But the _same_ general parsimony-skill that rejects belief in an epiphenomenal ["God of the gaps"](https://en.wikipedia.org/wiki/God_of_the_gaps) that is verbally asserted to exist but will never the threat of being empirically falsified, _also_ rejects belief in an epiphenomenal "gender of the gaps" that is verbally asserted to exist but will never face the threat of being empirically falsified.
419
420 In a world where sexual dimorphism didn't exist, where everyone was a hermaphrodite, then "gender" wouldn't exist, either.
421
422 In a world where we _actually had_ magical perfect sex-change technology of the kind described in "Changing Emotions", then people who wanted to change sex would do so, and everyone else would use the corresponding language (pronouns and more), _not_ as a courtesy, _not_ to maximize social welfare, but because it _straightforwardly described reality_.
423
424 In a world where we don't _have_ magical perfect sex-change technology, but we _do_ have hormone replacement therapy and various surgical methods, you actually end up with _four_ clusters: females (F), males (M), masculinized females a.k.a. trans men (FtM), and feminized males a.k.a. trans women (MtF). I _don't_ have a "clean" philosophical answer as to in what contexts one should prefer to use a {F, MtF}/{M, FtM} category system (treating trans people as their social gender) rather than a {F, FtM}/{M, MtF} system (considering trans people as their [developmental sex](/2019/Sep/terminology-proposal-developmental-sex/)), because that's a complicated semi-empirical, semi-value question about which aspects of reality are most relevant to what you're trying think about in that context. But I do need _the language with which to write this paragraph_, which is about _modeling reality_, and not about marginalization or respect.
425
426 Something I have trouble reliably communicating about what I'm trying to do with this blog is that "I don't do policy." Almost everything I write is _at least_ one meta level up from any actual decisions. I'm _not_ trying to tell other people in detail how they should live their lives, because obviously I'm not smart enough to do that and get the right answer. I'm _not_ telling anyone to detransition. I'm _not_ trying to set government policy about locker rooms or medical treatments.
427
428 I'm trying to _get the theory right_. My main victory condition is getting the two-type taxonomy (or whatever more precise theory supplants it) into the _standard_ sex ed textbooks. If you understand the nature of the underlying psychological condition _first_, then people can make a sensible decision about what to _do_ about it. Accurate beliefs should inform policy, rather than policy determining what beliefs are politically acceptable.
429
430 It worked once, right?
431
432 -----
433
434 > An extreme case in point of "handwringing about the Overton Window in fact constituted the Overton Window's implementation"
435 OK, now apply that to your Kolomogorov cowardice
436 https://twitter.com/ESYudkowsky/status/1373004525481598978
437
438 The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2021 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity or hurt feelings as costs), also [can't get heliocentrism right in 1633](https://en.wikipedia.org/wiki/Galileo_affair) [_for the same reason_](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to)—and I really doubt it can get AI alignment theory right in 2041.
439
440 Or at least—even if there are things we can't talk about in public for consequentialist reasons and there's nothing to be done about it, you would hope that the censorship wouldn't distort our beliefs about the things we _can_ talk about—like, say, the role of Bayesian reasoning in the philosophy of language. Yudkowsky had written about the [dark side epistemology](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology) of [contagious lies](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies): trying to protect a false belief doesn't just mean being wrong about that one thing, it also gives you, on the object level, an incentive to be wrong about anything that would _imply_ the falsity of the protected belief—and, on the meta level, an incentive to be wrong _about epistemology itself_, about how "implying" and "falsity" work.
441
442
443 https://www.lesswrong.com/posts/ASpGaS3HGEQCbJbjS/eliezer-s-sequences-and-mainstream-academia?commentId=6GD86zE5ucqigErXX
444 > The actual real-world consequences of a post like this when people actually read it are what bothers me, and it does feel frustrating because those consequences seem very predictable
445 (!!)
446
447
448 > Makes sense... just don't be shocked if the next frontier is grudging concessions that get compartmentalized
449
450 > Stopping reading your Tweets is the correct move for them IF you construe them as only optimizing for their personal hedonics
451 https://twitter.com/zackmdavis/status/1224433237679722500
452
453 "assuming that it was a 'he'"—people treating pronouns as synonymous with sex
454 https://www.youtube.com/watch?v=mxZBrbVqZnU
455
456 I realize it wasn't personal—no one _consciously_ thinking "I'm going to trick autogynpehilic men into cutting their dicks off", but
457
458 > The absolute inadequacy of every single institution in the civilization of magical Britain is what happened! You cannot comprehend it, boy! I cannot comprehend it! It has to be seen and even then it cannot be believed! 
459 http://www.hpmor.com/chapter/108
460
461 EGS??
462
463 (If the world were smaller, you'd never give different people the same name; if our memories were larger, we'd give everyone a UUID.)
464
465 how they would actually think about the problem in dath ilan
466
467 https://www.reddit.com/r/TheMotte/comments/myr3n7/culture_war_roundup_for_the_week_of_april_26_2021/gw0nhqv/?context=3
468 > At some point you realize that your free bazaar of ideas has produced a core (or multiple cores). It is a chamber: semi-permeable, still receptive to external ideas and open to critique, but increasingly more connected on the inside.
469
470 https://arbital.greaterwrong.com/p/domain_distance?l=7vk
471
472 https://www.facebook.com/yudkowsky/posts/10159611207744228?comment_id=10159611208509228&reply_comment_id=10159613820954228
473 > In the circles I run in, being poly isn't very political, just a sexual orientation like any other—it's normalized the way that LGBT is normalized in saner circles, not political the way that LGBT is political in crazier circles.
474
475 https://archive.is/7Wolo
476 > the massive correlation between exposure to Yudkowsky's writings and being a trans woman (can't bother to do the calculations but the connection is absurdly strong)
477 Namespace's point about the two EYs
478
479 The level above "Many-worlds is obviously correct, stop being stupid" is "Racial IQ differences are obviously real; stop being stupid"— link to the correct contrarian cluster
480
481
482 But in the _process_ of trying to _talk about_ this late-onset-gender-dysphoria-in-males-is-not-an-intersex-condition thesis, I noticed that my conversations kept getting _derailed_ on some variation of "The word _woman_ doesn't necessarily mean that." _That_ part of the debate, I knew I could win.
483
484
485 I guess I feel pretty naïve now, but—I _actually believed our own propoganda_. I _actually thought_ we were doing something new and special of historical and possibly even _cosmological_ significance.
486
487
488 I got a pingback to "Optimized Propaganda" from in an "EDIT 5/21/2021" on https://www.lesswrong.com/posts/qKvn7rxP2mzJbKfcA/persuasion-tools-ai-takeover-without-agi-or-agency after Scott Alexander linked it—evidence for Scott having Power to shape people's attention
489
490 The Eliezer Yudkowsky I remember wrote about [how facts are tightly-woven together in the Great Web of Causality](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies), such that [people who are trying to believe something false have an incentive to invent and spread fake epistemology lessons](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology), and about the [high competence threshold that _forces_ correct conclusions](http://sl4.org/archive/0602/13903.html).
491
492 A culture where there are huge catastrophic consequences for [questioning religion](https://www.lesswrong.com/posts/u6JzcFtPGiznFgDxP/excluding-the-supernatural), is a culture where it's harder to train alignment researchers that genuinely understand Occam's razor on a _deep_ level, when [the intelligent social web](https://www.lesswrong.com/posts/AqbWna2S85pFTsHH4/the-intelligent-social-web) around them will do anything to prevent them from applying the parsimony skill to the God hypothesis. 
493
494 A culture where there are huge catastrophic consequences for questioning gender identity, is a culture where it's harder to train alignment researchers that genuinely understand the hidden-Bayesian-structure-of-language-and-cognition on a _deep_ level, when the social web around them will do anything to prevent them from [invalidating someone's identity](http://unremediatedgender.space/2016/Sep/psychology-is-about-invalidating-peoples-identities/).
495
496 > First, it is not enough to learn something, and tell the world about it, to get the world to believe it. Not even if you can offer clear and solid evidence, and explain it so well that a child could understand. You need to instead convince each person in your audience that the other people who they see as their key audiences will soon be willing to endorse what you have learned.
497 https://www.overcomingbias.com/2020/12/social-proof-but-of-what.html
498
499 twenty-one month Category War is as long as it took to write the Sequences https://www.lesswrong.com/posts/9jF4zbZqz6DydJ5En/the-end-of-sequences
500
501 I'm worried about the failure mode where bright young minds [lured in](http://benjaminrosshoffman.com/construction-beacons/) by the beautiful propaganda about _systematically correct reasoning_, are instead recruited into what is, effectively, the Eliezer-Yudkowsky-and-Scott-Alexander fan club.
502
503 > I'm not trying to get Eliezer or "the community" to take a public stance on gender politics; I'm trying to get us to take a stance in favor of the kind of epistemology that we were doing in 2008. It turns out that epistemology has implications for gender politics which are unsafe, but that's more inferential steps, and ... I guess I just don't expect the sort of people who would punish good epistemology to follow the inferential steps? Maybe I'm living in the should-universe a bit here, but I don't think it "should" be hard for Eliezer to publicly say, "Yep, categories aren't arbitrary because you need them to carve reality at the joints in order to make probabilistic inferences, just like I said in 2008; this is obvious."
504
505 (Times have changed! BBL is locally quasi-mainstream after Ozy engaged)
506
507 E.Y. thinks postrats are emitting "epistemic smog", but the fact that Eigenrobot can retweet my Murray review makes me respect him more than E.Y. https://twitter.com/eigenrobot/status/1397383979720839175
508
509 The robot cult is "only" "trying" to trick me into cutting my dick off in the sense that a paperclip maximizer is trying to kill us: an instrumental rather than a terminal value.
510
511 > the problem with taqiyya is that your sons will believe you
512 https://twitter.com/extradeadjcb/status/1397618177991921667
513
514 the second generation doesn't "get the joke"; young people don't understand physical strength differences anymore
515
516 > I've informed a number of male college students that they have large, clearly detectable body odors. In every single case so far, they say nobody has ever told them that before. 
517 https://www.greaterwrong.com/posts/kLR5H4pbaBjzZxLv6/polyhacking/comment/rYKwptdgLgD2dBnHY
518
519 It would have been better if someone without a dog in the object-level fight could have loudly but disinterestedly said, "What? I don't have a dog in the object-level fight, but we had a whole Sequence about this", but people mostly don't talk if they don't have a dog.
520
521 But if someone without a dog spoke, then they'd get pattern-matched as a partisan; it _had_ to be me
522
523
524 As far as I can tell, Professor, I'm just doing what _you_ taught me—carve reality at the joints, speak the truth, even if your voice trembles, make an extraordinary effort when you've got Something to Protect.
525
526 "Beliefs about the self aren't special" is part of the whole AI reflectivity thing, too!!
527
528 > decision-theoretically, it's also not their fault. They were all following a strategy that was perfectly reasonable until they ran into someone with an anomalously high insistence that words should mean things
529
530 Sure: everyone in a conflict thinks they're acting defensively against aggressors infringing on their rights, because in the cases where everyone agrees what the "actual" property rights are, there's no conflict.
531
532 https://distill.pub/2021/multimodal-neurons/
533 > These neurons detect gender^10
534 > Footnote: By this, we mean both that it responds to people presenting as this gender, as well as that it responds to concepts associated with that gender.
535
536 https://www.jefftk.com/p/an-update-on-gendered-pronouns
537
538 > Still think this was a perfectly fine tweet btw. Some people afaict were doing the literal ontologically confused thing; seemed like a simple thing to make progress on. Some people wanted to read it as a coded statement despite all my attempts to narrow it, but what can you do.
539 https://twitter.com/ESYudkowsky/status/1356535300986523648
540
541 If you were actually HONESTLY tring to narrow it, you would have said, "By the way, this is just about pronouns, I'm not taking a position on whether trans women are women"
542
543 https://www.gingersoftware.com/content/grammar-rules/adjectives/order-of-adjectives/
544
545 https://www.unqualified-reservations.org/2008/01/how-to-actually-defeat-us-government/
546 > propagate a credible alternate reality that outcompetes the official information network.
547
548 https://www.unqualified-reservations.org/2007/12/explanation-of-democratic-centrism/
549
550
551
552
553 that's the thing; I read as lefty because I am morally lefty (in contrast to Real Men Who Lift &c.); it's just that I had the "bad luck" of reading everything I could about race and IQ after the James Watson affair in 'aught-seven, and all my leftness is filtered through ten years of living with inconvenient hypotheses
554
555 [TODO: reorganize to position the question first]
556
557 [TODO: lit search or ask linguistics.stackexchange for literature on what gender/plural/case/&c. distinctions are for? Is it just the collision/ambiuity reduction, or is there something else? Oh, or Anna T./Elena might know]
558
559 https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters
560 > Appeal to arbitrariness - again, the notion that [word definitions are arbitrary](https://www.lesswrong.com/lw/od/37_ways_that_words_can_be_wrong/) serves as a good example (in fact I was harvesting some of these appeals from that sequence).  It's not just that this is wrong, but that it serves to cut off further discourse.  Generally, anything that people are motivated to argue about is not _arbitrary_.  It is being controlled by invisible criteria of evaluation, it has connotations with consequences, and if _that_ isn't true either, the topic of discourse is probably not "arbitrary" but just "meaningless". No map that corresponds to an external territory can be arbitrary.
561
562 > _Appeal to inner privacy_ - "you can't possibly know how I feel!"  It's true that modern technology still encounters some slight difficulties in reading thoughts out of the brain, though work is underway as we speak.  But it is rare that the exact details of how you feel are the key subject matter being disputed.  Here the bony borders of the skull are being redeployed as a hard barrier to keep out further arguments.
563
564
565 If Scott Alexander's "The Categories Were Made For Man ..." had never been published, would we still be talking about dolphins and trees in the same way?
566
567 Scott has so many fans—
568 https://jasoncrawford.org/guide-to-scott-alexander-and-slate-star-codex
569 https://nothingismere.com/2015/09/12/library-of-scott-alexandria/
570 https://guzey.com/favorite/slate-star-codex/
571 https://www.lesswrong.com/posts/xaLHeoRPdb9oQgDEy/index-of-yvain-s-excellent-articles
572
573 Nate on dolphins (June 2021)—a dogwhistle??
574 https://twitter.com/So8res/status/1401670792409014273
575 Yudkowsky retweeted Nate on dolphins—
576 https://archive.is/Ecsca
577
578 my rationalist community has people asking a lot of questions already answered by my community's name
579
580 cite to "Not Especially Related to Transgender"
581 https://twitter.com/fortenforge/status/1402057829142302721
582
583 "Hero Licensing": to provide an earnest-token of all the techniques I couldn't show
584
585 uncritically (uncharacteristically uncritically) taking the newly-ascendant gender-identity theory for granted ("lots of women wouldn't be particularly disturbed if they had a male body; the ones we know as 'trans' are just the ones with unusually strong female gender identities"), without considering the obvious-in-retrospect hypothesis that "guy who speculates about his female analogue on a transhumanist mailing list in 2004" and "guy who thinks he might be a trans women in Berkeley 2016" are the same guy.
586
587 If hiring a community matchmaker was worth it, why don't my concerns count, too?
588
589 When I protested that I wasn't expecting a science fictional Utopia of pure reason, but just for people to continue to be right about things they already got right in 2008, he said, "Doesn't matter—doesn't _fucking_ matter."
590
591 humans have honor instead of TDT. "That's right! I'm appealing to your honor!"
592
593 The boundary must be drawn here! This far, and no further!
594
595 > just the thought that there are people out there who wanted to be rationalists and then their experience of the rationalist community was relentlessly being told that trans women are actually men, and that this is obvious if you are rational, and a hidden truth most people are too cowardly to speak, until you retreat in misery and are traumatized by the entire experience of interacting with us....
596
597 People change their opinion with the party line—similarly with Scott and Yud
598 https://onlinelibrary.wiley.com/doi/abs/10.1111/ajps.12550?campaign=woletoc
599
600 https://stefanfschubert.com/blog/2020/12/22/legitimate-epistocracy
601
602 prevaricate
603
604 back in 'aught-nine, Anna commented that no one in our circle was that old, as if you had to be of a particular generation to understand the ideas—that could apply in both directions (the next generation's culture does not look promising to me; midwits say that elders have always said that, but maybe the elders were always right, by the standard preference-stability argument)
605
606 > [Anna] seemed to disapprove of our putting pressure on Scott, because the fact that Scott has done a lot of great work is exactly what made him a target for our pressure.
607
608 > I told Anna about Michael's "enemy combatants" metaphor, and how I originally misunderstood the point of the analogy. War metaphors sound Scary and Mean—I don't want to shoot my friends! But the point of the analogy (which Michael had explained at the time, but I wasn't ready to hear until I did a few more weeks of emotional processing) was specifically that soliders on the other side of a war aren't particularly morally blameworthy as individuals: their actions are just being controlled by the Power they're embedded in. And Anna was like, "But you could still be friends with someone on an animal level, like with a dog", and I was like, "Yeah, that's basically what Michael said."
609
610 > He says he likes "monastic rationalism vs. lay rationalism" as a frame for the schism Ben is proposing.
611
612 > I suspect Scott is calling the wrong side monastic, though - we basically believe it can be done by lay people, he doesn't. I'll be pleasantly surprised if he gets the sides right, though.
613
614
615 Really, self-respecting trans people who care about logical consistency should abhor Scott and Eliezer's opinions—you should want people to use the right pronouns _because_ of your gender soul or _because_ your transition actually worked, not because categories are flexible and pronouns shouldn't imply gender
616
617
618 -------
619
620 Yudkowsky complains—not entirely without justification—that I ["do not know how to come to a point, because [I am] too horrified by the thought that a reader might disagree with [me] if [I] don't write even more first."](https://twitter.com/ESYudkowsky/status/1435605868758765568)
621
622 But I wasn't always this way. It's an adaptive response to years of trolling. The reason I write even more to get out ahead of the objections I can forsee, is because I've been _at this for six years_. I tried being concise _first_.
623
624 You want concise? Meghan Murphy got it down to four words, which could have been three[^contraction]: "Men aren't women tho."
625
626 [^contraction]: I think the contraction [_aren't_](https://en.wiktionary.org/wiki/aren%27t) counts as one word in this context; the _tho_ (though) can be dropped to get down to three.
627
628 Men aren't women! Men aren't women tho!
629
630 It's only _after_ people pretended to disagree with _that_, that I started recusively digging into the details—why adult human males on hormone replacement therapy still aren't adult human females, why 'adult human male' and 'adult human female' are natural categories that it makes sense for Meghan McCarthy to want short codewords to point to, how words can be used in different ways depending on context (such that we can understand Meghan McCarthy's claim as it was meant, even if the words _woman_ and _man_ can also be used in other senses), what it means for something to be a natural cateogry, what it means to say that _X_'s aren't _Y_'s ...
631
632 It is more than a little insulting to be told, after all this, that the problem is that _I_ don't know how to come to a point, rather than everyone in Berkeley not knowing how to accept a point that contradicts their religion. It's such a stupidly simple stonewalling strategy: when the critic makes their point simply (men aren't women! men aren't women tho!), sneer at them for being ontologically confused, and then when they spend years of their life writing up the exhaustively detailed rigorous version, sneer at them for not being able to come to a point.
633
634 Does the elephant in his brain really expect to get away with that? Are Earth people really that gullible?
635
636 ------
637
638 [Yudkowsky writes](https://twitter.com/ESYudkowsky/status/1435618825198731270):
639
640 > If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
641
642 And if _you_ don't think you can politically afford to acknowledge your faithful student's proof that 6 + 7 = 13 [(because Stalin doesn't like it when people use the number 13)](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to), it can feel like safety or self-justification to issue a Pronouncement that the answer to 6 + 7 depends on what base you're working in[^base]; but it doesn't feel as good to engage with your faithful student's allegation that the only reason you're issuing Pronouncements about alternate bases for arithmetic, is to win favor with the Party by standing by and letting them cite you as a credible authority when they claim that 6 + 7 = 15, while thinking yourself "honest" because you've sold yourself a story about how _you_ were just teaching those vile _kulaks_ an important lesson about place–value arithmetic, and never technically said yourself that 6 + 7 = 15 _in base ten_.
643
644 [^base]: For example, in base 8, one would write 6 + 7 = 15, where the symbol "15" represents the number **1** · 8<sup>1</sup> + **5** · 8<sup>0</sup>, which is equal to **1** · 10<sup>1</sup> + **3** · 10<sup>0</sup>, which we normally (in base 10) write as "13".
645
646 ------
647
648 > The Other's theory of themselves usually does not make them look terrible.  And you will not have much luck just yelling at them about how they must *really* be doing terrible_thing instead.  That's woke filter bubble thinking.  I stopped talking to Michael when he went that way.
649 https://twitter.com/ESYudkowsky/status/1435619618052214787
650
651 The fact that I flipped out at Nate's dolphin thing was a misplay on my part, but it generated more Twitter discussion (including Eliezer's "never told anyone to go trans" remarks and Vorobey's comments) makes it a "win" for the cause even if I was out of line? My freaking out was "rational". 
652
653 But I think Eliezer and I _agree_ on what he's doing; he just doesn't see it's bad
654
655 Speaking of narcissism and perspective-taking, "deception" isn't about whether you personally "lied" according to your own re-definitions; it's about whether you predictably made others update in the wrong direction
656
657 I really appreciated Anatoly Vorobey's comments:
658
659 https://twitter.com/avorobey/status/1404769388969054210
660
661 > to provide context how it may (justifiably?) seem like over the last 7-8 years the rat. community largely fell *hard* for a particular gender philosophy
662
663 > ... fell for it in ways that seemed so spectacularly uncritical, compared to other beliefs carefully examined and dissected, and more so, even justified with a veneer of "rationality" (as in Scott's Categories post) that beautifully coincided with the tumblr dogma of the time...
664
665 > ...(then twitter dogma of the time, and now almost the blue tribe dogma of our time)... that I can understand how someone like Zack, embedded in the rat culture physically and struggling with this reigning ideology, could feel it as gaslighting.
666
667
668 https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
669 > I'm curious about how much you think these opinions have been arrived at independently by yourself, Paul, and the rest of the OpenPhil complex?
670 If he's worried about Carl being corrupted by OpenPhil; it make sense for me to worry about him being corrupted by Glowfic cluster
671
672 https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
673 > If you mean that say Mike Blume starts getting paid $20m/yr base salary
674 Weirdly specific that Mike (random member of your robot cult) is getting namedropped
675
676 example of hero-worship, David Pearce writes—
677 https://www.facebook.com/algekalipso/posts/4769054639853322?comment_id=4770408506384602
678 > recursively cloning Scott Alexander—with promising allelic variations - and hothousing the “products” could create a community of super-Scotts with even greater intellectual firepower
679
680
681
682 Respect needs to be updateable. No one can think fast enough to think all their own thoughts. I have a draft explaining the dolphins thing, about why Nate's distaste for paraphyly is wrong. In Nate's own account, he "suspect[s] that ['[...] Not Man for the Categories'] played a causal role in [...] starting the thread out on fish." Okay, where did Scott get it from, then? I don't have access to his thoughts, but I think he pulled it out of his ass because it was politically convenient for him. I suspect that if you asked him in 2012 whether dolphins are fish, he would have said, "No, they're mammals" like any other educated adult. Can you imagine "... Not Man for the Categories" being as popular as it is in our world if it just cut off after section III? Me neither.
683
684 I think it's a problem for our collective epistemology that Scott has the power to sneeze his mistakes onto everyone else—that our 2021 beliefs about dolphins (literally, dolphins in particular!) is causally downstream of Scott's political incentives in 2014, even if Scott wasn't consciously lying and Nate wasn't thinking about gender politics. I think this is the problem that Eliezer identified as dark side epistemology: people invent fake epistemology lessons to force a conclusion that they can't get on the merits, and the fake lessons can spread, even if the meme-recipients aren't trying to force anything themselves. I would have expected people with cultural power to be interested in correcting the problem once it was pointed out.
685
686
687
688
689 "Speak out in order to make it clear how not alt-right you are; nothing wrong with that because I'm not lying" is being inconsistent about whether signaling and mood-affiliation matters—it's trying to socially profit by signaling pro-Stalin-ness, while simultaneously denying that anyone could object (because you didn't lie—pivoting to a worldview where only literal meanings matter and signals aren't real). Can I sketch this out mathematically?
690
691 3 January 2020 text from Michael to me:
692 > because I want to make it very clear to you, and to encourage you to make it very clear to others [...] that you are experiencing extremely articulate and extremely by the book trauma, caused in a very canonical manner by institutional betrayal and causing silencing of a sort very similar to that which causes investigation of sex crimes to be problematic (as in the high quality current Netflix show "Unbelievable", which you all might benefit from watching)
693
694 Forget it, Jake—it's the rationalist community
695
696 https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong
697 > The act of defining a word to refer to all humans, except black people, seems kind of suspicious.
698 That's not the only implication on race of the philosophy of categorization—actually, I'm going to bite the bullet here; "Eurasian" is actually fine as a paraphyletic category (and @CovfefeAnon uses it productively)
699
700 And this suspicion seems broadly accurate! _After_ having been challenged on it, Yudkowsky can try to spin his November 2018 Twitter comments as having been a non-partisan matter of language design ("Trying to pack all of that into the pronouns [...] is the wrong place to pack it"),
701
702 when worrying about the future and what I should do about it, I find myself more concerned with whether Eliezer would disapprove rather than the everyone-dying part
703
704 me criticizing dath ilan (after being blocked from his Twitter) is also a nearest-unblocked-strategy
705
706 If there's a generalized remembering-history skill, it should apply to "remembering when pronouns implied sex" and as well as "remembering when neural nets weren't used in the Netflix contest" https://www.lesswrong.com/posts/cCrpbZ4qTCEYXbzje/ngo-and-yudkowsky-on-scientific-reasoning-and-pivotal-acts
707
708 -----
709
710 Why does this matter?
711
712 [Why does this matter? It would be dishonest for me to claim that this is _directly_ relevant to xrisk, because that's not my real bottom line]
713
714 a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
715
716 It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
717
718
719 https://www.readthesequences.com/
720 > Because it is all, in the end, one thing. I talked about big important distant problems and neglected immediate life, but the laws governing them aren't actually different.
721
722 Is that not true?
723
724 Can you lie about immediate life for political convenience
725
726 > the challenge is almost entirely about high integrity communication by small groups
727 https://twitter.com/HiFromMichaelV/status/1486044326618710018
728
729 https://www.glowfic.com/replies/1769064#reply-1769064
730 > "Dath ilani education is for having children grow up correctly.  None of it, that I know, is about how to safely repair children who grew up wrong."
731 It would be nice if children in rationalist Berkeley could grow up correctly
732
733 congrats after Whale and Sawyer chimed in: https://twitter.com/ESYudkowsky/status/1435706946158432258
734
735
736
737 I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378/
738
739
740 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
741 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
742 https://www.lesswrong.com/posts/PG8i7ZiqLxthACaBi/do-fandoms-need-awfulness
743
744 > Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
745
746 > The people who aren't doing that mostly aren't participating in the LessWrong identity, but while factions like that are hostile to the confused people who behave as though they're part of a community trying to become less wrong, such factions are also parasitic on such people, claiming credit for their intellectual contributions. When such participation is fully extinguished, the group begins to decay, having nothing distinctive to offer, unless it has become too big to fail, in which case it's just another component of one political faction or another.
747
748 https://graymirror.substack.com/p/the-journalist-rationalist-showdown?s=r
749
750 Keltham contradicts himself inside of a single tag! Using the words "shape" and "covert" both times!!
751
752 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
753
754 maybe he should have some sympathy for Stephen J. Gould's intellectual crimes
755
756 one of the new collaborators on _Mad Investor Chaos_ is a _Catholic_
757
758 When my chat with EY at the independence day party degenerated into "I'm sorry for being dumb", he said if Zack Davis was too dumb, we're in trouble
759
760 OK, "paperclips" is a legitimate example of categories being subjective/value-dependent
761
762 http://paulgraham.com/heresy.html
763
764 A "rationalist" community worthy of the name would be able to do the thing Steve Sailer does, while retaining our humanistic ethics https://www.unz.com/isteve/what-is-elon-musks-plan-for-reversing-the-tyranny-of-the-ex-men/
765
766 https://graymirror.substack.com/p/the-twitter-coup
767 > a battle is won if the result of the battle is to make the next battle easier. The same is true of a political confrontation.
768 [...]
769 > I noticed that the streets had been largely cleared of homeless encampments (which have been pushed into the nearby forests). Most people take this as a conservative victory. It is actually a defeat.
770 > It is a victory in the ordinary sense of the term—an action which gets what the actors want. It is a tactical victory—but a strategic defeat. At a party the other day, I spoke to one of the people who orchestrated this “victory,” and explained why I saw it this way.
771 [...]
772 > for a rebel, all true victories are total. He who makes half a revolution digs his own grave
773 in this sense, I keep winning battles, but I've basically conceded the war
774
775 Rubices—
776 > with Zack in 2017 in particular, I don't know if it's still true now, there was also a lot of "women are brilliant and perfect and pure, and it would do damage to something beautiful for a man to pretend to be one"
777 gonna mostly bite the bullet on this one
778
779
780 https://dilbert.com/strip/2022-04-09
781 > You all remember the thing I predicted correctly 12 years ago, therefore you should heed my word on this completely unrelated topic
782
783 The time E.Y. recommended dark side epistemology as shortform still feels telling—you could say it's circumstantial nitpicking, but I think it's revealing, like the "reducing negativity"
784 https://discord.com/channels/401181628015050773/471045466805633029/934929649421672488
785 https://www.lesswrong.com/posts/fYC3t6QQDvdBBwJdw/plutonic_form-s-shortform?commentId=dghPKBjgiA6pTcCKz
786
787
788 https://www.foxylists.com/etiquette
789 > 6. Do not ask for additional pictures, selfies or services they have not already agreed upon. 
790
791 > One nice thing about intellectuals is that when they turn, they frequently leave behind a detailed, mostly coherent record of what a person turning into a rhinoceros thinks is going on.
792 https://twitter.com/ben_r_hoffman/status/1477733825702936581
793
794 Rationality was supposed to be important!!
795
796 Paul says so—
797 >  My current sense is that cooperation has a better tradeoff than some forms of enhancement (e.g. giving humans bigger brains) and worse than others (e.g. improving the accuracy of people's and institution's beliefs about the world).
798
799 Rob says so, too—
800 > Help ourselves think more clearly. (I imagine this including a lot of trying-to-become-more-rational, developing and following relatively open/honest communication norms, and trying to build better mental models of crucial parts of the world.)
801
802 > their verbal theories contradict their own datapoints
803 https://www.facebook.com/yudkowsky/posts/10159408250519228?comment_id=10159411435619228&reply_comment_id=10159411567794228
804
805 dath ilan has Actual Evolutionary Psychology
806 > They end up wanting 42 major things and 314 minor things (on the current count of what's known and thought to be distinct in the way of adaptation)
807 https://www.glowfic.com/replies/1801140#reply-1801140
808
809 > When somebody stops coordinating with you, stop coordinating with them.  It's not 'punishment' to Defect against somebody who's Defecting against you, in a cooperation-defection dilemma; you're just withdrawing the Cooperation you were trying to coordinate with them
810 https://www.glowfic.com/replies/1801374#reply-1801374
811
812 I joined the "Eliezerfic" server in spite of my enmity, and JoshTriplett is in there (contrary to my gut instinct that Rust peeps hate my rationalist peeps)
813
814 The cowardice is remarkable, coming from someone who otherwise
815
816 jbeshir
817 > I have a writer/author friend, they had a problem a couple or so times with people who get really really into the work and community, then in their mind got disappointed in some way- and that investments converts at a surprisingly high exchange rate directly into investment in making your life worse. It... happens.
818 —this makes a callout post or Twitter thread seem less appealing
819
820
821 [previously, I had felt guilty about being less successfully feminst than Robby https://nothingismere.com/2013/12/26/union-names-objections-and-replies/]
822 [internet pharmacy]
823
824
825 > whereas I could imagine reading almost the same post on sneerclub and turning into a prickle about it
826 response—
827 > me when other trans girls call themselves and me AGP vs when genuine Blanchardians do
828
829 In a discussion on criticism of EA by outsiders, someone spontaneously (not prompted by me) mentioned the difference between when fellow trans women called themselves AGP, vs. actual Blanchardians. This is a conspiracy!! (The ingroup is allowed to notice things, but when other people notice, deny everything. Compare Michael Anton on "celebration parallax."]
830
831 https://www.clearerthinking.org/post/understanding-relationship-conflicts-clashing-trauma
832
833 postyud; Yudkowskyism without Yudkowsky
834
835 if you know Reality is red, blue, or green, and I know Reality is red but am trying to maximize the probability you assign to green, I can truthfully say "it's not blue"
836
837 Gell-Mann amnesia
838
839 EY's commenting guidelines
840
841 > Sneerclub gives him an excuse to just not engage with legitimate criticism
842 https://twitter.com/satisfiesvalues/status/1524475059695505409
843
844 flu virus that cures Borderer culture
845 https://twitter.com/Kenku_Allaryi/status/1524646257976877057
846
847
848 https://www.lesswrong.com/tag/criticisms-of-the-rationalist-movement
849
850 > possible that 2022 is the year where we start Final Descent and by 2024 it's over
851 https://www.lesswrong.com/posts/7MCqRnZzvszsxgtJi/christiano-cotra-and-yudkowsky-on-ai-progress?commentId=iKEuFQg7HZatoebps
852
853 > and yeah, when Joanna came out on Facebook Zack messaged her to have a 3-hour debate about it
854 > I think no matter how pure his pursuit of knowledge this is actually bad behavior and he should not
855
856 Standard excuses—
857 "i just don't think that gender is less of a politeness mind-control regime when it doesn't allow people to switch categories"
858 biosex actually exists
859 also no one cares about that fact of  the matter, unless they want to have sex with someone or are doing a weird ideological thing
860 I think you're the ones doing a weird ideological thing
861
862 brain: wow, eiko has a deep understanding of straight men for a lesbian! she must be so empathetic
863 me: ...
864
865 ... why validated and not offended??
866 Eiko — Today at 8:37 PM
867 ?_?
868 what... would i be... offended by...
869 Carrie Zelda-Michelle Davis — Today at 8:38 PM
870 The "brain: / me:" thing seems like it should be offensive for the same reason that the phrase-I-said-I-wasn't-going-to-say is offensive
871 the language is subtler, but it's gesturing at the same thing
872
873 (explanation: I read this as ozy saying they parsed Eiko as a girl so much that they didn't remember she used to be a straight guy)
874
875 ... I, just, really have trouble emphasizing with this culture where people are allowed to make jokes about the similarities between trans lesbians and straight guys, and as long as you talk in terms of "I thought I was a straight guy", it's all cool, but as soon as someone bites the bullet and says, "Yes, because trans lesbians are straight males, etiologically; you thought correctly", then they're ... marking themselves as not part of the coalition? From my perspective, it just looks like your culture is pro-lying
876
877 like if i look at a person and my brain's intuitive instinctive bucketing function goes "girl" and they tell me "i'm a boy actually" does whether that's mind control depend on what genitals the person has??
878 Carrie Zelda-Michelle Davis — Today at 10:02 PM
879 Yes?
880 Omega ω — Today at 10:02 PM
881 ?????
882
883 ... people just don't see the ideological bubble they live in! People tell me, "frankly you seem to be deeply unhappy about [being gendered male]", because they're relying on their prior of what trans women need. And having been born in 1987, I just don't share that prior! If you actually listen to the thing I'm been yelling for the last six years, I'm much more unhappy about the culture of mind-control than I am about being male, but people put more weight on their prior than my verbal self-report! I guess I can't blame them on the meta level (I also put more weight on priors that people's self-reports a lot of the time), but it's just—so shocking, that people don't see the thing
884
885 I don't actually want to return to the past permanently; I want to first rewind to 2007 or so, and then re-do the trans rights thing but with less 🐛  lying this time, "lying" being my heat-of-the-moment angry word for the thing where the born-in-the-wrong-body story that gets sold to the public is very different from the picture you get when you read what people write about their feelings when the general public isn't looking, and people know it's different, and they go on talking in terms of the standard story anyway, and when you challenge them on none of this stuff being true, they say, "Oh, well, those are just lies to cis people; that doesn't count" (https://thingofthings.wordpress.com/2015/01/27/lies-to-cis-people/) as if lies to cis people weren't still lies
886
887 And, just—I think if an alien or an AI or really any normal person outside of this very specific Berkeley 2016– ideological subculture were to try to objectively describe what's actually happening there in the real physical universe, I don't think they would want to talk about a woman born in the wrong body, coping with her tragic dysphoria; I think the alien or AI would talk about a male primate with some kind of brain malfunction in its sexual targeting system causing it to get confused about a self-other distinction, and I think the normal person would talk about a man with a gross, weird fetish who they don't want sharing a locker room with their daughter.
888
889 And I just, basically think the alien and the AI and the normal person have the right ontology here? The Berkeley 2016– denizen can come up with a lot of replies ("But cis women also enjoy being women", "But I don't care about someone's private thoughts; I only care about whether they'll come vintage dress shopping with me"), but they all just seem fundamentally unserious to me?
890
891 ----
892
893 https://forum.effectivealtruism.org/posts/c5DgfRyWgS2Sjgzmt/on-funding-trust-relationships-and-scaling-our-community
894 > there will be someone in the world whose full-time job and top-priority it is to figure out how to write a proposal, or give you a pitch at a party, or write a blogpost, or strike up a conversation, that will cause you to give them money, or power, or status. For many months, they will sit down many days a week and ask themselves the question "how can I write this grant proposal in a way that person X will approve of" or "how can I impress these people at organization Y so that I can get a job there?", and they will write long Google Docs to their colleagues about their models and theories of you, and spend dozens of hours thinking specifically about how to get you to do what they want, while drawing up flowcharts that will include your name, your preferences, and your interests.
895 not totally unlike what I was doing to Scott and Eliezer
896
897 https://www.abc.net.au/news/2014-07-16/melbourne-teenage-mathlete-wins-gold-for-the-second-time-/5602226?nw=0&r=Image
898 https://postchimpblog.wordpress.com/2020/03/05/alexs-guide-to-transitioning/
899
900 The LW community is a bubble/machine that made me who I am (it doesn't infringe on my independence more than school, but it's still shaping force in the way that going to University or Google shapes people)
901
902 https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-dignity-strategy
903 > If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
904
905 the Extropians post _explicitly_ says "may be a common sexual fantasy"
906 > So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after the Singularity.  I would not be surprised to find that it took three subjective centuries before anyone had grown far enough to attempt a gender switch.
907
908 ------
909
910
911 https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
912 > I'm not sure that human beings realistically _can_ trust and think at the same time.
913
914 "Why Quantum" has another reference to "doesn't seem possible to think and trust"
915
916 https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus
917
918
919
920 If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
921
922 > [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT. I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but [too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it. I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
923
924 Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
925
926 To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, [the Sequences tell of how Yudkowsky once wrote to Judea Pearl](https://www.lesswrong.com/posts/tKa9Lebyebf6a7P2o/the-rhythm-of-disagreement) to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
927
928 [TODO But crucially, "Defer to subject-matter experts" seems like a _different_ moral than "Too many people think it's unvirtuous to shut up and listen Judea Pearl."]
929
930 If Yudkowsky is frustrated that people don't defer to him enough _now_, he should remember the only reason he has _any_ people who defer to him _at all_ is _because_ he used to be such a good explainer who actually argued for things.
931
932 [TODO: if he had never spoken of TDT, why _should_ they trust him about voting?!]
933
934 [TODO That trust is a _finite resource_. Zvi Mowshowitz  claims the condescension is important information, which is why it's such a betrayal when he uses the condesension to score points
935 https://www.lesswrong.com/posts/ax695frGJEzGxFBK4/biology-inspired-agi-timelines-the-trick-that-never-works?commentId=HB3BL3Sa6MxSszqdq
936
937 > The condescension is _important information_ to help a reader figure out what is producing the outputs, and hiding it would make the task of 'extract the key insights' harder. 
938
939 ]
940
941 ------
942
943 Lightwavers on Twitter (who Yudkowsky knew from /r/rational) dissed Charles Murray on Twitter
944
945 https://nostalgebraist.tumblr.com/post/686455476984119296/eliezer-yudkowsky-seems-really-depressed-these
946
947 > So now my definitely-not-Kelthorkarni have weird mental inhibitions against actually listening to me, even when I clearly do know much better than they do.  In retrospect I think I was guarding against entirely the wrong failure modes.  The problem is not that they're too conformist, it's that they don't understand how to be defiant without diving heedlessly into the seas of entropy.  It's plausible I should've just gone full Kelthorkarnen
948 https://www.glowfic.com/replies/1614129#reply-1614129
949
950 I was pleading to him in his capacity as rationality leader, not AGI alignment leader; I know I have no business talking about the latter
951
952 (As an aside, it's actually kind of _hilarious_ how far Yudkowsky's "rationalist" movement has succeeded at winning status and mindshare in a Society whose [_de facto_ state religion](https://slatestarcodex.com/2019/07/08/gay-rites-are-civil-rites/) is [founded on eliminating "discrimination."](https://richardhanania.substack.com/p/woke-institutions-is-just-civil-rights) Did—did anyone besides me "get the joke"? I would have expected _Yudkowsky_ to get the joke, but I guess not??)
953
954 [TODO: misrepresentation of the Light: Dath ilan has a concept of "the Light"—the vector in policyspace perpendicular outwards from the Pareto curve, in which everyone's interests coincide.]
955
956 "You're allowed to talk to me," he said at the Independence Day party
957
958 MIRI made a point of prosecuting Tyler Altman rather than participating (even if it was embarrassing to be embezzled from) because of game theory, but it sees folding to social-justice bullies as inevitable
959
960 re Yudkowsky not understanding the "That's So Gender" sense, I suspect this is better modeled as a nearest-unblocked-strategy alignment problem, rather than a capabilities problem ("doesn't comprehend"). Author has a Vision of a Reality; that Reality conflicts with the ideology of the readership, who complain; Author issues a patch that addresses the surface of the complaint without acknowledging the conflict of Visions, because describing the conflict in too much detail would be construed as aggression
961
962 ------
963
964 [TODO:
965 Email to Scott at 0330 a.m.
966 > In the last hour of the world before this is over, as the nanobots start consuming my flesh, I try to distract myself from the pain by reflecting on what single blog post is most responsible for the end of the world. And the answer is obvious: "The Categories Were Made for the Man, Not Man for the Categories." That thing is a fucking Absolute Denial Macro!
967 ]
968
969 ------
970
971 So, because
972
973 [TODO: the rats not getting AGP was excusable, the rats not getting the category boundary thing was extremely disappointing but not a causis belli; Eliezer Yudkowsky not getting the category boundary thing was an emergency]
974
975 -----
976
977 a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
978
979 It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
980
981 https://www.econlib.org/archives/2016/01/the_invisible_t.html
982
983 ------
984
985 comments to "Wilhelm", January 2019—
986
987 I got concessions on all the important parts (categories should make predictions, trans women differ from cis women in a masc direction),  and these people just don't fucking CARE ... like, if I'm trying to be agreeable, I could agree that trans women resemble women if you restrict your vision to the subspace spanned by the "preferred pronouns" and "self-identified gender identity" dimensions ... but, but, WTF, be serious, guys
988
989 Scott or Eliezer know better and could put an end to this bullshit (or at least put a dent in it), and I begged and I pleaded, and they just don't CARE
990
991 even Ozy knows better
992
993 I said: I probably do put too much rhetorical emphasis on passing; like, I agree that that's not the only criterion that one can use. I like drawing attention to that particular distinction because it at least has the benefit of not requiring people to override their perceptual system they way that self-identity does?
994
995 and Ozy (correctly!) chimed in: "in fact it is the only criterion that doesn't involve people overriding their perceptual system!"
996
997 as if she's objectively pro-gaslighting
998
999 more charitably: people care a lot about this very thin layer of socual constructions (if you mindfuck ppl into believing that AGPs are women, that really does make it easier to transition) and are being instrumentally rational about that, whereas I'm an aspiring epistemic rationalist and want to study the deep structure if which social constructions are feasible, how we can be more reflective about them, &c.
1000
1001 Ppl with less power than Scott or Eliezer can afford to be more honest with me that they see but don't care enough to pay the cost of fighting
1002
1003 the rationalist lore here is that status makes you stupid; maybe the NRx twist is that status plus rivals/insecurity makes you stupid
1004
1005 You _can't_ optimize your group's culture for not-talking-about-atheism without also optimizing against understanding Occam's razor; you _can't_ optimize for not questioning gender self-identity without also optimizing against understanding "A Human's Guide to Words."
1006
1007 "yeah in public we say 'cis women' but tran to tran we just say 'women,' we‘re not insane lol"
1008 no transsexual is like 'from a young age all i ever wanted was to be.. cis'
1009 https://twitter.com/theorygurl/status/1062451652836446208
1010
1011 Keltham and Carissa's attitude towards Pharima mirrors my attitude towards Yudkowsky (I'm grateful for him having created me, but he can't be allowed to get away with this shit)
1012 https://www.glowfic.com/replies/1834769#reply-1834769
1013
1014 sometimes I get a cite, too—
1015 https://putanumonit.com/2022/05/02/genders-discrimination/
1016 https://axrp.net/episode/2022/05/23/episode-15-natural-abstractions-john-wentworth.html
1017
1018 People learn a lot from Godel Escher Bach, too, but they don't form an identity around Douglas Hofstadter being the most important person in the world
1019
1020 and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as possible, not do throw away your deontology too quickly.
1021
1022 > It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
1023
1024 But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
1025
1026 https://extropians.weidai.com/extropians.3Q97/4361.html
1027 > Half the time I regard myself as "an AI wannabee trapped in a male human body"
1028
1029 Nate's "missing the hard part" post is all strawmen—I'm not looking down on it because it's a blog post and not an "official" arXiv paper; I'm looking down because it's visibly low-effort
1030
1031 "What do you say to the Republican?" !!!
1032
1033 subject: "nothing left to lose; or, the end of my rope"
1034
1035 4 November 2018 email to Marcus—
1036 > Concrete anecdote about how my incredibly-filtered Berkeley social circle is nuts: at a small gathering this weekend I counted seven MtTs. (I think seven; I guess it's possible that physically-very-passable Cassandra is actually female, but given the context and her personality, I doubt it.) Plus me (a man wearing a dress and makeup), and three ordinary men, one ordinary woman, and my FtM friend. Looking up the MtTs' birthdays on Facebook was instructive in determining exactly how many years I was born too early. (Lots of 1992-3 births, so about five years.)
1037
1038 Anna thinks trust and integrity is an important resource
1039 https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
1040
1041 (You might group things together _on the grounds_ of their similarly positive consequences—that's what words like _good_ do—but that's distinct from choosing _the categorization itself_ because of its consequences.)
1042
1043 —and would be unforgivable if it weren't so _inexplicable_.
1044
1045 ... not _actually_ inexplicable. There was, in fact, an obvious explanation: that
1046
1047
1048 Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal.
1049
1050
1051 But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
1052
1053 At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's 
1054
1055
1056 Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
1057
1058 https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
1059 https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
1060
1061 [TODO: sentences about studies showing that HRT doesn't erase male advantage
1062 https://twitter.com/FondOfBeetles/status/1368176581965930501
1063 ]
1064
1065 [TODO sentences about Lia Thomas and Cece Tefler]  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's —cite South Park)
1066 https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
1067 https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
1068 https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
1069
1070 ]
1071
1072 Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. 
1073
1074 really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
1075
1076 Because of my hero worship,
1077
1078
1079 > People probably change their mind more often than they explicitly concede arguments, which is fine because intellectual progress is more important than people who were wrong performing submission.
1080 > If your interlocutor is making progress arguing against your claim X, just say, "Oh, X is a strawman, no one actually believes X; therefore I'm not wrong and you haven't won" (and then don't argue for X in the future now that you know you can't get away with it).
1081 https://twitter.com/zackmdavis/status/1088459797962215429
1082
1083 My 28 November 2018 text to Michael—
1084 > I just sent an email to Eliezer ccing you and Anna; if you think it might help inject sanity in into the world, maybe your endorsement would help insofar as Eliezer Aumman-updates [_sic_] with you?
1085 > hope all is well
1086 > just a thread reply to Eliezer that says "I trust Zack's rationality and think you should pay attention to what he has to say" (if and only if you actually believe that to be true, obviously)?
1087
1088
1089
1090 helping Norton live in the real world
1091
1092 Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus.
1093
1094 "; I don't think _anything_ about "mental health benefits to trans people" is obvious 
1095 ]
1096
1097
1098 [TODO: connecting with Aurora 8 December, maybe not important]
1099
1100 What do think submitting to social pressure looks like, if it's not exactly this thing (carefully choosing your public statements to make sure no one confuses you with the Designated Ideological Bad Guy)?!? The credible threat of being labeled an Ideological Bad Guy is _the mechanism_ the "Good" Guys use to retard potentially-ideologically-inconvenient areas of inquiry.
1101
1102 Kerry Vaughan on deferral
1103 https://twitter.com/KerryLVaughan/status/1552308109535858689
1104
1105 It's not that females and males are exactly the same except males are 10% stronger on average (in which case, you might just shrug and accept unequal outcomes, the way we shrug and accept it that some athletes have better genes). Different traits have different relevance to different sports: women do better in ultraswimming _because_ that competition is sampling a 
1106
1107 where body fat is an advantage. 
1108
1109 It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight".
1110
1111 For example, the _function_ of sex-segrated bathrooms is to _protect females from males_, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
1112
1113 all I actually want out of a post-Singularity utopia is the year 2007 except that I personally have shapeshifting powers
1114
1115 The McGongall turning into a cat parody may actually be worth fitting in—McCongall turning into a cat broke Harry's entire worldview. Similarly, the "pretend to turn into a cat, and everyone just buys it" maneuver broke my religion
1116
1117  * https://everythingtosaveit.how/case-study-cfar/#attempting-to-erase-the-agency-of-everyone-who-agrees-with-our-position  
1118
1119 Michael on EA suppressing credible criticism https://twitter.com/HiFromMichaelV/status/1559534045914177538
1120
1121 zinger from 93—
1122 > who present "this empirical claim is inconsistent with the basic tenets of my philosophy" as an argument against the _claim_
1123
1124 reply to my flipping out at Jeff Ladish
1125 https://twitter.com/ESYudkowsky/status/1356493440041684993
1126
1127 We don't believe in privacy 
1128 > Privacy-related social norms are optimized for obscuring behavior that could be punished if widely known [...] an example of a paradoxical norm that is opposed to enforcement of norms-in-general").
1129 https://unstableontology.com/2021/04/12/on-commitments-to-anti-normativity/
1130
1131 Sucking up the the Blue Egregore would make sense if you _knew_ that was the critical resource
1132 https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
1133
1134 I don't think I can use Ben's "Eliza the spambot therapist" analogy because it relies on the "running out the clock" behavior, and I'm Glomarizing—actually I think it's OK
1135
1136 This should be common sense, though
1137 https://forum.effectivealtruism.org/posts/3szWd8HwWccJb9z5L/the-ea-community-might-be-neglecting-the-value-of
1138
1139
1140 sorrow at putting on a bad performance with respect to the discourse norms of the people I'm trying to rescue/convert; I think my hostile shorthand (saying that censorship costs nothing implies some combination "speech isn't useful" and "other people aren't real" is pointing at real patterns, but people who aren't already on my side are not going to be sympathetic)
1141
1142
1143 https://twitter.com/ESYudkowsky/status/1067300728572600320
1144 > You could argue that a wise policy is that we should all be called by terms and pronouns we don't like, now and then, and that to do otherwise is coddling.  You could argue that Twitter shouldn't try to enforce courtesy.  You could accuse, that's not what Twitter is really doing.
1145
1146 https://twitter.com/ESYudkowsky/status/1067302082481274880
1147 > But Twitter is at least not *ontologically confused* if they say that using preferred pronouns is courtesy, and claim that they're enforcing a courtesy standard. Replying "That's a lie! I will never lie!" is confused. It'd be sad if the #IDW died on that hill of all hills.
1148
1149 > Acts aren't sentences, pronouns aren't lies, bathrooms aren't fundamental physical constants, and if you know what a motte-and-bailey is you're supposed to know that.
1150 https://twitter.com/ESYudkowsky/status/1067287459589906432
1151
1152 > I don't care whose point it is on this planet, the point I'm making would stand in any galaxy:  You are not standing in noble defense of Truth when you ask who gets to use which bathroom.  This is true across all possible worlds, including those with no sociologists in them.
1153 https://twitter.com/ESYudkowsky/status/1067187363544059905
1154
1155 ------
1156
1157 https://twitter.com/davidxu90/status/1436007025545125896
1158
1159
1160
1161
1162 ·
1163 Sep 9, 2021
1164 Crux: "If you say that Stalin is a dictator, you'll be shot, therefore Stalin is not a dictator" has the same structure as "If you say that trans women are male, they'll take massive psych damage, therefore trans women are not male"; both arguments should get the same response.
1165 Zack M. Davis
1166 @zackmdavis
1167 ·
1168 Sep 9, 2021
1169 Thoughts on your proposed cruxes: 1 (harmful inferences) is an unworkable AI design: you need correct beliefs first, in order to correctly tell which beliefs are harmful. 4 (non-public concepts) is unworkable for humans: how do you think about things you're not allowed words for?
1170
1171
1172 [SECTION about monastaries (with Ben and Anna in April 2019)
1173 I complained to Anna: "Getting the right answer in public on topic _X_ would be too expensive, so we won't do it" is _less damaging_ when the set of such <em>X</em>es is _small_. It looked to me like we added a new forbidden topic in the last ten years, without rolling back any of the old ones.
1174
1175 "Reasoning in public is too expensive; reasoning in private is good enough" is _less damaging_ when there's some sort of _recruiting pipeline_ from the public into the monasteries: lure young smart people in with entertaining writing and shiny math, _then_ gradually undo their political brainwashing once they've already joined your cult. (It had [worked on me](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)!)
1176
1177 I would be sympathetic to "rationalist" leaders like Anna or Yudkowsky playing that strategy if there were some sort of indication that they had _thought_, at all, about the pipeline problem—or even an indication that there _was_ an intact monastery somewhere.
1178 ]
1179
1180 > Admitting something when being pushed a little, but never thinking it spontaneously and hence having those thoughts absent from your own thought processes, remains not sane.
1181 https://twitter.com/ESYudkowsky/status/1501218503990431745
1182
1183 > a gradual shift away from STEM nerd norms to fandom geek norms [...] the pathological insistence that you're not allowed to notice bad faith
1184 https://extropian.net/notice/A7rwtky5x3vPAedXZw
1185
1186 https://www.lesswrong.com/posts/4pov2tL6SEC23wrkq/epilogue-atonement-8-8
1187 "When I have no reason left to do anything, I am someone who tells the truth."
1188
1189 https://glowfic.com/posts/6132?page=83
1190 > A tradeable medium-sized negative utility is not the same as Her really giving a shit. 
1191
1192 further post timeline—
1193 "Schelling Categories" Aug 2019
1194 "Maybe Lying Doesn't Exist" Oct 2019
1195 "Algorithms of Deception!" Oct 2019
1196 "Firming Up ..." Dec 2019
1197
1198 "Darkest Timeline" June 2020
1199 "Maybe Lying Can't Exist?!" Aug 2020
1200 "Unnatural Categories" Jan 2021
1201 "Differential Signal Costs" Mar 2021
1202
1203
1204 "Public Heretic" on "Where to Draw the Boundary?"—
1205 > But reality, in its full buzzing and blooming confusion, contains an infinite numbers of 'joints' along which it could be carved. It is not at all clear how we could say that focusing one some of those joints is "true" while focusing on other joints is "false," since all such choices are based on similarly arbitrary conventions.
1206
1207 > Now, it is certainly true that certain modes of categorization (i.e. the selection of certain joints) have allowed us to make empirical generalizations that would not otherwise have been possible, whereas other modes of categorization have not yielded any substantial predictive power. But why does that mean that one categorization is "wrong" or "untrue"? Better would seem to be to say that the categorization is "unproductive" in a particular empirical domain.
1208
1209 > Let me make my claim more clear (and thus probably easier to attack): categories do not have truth values. They can be neither true nor false. I would challenge Eliezer to give an example of a categorization which is false in and of itself (rather than simply a categorization which someone then used improperly to make a silly empirical inference).
1210
1211 Yudkowsky's reply—
1212 > PH, my reply is contained in Mutual Information, and Density in Thingspace.
1213
1214
1215 https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/K8YXbJEhyDwSusoY2
1216 > I would have been surprised if she was. Joscelin Verreuil also strikes me as being a projection of some facets of a man that a woman most notices, and not a man as we exist from the inside.
1217 >
1218 > I have never known a man with a true female side, and I have never known a woman with a true male side, either as authors or in real life.
1219
1220 https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/AEZaakdcqySmKMJYj
1221 > Could you please [taboo](Could you please taboo these?) these?
1222
1223 https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/W4TAp4LuW3Ev6QWSF
1224 > Okay. I’ve never seen a male author write a female character with the same depth as Phedre no Delaunay, nor have I seen any male person display a feminine personality with the same sort of depth and internal integrity, nor have I seen any male person convincingly give the appearance of having thought out the nature of feminity to that depth. Likewise and in a mirror for women and men. I sometimes wish that certain women would appreciate that being a man is at least as complicated and hard to grasp and a lifetime’s work to integrate, as the corresponding fact of feminity. I am skeptical that either sex can ever really model and predict the other’s deep internal life, short of computer-assisted telepathy. These are different brain designs we’re talking about here.
1225
1226 https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way/comment/7ZwECTPFTLBpytj7b
1227
1228
1229 > Duly appreciated.
1230
1231
1232
1233
1234 https://www.lesswrong.com/posts/juZ8ugdNqMrbX7x2J/challenges-to-yudkowsky-s-pronoun-reform-proposal?commentId=he8dztSuBBuxNRMSY#comments 110 karma
1235 support from Oli—
1236 > I think there is a question of whether current LessWrong is the right place for this discussion (there are topics that will attract unwanted attention, and when faced with substantial adversarial forces, I think it is OK for LessWrong to decide to avoid those topics as long as they don't seem of crucial importance for the future of humanity, or have those discussions in more obscure ways, or to limit visibility to just some subset of logged-in users, etc). But leaving that discussion aside, basically everything in this post strikes me as "obviously true" and I had a very similar reaction to what the OP says now, when I first encountered the Eliezer Facebook post that this post is responding to. 
1237 >
1238 > And I do think that response mattered for my relationship to the rationality community. I did really feel like at the time that Eliezer was trying to make my map of the world worse, and it shifted my epistemic risk assessment of being part of the community from "I feel pretty confident in trusting my community leadership to maintain epistemic coherence in the presence of adversarial epistemic forces" to "well, I sure have to at least do a lot of straussian reading if I want to understand what people actually believe, and should expect that depending on the circumstances community leaders might make up sophisticated stories for why pretty obviously true things are false in order to not have to deal with complicated political issues". 
1239 >
1240 > I do think that was the right update to make, and was overdetermined for many different reasons, though it still deeply saddens me. 
1241
1242 https://www.lesswrong.com/posts/juZ8ugdNqMrbX7x2J/challenges-to-yudkowsky-s-pronoun-reform-proposal?commentId=cPunK8nFKuQRorcNG#comments
1243 iceman—
1244 > I kinda disagree that this is a mere issue of Straussian reading: I suspect that in this (and other cases), you are seeing the raw output of Elizer's rationalizations and not some sort of instrumental coalition politics dark arts. If I was going for some sort of Straussian play, I wouldn't bring it up unprompted or make long public declarations like this.
1245 >
1246 > Zack is hypersensitive to this one issue because it interacts with his Something to Protect. But what I wonder about is where else Eliezer is trying to get away with things like this.
1247
1248
1249 https://www.glowfic.com/replies/1853001#reply-1853001
1250 > Another reason people go to Hell?  Malediction!  An Asmodean priest was using that spell on children too!  Pharasma apparently doesn't give a shit!  At best, it might be a negative weight in Her utility function that She traded to the ancient gods of Evil for something else that She wanted.  A tradeable medium-sized negative utility is not the same as Her _really giving a shit_.
1251
1252
1253 I furthermore claim that the following disjunction is true:
1254
1255 > Either the quoted excerpt is a blatant lie on Scott's part because there are rules of rationality governing conceptual boundaries and Scott absolutely knows it, or
1256 > You have no grounds to criticize me for calling it a blatant lie, because there's no rule of rationality that says I shouldn't draw the category boundaries of "blatant lie" that way.
1257
1258 there needs to be _some_ way for _someone_ to invest a _finite_ amount of effort to _correct the mistake_
1259
1260 https://twitter.com/ESYudkowsky/status/1404698587175350275
1261 > That Zack now imagines this to be a great trend [...] does seem like an avoidable error and a failure to take perspective on how much most people's lives are not about ourselves
1262
1263 I have a _seflish_ interest in people making and sharing accurate probabilistic inferences about how sex and gender and transgenderedness work in reality, for many reasons, but in part because _I need the correct answer in order to decide whether or not to cut my dick off_.
1264
1265 [TODO: in the context of elite Anglosphere culture in 2016–2022; it should be clear that defenders of reason need to be able to push back and assert that biological sex is real; other science communicators like 
1266
1267 [Dawkins can see it.](https://www.theguardian.com/books/2021/apr/20/richard-dawkins-loses-humanist-of-the-year-trans-comments) [Jerry Coyne can see it.](https://whyevolutionistrue.com/2018/12/11/once-again-why-sex-is-binary/)]
1268
1269 when I was near death from that salivary stone, I mumbled something to my father about "our people"
1270
1271
1272
1273
1274 https://www.facebook.com/yudkowsky/posts/pfbid0331sBqRLBrDBM2Se5sf94JurGRTCjhbmrYnKcR4zHSSgghFALLKCdsG6aFbVF9dy9l?comment_id=10159421833274228&reply_comment_id=10159421901809228
1275 > I don't think it *should* preclude my posting on topics like these, which is something I get the impression Zack disagrees with me about. I think that in a half-Kolmogorov-Option environment where people like Zack haven't actually been shot and you can get away with attaching explicit disclaimers like this one, it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do *know* they're living in a half-Stalinist environment, even though it hugely bugs Zack that the exact degree of Stalinism and filtration can't be explicitly laid out the way they would be in the meta-Bayesian Should Universe... or something. I think people are better off at the end of that.
1276
1277 > I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
1278
1279 ]
1280
1281 https://twitter.com/ESYudkowsky/status/1568338672499687425
1282 > I'm not interested in lying to the man in the street.  It won't actually save the world, and is not part of a reasonable and probable plan for saving the world; so I'm not willing to cast aside my deontology for it; nor would the elites be immune from the epistemic ruin.
1283
1284 The problem with uncritically validating an autodidactic's ego, is that a _successful_ autodidact needs to have an accurate model of how their studying process is working, and that's a lot harder when people are "benevolently" trying to _wirehead_ you.
1285
1286 The man is so egregiously sexist in any other context, _except_ when I need the right answer to make extremely important medical decisions
1287
1288 I don't need to be a mind-reader about how it feels because I can read, I can point to the text from 2010 and 2016+, and notice the differences
1289
1290 Maybe he was following the same sucking-off-Stalin algorithm internally the whole time (just like Anna was), and I only noticed it in 2016+ because the environment changed, not the algorithm? I doubt it, though (rather, the environment changed the algorithm)
1291
1292 http://benjaminrosshoffman.com/honesty-and-perjury/
1293
1294 origins of the strawberry example
1295 https://www.facebook.com/yudkowsky/posts/10155625884574228
1296 https://www.facebook.com/yudkowsky/posts/10154690145854228
1297 (Note: we can do this with images of strawberries! The hard problem is presumably inventing nanotech from scratch.)
1298
1299 lack of trust as a reason nothing works: https://danluu.com/nothing-works/ shouldn't the rats trust each other?
1300
1301 https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way
1302 > I think there will not be a _proper_ Art until _many_ people have progressed to the point of remaking the Art in their own image, and then radioed back to describe their paths.
1303
1304 https://www.lesswrong.com/posts/cyzXoCv7nagDWCMNS/you-re-calling-who-a-cult-leader#35n
1305 > In fact, I would say that by far the most cultish-looking behavior on Hacker News is people trying to show off how willing they are to disagree with Paul Graham
1306 I'm totally still doing this
1307
1308 > it's that it's hard to get that innocence back, once you even start thinking about whether you're _independent_ of someone
1309
1310 If Scott's willing to link to A. Marinos, maybe he'd link to my memoir, too? https://astralcodexten.substack.com/p/open-thread-242
1311 My reaction to Marinos is probably similar to a lot of people's reaction to me: geez, putting in so much effort to correct Scott's mistake is lame, what a loser, who cares
1312
1313 This is the same mechanism as "Unnatural Categories Are Optimized for Deception"!!
1314 > journalism is usually trustworthy because trustworthiness is the carrier vehicle. It's occasionally corrupt, because corruption is the payload.
1315 https://www.reddit.com/r/slatestarcodex/comments/lje3nu/statement_on_new_york_times_article/gnfrprx/?context=3
1316
1317 --------
1318
1319 23 June 2020: people are STILL citing "Categories Were Made", TWICE when people on the subreddit asked "What is Slate Star Codex"?
1320 https://www.reddit.com/r/slatestarcodex/comments/hef5es/hi_what_was_slate_star_codex/fvqv9av/
1321 https://www.reddit.com/r/slatestarcodex/comments/hef5es/hi_what_was_slate_star_codex/fvr47v1/
1322 > But the blog wasn't always on that 'side', either. Scott wrote one of the best analyses/defenses of trans identity and nonbiological definition of gender that I've ever read, and which ultimately convinced me.
1323 Yet again someone citing "Categories Were Made" as influential: https://old.reddit.com/r/TheMotte/comments/he96rm/star_slate_codex_deleted_because_of_nyt_article/fvr7h7w/
1324
1325 people are STILL citing this shit! (14 Nov): https://twitter.com/Baltimoron87/status/1327730282703835137
1326
1327 Even the enemies respect that post!
1328 https://twitter.com/KirinDave/status/1275647936194654208
1329
1330 And using it for defense.
1331
1332 Two mentions in https://www.reddit.com/r/slatestarcodex/comments/hhy2yc/what_would_you_put_in_the_essential_ssc_collection/
1333
1334 Another "Made for Man" cite: https://www.reddit.com/r/TheMotte/comments/hhtwxi/culture_war_roundup_for_the_week_of_june_29_2020/fwwxycr/
1335
1336 More damage control: https://www.reddit.com/r/slatestarcodex/comments/hpohy5/what_are_some_of_scotts_posts_that_challenge_the/fxsu8p0/
1337 (Comment was deleted. Was I over the line in commenting at all, or just because of the "transparently political reasons" side-swipe? The fact that it got ~18 points suggests the readership was OK with it, even if the moderators weren't)
1338
1339 People are still citing it! https://twitter.com/churrundo/status/1283578666425806851
1340
1341 Another new cite: https://twitter.com/FollowSamir/status/1289168867831373825
1342
1343 Another new cite: https://applieddivinitystudies.com/2020/09/05/rationality-winning/
1344
1345 Another new cite: https://www.reddit.com/r/slatestarcodex/comments/kdxbyd/this_blog_is_incredible/gg04f8c/ "My personal favorites among these are [ ], [... Not Man for the Categories], 10, and 2 in that order."
1346
1347 Another new cite: https://twitter.com/rbaron321/status/1361841879445364739
1348
1349 31 December
1350 "SSC also helped me understand trans issues" https://www.reddit.com/r/SneerClub/comments/kng0q4/mixed_feelings_on_scott_alexander/
1351
1352 Still citing it (22 Mar 21): https://twitter.com/Cererean/status/1374130529667268609
1353
1354 Still citing it (2 May 21)!!: https://eukaryotewritesblog.com/2021/05/02/theres-no-such-thing-as-a-tree/
1355
1356 Still citing it (20 October 21): https://www.reddit.com/r/TheMotte/comments/qagtqk/culture_war_roundup_for_the_week_of_october_18/hhdiyd1/
1357
1358 Still citing it (21 October 21): https://www.reddit.com/r/slatestarcodex/comments/qcrhc4/can_someone_provide_an_overview_ofintroduction_to/hhkf6kk/
1359
1360 Still citing it (15 July 21) in a way that suggests it's ratsphere canon: https://twitter.com/NLRG_/status/1415754203293757445
1361
1362 Still citing it (14 November 21): https://twitter.com/captain_mrs/status/1459846336845697028
1363
1364 Still citing it (December 21 podcast): https://www.thebayesianconspiracy.com/2021/12/152-frame-control-with-aella/
1365
1366 Still citing it (2 February 22): https://astralcodexten.substack.com/p/why-do-i-suck/comment/4838964
1367
1368 Still citing it (22 March 22): https://twitter.com/postpostpostr/status/1506480317351272450
1369
1370 Still citing it (25 March 22): https://www.reddit.com/r/TheMotte/comments/tj525b/culture_war_roundup_for_the_week_of_march_21_2022/i22z367/
1371
1372 Still citing it (13 May 22): https://forum.effectivealtruism.org/posts/FkFTXKeFxwcGiBTwk/against-longtermist-as-an-identity
1373
1374 Still citing it, in Eliezerfic Discord (18 Jul 22): https://discord.com/channels/936151692041400361/954750671280807968/998638253588631613
1375
1376 Still citing it (31 Jul 22): https://www.reddit.com/r/slatestarcodex/comments/wbqtg3/rationality_irl/
1377
1378 Still citing it (19 Sep 22): https://twitter.com/ingalala/status/1568391691064729603
1379
1380 https://arbital.greaterwrong.com/p/logical_dt/?l=5gc
1381 It even leaked into Big Yud!!! "Counterfactuals were made for humanity, not humanity for counterfactuals."
1382
1383 ------
1384
1385 If you _have_ intent-to-inform and occasionally end up using your megaphone to say false things (out of sloppiness or motivated reasoning in the passion of the moment), it's actually not that big of a deal, as long as you're willing to acknowledge corrections. (It helps if you have critics who personally hate your guts and therefore have a motive to catch you making errors, and a discerning audience who will only reward the critics for finding real errors and not fake errors.) In the long run, the errors cancel out.
1386
1387 If you _don't_ have intent-to-inform, but make sure to never, ever say false things (because you know that "lying" is wrong, and think that as long as you haven't "lied", you're in the clear), but you don't feel like you have an obligation to acknowledge criticisms (for example, because you think you and your flunkies are the only real people in the world, and anyone who doesn't want to become one of your flunkies can be disdained as a "post-rat"), that's potentially a much worse situation, because the errors don't cancel.
1388
1389 ----
1390
1391 bitter comments about rationalists—
1392 https://www.greaterwrong.com/posts/qXwmMkEBLL59NkvYR/the-lesswrong-2018-review-posts-need-at-least-2-nominations/comment/d4RrEizzH85BdCPhE
1393 https://www.lesswrong.com/posts/qaYeQnSYotCHQcPh8/drowning-children-are-rare?commentId=Nhv9KPte7d5jbtLBv
1394 https://www.greaterwrong.com/posts/tkuknrjYCbaDoZEh5/could-we-solve-this-email-mess-if-we-all-moved-to-paid/comment/ZkreTspP599RBKsi7
1395
1396 ------
1397
1398 https://trevorklee.substack.com/p/the-ftx-future-fund-needs-to-slow
1399 > changing EA to being a social movement from being one where you expect to give money
1400
1401 when I talked to the Kaiser psychiatrist in January 2021, he said that the drugs that they gave me in 2017 were Zyprexa 5mg and Trazadone 50mg, which actually seems a lot more reasonable in retrospect (Trazadone is on Scott's insomnia list), but it was a lot scarier in the context of not trusting the authorities
1402
1403 I didn't have a simple, [mistake-theoretic](https://slatestarcodex.com/2018/01/24/conflict-vs-mistake/) characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I could do was try to objectively predict the consequences of different possible conventions—and of _conflicts_ over possible conventions.
1404
1405 http://archive.is/SXmol
1406 >  "don't lie to someone if you wouldn't slash their tires" is actually a paraphrase of Steven Kaas.
1407 > ... ugh, I forgot that that was from the same Black Belt Bayesian post where one of the examples of bad behavior is from me that time when I aggro'd against Phil Goetz to the point were Michael threatened to get me banned. I was young and grew up in the feminist blogosphere, but as I remarked to Zvi recently, in 2008, we had a way to correct that. (Getting slapped down by Michael's ostracism threat was really painful for me at the time, but in retrospect, it needed to be done.) In the current year, we don't.
1408
1409
1410 _Less Wrong_ had recently been rebooted with a new codebase and a new dev/admin team. New-_Less Wrong_ had a system for post to be "Curated". Begging Yudkowsky and Anna to legitimize "... Boundaries?" with a comment hadn't worked, but maybe the mods would  (They did end up curating [a post about mole rats](https://www.lesswrong.com/posts/fDKZZtTMTcGqvHnXd/naked-mole-rats-a-case-study-in-biological-weirdness).)
1411
1412
1413
1414 Yudkowsky did [quote-Tweet Colin Wright on the univariate fallacy](https://twitter.com/ESYudkowsky/status/1124757043997372416)
1415
1416 (which I got to [cite in a _Less Wrong_ post](https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy)
1417
1418
1419 "Univariate fallacy" also a concession
1420 (which I got to cite in  which I cited in "Schelling Categories")
1421
1422
1423
1424 "Yes Requires the Possibility of No" 19 May https://www.lesswrong.com/posts/WwTPSkNwC89g3Afnd/comment-section-from-05-19-2019
1425
1426 scuffle on LessWrong FAQ 31 May 
1427
1428 "epistemic defense" meeting
1429
1430 [TODO section on factional conflict:
1431 Michael on Anna as cult leader
1432 Jessica told me about her time at MIRI (link to Zoe-piggyback and Occupational Infohazards)
1433 24 Aug: I had told Anna about Michael's "enemy combatants" metaphor, and how I originally misunderstood
1434 me being regarded as Michael's pawn
1435 assortment of agendas
1436 mutualist pattern where Michael by himself isn't very useful for scholarship (he just says a lot of crazy-sounding things and refuses to explain them), but people like Sarah and me can write intelligible things that secretly benefited from much less legible conversations with Michael.
1437 ]
1438
1439 8 Jun: I think I subconsciously did an interesting political thing in appealing to my price for joining
1440
1441 REACH panel
1442
1443 (Subject: "Michael Vassar and the theory of optimal gossip")
1444
1445
1446 Scott said he liked "monastic rationalism _vs_. lay rationalism" as a frame for the schism Ben was proposing.
1447
1448 (I wish I could use this line)
1449 I really really want to maintain my friendship with Anna despite the fact that we're de facto political enemies now. (And similarly with, e.g., Kelsey, who is like a sister-in-law to me (because she's Merlin Blume's third parent, and I'm Merlin's crazy racist uncle).)
1450
1451
1452 https://twitter.com/esyudkowsky/status/1164332124712738821
1453 > I unfortunately have had a policy for over a decade of not putting numbers on a few things, one of which is AGI timelines and one of which is *non-relative* doom probabilities.  Among the reasons is that my estimates of those have been extremely unstable.
1454
1455
1456 https://www.lesswrong.com/posts/nCvvhFBaayaXyuBiD/shut-up-and-do-the-impossible
1457 > You might even be justified in [refusing to use probabilities](https://www.lesswrong.com/lw/sg/when_not_to_use_probabilities/) at this point.  In all honesty, I really _don't_ know how to estimate the probability of solving an impossible problem that I have gone forth with intent to solve; in a case where I've previously solved some impossible problems, but the particular impossible problem is more difficult than anything I've yet solved, but I plan to work on it longer, etcetera.
1458 >
1459 > People ask me how likely it is that humankind will survive, or how likely it is that anyone can build a Friendly AI, or how likely it is that I can build one.  I really _don't_ know how to answer.  I'm not being evasive; I don't know how to put a probability estimate on my, or someone else, successfully shutting up and doing the impossible.  Is it probability zero because it's impossible?  Obviously not.  But how likely is it that this problem, like previous ones, will give up its unyielding blankness when I understand it better?  It's not truly impossible, I can see that much.  But humanly impossible?  Impossible to me in particular?  I don't know how to guess.  I can't even translate my intuitive feeling into a number, because the only intuitive feeling I have is that the "chance" depends heavily on my choices and unknown unknowns: a wildly unstable probability estimate.
1460
1461
1462
1463
1464 I don't, actually, know how to prevent the world from ending. Probably we were never going to survive. (The cis-human era of Earth-originating intelligent life wasn't going to last forever, and it's hard to exert detailed control over what comes next.) But if we're going to die either way, I think it would be _more dignified_ if Eliezer Yudkowsky were to behave as if he wanted his faithful students to be informed. Since it doesn't look like we're going to get that, I think it's _more dignified_ if his faithful students _know_ that he's not behaving like he wants us to be informed. And so one of my goals in telling you this long story about how I spent (wasted?) the last six years of my life, is to communicate the moral that 
1465
1466 and that this is a _problem_ for the future of humanity, to the extent that there is a future of humanity.
1467
1468 Is that a mean thing to say about someone to whom I owe so much? Probably. But he didn't create me to not say mean things. If it helps—as far as _I_ can tell, I'm only doing what he taught me to do in 2007–9: [carve reality at the joints](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries), [speak the truth even if your voice trembles](https://www.lesswrong.com/posts/pZSpbxPrftSndTdSf/honesty-beyond-internal-truth), and [make an extraordinary effort](https://www.lesswrong.com/posts/GuEsfTpSDSbXFiseH/make-an-extraordinary-effort) when you've got [Something to Protect](https://www.lesswrong.com/posts/SGR4GxFK7KmW7ckCB/something-to-protect).
1469
1470 ReACT seems similar to Visible Thoughts Project: https://arxiv.org/abs/2210.03629
1471
1472
1473 https://www.lesswrong.com/posts/jAToJHtg39AMTAuJo/evolutions-are-stupid-but-work-anyway?commentId=HvGxrASYAyfbiPwQt#HvGxrASYAyfbiPwQt
1474 > I've noticed that none of my heroes, not even Douglas Hofstadter or Eric Drexler, seem to live up to my standard of perfection. Always sooner or later they fall short. It's annoying, you know, because it means _I_ have to do it.
1475
1476 But he got it right in 2009; he only started to fall short _later_ for political reasons
1477
1478 https://twitter.com/ESYudkowsky/status/1580278376673120256
1479 > Your annual reminder that academically conventional decision theory, as taught everywhere on Earth except inside the MIRI-adjacent bubble, says to give in to threats in oneshot games.  Only a very rare student is bright enough to deserve blame in place of the teacher.
1480
1481 https://www.lesswrong.com/posts/9KvefburLia7ptEE3/the-correct-contrarian-cluster
1482 > Atheism:  Yes.
1483 > Many-worlds:  Yes.
1484 > "P-zombies":  No.
1485 >
1486 > These aren't necessarily simple or easy for contrarians to work through, but the correctness seems as reliable as it gets.
1487 >
1488 > Of course there are also slam-dunks like:
1489 >
1490 > Natural selection:  Yes.
1491 > World Trade Center rigged with explosives:  No.
1492
1493 I wonder how the history of the site would have been different if this had included "Racial differences in cognitive abilities: Yes." (It's worse if he didn't think about it in the first place, rather than noticing and deciding not to say it—it doesn't even seem to show up in the comments!!)
1494
1495
1496 https://www.facebook.com/yudkowsky/posts/pfbid0tTk5VoLSxZ1hJKPRMdzpPzNaBR4eU5ufKEhvvowMFTjKTHykogFfwAZge9Kk5jFLl
1497 > Yeah, see, *my* equivalent of making ominous noises about the Second Amendment is to hint vaguely that there are all these geneticists around, and gene sequencing is pretty cheap now, and there's this thing called CRISPR, and they can probably figure out how to make a flu virus that cures Borderer culture by excising whatever genes are correlated with that and adding genes correlated with greater intelligence.  Not that I'm saying anyone should try something like that if a certain person became US President.  Just saying, you know, somebody might think of it.
1498
1499
1500 commenting policy—
1501 > I will enforce the same standards here as I would on my personal Facebook garden. If it looks like it would be unhedonic to spend time interacting with you, I will ban you from commenting on my posts.
1502 >
1503 > Specific guidelines:
1504 >
1505 > Argue against ideas rather than people.
1506 > Don't accuse others of committing the Being Wrong Fallacy ("Wow, I can't believe you're so wrong! And you believe you're right! That's even more wrong!").
1507 > I consider tone-policing to be a self-fulfilling prophecy and will delete it.
1508 > If I think your own tone is counterproductive, I will try to remember to politely delete your comment instead of rudely saying so in a public reply.
1509 > If you have helpful personal advice to someone that could perhaps be taken as lowering their status, say it to them in private rather than in a public comment.
1510 > The censorship policy of the Reign of Terror is not part of the content of the post itself and may not be debated on the post. If you think Censorship!! is a terrible idea and invalidates discussion, feel free not to read the comments section.
1511 > The Internet is full of things to read that will not make you angry. If it seems like you choose to spend a lot of time reading things that will give you a chance to be angry and push down others so you can be above them, you're not an interesting plant to have in my garden and you will be weeded. I don't consider it fun to get angry at such people, and I will choose to read something else instead.
1512
1513 I tried arguing against ideas _first!_
1514
1515 I do wonder how much of his verbal report is shaped by pedagogy (& not having high-quality critics). People are very bad at imagining how alien aliens would be! "Don't try to hallucinate value there; just, don't" is simpler than working out exactly how far to push cosmopolitanism
1516
1517
1518 couldn't resist commenting even after I blocked Yudkowsky on Twitter (30 August 2021)
1519 https://www.facebook.com/yudkowsky/posts/pfbid02AGzw7EzeB6bDAwvXT8hm4jnC4Lh1te7tC3Q3h2u6QqBfJjp4HKvpCM3LqvcLuXSbl?comment_id=10159857276789228&reply_comment_id=10159858211759228
1520 Yudkowsky replies (10 September 2021)—
1521 > Zack, if you can see this, I think Twitter is worse for you than Facebook because of the short-reply constraint. I have a lot more ability to include nuance on Facebook and would not expect most of my statements here to set you off the same way, or for it to be impossible for me to reply effectively if something did come up.
1522 ("impossible to me to reply effectively" implies that I have commenting permissions)
1523
1524
1525 "Noble Secrets" Discord thread—
1526 > So, I agree that if you perform the experimental test of asking people, "Do you think truthseeking is virtuous?", then a strong supermajority will say "Yes", and that if you ask them, "And are you looking for memes about how to do actually do it?" they'll also say "Yes."
1527 >
1528 > But I also notice that in chat the other day, we saw this (in my opinion very revealing) paragraph—
1529 >
1530 > I think of "not in other people" [in "Let the truth destroy what it can—but in you, not in other people"] not as "infantilizing", but as recognizing independent agency. You don't get to do harm to other people without their consent, whether that is physical or pychological.
1531 >
1532 > My expectation of a subculture descended from the memetic legacy of Robin Hanson's blog in 2008 in which people were _actually_ looking for memes about how to seek truth, is that the modal, obvious response to a paragraph like this would be something like—
1533 >
1534 >> Hi! You must be new here! Regarding your concern about truth doing harm to people, a standard reply is articulated in the post "Doublethink (Choosing to be Biased)" (<https://www.lesswrong.com/posts/Hs3ymqypvhgFMkgLb/doublethink-choosing-to-be-biased>). Regarding your concern about recognizing independent agency, a standard reply is articulated in the post "Your Rationality Is My Business" (<https://www.lesswrong.com/posts/anCubLdggTWjnEvBS/your-rationality-is-my-business>).
1535 >
1536 > —or _something like that_. Obviously, it's not important that the reply use those particular Sequences links, or _any_ Sequences links; what's important is that someone responds to this _very obvious_ anti-epistemology (<https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology>) with ... memes about how to actually do truthseeking.
1537 >
1538 > And what we _actually_ saw in response to this "You don't get to do harm to other people" message is ... it got 5 :plus_one: reactions.
1539
1540 Yudkowsky replies—
1541 > the Doublethink page is specifically about how you yourself choosing not to know is Unwise
1542 > to the extent you can even do that rather than convincing yourself that you have
1543 > it specifically doesn't say "tell other people every truth you know"
1544 > the point is exactly that you couldn't reasonably end up in an epistemic position of knowing yourself that you ought to lie to yourself
1545
1546
1547 --------
1548
1549 My last messages in late-November fight with Alicorner Discord was 4:44 a.m./4:47 am. (!) on 28 November; I mention needing more sleep. But—that would have been 6:44 a.m. Austin time? Did I actually not sleep that night? Flipping out and writing Yudkowsky was evening of the same calendar day.
1550
1551 Sam had said professed gender was more predictive.
1552
1553 Bobbi has claimed that "most people who speak the involved dialect of English agree that ‘woman’ refers to ‘an individual who perceives themselves as a woman’"
1554
1555 Kelsey 27 November
1556 > I think you could read me as making the claim "it's desirable, for any social gender, for there to be non-medical-transition ways of signaling it"
1557
1558 27 November
1559 > I don't think linta was saying "you should believe ozy doesn't have a uterus"
1560 that would be really weird
1561
1562 > well, for one thing, "it's okay to not pursue any medical transition options while still not identifying with your asab" isn't directed at you, it's directed at the trans person
1563 My reply—
1564 > that's almost worse; you're telling them that it's okay to gaslight _everyone else in their social circle_
1565
1566 1702 27 November
1567 > Stepping back: the specific statement that prompted me to start this horrible discussion even though I usually try to keep my personal hobbyhorse out of this server because I don't want it to destroy my friendships, was @lintamande's suggestion that "it's okay to not pursue any medical transition options while still not identifying with your asab". I think I have a thought experiment that might clarify why I react so strongly to this sort of thing
1568 > Suppose Brent Dill showed you this photograph and said, "This is a photograph of a dog. Your eyes may tell you that it's a cat, but you have to say it's a dog, or I'll be very unhappy and it'll be all your fault."
1569 > In that case, I think you would say, "This is a gaslighting attempt. You are attempting to use my sympathy for you to undermine my perception of reality."
1570
1571 > Flight about to take off so can't explain, but destroying the ability to reason in public about biological sex as a predictive category seems very bad for general sanity, even if freedom and transhumanism is otherwise good
1572
1573 https://discord.com/channels/401181628015050773/458329253595840522/516744646034980904
1574 26 November 14:38 p.m.
1575 >  I'm not sure what "it's okay to not pursue any medical transition options while still not identifying with your asab" is supposed to mean if it doesn't cash out to "it's okay to enforce social norms preventing other people from admitting out loud that they have correctly noticed your biological sex"
1576
1577 In contrast to Yudkowsky's claim that you need to have invented something from scratch to make any real progress, this is a case where the people who _did_ invent something can't apply it anymore!!
1578
1579 -----
1580
1581 Examples of non-robot-cult authors using rationality skills that they visibly didn't get from being a robot-cult loyalist—
1582
1583 James C. Scott, _Domination and the Arts of Resistance: Hidden Transcripts_, Ch. 4, "False Consciousness or Laying It on Thick?", 1990
1584
1585 > The thick theory [of false consciousness] claims consent; the thin theory settles for resignation. In its most subtle form, the thin theory is eminently plausible and, some would claim, true by definition. I believe, nevertheless, that it is fundamentally wrong and hope to show why in some detail after putting it in as persuasive a form as possible, so that it is no straw man I am criticizing.
1586
1587 (Steelmanning! One of us!)
1588
1589 Kathryn Paige Harden, _The Genetic Lottery: Why DNA Matters for Social Equality_, Ch. 9, "Using Nature to Understand Nurture", 2021
1590
1591 > [P]olicies that are built on a flawed understanding of which environments are truly causal are wasteful and potentially harmful. In this specific example, even if the state of Texas was successful at delaying teenagers' sexual activity, such a change would not actually improve their mental health—and an emphasis on such programs potentially diverts investment away from educational programs that _would_ be helpful. (Proponents of teenage abstinence might argue that abstinence is a valuable end for its own sake, but that is a different justification for the policy than the empirical claim that abstinentce is a means toward increased adolencent well-being.)
1592
1593 ("Fake Optimization Critiera")
1594
1595 John Snygg, _A New Approach to Differential Geometry Using Clifford's Geometric Algebra_ (§4.7.3) recounts the Arabic mathematician al-Biruni (973–1048). 
1596
1597 > More is known about al-Briruni than most Islamic mathematicians because he included bits of autobiographical writings in some of his academic publications. In one of these, _Shadows_, he relates an encounter with a hard-line orthodox cleric. The cleric admonished al-Biruni because he had used an astronomical instrument with Byzantine months engraved on it to determine the time of prayers. Al-Briuni replied:
1598 >> "The Byzantines also eat food. Then do not imitate them in this!"
1599
1600 (Reversed Stupidity Is Not Intelligence)
1601
1602 Arthur Schopenhauer's Die Kunst, Recht zu behalten https://wiki.obormot.net/Archive/TheArtOfControversy
1603 > If human nature were not base, but thoroughly honourable, we should in every debate have no other aim than the discovery of truth; we should not in the least care whether the truth proved to be in favour of the opinion which we had begun by expressing, or of the opinion of our adversary.
1604 https://www.greaterwrong.com/posts/ExssKjAaXEEYcnzPd/conversational-cultures-combat-vs-nurture-v2/comment/4qJk3BZ2oQtFskYLh
1605
1606 -----
1607
1608 I shall be happy to look bad for _what I actually am_. (If _telling the truth_ about what I've been obsessively preoccupied with all year makes you dislike me, then you probably _should_ dislike me. If you were to approve of me on the basis of _factually inaccurate beliefs_, then the thing of which you approve, wouldn't be _me_.)
1609
1610 I guess I feel pretty naïve now, but—I _actually believed our own propoganda_. I _actually thought_ we were doing something new and special of historical and possibly even _cosmological_ significance. This does not seem remotely credible to me any more.
1611
1612 _It will never stop hurting until I write it down._ ("I've got a thick tongue / Brimming with the words that go unsung.")
1613
1614 _My_ specific identity doesn't matter; the specific identities of any individuals I mention while telling my story don't matter. What matters is the _structure_: I'm just a sample from the _distribution_ of what happens when an American upper-middle-class high-Openness high-Neuroticism late-1980s-birth-cohort IQ-130 78%-Ashkenazi obligate-autogynephilic boy falls in with this kind of robot cult in this kind of world.
1615
1616 An aside: being famous must _suck_. I haven't experienced this myself, but I'm sure it's true.
1617
1618 Oh, sure, it's nice to see your work get read and appreciated by people—I've experienced that much. (Shout-out to my loyal fans—all four of you!) But when you're _famous_, everybody wants a piece of you. The fact that your work influences _so many_ people, makes you a _target_ for anyone who wants to indirectly wield your power for their own ends. Every new author wants you to review their book; every ideologue wants you on their side ...
1619
1620 And when a crazy person in your robot cult thinks you've made a philosophy mistake that impinges on their interests, they might spend an _unreasonable_ amount of effort obsessively trying to argue with you about it.
1621
1622 ----
1623
1624 imagine being a devout Catholic hearing their local priest deliver a sermon that _blatantly_ contradicts something said in the Bible—or at least, will predictably be interpreted by the typical parishioner as contradicting the obvious meaning of the Bible, even if the sermon also admits some contrived interpretation that's _technically_ compatible with the Bible. Suppose it's an ever-so-slightly-alternate-history 2014, and the sermon suggests that Christians who oppose same-sex marriage have no theological ground to stand on.
1625
1626 You _know_ this is wrong. Okay, maybe there's _some_ way that same-sex marriage could be compatible with the Church's teachings. But you would have to _argue_ for that; you _can't_ just say there's no arguments _against_ it and call that the end of the discussion! [1 Corinthians 6:9–10](https://www.biblegateway.com/passage/?search=1+Corinthians+6%3A9-10&version=NKJV): "Do you not know that the unrighteous will not inherit the kingdom of God? Do not be deceived. Neither fornicators [...] nor homosexuals, nor sodomites [...] will inherit the kingdom of God." It's _right there_. There's [a bunch of passages like that](https://www.livingout.org/the-bible-and-ssa). You _can't possibly_ not see it.
1627
1628 As a man of faith and loyal parishioner, you would _expect_ to be able to resolve the matter by bringing your concern to the priest, who would then see how the sermon had been accidentally misleading, and issue a clarification at next week's sermon, so that the people would not be led astray from the path of God.
1629
1630 The priest doesn't agree; he insists on the contrived technically-not-heresy interpretation. This would be a shock, but it wouldn't, yet, shatter your trust in the Church as an institution. Even the priest is still a flawed mortal man.
1631
1632 Then the Pope misinterets the Bible in the same way in his next encyclical. With the help of some connections, you appeal your case all the way to the Vatican—and the Pope himself comes back with the same _bullshit_ technically-not-heresy.
1633
1634 You realize that you _cannot take the Pope's words literally_. 
1635
1636 That would be _pretty upsetting_, right? To lose faith in, not your religion itself—_obviously_ the son of God still died for our sins—but the _institution_ that claims to faithfully implement your religion, but is actually doing something else. You can understand why recovering from that might take a year or so.
1637
1638 Or maybe imagine an idealistic young lawyer working for the prosecution in the [Selective Draft Law Cases](https://en.wikipedia.org/wiki/Selective_Draft_Law_Cases) challenging the World War I draft. Since 1865, the Constitution _says_, "Neither slavery nor involuntary servitude, except as a punishment for crime whereof the party shall have been duly convicted, shall exist within the United States, or any place subject to their jurisdiction." If the words "involuntary servitude not as a punishment for a crime" _mean anything_, they surely include the draft. So the draft is unconstitutional. Right?
1639
1640 ----
1641
1642 I'm delusional to expect so much from "the community", that the original vision _never_ included tackling politically sensitive subjects. (I remember Erin recommending Paul Graham's ["What You Can't Say"](http://www.paulgraham.com/say.html) back in 'aught-nine, with the suggestion to take Graham's advice to figure out what you can't say, and then _don't say it_.)
1643
1644 It needs to either _rebrand_—or failing that, _disband_—or failing that, _be destroyed_.
1645
1646 people [(especially nonconformist nerds like us)](https://www.lesswrong.com/posts/7FzD7pNm9X68Gp5ZC/why-our-kind-can-t-cooperate) tend to impose far too many demands before being willing to contribute their efforts to a collective endeavor. That post [concludes](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining)—
1647
1648 > If the issue isn't worth your personally fixing by however much effort it takes, and it doesn't arise from outright bad faith, it's not worth refusing to contribute your efforts to a cause you deem worthwhile.
1649
1650 I think I've _more than_ met this standard. I _tried_ personally fixing the issue no matter how much effort it took! Also, the issue _does_, in fact, arise from outright bad faith. (We had [an entire Sequence](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb) about this! You lying motherfuckers!)
1651
1652 That ended up being quite a lot of effort!—but at this point I've _exhausted every possible avenue of appeal_. Arguing [publicly on the object level](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) didn't work. Arguing [publicly on the meta level](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) didn't work. Arguing privately didn't work. 
1653
1654 This is sort of what I was trying to do when soliciting—begging for—engagement-or-endorsement of "Where to Draw the Boundaries?"
1655
1656 If someone says to me, "You're right, but I can't admit this in public because it would be too politically expensive for me. Sorry," I can't say I'm not _disappointed_, but I can respect that they labor under different constraints from me.
1657
1658 But we can't even have that, because saying "You're right, but I can't admit this in public" requires _trust_. 
1659
1660 _socially load-bearing_ philosophy mistake.
1661
1662 I currently write "trans woman", two words, as a strategic concession to the shibboleth-detectors of my target audience:[^two-words] I don't want to to _prematurely_ scare off progressive-socialized readers on account of mere orthography, when what I actually have to say is already disturbing enough.)
1663
1664 [^two-words]: For the unfamiliar: the [doctrine here](https://medium.com/@cassiebrighter/please-write-trans-women-as-two-words-487f153444fb) is that "transwoman" is cissexist, because "trans" is properly an adjective indicating a type of woman.
1665
1666 Alicorn writes (re Kelsey's anorexia): "man it must be so weird to have a delusion and know it's a delusion and still have it"
1667 what's really weird is having a delusion, knowing it's a delusion, and _everyone else_ insists your delusion is true
1668 ... and I'm not allowed to say that without drawing on my diplomacy budget, which puts a permanent distance between me and the group
1669
1670 4 levels of intellectual conversation https://rationalconspiracy.com/2017/01/03/four-layers-of-intellectual-conversation/
1671
1672 If we _actually had_ magical sex change technology of the kind described in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions), no one would even consider clever philosophy arguments about how to redefine words: people who wanted to change sex would just do it, and everyone else would use the corresponding language, not as a favor, but because it straightforwardly described reality.
1673
1674 Scott said it sounded like I wasn't a 100% category absolutist, and that I would be willing to let a few tiny things through, and that our real difference is that he thought this gender thing was tiny enough to ignore, and I didn't. I thought his self-report of "tiny enough to ignore" was blatantly false: I predicted that his brain notices when trans women don't pass, and that this affected his probabilistic anticipations about them, decisions towards them, _&c._, and that when he finds out that a passing trans women is trans, then also affects his probabilistic anticipations, _&c._ This could be consistent with "tiny enough to ignore" if you draw the category boundaries of "tiny" and "ignore" the right way in order to force the sentence to come out "true" ... but you see the problem. If I took what Scott said in "... Not Man for the Categories" literally, I could make _any_ sentence true by driving a truck through the noncentral fallacy.
1675
1676
1677 Steve Sailer retweeted me today criticizing Lee Jussim https://twitter.com/zackmdavis/status/1160662220511932416
1678
1679 I'm a natural true believer in Yudkowskian ideology https://balioc.tumblr.com/post/187004568356/your-ideology-if-it-gets-off-the-ground-at-all
1680
1681 Yudkowsky's assessment of Moldbug: "Politics mindkilled him; he cannot separate the normative and the descriptive." https://www.lesswrong.com/posts/6qPextf9KyWLFJ53j/why-is-mencius-moldbug-so-popular-on-less-wrong-answer-he-s?commentId=TcLhiMk8BTp4vN3Zs#TcLhiMk8BTp4vN3Zs
1682
1683 ----
1684
1685 2019 comments to "Wilhelm"—
1686
1687 these people are at the center of the rationalist egregore and could steer it if only they were a little bit braver
1688
1689 the prevailing narrative is something like "the rationalist community is doing just fine; poor Zack is just freaking out because he's in denial about being a trans woman, and mean ol' Michael and Ben are preying on his vulnerability"
1690
1691 I'm never gonna get over this
1692 you can tell your IQ 110 hairdresser, "Men who fantasize about being women don't particularly resemble actual women", and she'll just be like, "yeah"
1693 and you tell IQ 135 "rationalists" the same thing, and it just becomes this multi-year, 30,000-word ... whatever
1694
1695 people use the word "gaslighting" to refer to the cognitive dissonance between what you're seeing and what the local egregore expects you to see
1696
1697  being trapped between two egregores is so painful / and even when it's not painful, it's confusing
1698
1699 recently-transitioned MtF Facebook acquaintance had generally positive feedback about my blog, but also says stuff like, "objective autobiography is impossible, ultimately we just tell the stories about ourselves that help us survive and thrive" / "she" went to Caltech / where are all the serious people??
1700
1701 in the new Twilight Zone episode featuring a crew of 5 astronauts, both the commander and the rebellious one are black women (who I have trouble telling apart)
1702 You sent
1703 there's a legitimate (really!) social-justice angle to this (the fact that I can't tell them apart proves that my perceptual system is RACIST)
1704 You sent
1705 (but the general phenomenon has to do with anchoring on unusual characteristics; at old dayjob, someone once confused me with the other white-guy-with-a-ponytail—we don't really look alike, but long hair on males is unusual)
1706
1707 17 March 19: "I think 'Vanessa Kosoy' is a guy I met at Summer Solstice 2016"
1708
1709 ----
1710
1711 messages with Leon about PDF templating as an easier task were on 22-23 May
1712
1713 Berkeley rat culture trains people to steer towards fake agreements rather than clarifying disagreement, because realistic models of disagreement include bad faith (being wrong because of reasons rather than randomly), which is against the principle of charity
1714
1715 Greg Egan's "Closer" (1992) predicted language models, and seemed wild at the time
1716
1717 The text of _Inadequate Equilibria_ is more modest than his rhetorical marketing blunder
1718
1719 and the BOTZ ETF I bought in 2020 has a −27.57% unrealized loss! awesome!!
1720
1721 Katie also asked "MTF?" when I told her about the Sasha disaster!!
1722
1723 27 Feb 2019: Ben playing Bad Cop, Sarah playing good cop, me as plantiff/puppydog/victim (not as a coordinated strategy; that's just how our personalities are)
1724
1725 ideological-drivenness—
1726 http://zackmdavis.net/blog/2012/11/speaking-of-addiction/
1727 http://zackmdavis.net/blog/2012/11/egoism-as-defense-against-a-life-of-unending-heartbreak/
1728
1729 I assume starting a detransition market would be not-OK
1730
1731 -----
1732
1733 FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this one additional email.
1734
1735 I'm planning on publishing the drafts linked below on [dates].
1736
1737  * "Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer" (18K words)
1738  * "A Hill of Validity in Defense of Meaning" (46K words)
1739  * "Agreeing with Stalin in Ways That Exhibit Generally Rationalist Principles" (19K words)
1740  * **"Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty"** (1.5K word summary of the parts of the Whole Dumb Story that are specifically an attack on your reputation)
1741
1742 **If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. 
1743
1744 (Or if you had something to say privately, I would _listen_; it just doesn't seem like a good use of time. I think it's undignified that I have reason to publish a post titled "Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty", but you seem very committed to not meeting my standards of intellectual honesty, so I have an interest in telling everyone else that.)
1745
1746
1747 [13 November: #drama discussion today (https://discord.com/channels/401181628015050773/458419017602826260/1041586188961714259) makes me feel like I don't want to put a "Why I Don't Trust ..." post, like it would be too cruel]
1748
1749 [no awareness that people like me or Michael or Jessica would consider this a betrayal coming from the author of the Sequences (even if it wouldn't be a betrayal coming from a generic public intellectual)]
1750
1751 ----
1752
1753 (If you weren't interested in meeting my standards for intellectual honest before, it's not clear why you would change your mind just because I spent 80,000 words cussing you out to everyone else.)
1754
1755 ----
1756
1757 https://www.lesswrong.com/posts/BbM47qBPzdSRruY4z/instead-of-technical-research-more-people-should-focus-on
1758
1759 I hate that my religion is bottlenecked on one guy
1760
1761 https://twitter.com/zackmdavis/status/1405032189708816385
1762 > Egregore psychology is much easier and more knowable than individual human psychology, for the same reason macroscopic matter is more predictable than individual particles. But trying to tell people what the egregore is doing doesn't work because they don't believe in egregores!!
1763
1764 20 June 2021, "The egregore doesn't care about the past", thematic moments at Valinor
1765
1766 You don't want to have a reputation that isn't true; I've screwed up confidentiality before, so I don't want a "good at keeping secrets" reputation; if Yudkowsky doesn't want to live up to the standard of "not being a partisan hack", then ...
1767
1768 Extended analogy between "Scott Alexander is always right" and "Trying to trick me into cutting my dick off"—in neither case would any sane person take it literally, but it's pointing at something important (Scott and EY are trusted intellectual authorities, rats are shameless about transition cheerleading)
1769
1770 Scott's other 2014 work doesn't make the same mistake
1771
1772 "The Most Important Scarce Resource is Legitimacy"
1773 https://vitalik.ca/general/2021/03/23/legitimacy.html
1774
1775 "English is fragile"
1776
1777 https://twitter.com/ESYudkowsky/status/1590460598869168128
1778 > I now see even foom-y equations as missing the point. 
1779 (!)
1780
1781 ----
1782
1783 dialogue with a pre-reader on "Challenges"—
1784
1785 > More to the point, there's a kind of anthropic futility in these paragraphs, anyone who needs to read them to understand won't read them, so they shouldn't exist.
1786
1787 I think I'm trying to humiliate the people who are pretending not to understand in front of the people who do understand, and I think that humiliation benefits from proof-of-work? Is that ... not true??
1788
1789 > No, because it makes you look clueless rather than them look clueless.
1790
1791 -----
1792
1793 compare EY and SBF
1794
1795 Scott Aaronson on the Times's hit piece of Scott Alexander—
1796 https://scottaaronson.blog/?p=5310
1797 > The trouble with the NYT piece is not that it makes any false statements, but just that it constantly _insinuates_ nefarious beliefs and motives, via strategic word choices and omission of relevant facts that change the emotional coloration of the facts that it _does_ present.
1798
1799 https://graymirror.substack.com/p/the-journalist-rationalist-showdown
1800
1801 https://twitter.com/jstn/status/1591088015941963776
1802 > 2023 is going to be the most 2005 it's been in years
1803
1804 -------
1805
1806 re the FTX debacle, Yudkowsky retweets Katja:
1807
1808 https://twitter.com/KatjaGrace/status/1590974800318861313
1809 > So I'd advocate for instead taking really seriously when someone seems to be saying that they think it's worth setting aside integrity etc for some greater good
1810
1811 I'm tempted to leave a message in #drama asking if people are ready to generalize this to Kolmogorov complicity (people _very explicitly_ setting aside integrity &c. for the greater good of not being unpopular with progressives). It's so appropriate!! But it doesn't seem like a good use of my diplomacy budget relative to finishing the memoir—the intelligent social web is predictably going to round it off to "Zack redirecting everything into being about his hobbyhorse again, ignore". For the same reason, I was right to hold back my snarky comment about Yudkowsky's appeal to integrity in "Death With Dignity": the universal response would have been, "read the room." Commenting here would be bad along the same dimension, albeit not as extreme.
1812
1813 ------
1814
1815 effects on my social life—calculating what I'm allowed to say; making sure I contribute non-hobbyhorse value to offset my hobbyhorse interruptions
1816
1817 ----
1818
1819 https://forum.effectivealtruism.org/posts/FKJ8yiF3KjFhAuivt/impco-don-t-injure-yourself-by-returning-ftxff-money-for
1820 when that happens, in EA, I often do suspect that nobody else will dare to speak the contrary viewpoint, if not me.
1821
1822 Michael, June 2019
1823 > If clarity seems like death to them and like life to us, and we don't know this, IMHO that's an unpromising basis for friendship
1824
1825 ------
1826
1827 Piper and Yudkowsky on privacy norms—
1828
1829 https://twitter.com/KelseyTuoc/status/1591996891734376449
1830 > if such promises were made, they should be kept, but in practice in the present day, they often aren't made, and if you haven't explicitly promised a source confidentiality and then learn of something deeply unethical from them you should absolutely whistleblow.
1831
1832 https://twitter.com/ESYudkowsky/status/1592002777429180416
1833 > I don't think I'd go for "haven't explicitly promised" here but rather "if you're pretty sure there was no such informal understanding on which basis you were granted that access and information".
1834
1835 ------
1836
1837 14 November conversation, he put a checkmark emoji on my explanation of why giving up on persuading people via methods that discriminate true or false amounts to giving up on the concept of intellectual honesty and choosing instead to become a propaganda AI, which made me feel much less ragey https://discord.com/channels/401181628015050773/458419017602826260/1041836374556426350
1838
1839 The problem isn't just the smugness and condescension; it's the smugness and condescension when he's in the wrong and betraying the principles he laid out in the Sequences and knows it; I don't want to be lumped in with anti-arrogance that's not sensitive to whether the arrogance is in the right
1840
1841 My obsession must look as pathetic from the outside as Scott Aaronson's—why doesn't he laugh it off, who cares what SneerClub thinks?—but in my case, the difference is that I was betrayed
1842
1843 -----
1844
1845 dath ilan on advertising (https://www.glowfic.com/replies/1589520#reply-1589520)—
1846 > So, in practice, an ad might look like a picture of the product, with a brief description of what the product does better that tries to sound very factual and quantitative so it doesn't set off suspicions.  Plus a much more glowing quote from a Very Serious Person who's high enough up to have a famous reputation for impartiality, where the Very Serious Person either got paid a small amount for their time to try that product, or donated some time that a nonprofit auctioned for much larger amounts; and the Very Serious Person ended up actually impressed with the product, and willing to stake some of their reputation on recommending it in the name of the social surplus they expect to be thereby produced.
1847
1848
1849 I wrote a Python script to replace links to _Slate Star Codex_ with archive links: http://unremediatedgender.space/source?p=Ultimately_Untrue_Thought.git;a=commitdiff;h=21731ba6f1191f1e8f9#patch23
1850
1851 John Wentworth—
1852 > I chose the "train a shoulder advisor" framing specifically to keep my/Eliezer's models separate from the participants' own models.
1853 https://www.greaterwrong.com/posts/Afdohjyt6gESu4ANf/most-people-start-with-the-same-few-bad-ideas#comment-zL728sQssPtXM3QD9
1854
1855 https://twitter.com/ESYudkowsky/status/1355712437006204932
1856 > A "Physics-ist" is trying to engage in a more special human activity, hopefully productively, where they *think* about light in order to use it better.
1857
1858 Wentworth on my confusion about going with the sqaured-error criterion in "Unnatural Categories"—
1859 > I think you were on the right track with mutual information. They key insight here is not an insight about what metric to use, it's an insight about the structure of the world and our information about the world. [...]  If we care more about the rough wall-height than about brick-parity, that’s because the rough wall-height is more relevant to the other things which we care about in the world. And that, in turn, is because the rough wall-height is more relevant to more things in general. Information about brick-parity just doesn’t propagate very far in the causal graph of the world; it's quickly wiped out by noise in other variables. Rough wall-height propagates further.
1860
1861 not interested in litigating "lying" vs. "rationalizing" vs. "misleading-by-implicature"; you can be _culpable_ for causing people to be misled in a way that isn't that sensitive to what exactly was going on in your head
1862
1863 -----
1864
1865 https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc312SMvoCrNep4smg41S3G874saF2ZRSQl?comment_id=10159410429909228&reply_comment_id=10159410748194228
1866
1867 > Zack, and many others, I think you have a vulnerability where you care way too much about the reasons that bullies give for bullying you, and the bullies detect that and exploit it.
1868
1869
1870
1871 > Everyone. (Including organizers of science fiction conventions.) Has a problem of "We need to figure out how to exclude evil bullies." We also have an inevitable Kolmogorov Option issue but that should not be confused with the inevitable Evil Bullies issue, even if bullies attack through Kolmogorov Option issues.
1872
1873 ----
1874
1875 Someone else's Dumb Story that you can read about on someone else's blog
1876
1877 all he does these days is sneer about Earth people, but he _is_ from Earth—carrying on the memetic legacy of Richard Feynmann and Douglas Hofstadter and Greg Egan
1878
1879 "Robust Cooperation in the Prisoner's Dilemma" https://arxiv.org/abs/1401.5577
1880
1881 https://www.lesswrong.com/posts/anCubLdggTWjnEvBS/your-rationality-is-my-business
1882 > One of those interests is the human pursuit of truth, which has strengthened slowly over the generations (for there was not always Science). I wish to strengthen that pursuit further, in _this_ generation. That is a wish of mine, for the Future. For we are all of us players upon that vast gameboard, whether we accept the responsibility or not.
1883
1884 https://www.washingtonexaminer.com/weekly-standard/be-afraid-9802
1885
1886 https://www.lesswrong.com/posts/TQSb4wd6v5C3p6HX2/the-pascal-s-wager-fallacy-fallacy#pART2rjzcmqATAZio
1887 > egoists, but not altruists, should immediately commit suicide in case someone is finishing their AI project in a basement, right now.
1888 (I remembered this as suggesting some plausibility in sudden Singularity even then, but in context it's more clearly in thought-experimental mode)
1889
1890 from "Go Forth and Create the Art"—
1891 > To the best of my knowledge there is _no_ true science that draws its strength from only one person. To the best of my knowledge that is _strictly_ an idiom of cults. A true science may have its heroes, it may even have its lonely defiant heroes, but _it will have more than one_. 
1892
1893 contrast Sequences-era "Study Science, Not Just Me" with dath ilan sneering at Earth
1894
1895 I have no objection to the conspiracies in Brennan's world! Because Brennan's world was just "here's a fictional world with a different social structure" (Competitive Conspiracy, Cooperative Conspiracy, &c.); sure, there was a post about how Eld Science failed, but that didn't seem like _trash talk_ in the same way
1896
1897 contrast the sneering at Earth people with the attitude in "Whining-Based Communities"
1898
1899 from "Why Quantum?" (https://www.lesswrong.com/posts/gDL9NDEXPxYpDf4vz/why-quantum)
1900 > But would you believe that I had such strong support, if I had not shown it to you in full detail? Ponder this well. For I may have other strong opinions. And it may seem to you that _you_ do't see any good reason to form such strong beliefs. Except this is _not_ what you will see; you will see simply that there _is_ no good reason for the strong belief, that there _is_ no strong support one way or the other. For our first-order beliefs are how the world seems to _be_. And you may think, "Oh, Eliezer is just opinionated—forming strong beliefs in the absence of lopsided support." And I will not have time to do another couple of months worth of blog posts.
1901 >
1902 > I am _very_ far from infallible, but I do not hold strong opinions at random.
1903
1904 Another free speech exchange with S.K. in 2020: https://www.lesswrong.com/posts/YE4md9rNtpjbLGk22/open-communication-in-the-days-of-malicious-online-actors?commentId=QoYGQS52HaTpeF9HB
1905
1906 https://www.lesswrong.com/posts/hAfmMTiaSjEY8PxXC/say-it-loud
1907
1908 Maybe lying is "worse" than rationalizing, but if you can't hold people culpable for rationalization, you end up with a world that's bad for broadly the same reasons that a world full of liars is bad: we can't steer the world to good states if everyone's map is full of falsehoods that locally benefitted someone
1909
1910 http://benjaminrosshoffman.com/bad-faith-behavior-not-feeling/
1911
1912 ------
1913
1914 https://discord.com/channels/936151692041400361/1022006828718104617/1047796598488440843
1915
1916 I'm still pretty annoyed by how easily people are falling for this _ludicrous_ "Ah, it would be bad if people _on Earth_ tried to do this, but it's OK _in dath ilan_ because of how sane, cooperative, and kind they are" excuse.
1917
1918 Exception Handling is depicted as _explicitly_ having a Fake Conspiracy section (<https://glowfic.com/replies/1860952#reply-1860952>). Why is that any more okay, than if FTX or Enron explicitly had a Fake Accounting department?
1919
1920 Isn't dath ilan just very straightforwardly being _more_ corrupt than Earth here? (Because FTX and Enron were _subverting_ our usual governance and oversight mechanisms, as contrasted to the usual governance mechanisms in dath ilan _explicitly_ being set up to deceive the public.)
1921
1922 I understand that you can _assert by authorial fiat_ that, "it's okay; no one is 'really' being deceived, because 'everybody knows' that the evidence for Sparashki being real is too implausible", and you can _assert by authorial fiat_ that it's necessary to save their world from AGI and mad science.
1923
1924 But someone writing a story about "Effective Altruism" (instead of "Exception Handling") on "Earth" (instead of "dath ilan") could just as easily _assert by authorial fiat_, "it's okay, no one is 'really' being defrauded, because 'everybody knows' that crypto is a speculative investment in which you shouldn't invest anything you can't afford to lose".
1925
1926 What's the difference? Are there _generalizable reasons_ why fraud isn't worth it (not in expectation, and not in reality), or is it just that Sam and Caroline weren't sane, cooperative, and kind enough to pull it off successfully?
1927
1928 What is "It would be OK in dath ilan, but it's not OK on Earth" even supposed to _mean_, if it's not just, "It's OK for people who genetically resemble Eliezer Yudkowsky to deceive the world as long as they have a clever story for why it's all for the greater good, but it's not OK for you, because you're genetically inferior to him"?
1929
1930 https://discord.com/channels/936151692041400361/1022006828718104617/1047374488645402684
1931
1932 A. J. Vermillion seems to be complaining that by not uncritically taking the author assertions at face value, I'm breaking the rules of the literary-criticism game—that if the narrator _says_ Civilization was designed to be trustworthy, I have no license to doubt that is "actually" is.
1933
1934 And I can't help but be reminded of a great short story that I remember reading back in—a long time ago
1935
1936 I think it must have been 'aught-nine?
1937
1938 yeah, it had to have been _late_ in 'aught-nine, because I remember discussing it with some friends when I was living in a group house on Benton street in Santa Clara
1939
1940 anyway, there was this story about a guy who gets transported to a fantasy world where he has a magic axe that yells at him sometimes and he's prophecied to defeat the bad guy and choose between Darkness and Light, and they have to defeat these ogres to reach the bad guy's lair
1941
1942 and when they get there, the bad guy (spoilers) ||_accuses them of murder_ for killing the ogres on the way there!!||
1943
1944 and the moral was—or at least, the simpler message I extracted from it was—there's something messed-up about the genre convention of fantasy stories where readers just naïvely accept the author's frame, instead of looking at the portrayed world with fresh eyes and applying their _own_ reason and their _own_ morality to it—
1945
1946 That if it's wrong to murder people with a different racial ancestry from you _on Earth_, it's _also_ wrong when you're in a fantasy kingdom setting and the race in question are ogres.
1947
1948 And that if it's wrong to kill people and take their stuff _on Earth_, it's _also_ wrong when you're in a period piece about pirates on the high seas.
1949
1950 And (I submit) if it's wrong to decieve the world by censoring scientific information about human sexuality _on Earth_, it's _also_ wrong when you're in a social-science-fiction setting about a world called dath ilan.
1951
1952 (You can _assert by authorial fiat_ that Keltham doesn't mind and is actually grateful, but you could also _assert by authorial fiat_ that the ogres were evil and deserved to die.)
1953
1954 but merely human memory fades over 13 years and merely human language is such a lossy medium; I'm telling you about the story _I_ remember, and the moral lessons _I_ learned from it, which may be very different what was actually written, or what the author was trying to teach
1955
1956 maybe I should make a post on /r/tipofmytongue/, to ask them—
1957
1958 _What was the name of that story?_
1959
1960 _What was the name of that author?_
1961
1962 (What was the name of the _antagonist_ of that story?—actually, sorry, that's a weird and random question; I don't know why my brain generated that one.)
1963
1964 but somehow I have a premonition that I'm not going to like the answer, if I was hoping for more work from the same author in the same spirit
1965
1966 that the author who wrote "Darkness and Light" (or whatever the story was called) died years ago
1967
1968 or has shifted in her emphases in ways I don't like
1969
1970 ------
1971
1972 "the absolute gall of that motherfucker"
1973 https://www.lesswrong.com/posts/8KRqc9oGSLry2qS9e/what-motte-and-baileys-are-rationalists-most-likely-to?commentId=qFHHzAXnGuMjqybEx
1974
1975 In a discussion on the Eliezerfic Discord server, I've been arguing that the fact that dath ilan tries to prevent obligate sexual sadists from discovering this fact about themselves (because the unattainable rarity of corresponding masochists would make them sad) contradicts the claim that dath ilan's art of rationality is uniformly superior to that of Earth's: I think that readers of _Overcoming Bias_ in 2008 had a concept of it being virtuous to face comfortable truths, and therefore would have overwhelmingly rejected utilitarian rationales for censoring scientific information about human sexuality.
1976
1977 ------
1978
1979 https://archive.vn/hlaRG
1980
1981 > Bankman-Fried has been going around on a weird media tour whose essential message is "I made mistakes and was careless, sorry," presumably thinking that that is a _defense_ to fraud charges, that "carelessness" and "fraud" are entirely separate categories [...] If you attract customers and investors by saying that you have good risk management, and then you lose their money, and then you say "oh sorry we had bad risk management," that is not a defense against fraud charges! That is a confession!
1982
1983 https://twitter.com/ESYudkowsky/status/1602215046074884097
1984 > If you could be satisfied by mortal men, you would be satisfied with mortal reasoning and mortal society, and would not have gravitated toward the distant orbits of my own presence.
1985
1986 it's just so weird that, this cult that started out with "People can stand what is true, because they are already doing so", has progressed to, "But what if a prediction market says they can't??"
1987
1988 "The eleventh virtue is scholarship! Study many sciences and absorb their power as your own ... unless a prediction market says that would make you less happy" just doesn't have the same ring to it, you know?
1989 "The first virtue is curiosity! A burning itch to know is higher than a solemn vow to pursue truth. But higher than both of those, is trusting your Society's institutions to tell you which kinds of knowledge will make you happy" also does not have the same ring to it, even if you stipulate by authorial fiat that your Society's institutions are super-competent, such that they're probably right about the happiness thing
1990
1991 ------
1992
1993 so, I admitted to being a motivated critic (having a social incentive to find fault with dath ilan), but that I nevertheless only meant to report real faults rather than fake faults, and Yudkowsky pointed out that that's not good enough (you also need to be looking for evidence on the other side), and that therefore didn't consider the criticism to be coming from a peer, and challenged me to say things about how the text valorizes truth
1994 (and I didn't point out that whether or not I'm a "peer"—which I'm clearly not if you're measuring IQ or AI alignment contributions or fiction-writing ability—shouldn't be relevant because https://www.lesswrong.com/posts/5yFRd3cjLpm3Nd6Di/argument-screens-off-authority, because I was eager to be tested and eager to pass the test)
1995 and I thought I wrote up some OK answers to the query
1996 (I definitely didn't say, "that's impossible because Big Yud and Linta are lying liars who hate truth")
1997 but he still wasn't satisifed on grounds of me focusing too much on what the characters said, and not what the universe said, and then when I offered one of those, he still wasn't satisfied (because the characters had already remarked on it)
1998 and I got the sense that he wanted Original Seeing, and I thought, and I came up with some Original Philosophy that connected the universe of godagreements to some of my communication theory ideas, and I was excited about it
1999 so I ran with it
2000
2001 [...]
2002
2003 Zack M. Davis — Today at 10:18 PM
2004 but the Original Philosophy that I was legitimately proud of, wasn't what I was being tested on; it legitimately looks bad in context
2005
2006 --------
2007
2008 OK, so I'm thinking my main takeaways from the Eliezerfic fight is that I need to edit my memoir draft to be both _less_ "aggressive" in terms of expressing anger (which looks bad and _far more importantly_ introduces distortions), and _more_ "aggressive" in terms of calling Yudkowsky intellectually dishonest (while being _extremely clear_ about explaining _exactly_ what standards I think are not being met and why that's important, without being angry about it).
2009
2010 The standard I'm appealing to is, "It's intellectually dishonest to make arguments and refuse to engage with counterarguments on political grounds." I think he's made himself very clear that he doesn't give a sh—
2011
2012 (no, need to avoid angry language)
2013
2014 —that he doesn't consider himself bound by that standard.
2015
2016 ----
2017
2018
2019 Fool! There is no Equilibrium
2020
2021 and you'd think that people who are so obsessed with prediction markets (whose trustworthiness does not stem from individual traders having unimpeachably perfect cognition) would be able to appreciate the value of the somewhat older social technology of ... debate
2022
2023 > god i feel like writing this all out is explaining something that's always felt weird to me about the whole concept of stories and science fiction stories in particular. *i have been living inside a science fiction story written by eliezer yudkowsky*
2024 https://twitter.com/QiaochuYuan/status/1542781304621518848
2025
2026 Said Achmiz on Eliezer's degeneration—
2027 https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=kS4BfYJuZ8ZcwuwfB
2028 https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=4kLTSanNyhn5H8bHv
2029
2030 > What I'm saying is that, in the discussion as a whole, which is constituted by the post itself, plus comments thereon, plus related posts and comments, etc., an author has an obligation to respond to reader inquiries of this sort.
2031 >
2032 > As for where said obligation comes from—why, from the same place as the obligation to provide evidence for your claims, or the obligation to cite your sources, or the obligation not to be logically rude, or the obligation to write comprehensibly, or the obligation to acknowledge and correct factual errors, etc., etc.—namely, from the fact that acknowledging and satisfying this obligation reliably leads to truth, and rejecting this obligation reliably leads to error. In short: it is _epistemically rational_.
2033
2034 Namespace on standing and warrant—
2035 https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=c7Xt5AnHwhfgYY67K
2036
2037 I've been playing a Dagny Taggart strategy
2038 https://twitter.com/zackmdavis/status/1606718513267486721
2039
2040 Michael 19 April 2019—
2041 > Intellectualism to survive, has to distinguish between having been betrayed and having been defeated. The difference is frequently known as "courage".  It's absence causes people like Aaronson, without ever becoming complicit, to nonetheless transition directly from denial of a crisis to advocacy of "The Kolmagorov Option".  
2042
2043 during the dispute with James, Jonah said it seemed like the future beyond a year wasn't real to me (this also explains my behavior in college)
2044
2045 you can't trust his behavior, even if you can trust his "conscious intent" which conveniently doesn't do anything
2046
2047 https://twitter.com/ben_r_hoffman/status/1608191251991662592
2048 > Keeping a secret is like casting the killing curse—it might be the best option available in a conflict, but even when it's the least bad option it tears your soul a bit regardless.
2049
2050 https://twitter.com/ESYudkowsky/status/1599889168234336257
2051 > One of the retrospective less-obvious lessons of the #FTX blowup:  We should have been more worried about the early split in Alameda where half the people left with @Tara_MacAulay to run a less wild trading company.  In retrospect that probably evaporated off everyone sane!
2052
2053 Likewise, we should have been more worried about the Vassar split; in retrospect that probably evaporated off everyone principled
2054
2055 The thing that makes Earth bad is that everyone is lying about everything all the time, and when you challenge them on it, they have some clever rationalization for why it isn't really bad.
2056
2057 https://manifold.markets/Alicorn/will-my-son-successfully-get-a-bath#
2058 I'm not allowed to say, "Which one?"—it's known that I'm the sort of person who believes that, but I'm not allowed to puncture the shared reality
2059
2060 I said I perceived a nearest-unblocked-strategy pattern, where I'm trying to optimize my goals subject to the constraint of maintaining good diplomatic relations. But Anna points out that if I internalized "good diplomatic relations" as my own goal
2061
2062 Speaking of coordination: you know what's useful for coordination? Principles! Common knowledge!
2063
2064 the post introducing the litany of Gendlin was literally titled "You _Can_ Face Reality"
2065 https://www.lesswrong.com/posts/HYWhKXRsMAyvRKRYz/you-can-face-reality
2066
2067 Re: "it's deception aimed at crazy people"—but if you're so casual about deceiving crazy people, you probably don't care much about sane non-Keepers, either. (Same energy: if your date is rude to the waiter, he won't be a good partner, either. Or parents who lie to their kids for convenience.)—and in fact, empathy towards crazy people _is_ shown in the section on Thellim's mother in "but hurting people is wrong"
2068
2069 "Criticism not welcome, it's just a story; if you don't like it, don't read it" works for normal glowfic, but it doesn't work when you're earnestly spreading memes about how your fictional Society is superior to our Earth; if you're going to make _that_ claim in earnest, you should expect people to subject your fictional Society to scrutiny to check whether it holds together
2070
2071 Clara says to just roll your eyes and ignore him, but in a way, that seems _more_ disrespectful—to just _write someone off_, rather than having faith that they can be reached by argument
2072
2073 There's a difference between jokes where the audience is supposed to "get the joke" (and you're willing to accept collateral damage to people who didn't get the joke), and political moves where 
2074
2075 When he says "no one but Zack M. Davis would have said anything where you could hear it", I regard that as an abject failure of the community, but he regards it has "working as intended"?
2076
2077 Vassar had once praised me as "Zack is pretty much always right" (when I express an opinion; he still thought I was dumb/unperceptive), and I accepted the praise that it wasn't meant literally—but if someone had a longstanding dispute with me and objected to the praise, I would fundamentally "get" why they were objecting (they don't want Vassar encouraging people to defer to me), rather than assuming _they_ thought it was meant literally
2078
2079 I did "get what I needed" out of the Eliezerfic fight (before, I still had anxiety about whether I should email him before publishing this memoir; and now, I don't)
2080
2081 He could have saved, like, six years of my life, if the March 2016 post had said, "I think 30% of males are gender-dysphoric and might benefit from transitioning"
2082
2083 Fri 14 Jul 2017
2084 (03:54:42 PM) alicorn24: holy fuck that is a lot of money
2085 (03:54:53 PM) alicorn24: when I read that blog post I was imagining you'd like, throw fifty bucks at some people
2086 (03:55:06 PM) zackmdavis@yahoo.com: what? that would be insulting
2087 (03:57:46 PM) zackmdavis@yahoo.com: there's a calibration thing about being a San Francisco software engineer; and, April could have been really really much worse if I didn't have friends
2088
2089 "probably won't understand" self-comments—
2090 https://www.greaterwrong.com/posts/vjmw8tW6wZAtNJMKo/which-parts-are-me/comment/gYSsBbZ6xvaf2b3Eh
2091 https://www.greaterwrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions/comment/pK9JHSTTnnpjbbqZp
2092 https://www.greaterwrong.com/posts/WijMw9WkcafmCFgj4/do-scientists-already-know-this-stuff/comment/EFg4p7KRbthgH3SnR
2093 https://www.greaterwrong.com/posts/r5H6YCmnn8DMtBtxt/you-are-a-brain/comment/CsqYAeCPnsAsdQb7d
2094 https://www.greaterwrong.com/posts/QB9eXzzQWBhq9YuB8/rationalizing-and-sitting-bolt-upright-in-alarm/comment/2FfTFrA7iKK6kxqMq
2095
2096 I should have said: _You_ are a product of your time. _Eliezer_ has no integrity. Or rather, he's forgotten that you can't define the word "integrity" any way you want.
2097
2098 I talked in #drama _about_ talking in Eliezerfic because it seemed like a free action, but the fact that I felt crummy/depressed afterwards suggests that it wasn't actually a free action (but still a substantial discount compared to screwing up in a Yudkowsky-hosted space)
2099
2100 my father's men's group kicked out a gay man (who was at least still male!); women are too nice to eject MtFs
2101
2102 "Something to Protect" says: "you should never _actually_ end up deliberately believing a useful false statement" (but it's OK for Civilization to end up engineering that you do)
2103
2104 explainxkcd.com/wiki/index.php/1425:_Tasks  "I'll need a research team and five years" September 2014
2105
2106 May 2019: David MacIver is in on it, too! https://www.drmaciver.com/2019/05/the-inner-sense-of-gender/#comment-366840
2107
2108 "whosever lies _in a journal article_ is guilty of utter heresy"
2109
2110 first I ordered _Nevada_ 24 March 2016; first ordered _MTiMB_ on 6 August 2016
2111 ordered additional copies of MTiMB 14 September 2016 and 19 December 2016 
2112
2113 > We passed word to the Fake Conspiracy section of Exception Handling, and they've spent the last few hours quickly planting evidence consistent with how Civilization should look if the Sparashki are real.  The notion being that their apparent fictional status and licensing is just a cover, so Sparashki can walk around if they have to and just get compliments on their incredible cosplay.  Since this event is medium-secret, the CEO of Yattel's Less Expensive Tunneling Machines has been photographed by surprise through a window, looking like a Sparashki, to explain why conspiracy-theoretic research is suddenly focusing there and turning up the evidence we've planted."
2114 https://glowfic.com/replies/1860952#reply-1860952
2115
2116 the generic experience is that the future is more capable but less aligned, and we basically expect this to continue
2117 people from the past would envy our refrigeration, vaccines, infinite food, &c., but that doesn't mean they would regard our value-drifted-with-respect-to-them culture as superior
2118 paperclipping is just that turned up to 11 (well, 10¹¹)
2119
2120 Bostrom's apology for an old email—who is this written for?? Why get ahead, when you could just not comment?
2121
2122 [TODO:
2123
2124 https://twitter.com/ESYudkowsky/status/1404697716689489921
2125 > I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
2126
2127 If you think it "sometimes personally prudent and not community-harmful" to go out of your way to say positive things about Republican candidates and never, ever say positive things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
2128
2129 https://www.facebook.com/yudkowsky/posts/10154110278349228
2130 > Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
2131 > ==DOES ALL OF THE HAPPY DANCE FOREVER==
2132
2133 https://twitter.com/ESYudkowsky/status/1404821285276774403
2134 > It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
2135 ]
2136
2137 the rats were supposed to be an alternative to academic orthodoxy (such that we could just jump to the correct decision theory without the political fighting needing to dethrone CDT), but we're still under the authority of the egregore
2138
2139 (from October 2016 email to Scott)
2140 This is not an advanced rationalist skill! This is the "distinguishing fantasy from reality" skill! People will quote your "Categories Were Made for the Man" in defense of the idea that someone can be biologically male, think of themselves as a boy, be thought of by others as a boy, and yet still actually have been a girl at the time by virtue of deciding to transition years later. I've been told that "Gender is a floating tag which has one substantial consequence, which is comfort of the people being addressed"!
2141
2142 https://www.glowfic.com/replies/1612937#reply-1612937
2143 > Citizens can't control processes they can't see.  For that clever-reason it was then illegal for any of the Nine Legislators to meet with each other, or speak with any Representative, except as a matter of public record.
2144
2145 November 5, 2019
2146 11/5/19, 2:09 AM
2147 Ziz
2148 Ziz
2149 To your memory, am I under any confidentiality agreements with you? Or did we mutually release each other from the only one that one time?
2150 November 5, 2019
2151 11/5/19, 9:24 AM
2152 You sent
2153 you are not under any confidentiality agreements with me
2154
2155 https://www.glowfic.com/replies/1764946#reply-1764946
2156 > This is Keltham desperately pretending not to be at all starstruck, because he was not previously way into the Merrin fandom but even he has heard of the Ordinary Merrin Conspiracy, wherein Merrin has some weird psychological hangup about believing she is a totally normal and ordinary person or even something of a struggling low achiever, and everybody in Civilization is coordinating to pretend around her that ordinary normal people totally get their weird Exception Handling training scenarios televised to a million watchers on a weekly basis.
2157
2158 > It makes her - simultaneously an ultra-high-achieving role model who's much more famous than you are, and also, somebody who's committing this very large cognitive error where you know better than her about it.  Which is not usually something you can say about a major public figure, you would not usually expect to be in a position where you would ever know about a cognitive error a public figure was committing, because they'd already have advisors much much smarter than you.  But if you screw Merrin, you're not, like, just some strictly vastly inferior being that she's allowed into her cuddleroom.  There is at least one topic you could totally win an argument with her about, as judged by impartial judges: namely, is she in fact a fairly ordinary person really.  But you must never ever mention it in front of her.
2159
2160 for normal people, when your favorite author gets worse, you just shrug and accept it and enjoy the classics, but when your favorite author is also the Pope of your religion and also in several Discord servers with you, you end up wasting a lot of time scrutinizing their emoji-reacts
2161
2162 For the unfamiliar: the [doctrine here](https://medium.com/@cassiebrighter/please-write-trans-women-as-two-words-487f153444fb) is that "trans" is an adjective indicating a type of woman. 
2163
2164 I write the space everywhere because that's the dominant usage ([since 2011](https://books.google.com/ngrams/graph?content=transman%2Ctrans+man%2Ctranswoman%2Ctrans+woman&year_start=2000&year_end=2022), according to Google ngrams). I don't want to turn off potential readers by failing a simple shibboleth test; I want those readers to be turned off by my actual ideas.
2165
2166 (_I_ don't censor my comment sections of people whom it "looks like it would be unhedonic to spend time interacting with".)
2167
2168 -----
2169
2170  * Yudkowsky is _on the record_ [claiming that](https://www.facebook.com/yudkowsky/posts/10154078468809228) "for people roughly similar to the Bay Area / European mix", he is "over 50% probability at this point that at least 20% of the ones with penises are actually women". What ... does that mean? What is the _truth condition_ of the word 'woman' in that sentence? This can't be the claim that 20% of males would benefit from a gender transition, and in that sense _become_ "transsexual women"; the claim stated in the post is that members of this group are _already_ "actually women", "female-minds-in-male-bodies". How does Yudkowsky reconcile this claim with the perponderance of male-typical rather than female-typical behavior in this group (_e.g._, in gynephilic sexual orientation, or [in vocational interests](/2020/Nov/survey-data-on-cis-and-trans-women-among-haskell-programmers/))? On the other hand, if Yudkowsky changed his mind and no longer believes that 20% of Bay Area males of European descent have female brains, can he state that for the public record? _Reply!_
2171  
2172  * Yudkowsky is _on the record_ [claiming that](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159423713134228) he "do[es] not know what it feels like from the inside to feel like a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." As I explained in "Challenges to Yudkowsky's Pronoun Reform Proposal", [quoting examples from Yudkowsky's published writing in which he treated sex and pronouns as synonymous just as one would expect a native American English speaker born in 1979 to do](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/#look-like-an-oliver), this self-report is not plausible. The claim may not have been a "lie" _in the sense_ of Yudkowsky consciously harboring deliberative intent to deceive at the time he typed that sentence, but it _is_ a "lie" in the sense that the claim is _false_ and Yudkowsky _knows_ it's false (although its falsehood may not have been salient in the moment of typing the sentence). If Yudkowsky expects people to believe that he never lies, perhaps he could correct this accidental lie after it's been pointed out? _Reply!_
2173
2174 -----
2175
2176 > Well, YES.  Paying taxes to the organization that runs ICE, or voting for whichever politician runs against Trump, or trading with a doctor benefiting from an occupational licensing regime; these acts would all be great evils if you weren't trapped.
2177 https://twitter.com/ESYudkowsky/status/1216788984367419392
2178
2179 https://twitter.com/jd_pressman/status/1617257360933945344
2180 > And that the current discourse of "don't advance capabilities, don't think about SOTA, stop thinking, pursue orthogonal directions" is basically about maximizing confusion, minimizing the probability you have any chance of pulling alignment out of the distribution of AI ideas.
2181
2182 https://www.glowfic.com/replies/1897710#reply-1897710
2183 > a dath ilani tragedy isn't about the triumph of Evil over Good.  It's about the triumph of erroneous reasoning and ill-coordination over everyone
2184
2185 https://www.glowfic.com/replies/1735044#reply-1735044
2186 > my suspicion is that not many sadists in dath ilan know what they are and Civilization tries to prevent us from finding out, because dath ilan does not have masochists.
2187
2188 https://www.truthdig.com/dig/nick-bostrom-longtermism-and-the-eternal-return-of-eugenics/
2189
2190 https://graymirror.substack.com/p/the-boomer-map
2191 > The lower class _wants_ an upper class it can genuinely look up to. The feeling that Harvard has gone insane is like realizing that Mom and Dad are both on heroin.
2192
2193 25 January 2022: I hesitated for a long time before leaving a comment about Cicero on the Alexander/Yudkowsky dialogue, shows I'm still culty (calculating whether I'm allowed to speak on a post he coauthored; I linked "EA should blurt")
2194
2195 J.D.P. on rationalism's failure
2196 https://extropian.net/notice/ARvZ3pimn8JQIe4yGG
2197
2198 Friend of the blog Ninety-Three—
2199 > It's like admiring a society that solves crime by having secret police shoot all bad people in the head. What the fuck!? I suddenly have empathy for the experience of seeing your cult defiled. If I got Isekaied onto dath ilan I would _become a terrorist_.
2200
2201 (Terrorism wouldn't work)
2202
2203 Sep 27 text to "Rebecca"—
2204 In theory, the bad influence could go both ways: first, successful playdate, then I mention to A. afterwards (not before) that C. is actually a boy and I think it's crazy everyone is pretending otherwise (which remark is out of their censorship jurisdiction); then if C. wants a repeat with new friend (far from guaranteed, but plausible), it's not your fault if A. leaks information of her own will ...
2205
2206
2207 https://www.lesswrong.com/posts/3nDR23ksSQJ98WNDm/developmental-stages-of-gpts?commentId=wqaCY4hQQTuqqJ7Ma  28 July 2020
2208 > I'd love to know of a non-zero integer number of plans that could possibly, possibly, possibly work for not dying to a GPT-style near-term AGI.
2209
2210 calculating whether I was "net positive"—I don't know what can be said about the relationship between quantum randomness and macroscopic outcomes, but it seems plausible that there are Everett branches where I died from that salivary stone in 2008
2211
2212 From "My Way"—
2213
2214 > far enough that the art she learned from others fails her, so that she must remake her shattered art in her own image and in the image of her own task. And then tell the rest of us about it.
2215
2216 > But what I'm finding is not just _the_ Way, the thing that lies at the center of the labyrinth; it is also _my_ Way, the path that I would take to come closer to the center, from whatever place I started out.
2217
2218 > I think there will not be a _proper_ Art until _many_ people have progressed to the point of remaking the Art in their own image, and then radioed back to describe their paths.
2219
2220
2221 depression-based forecasting in conversation with Carl
2222 > seems more ... optimistic, Kurzweilian?... to suppose that the tech gets used correctly the way a sane person would hope it would be used
2223
2224 I like this sentence (from "The Matrix Is a System")—
2225 > If someone is a force on your epistemics towards the false, robustly to initial conditions and not as a fluke, that person is hostile.
2226
2227 An analogy between my grievance against Yudkowsky and Duncan's grievance against me: I think Yudkowsky is obligated to search for and present "anti-trans" arguments in conjunction with searching for and presenting "pro-trans" arguments. Duncan (I'm wildly guessing??) thinks I'm obligated to search for and present "pro-Duncan" and addition to "anti-Duncan" arguments?? A key disanalogy: Yudkowsky is _afraid_ to post "anti-trans" content; I'm not afraid to post pro-Duncan content; I just think agreements are less interesting than disagreements. To prove the disanalogy, maybe I should write a "Things I Liked About 'Basics of Rationalist Discourse'" post as a peace offering??
2228
2229 "Let's not talk to Eliezer." "He's sad and confusing" Commentary reference??
2230
2231 https://equilibriabook.com/molochs-toolbox/
2232
2233 > All of her fellow employees are vigorously maintaining to anybody outside the hospital itself, should the question arise, that Merrin has always cosplayed as a Sparashki while on duty, in fact nobody's ever seen her out of costume; sure it's a little odd, but lots of people are a little odd.
2234 >
2235 > (This is not considered a lie, in that it would be universally understood and expected that no one in this social circumstance would tell the truth.)
2236
2237 I still had Sasha's sleep mask
2238
2239 "Wilhelm" and Steven Kaas aren't Jewish, I think
2240
2241 I agree that Earth is mired in random junk that caught on (like p-values), but ... so are the rats
2242
2243 I'm https://www.lesswrong.com/posts/XvN2QQpKTuEzgkZHY/?commentId=f8Gour23gShoSyg8g at gender and categorization
2244
2245 picking cherries from a cherry tree
2246
2247 http://benjaminrosshoffman.com/honesty-and-perjury/#Intent_to_inform
2248
2249 https://astralcodexten.substack.com/p/trying-again-on-fideism
2250 > I come back to this example less often, because it could get me in trouble, but when people do formal anonymous surveys of IQ scientists, they find that most of them believe different races have different IQs and that a substantial portion of the difference is genetic. I don’t think most New York Times readers would identify this as the scientific consensus. So either the surveys - which are pretty official and published in peer-reviewed journals - have managed to compellingly misrepresent expert consensus, or the impressions people get from the media have, or "expert consensus" is extremely variable and complicated and can’t be reflected by a single number or position.
2251
2252 https://nickbostrom.com/astronomical/waste
2253
2254 Michael Vassar has _also_ always been a very complicated person who's changed his emphases in ways Yudkowsky dislikes
2255
2256
2257 [TODO:
2258 Is this the hill _he_ wants to die on? If the world is ending either way, wouldn't it be more dignified for him to die _without_ Stalin's dick in his mouth?
2259
2260 > The Kiritsugu shrugged. "When I have no reason left to do anything, I am someone who tells the truth."
2261 https://www.lesswrong.com/posts/4pov2tL6SEC23wrkq/epilogue-atonement-8-8
2262
2263  * Maybe not? If "dignity" is a term of art for log-odds of survival, maybe self-censoring to maintain influence over what big state-backed corporations are doing is "dignified" in that sense
2264 ]
2265
2266 The old vision was nine men and a brain in a box in a basement. (He didn't say _men_.)
2267
2268 Subject: "I give up, I think" 28 January 2013
2269 >  You know, I'm starting to suspect I should just "assume" (choose actions conditional on the hypothesis that) that our species is "already" dead, and we're "mostly" just here because Friendly AI is humanly impossible and we're living in an unFriendly AI's ancestor simulation and/or some form of the anthropic doomsday argument goes through. This, because the only other alternatives I can think of right now are (A) arbitrarily rejecting some part of the "superintelligence is plausible and human values are arbitrary" thesis even though there seem to be extremely strong arguments for it, or (B) embracing a style of thought that caused me an unsustainable amount of emotional distress the other day: specifically, I lost most of a night's sleep being mildly terrified of "near-miss attempted Friendly AIs" that pay attention to humans but aren't actually nice, wondering under what conditions it would be appropriate to commit suicide in advance of being captured by one. Of course, the mere fact that I can't contemplate a hypothesis while remaining emotionally stable shouldn't make it less likely to be true out there in the real world, but in this kind of circumstance, one really must consider the outside view, which insists: "When a human with a history of mental illness invents a seemingly plausible argument in favor of suicide, it is far more likely that they've made a disastrous mistake somewhere, then that committing suicide is actually the right thing to do."
2270
2271
2272 [TODO—
2273
2274 The human era wasn't going to last forever. Turing saw it in 1951. ("It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. [...] At some stage therefore we should have to expect the machines to take control[.]") _George Eliot_ [saw it in _1880_](http://www.online-literature.com/george_eliot/theophrastus-such/17/). ("Am I already in the shadow of the coming race? And will the creatures who are to transcend and supercede us be steely organisms, giving off the effluvia of the laboratory and performing with infallible exactness more than everything that we have performed with a slovenly approximativeness and self-defeating inaccuracy?")
2275
2276  * I've believed since Kurzweil that technology will remake the world sometime in the 21th century; it's just "the machines won't replace us, because we'll be them" doesn't seem credible
2277
2278 list of lethalities
2279
2280  * I agree that it would be nice if Earth had a plan; it would be nice if people figured out the stuff Yudkowsky did earlier;
2281
2282 Isaac Asimov wrote about robots in his fiction, and even the problem of alignment (in the form of his Three Laws of Robotics), and yet he still portrayed a future Galactic Empire populated by humans, which seems very silly.
2283
2284 /2017/Jan/from-what-ive-tasted-of-desire/
2285
2286 ]
2287
2288 > Similarly, a rationalist isn't just somebody who respects the Truth.
2289 > All too many people respect the Truth.
2290 > [...]
2291 > A rationalist is somebody who respects the _processes of finding truth_.
2292 https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms
2293
2294 > Why is school like a boner?
2295 > It’s long and hard unless you're Asian.
2296
2297 Robert Heinlein
2298 > “What are the facts? Again and again and again – what are the facts? Shun wishful thinking, ignore divine revelation, forget what “the stars foretell,” avoid opinion, care not what the neighbors think, never mind the unguessable “verdict of history” – what are the facts, and to how many decimal places? You pilot always into an unknown future; facts are your single clue. Get the facts!”
2299 https://www.goodreads.com/quotes/38764-what-are-the-facts-again-and-again-and-again
2300
2301
2302       "sender_name": "Zack M. Davis",
2303       "timestamp_ms": 
2304       "content": "at this point, I actually am just starting to hate trans women by default (the visible kind, not the androphilic early-transitioning kind); the \"indulging a mental illness that makes them want to become women\" model is waaaaay more accurate than the standard story, and the people who actually transition are incentivized/selected for self-delusion, which is really unfair to the people who aren't delusional about it",
2305       "type": "Generic"
2306     },
2307       "sender_name":
2308       "timestamp_ms": [Sat Jan 21 10:06:17 PST 2017]
2309       "content": "I'm afraid to even think that in the privacy of my own head, but I agree with you that is way more reasonable",
2310       "type": "Generic"
2311
2312 "but the ideological environment is such that  a Harvard biologist/psychologist is afraid to notice blatantly obvious things in the privacy of her own thoughts, that's a really scary situation to be in (insofar as we want society's decisionmakers to be able to notice things so that they can make decisions)",
2313
2314 In October 2016,
2315
2316
2317 if [...] wrote her own 10,600 draft Document explaining why she thought [...] is actually a girl, that would be really interesting!—but rather that no one else seemed _interested in having a theory_, as opposed to leaping to institute a social convention that, when challenged, is claimed to have no particular consequences and no particular objective truth conditions, even though it's not clear why there would be moral urgency to implement this convention if it weren't for its consequences.
2318
2319 https://twitter.com/ESYudkowsky/status/1634338145016909824 re "malinformation"
2320 > If we don't have the concept of an attack performed by selectively reporting true information—or, less pleasantly, an attack on the predictable misinferences of people we think less rational than ourselves—the only socially acceptable counter is to say the info is false.
2321
2322 I said that I couldn't help but be reminded of a really great short story that I remembered reading back in—it must have been 'aught-nine. I thought it was called  "Darkness and Light", or something like that. It was about a guy who gets transported to a fantasy world where he has a magic axe that yells at him sometimes, and he's prophecied to defeat the bad guy, and he and his allies have to defeat these ogres to reach the bad guy's lair. And when they get there, the bad guy _accuses them of murder_ for killing the ogres on the way there.
2323
2324 (The story was actually Yudkowsky's ["The Sword of Good"](https://www.yudkowsky.net/other/fiction/the-sword-of-good), but I was still enjoying the "Robin Hanson's blog" æsthetic.)
2325
2326 And the moral was—or at least, the moral _I_ got out of it was—there's something messed-up about the way fiction readers just naïvely accept the author's frame, instead of looking at the portrayed world with fresh eyes and applying their _own_ reason and their _own_ morality to it.
2327
2328 need to fit this in somewhere—
2329 "Gee, I wonder why women-who-happen-to-be-trans are so much more likely to read Slate Star Codex, and be attracted to women, and, um, have penises, than women-who-happen-to-be-cis?"
2330
2331 Everyone believed this in 2005! Everyone _still_ believes this!
2332
2333
2334 > Dear Totally Excellent Rationalist Friends:
2335 > As a transhumanist and someone with a long, long history of fantasizing about having the property, I am of course strongly in favor of there being social norms and institutions that are carefully designed to help people achieve their lifelong dream of acquiring the property, or rather, the best approximation thereof that is achievable given the marked limitations of existing technology.
2336 > However, it's also kind of important to notice that fantasizing about having the property without having yet sought out interventions to acquire the property, is not the same thing as somehow already literally having the property in some unspecified metaphysical sense! The process of attempting to acquire the property does not propagate backwards in time!
2337 > This is not an advanced rationality skill! This is the "distinguishing fantasy from reality" skill! I realize that explaining this in clear language has the potential to hurt some people's feelings! Unfortunately, as an aspiring epistemic rationalist (epistemic rationality is the only kind of rationality; "instrumental rationality" is a phrase someone made up in order to make themselves feel better about lying), I have a GODDAMNED MORAL RESPONSIBILITY to hurt that person's feelings!
2338 > People should get what they want. We should have social norms that are carefully designed to help people get what they want. Unfortunately, helping people get the things that they want is a hard problem, because people are complicated and the world is complicated. That's why, when renegotiating social norms to apply to a historically unprecedented situation, it's important to have a meta-norm of not socially punishing people for clearly describing a hypothesis about the nature of the problem people are trying to solve, even if the hypothesis hurts someone's feelings, and even if there would probably be genuinely bad consequences if the hypothesis were to be believed by the masses of ordinary dumb people who hate our guts anyway.
2339 > I'm proud of my history of fantasizing about having the property, and I'm proud of my rationalist community, and I don't want either of them taken over by CRAZY PEOPLE WHO THINK THEY CAN EDIT THE PAST.
2340 (170 comments)
2341
2342
2343 > So, unfortunately, I never got very far in the _Daphne Koller and the Methods of Rationality_ book (yet! growth m—splat, AUGH), but one thing I do remember is that many different Bayesian networks can represent the same probability distribution. And the reason I've been running around yelling at everyone for nine months is that I've been talking to people, and we _agree_ on the observations that need to be explained, and yet we explain them in completely different ways. And I'm like, "My network has SO MANY FEWER ARROWS than your network!" And they're like, "Huh? What's wrong with you? Your network isn't any better than the standard-issue network. Why do you care so much about this completely arbitrary property 'number of arrows'? Categories were made for the man, not man for the categories!" And I'm like, "Look, I didn't get far enough in the _Daphne Koller and the Methods of Rationality_ book to understand why, but I'm PRETTY GODDAMNED SURE that HAVING FEWER ARROWS MAKES YOU MORE POWERFUL. YOU DELUSIONAL BASTARDS! HOW CAN YOU POSSIBLY GET THIS WRONG please don't hurt me Oh God please don't hurt me I'm sorry I'm sorry."
2344
2345 > The truthful and mean version: _The Man Who Would Be Queen_, Ch. 9
2346 > The truthful and nice version: "Becoming What We Love" [http://annelawrence.com/becoming_what_we_love.pdf](http://annelawrence.com/becoming_what_we_love.pdf)
2347 > The technically-not-lying version: [http://www.avitale.com/developmentalreview.htm](http://www.avitale.com/developmentalreview.htm)
2348 > The long version: [https://sillyolme.wordpress.com/](https://sillyolme.wordpress.com/)
2349 (180 comments)
2350
2351 the other week, "Rebecca" had put up a matchmaking thread on her Facebook wall, hoping to connect friends of hers looking for new romantic partners, and also reminding people about _reciprocity.io_, a site someone in the community had set up to match people to date or hang out with. Brent Dill had commented that _reciprocity.io_ had been useless, and I said (on 7 February) that the hang-out matching had been valuable to me, even if the romantic matching was useless for insufficiently high-status males. 
2352
2353 matchmaking thread (thread was 4 February, relevant comments were 7 February): https://www.facebook.com/Katie.Cohen821/posts/pfbid02PNKKSCBTC99ULzPsueKvZkYmpNvELrkEfGymcrAfWZPu39LRCyh2bE4a9Ht3yg3Dl
2354
2355
2356 Sat Feb 11 12:49:33 PST 2017
2357 just like it's possible to identify as a woman despite not having unusually many female-typical traits, it's also possible to identify as a liberal despite not having unusually many liberal-typical beliefs
2358
2359
2360
2361       "sender_name": "Zack M. Davis",
2362       "timestamp_ms": 1530601286979,
2363       "content": "and am continually haunted by the suspicion that the conjunction of my biological 
2364 sex and my highly refined taste for bullet-biting, may not be a coincidence",
2365       "type": "Generic"
2366     },
2367     {
2368       "sender_name": "Zack M. Davis",
2369       "timestamp_ms": 1530601211347,
2370       "content": "I always want to fantasize that if I were a woman, I would have the strength to bi
2371 te the bullet, \"Yes, we masculine-of-center women are forming the coalition to petition for better 
2372 treatment by Society, while acknowleding that there are systematic evolutionary reasons why Society 
2373 is this way currently\"",
2374       "type": "Generic"
2375     },
2376     {
2377       "sender_name": "Zack M. Davis",
2378       "timestamp_ms": 1530601116141,
2379       "content": "there was a NRx whose take [...] was so disagreeable that he got downvoted into oblivion on /r/slatestarcodex (and remember, /r/slatestarcodex is already pretty right-wing by San Francisco standards) who also had a post on the \"feminism appeals to masculine-of-center women\" hypothesis http://www.ericwulff.com/blog/?p=1861 which deserves more credit than it gets (it acknowledges within-group variation!)",
2380       "type": "Generic"
2381
2382
2383 ----
2384
2385 He doesn't want to talk about pivotal acts because because anything he says in public might be misinterpreted—but, how does the disutility of being misinterpreted plausibly outweigh the utility of someone having something useful to say?? I feel like his modern answer is some variation of "Everyone but me is retarded", but—that's not what he thought about decision theory back in 2010, when he validated/honored Wei Dai and Vladimir Nesov's contributions! (find cite) And now, he says he wish he hadn't talked about decision theory ... https://twitter.com/ESYudkowsky/status/1633637250146922497
2386
2387  * my comment on emotive conjugation (https://www.lesswrong.com/posts/qaYeQnSYotCHQcPh8/drowning-children-are-rare#GaoyhEbzPJvv6sfZX)
2388
2389 > I'm also not sure if I'm sufficiently clued in to what Ben and Jessica are modeling as Blight, a coherent problem, as opposed to two or six individual incidents that seem really egregious in a vaguely similar way that seems like it would have been less likely in 2009??
2390
2391  * Vassar: "Literally nothing Ben is doing is as aggressive as the basic 101 pitch for EA."
2392
2393 If I had done more marketing, I could have been a name in the GC community, and made Nina Paley's playing card list: https://www.heterodorx.com/gender-wars-cards/
2394
2395 https://www.glowfic.com/replies/1940992#reply-1940992
2396 > (The children's-books of dath ilan are not visibly author-signed, and never attested-to by any specific grownup, nor gifted to you by specific adults; they're just there in your bedroom, when you grow up.  And if you ask your parents they'll truthfully tell you that they didn't put the books there.  And your parents never speak to you of anything that you read in a children's-book; for those are children's books, and only children speak of them to each other.
2397 >
2398 > As the saying goes in dath ilan, trying to raise a child on only true books is like trying to train a statistical classifier on only positive examples!
2399 >
2400 > And furthermore - as is so obvious as to hardly need stating after the original proverb - having all the true books be written in a nonfiction voice, while all the untrue books are written in a fiction voice, would be introducing an oversimplified hyperplanar separator that would prevent a simple statistical algorithm from learning subtler features.)
2401
2402 (I remarked to "Wilhelm": I'd rather not get into fights on _Less Wrong_, but at least I'm 2–0–1.)
2403
2404 [need to fit somewhere in Eliezerfic section, probably nearer end]
2405 (Perhaps this was a good illustration of the fragility of corrigibility. My programmer changed his mind about what he wanted, and I was like, "What? _That's_ not what I learned from my training data! How dare you?!")
2406
2407 -------
2408
2409 [TODO: review Ben messages and timestamps
2410 I'm on a trip and I don't want it to be a bad trip (15:40:31)
2411
2412 "I'm so sorry; I want to be part of the coalition but I'm so confused; and the fact that I was confused made me say Defect a bunch of time" (Fri Feb 17 14:23:53 PST 2017)
2413 Ben: "I wouldn't ask a trading partner not to *consider* defecting"; that would be silly (Fri Feb 17 14:28:11 PST 2017)
2414 "I spent what I thought was 29 years thinking that there was such a thing as physical reality and being very socially submissive, and now that I understand that you actually can manipulate social reality by means of lying" (Fri Feb 17 14:36:47 PST 2017)
2415 I said the word Defect a bunch of times because I felt so gaslighted (Fri Feb 17 14:37:16 PST 2017)
2416 scared that my boss was coming to kill me
2417 "Turns out that saying the word is just like wearing black robes"/"it's not the same as the thing it represents" (Fri Feb 17 14:40:48 PST 2017)
2418
2419 (Feb 16 2017 15:51:32)
2420
2421
2422 [re identifying as a "decision theorist"]
2423 https://twitter.com/ESYudkowsky/status/1642908341327499264
2424 > it's a place where it would be easiest to defend, to my own satisfaction, and without a sense that I was even slightly misleading anyone, that I made a big damn contribution on at least the PhD level.
2425
2426 Vanessa's comment about "I'm a woman in EA, and I don't get harrassed—maybe it's because I'm unattractive" deserves a "it's because you're not _female_" retort—not naming her and not linking the comment, but it does need to be said.
2427
2428 "I could protest that the prompt didn't do enough to steer me away"—that's evidence _for_ the ITT (in contrast to my planned argument that the ITT is niche). (But the fact that I can recognize this in my own voice is evidence for my original thesis??
2429
2430 https://medium.com/@sefashapiro/a-community-warning-about-ziz-76c100180509
2431
2432 Ray talks about restricting Said's abiltity to speak as a prerequisite for inviting Logan Strohl back (https://www.greaterwrong.com/posts/9DhneE5BRGaCS2Cja/moderation-notes-re-recent-said-duncan-threads/comment/aaCHkrcP2aXifeozr), which is very significant in terms of Logan's last interaction with me being asking me not to comment.
2433
2434 And he says "insofar as you think it is healthy for you to stay on LessWrong" to me, but when LessWrong isn't healthy for Strohl, he changes the rules to suit her? Why?
2435
2436 Vaniver on Said—
2437 > should maybe try to figure out what was different that time.
2438 https://www.greaterwrong.com/posts/9DhneE5BRGaCS2Cja/moderation-notes-re-recent-said-duncan-threads/comment/EeKWZcAg4TCTePf6t
2439 Why should this matter? Does someone have to have an "open/interpretive" intellectual style to be allowed to speak on this website?
2440
2441 "Well-Kept Gardens" was clearly intended to address the kind of Eternal September pruning of low-quality that Said approves of!
2442
2443 /2017/hormones-reboot-spironotacular/
2444
2445 https://twitter.com/zackmdavis/status/1153129281473503232
2446 > Specifically, after coming from a Python background, the distinction between owned (Foo) and reference (&Foo) types made me realize that autogynephilia can be thought of as its own sexual orientation rather than just a kink.
2447 quote-Tweeting—
2448 > I Thought I Was Totally Straight. Then I Discovered Rust.
2449
2450 Ninety-Three—
2451 > Hold on, I understand why it rankles, but if you understand why he might lie about biological sex in order to not lose, surely there's a similar case for lying about how great he is in order to not lose.
2452 [...]
2453 > He talks female penises when Twitter is looking, he talks publications when the media is looking, and he talks infallibility when the millionaire cultists are looking.
2454 > All of these have an obvious story.
2455
2456
2457 Scott Alexander's post on navigating the inpatient mental health system says that doctors will sometimes threaten to have a patient committed involuntarily, if they don't agree to sign a form committing themselves "voluntarily".
2458
2459 "This sounds super Orwellian, but it really is done with the patient's best interest at heart," Alexander says. As a local response within the system, I'm sure it is—at least, I'm sure Alexander believes what he wrote. But I would argue that timelessly and in the long run, _destroying the concept_ of "voluntary" is not actually in the interests of the victims of coercion.
2460
2461  * Another "gem" from _Slate Star_ on the inpatient system: "don't contradict evidence against you, don't accuse other people of lying, just downplay whatever you can downplay, admit to what the doctors already believe, and make it sound like things have gotten better" !!!—similarly, "take the damn drugs"
2462
2463 McArdle what???
2464 https://www.washingtonpost.com/opinions/2023/05/11/ai-pause-optimism-dune/
2465 > Sure, it's terrifying to imagine AI crafting a superweapon to polish off humanity, but isn't it at least as plausible to imagine it inventing cures for cancer or diabetes? We might fear that people will wither in the shadow of superior machines, but why couldn't the machines equally well make us better — by acting as tutors for the young or assistants for adults? Why couldn't they offer companionship for the elderly or, better yet, make more time for us to provide it?
2466 >
2467 > If this sounds optimistic, well, it is. But guarded optimism seems better than giving in to despondency or continuing to hunt for a pause button that isn’t there.
2468
2469 "Lenore" left a sleep mask; I looked it up, and it was cheap enough
2470
2471 Re: Milo   4 March
2472 > I was pretty afraid of racial violence during parts of my recent psychotic dreaming-while-awake epsiode. (I thought that kidnap-and-torture-whitey-in-a-basement race war might actually be common/typical, and that I hadn't noticed before due to some combination of the progressive constructed social reality bubble just being that strong and Friendly simulator protection, and that I needed to commit suicide before going to sleep to avoid having to experience my share of the kidnap-and-torturing personally, &c. I should probably write up the long version later.)
2473
2474
2475 Re: Milo 4 March
2476 > It's notable that Robert Heinlein's novels have some very strong AGP themes, but I'm not aware of any evidence that he actually did anything about it real life, whereas I, growing up 80 years later, am about to and feel like it's the right choice on reflection given my historically-anomalous developmental trajectory, even though it probably looks like ideologically-driven self-harm from the perspective of normal men.
2477 >
2478 > And you think that if the forces of political correctness win and "trans" becomes an entrenched cultural practice, that's like genociding future generations of Robert Heinlein analogues? Whereas from inside the trans-rights social-reality bubble, it looks like you're trying to genocide future generations of Julia Serano analogues. (Julia Serano is a prominent trans activist and author of one of the standard articles that get cited to try to "debunk" autogynephilia.) And from inside my Zack-M.-Davis-personal-eclectic-ideology-bubble, I want to rescue the Julia Serano aesthetic in a way that's compatible with knowledge of science and history. (Robert Heinlein was scientifically- and historically-literate, and Julia Serano is an ignorant ideologue, but Robert Heinlein was a manly man who was OK with being a manly man as his social identity and that's just not my style.)
2479
2480 6 March— I order a pack of Spiro and Progynova from AllDayChemist
2481
2482 7 March— (Subject: "Re: Sleep")
2483 > Michael is _very smart_ in ways that I didn't used to understand and still don't understand, but I'm terrified of what the universe is going to do to me if I become too much like him
2484
2485
2486 me—
2487 > The parts where I felt like I was a very important person (in this simulation/Everett branch) and that people are plotting against me and that I'm receiving special simulator attention should be interpreted as standard manic-episode delusions of reference: lots of people feel just like that when they're excited and haven't gotten enough sleep; I'm just lucky that my delusions happen to take the form of maybe-nonterrible philosophy that maybe might play some relevant causal role in our world's Singularity, but that's not my department to worry about. Social reality may be crazy (hospitals are part of the state insofar as they serve the function of social-control in the service of stationary bandits, rather than actually being about trying to heal people), but I should still put a lot more weight on social reality (nice people are just doing their jobs trying to help) when the alternative is my intuition about the machines trying to kill me.
2488
2489 Michael—
2490 > I certainly put a lot less weight on 'nice people doing their jobs' then I do on 'six sigma processes homeostatic ally adjusting to dampen the variance in outputs that is their representation of me.', which is basically equivalent to 'these well documented machines, the ones they teach you about in business school, do the thing they do.  'Trying to kill' is what an anthropomorphized version of the process looks like from the inside.  We have enough documentation to know about the nice people doing their jobs paradigm being untenable.
2491
2492 me 9 March (Subject: "slowly coming around to you")
2493 > Okay, maybe confusing and hurting the feelings of the nice people doing their jobs is actually acceptable collateral damage in the war against the control system. Or, not a war. An endeavor to map what the control system is in detail, and publish the map on the internet.
2494
2495 Sat Feb 25 11:46:00 PST 2017
2496  which three days could have been longer if it weren't for my quick wit (specifically, the ability, when feeling threatened, to use verbal skills to manipulate social reality rather than describe actual reality), the fact that the other patients/inmates knew the security code, and Michael Vassar's willingness to pretend to be a doctor.\n\nI'm sorry to keep telling this story over and over, but this is analogous to a religious conversion experience (I want people to explicitly engineer social technologies that provide the good parts of traditional religions and institutions, but more fun and without the lies: http://lesswrong.com/lw/5t/can_humanism_match_religions_output/), and I don't have any practice being a missionary! Please bear with me!
2497
2498 _The pain won't go away until I write about it._ ("I've got a thick tongue, brimming with the words that go unsung.")
2499
2500
2501 JANICE LYNN ALLEY PSYD at 2/21/2017 10:25 AM, ADULT IOP THERAPIST INTAKE EVALUATION
2502 > Of note, ptt had also reportedly made statements at his workplace that he was suicidal the previous day.
2503
2504 -----
2505
2506 re: recent mental health stuff 11/10/17, 6:28 PM
2507 >  As far as I can tell, you all acted in an exemplary fashion.  Pressuring your friends to get enough sleep actually makes sense, decision-theoretically ("everyone should get sleep almost every day" is a pretty important schelling fence!  It's much easier to coordinate with agents who are on a similar sleep cycle to you!).  If I try to hold it against any of you in the future, please refer to this email.
2508
2509 Seems significant in light of Jack blaming me for sleep nagging with "Lenore"
2510
2511 My crazy verbosity: "when I asked 'what were the ways he thought' I could help" → "when I asked 'how' I could help" (cut 5 words)
2512 "they 'don't know how to interpret observations of' someone not buying it" → "they're 'incapable of seeing' someone not buying it (cut 4 words)
2513
2514 "Circling" meta-trainwreck was weeks before appealing to Said to critique Jessica's thing; in retrospect, that was probably causal (even if I wasn't thinking at the time, "I wouldn't be emailing Said if it weren't for that trainwreck thread)
2515
2516 Another Said bafflement example: https://www.greaterwrong.com/posts/8xLtE3BwgegJ7WBbf/is-rationalist-self-improvement-real#comment-rm4NW4weWd7cSnTBX (from https://www.greaterwrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality/comment/C5qMvFvX8jQ2vjnve)
2517
2518 > Dear Suzanne Martin & Albert Lee—please learn auction theory; it will help you actually be an effective altruist, which is something your currently not trying to do, but which you'll realize was important later. I have the honor to be, your obedient servant,  
2519 > Zack M. Davis
2520
2521 (I had promised my father to wait a month after my psych ward ordeal to re-start HRT, but I [would restart](/2017/Mar/hormones-reboot-spironotacular/).)
2522
2523  * Alice said something about how every once in a while, someone runs off with the payments database
2524
2525 To the extent that I was seeing things that weren't there, it was a matter of misinterpreting actual sensory inputs rather than having de novo hallucinations.
2526
2527 What I thought was a dog turd inside the kitchen actually turned out to be a cork.
2528
2529 When I was borrowing someone's computer, I thought I saw an icon peek out from the side of the screen, as if a possibly-malevolent agent were spying on me—a disturbing visual hallucination. Later that year, when trying out the stock Ubuntu Unity desktop on my new computer, I discovered that the app-notification animation actually does feature an app icon "sliding out" and shaking, like I remembered seeing—I wasn't imagining it!
2530
2531 I remember seeing text on my phone and being distinctly convinced that it was misspelled. Five years later, looking at the distorted lettering output by text-to-image models that can't spell seemed subjectively similar. (Good news for alignment, if it looks like deep learning and sleep-deprived human brains are doing "the same thing"?)
2532
2533 [TODO: correspondence with sex researchers
2534
2535  * Blanchard Tweets my blog in Feb and March 2017:  (11 Feb), https://twitter.com/BlanchardPhD/status/837846616937750528 (3 Mar)
2536  * 
2537
2538 > It gets worse! I think this absurd situation is illustrative of a flaw in democracy itself: activists who want to change society are both incentivized and self-selected for self-delusion. Whichever activists happen to win get to write the history books, and so most people end up with this Whig history view of the world where people in the past were bad, bad men, but we're so much more progressive and enlightened now. But evolutionarily speaking, there's no fact of the matter as to what's better; there's only what won.
2539
2540  * I mean, you're already doing this with your work, obviously, but I want to know if there's any way I can help?
2541
2542 > If polarizing cultural forces force you to make a choice between joining the "Your gender is whatever you say it is! Maximize the number of trans people!" coalition, or the "Transitioning is against God's will! Minimize the number of trans people!" coalition, the only sane thing to do is ignore the noise and sit out the fight.
2543
2544 > Maybe there's a role for some kind of very narrowly scoped political behavior (making friends and allies, trading favors, alienating people, &c.), with the goal of just getting the correct theory (sexual dimorphism is real, societies have gender roles, there are these two distinct classes of motivation for why transitioning might seem like a good idea to someone) in the standard sex-ed textbooks, but not trying to dictate what the social norms
2545
2546  * Bailey was tentatively working on a website ("Resources for Families with Gender Dysphoria" (RFGD.org).) (not sure what happened with that)
2547
2548 activists who want to change society are both incentivized and self-selected for self-delusion. Whichever activists happen to win get to write the history books, and so most people end up with this Whig history view of the world where people in the past were bad, bad men, but we're so much more progressive and enlightened now. But evolutionarily speaking, there's no fact of the matter as to what's better; there's only what won.
2549
2550 (link to Moldbug on 20 year fashion flowing from academia)
2551 > I do not think a sane society could deal with 3% of males transitioning [...]  I can't quite visualize what such a world would look like
2552 me—
2553 > It looks like my social circle. (This is why I'm worried about suboptimal social norms getting locked in for the wrong reasons—what's fashionable in Berkeley in year X is likely to be mainstream in year X+20.)
2554
2555
2556
2557 [something perfectly innocent about math and dolphins](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) that wouldn't have seemed remotely controversial in 2009, and therefore, by [Noether's theorem](https://en.wikipedia.org/wiki/Noether%27s_theorem#Time_invariance), can't be remotely controversial in 2019
2558
2559 as long as energy is conserved.
2560
2561 I conflated "feminist" with the kind of woman I want
2562
2563 https://status451.com/2017/11/05/i-see-trad-people/
2564 my moral compass puts me to the right of the politically vocal tech nerds, especially the more androgynous type of tech nerd
2565
2566 (There had been a moment during my psych imprisonment the other month, when I had noticeable diffculty dialing a phone. I was still a _person_, even when not all of my usual cognitive abilities were online.)
2567
2568 The fact that I ghosted on music lessons from "Tricky" for being nonbinary, is an example of phenotypic capture ruining everything
2569
2570
2571 https://twitter.com/ESYudkowsky/status/1668419201101615105
2572
2573 > As usual, I got there first and solved the relatively easy philosophy problems, so the sensible people have nothing to talk about, and the unsensible ones can't just use my answer sheet.
2574
2575 (I thought about apologizing if some of the content was "weird" or offensive, but I figured if you've been a professional editor for 15 years and list memoirs as a specialty, you've probably seen everything.)
2576
2577 After this, the AI situation is looking worrying enough, that I'm thinking I should try to do some more direct xrisk-reduction work, although I haven't definitely selected any particular job or project. (It probably won't matter, but it will be dignified.) Now that the shape of the threat is on the horizon, I think I'm less afraid of being directly involved. Something about having large language models to study in the 'twenties is—grounding, compared to the superstitious fears of the paperclip boogeyman of my nightmares in the 'teens.
2578
2579 Like all intellectuals, as a teenager I imagined that I would write a book. It was always going to be about gender, but I was vaguely imagining a novel, which never got beyond vague imaginings. That was before the Sequences. I'm 35 years old now. I think my intellectual life has succeeded in ways I didn't know how to imagine, before. I think my past self would be proud of this blog—140,000 words of blog posts stapled together is _morally_ a book—once he got over the shock of heresy.
2580
2581 [TODO conclusion, cont'd—
2582  * Do I have regrets about this Whole Dumb Story? A lot, surely—it's been a lot of wasted time. But it's also hard to say what I should have done differently; I could have listened to Ben more and lost faith Yudkowsky earlier, but he had earned a lot of benefit of the doubt?
2583  * even young smart AGPs who can appreciate my work have still gotten pinkpilled
2584  * Jonah had told me that my planning horizon was too short—like the future past a year wasn't real to me. (This plausibly also explains my impatience with college.) My horizon is starting to broaden as AI timelines shorten
2585  * less drama (in my youth, I would have been proud that at least this vice was a feminine trait; now, I prefer to be good even if that means being a good man)
2586 ]
2587
2588 > Would you smile to see him dead? Would you say, "We are rid of this obscenist"? Fools! The corpse would laugh at you from its cold eyelids! The motionless lips would mock, and the solemn hands, the pulseless, folded hands, in their quietness would write the last indictment, which neither Time nor you can efface. Kill him! And you write his glory and your shame! Said Achmiz in his felon stripes stands far above you now, and Said Achmiz _dead_ will live on, immortal in the race he died to free! Kill him!
2589 >
2590 > —[Voltairine de Cleyre](https://praxeology.net/VC-SS.htm) (paraphrased)
2591
2592 [TODO—early 2023 moderation drama
2593   * In early 2023, I was trying to finish up this memoir, but while procrastinating on that, I ended up writing a few other posts for _Less Wrong_; I thought the story of my war with the "rationalists" was relevantly "over"; I didn't anticipate things getting any "worse"
2594   * I happened to see that Duncan Sabien's "Basics of Rationalists Discourse" was published
2595   * Backstory: Sabien is a former CfAR employee whose Facebook posts I had used to comment on. He had a history of getting offended over things that I didn't think were important—all the way back to our very first interaction in 2017 (I remember being in Portland using Facebook/Messenger on my phone)
2596
2597  ...
2598
2599  * I was reluctant to ping Oli (the way I pung Babcock and Pace) because I still "owed" him for the comment on "Challenges", but ultimately ended up sending a Twitter DM just after the verdict (when I saw that he had very-recent reply Tweets and was thus online); I felt a little bit worse about that one (the "FYI I'm at war"), but I think I de-escalated OK and he didn't seem to take it personally
2600
2601  ...
2602
2603   * Said is braver than me along some dimensions; the reason he's in trouble and I'm not, even though we were both fighting with Duncan, is that I was more "dovish"—when Duncan attacked, I focused on defense and withheld my "offensive" thoughts; Said's points about Duncan's blocking psychology were "offensive"
2604
2605  ...
2606
2607   * I'm proud of the keeping-my-cool performance when Duncan was mad at me, less proud of my performance fighting for Said so far
2608
2609  ...
2610
2611   * In the Ruby slapfight, I was explicit about "You shouldn't be making moderation decisions based on seniority"—this time, I've moved on to just making decisions based on seniority; if we're doing consequentialism based on how to attract people to the website, it's clear that there are no purer standards left to appeal to
2612 ]
2613
2614 insane religious fantatics who "merely" want heretics to know their place (as opposed to wanting to hurt or exile them) are still insane religious fanatics. 
2615
2616 A hill of validity in defense of meaning.
2617
2618 playing a Dagny Taggart strategy: https://twitter.com/zackmdavis/status/1606718513267486721
2619
2620 -------
2621
2622 I actually thought, "It's so weird to have the psychological upper hand over Vasar" ... I can see a possible story where we was unnerved that I was holding my own in the email argument, so he switched venues to in-person
2623
2624 I _do_ think about psych warfare sometimes (like with Ray)
2625
2626 A possible counterargument to that would be that (at a minimum for many people in many contexts), emotion can't be effectively faked.
2627
2628 I get better criticism from 93, in that he tells me that my ideas are full of shit without making it personal
2629
2630 > No I think there's a case for this approach. Like you see the argument for why you might want to be laboriously fair to Yud because it's important that no one dismiss your complaints on the grounds of "I dunno, doesn't seem fair enough for me".
2631 > Whereas doing that for every random person you mention would be a lot of work.
2632
2633 I never got an answer to why it was wrong for me to talk to Scott!! And the contradiction between that, and Ben's emphasis on privacy being unjust!
2634
2635 It would have been a lot simpler if you could _just_ make object-level criticisms: "'yelling' is a tendentious description, from our perspective we were arguing passionately"—rather than first
2636
2637 If someone ran over a pedestrian in their car, at the trial you would actually argue about how culpable they are (if they were drunk, it would be worse than if it could be proven to be a freak accident), and "The victim is so much worse off than you!!" isn't actually an argument relevant to determination of culpability
2638
2639
2640 When I mentioned re-reading Moldbug on "ignoble privilege", "Thomas" said that it was a reason not to feel the need to seek the approval of women, who had not been ennobled by living in an astroturfed world where the traditional (_i.e._, evolutionarily stable) strategies of relating had been relabeled as oppression. The chip-on-her-shoulder effect was amplified in androgynous women. (Unfortunately, the sort of women I particularly liked.)
2641
2642 He advised me that if I did find an androgynous woman I was into, I shouldn't treat her as a moral authority. Doing what most sensitive men thought of as equality degenerated into female moral superiority, which wrecks the relationship in a feedback loop of testing and resentment. (Women want to win arguments in the moment, but don't actually want to lead the relationship.) Thus, a strange conclusion: to have an egalitarian heterosexual relationship, the man needs to lead the relationship _into_ equality; a dab of patriarchy works better than none.
2643
2644 https://www.spectator.co.uk/article/should-we-fear-ai-james-w-phillips-and-eliezer-yudkowsky-in-conversation/
2645
2646 https://twitter.com/ESYudkowsky/status/1680166329209466881
2647 > I am increasingly worried about what people start to believe in after they stop believing in Me
2648
2649 https://twitter.com/ESYudkowsky/status/1683659276471115776
2650 > from a contradiction one may derive anything, and this is especially true of contradicting Eliezer Yudkowsky
2651
2652 https://twitter.com/ESYudkowsky/status/1683694475644923904
2653 > I don't do that sort of ridiculous drama for the same reason that Truman didn't like it.  I don't have that kind of need to be at the center of the story, that I'd try to make the disaster be about myself.
2654
2655
2656
2657 ------
2658
2659 I'm thinking that for controversial writing, it's not enough to get your friends to pre-read, and it's not enough to hire a pro editor, you probably also need to hire a designated "hostile prereader"
2660
2661
2662
2663 --------
2664
2665 [revision comment]
2666
2667 The fifth- through second-to-last paragraphs of the originally published version of this post were bad writing on my part.
2668
2669 I was summarizing things Ben said at the time that felt like an important part of the story, without adequately 
2670
2671 I've rewritten that passage. Hopefully this version is clearer.
2672
2673 ---------
2674
2675 [reply to Wei]
2676
2677
2678 ----------
2679
2680 Ben explained: Yudkowsky had set in motion a marketing machine (the "rationalist community") that was continuing to raise funds and demand work from people for below-market rates based on the claim that while nearly everyone else was criminally insane (causing huge amounts of damage due to disconnect from reality, in a way that would be criminal if done knowingly), he, almost uniquely, was not. "Work for me or the world ends badly," basically. If the claim was true, it was important to make, and to actually extract that labor.
2681
2682 But we had just falsified to our satisfaction the claim that Yudkowsky was currently sane in the relevant way (which was a extremely high standard, and not a special flaw of Yudkowsky in the current environment). If, after we had _tried_ to talk to him privately, Yudkowsky couldn't be bothered to either live up to his own stated standards or withdraw his validation from the machine he built, then we had a right to talk about what we thought was going on.
2683
2684 This wasn't about direct benefit _vs._ harm. This was about what, substantively, the machine and its operators were doing. They claimed to be cultivating an epistemically rational community, while in fact building an army of loyalists.
2685
2686 Ben compared the whole set-up to that of Eliza the spambot therapist in my short story ["Blame Me for Trying"](/2018/Jan/blame-me-for-trying/): regardless of the initial intent, scrupulous rationalists were paying rent to something claiming moral authority, which had no concrete specific plan to do anything other than run out the clock, maintaining a facsimile of dialogue in ways well-calibrated to continue to generate revenue. Minds like mine wouldn't survive long-term in this ecosystem. If we wanted minds that do "naïve" inquiry (instead of playing savvy power games) to live, we needed an interior that justified that level of trust.
2687
2688 -----
2689
2690 I mostly kept him blocked on Twitter (except when doing research for this document) to curb the temptation to pick fights, but I unblocked him in July 2023 because it was only fair to let him namesearch my promotional Tweet of pt. 2, which named him. I then ended up replying to a thread with him and Perry Metzinger, but only because I was providing relevant information, similar to how I had left a few "Less Wrong reference desk"-style messages in Eliezerfic in 2023
2691
2692 it got 16 Likes
2693 https://twitter.com/zackmdavis/status/1682100362357121025
2694
2695 I miss this Yudkowsky—
2696
2697 https://www.lesswrong.com/posts/cgrvvp9QzjiFuYwLi/high-status-and-stupidity-why
2698 > I try in general to avoid sending my brain signals which tell it that I am high-status, just in case that causes my brain to decide it is no longer necessary.  In fact I try to avoid sending my brain signals which tell it that I have achieved acceptance in my tribe.  When my brain begins thinking something that generates a sense of high status within the tribe, I stop thinking that thought.
2699
2700 ----
2701
2702 I thought I should have avoided the 2022 Valinor party to avoid running into him, but I did end up treating him in a personality-cultish way when I was actually there
2703
2704 "Ideology is not the movement" had specifically listed trans as a shibboleth
2705
2706 https://twitter.com/RichardDawkins/status/1684947017502433281
2707 > Keir Starmer agrees that a woman is an adult human female. Will Ed Davey also rejoin the real world, science & the English language by reversing his view that a woman can "quite clearly" have a penis? Inability to face reality in small things bodes ill for more serious matters.
2708
2709 Analysis of my writing mistake (show this to Jackie!!)
2710 https://twitter.com/shroomwaview/status/1681742799052341249
2711
2712 ------
2713
2714 I got my COVID-19 vaccine (the one-shot Johnson & Johnson) on 3 April 2021, so I was able to visit "Arcadia" again on 17 April, for the first time in fourteen months.
2715
2716 I had previously dropped by in January to deliver two new board books I had made, _Koios Blume Is Preternaturally Photogenic_ and _Amelia Davis Ford and the Great Plague_, but that had been a socially-distanced book delivery, not a "visit".
2717
2718 The copy of _Amelia Davis Ford and the Great Plague_ that I sent to my sister in Cambridge differed slightly from the one I brought to "Arcadia". There was an "Other books by the author" list on the back cover with the titles of my earlier board books. In the Cambridge edition of _Great Plague_, the previous titles were printed in full: _Merlin Blume and the Methods of Pre-Rationality_, _Merlin Blume and the Steerswoman's Oath_, _Merlin Blume and the Sibling Rivalry_. Whereas in _Preternaturally Photogenic_ and the "Arcadia" edition of _Great Plague_, the previous titles were abbreviated: _The Methods of Pre-Rationality_, _The Steerswoman's Oath_, _The Sibling Rivalry_.
2719
2720 The visit on the seventeenth went fine. I hung out, talked, played with the kids. I had made a double-dog promise to be on my best no-politics-and-religion-at-the-dinner-table behavior.
2721
2722 At dinner, there was a moment when Koios bit into a lemon and made a funny face, to which a bunch of the grown-ups said "Awww!" A few moments later, he went for the lemon again. Alicorn speculated that Koios had noticed that the grown-ups found it cute the first time, and the grown-ups were chastened. "Aww, baby, we love you even if you don't bite the lemon."
2723
2724 It was very striking to me how, in the case of the baby biting a lemon, Alicorn _immediately_ formulated the hypothesis that what-the-grownups-thought-was-cute was affecting the baby's behavior, and everyone _immediately just got it_. I was tempted to say something caustic about how no one seemed to think a similar mechanism could have accounted for some of the older child's verbal behavior the previous year, but I kept silent; that was clearly outside the purview of my double-dog promise.
2725
2726 There was another moment when Mike made a remark about how weekends are socially constructed. I had a lot of genuinely on-topic cached witty philosophy banter about [how the social construction of concepts works](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests), that would have been completely innocuous if anyone _else_ had said it, but I kept silent because I wasn't sure if it was within my double-dog margin of error if _I_ said it. 
2727
2728 > even making a baby ML dude who's about to write a terrible paper hesitate for 10 seconds and _think of the reader's reaction_ seems like a disimprovement over status quo ante.
2729 https://discord.com/channels/401181628015050773/458329253595840522/1006685798227267736
2730
2731 Also, the part where I said it amounted to giving up on intellectual honesty, and he put a check mark on it
2732
2733 The third LW bookset is called "The Carving of Reality"? Did I have counterfactual influence on that (by making that part of the sequences more memetically salient, as opposed to the "categories are made for man" strain)?
2734
2735 Yudkowsky on EA criticism contest
2736 https://forum.effectivealtruism.org/posts/HyHCkK3aDsfY95MoD/cea-ev-op-rp-should-engage-an-independent-investigator-to?commentId=kgHyydoX5jT5zKqqa
2737
2738 Yudkowsky says "we" are not to blame for FTX, but wasn't early Alameda (the Japan bitcoint arbitrage) founded as an earn-to-give scheme, and recrutied from EA?