check in
[Ultimately_Untrue_Thought.git] / notes / i-tell-myself-notes.txt
1 OUTLINE
2 * I haven't been doing so well, and I need to tell the story for my own sanity
3 * I spent my entire adult life in "rationality", and I actually believed
4 * In 2016, it was a huge shock to realize that I could be trans, too (I thought AGP was a different thing), and making this less confusing for other people seemed in line with the rationality mission
5 * slowly waking up from sex-differences denialim through LessWrong
6 * It was pretty traumatizing when it turned out not to be!
7 * But I notice people kept brining up this "Categories are arbitrary, therefore it's not wrong to insist that TWAW", and that's _definitely_ wrong; that, I knew I could win
8 * But then Eliezer did it, too, and I _flipped the fuck out_, and set out on a mission to try to get this shit settled in public
9 * Theory of jurisprudence, standing, rudeness; Outside View of bad-faith nitpickers
10 * When email didn't work (details redacted), I thought, "Oh, it's probably because of the politics", so I wrote up the completely general version with examples about dolphins and job titles and Mullerian mimickry in snakes
11 * And this is _still_ being perceived as too political, even though everyone else shot first?!?!
12 * And I can't object without looking 
13 * What I think is going on. People want to say on the good size of the Blue Egregore, and that means they can't even defend the _basics_ if there's _any_ political context, or even the context of a _person_ with political cooties
14 * I don't know what the optimal play is ("pretend that political constraints don't exist" might not actually work in the real world), but this is pretty bad for our collective sanity, and my mental health, and I wish we could at least try to deal with it on the meta level
15 * I'm politically constrained, too: I don't talk about race differences even though I believe them (link to apophasis/hypocritical humor)
16 * conscious, deliberate dishonesty/cageiness is better than the egregore piloting your moves without you knowing
17 * social incentive gradients towards truth, forged by status
18 * not sure what the path forward is, my quest for Truth continues onwards (but I'm going to try to unwind the cult-speak)
19 * concern that people will be drawn to the beacon of the sequences, and end up in a shitty Bay Area cult
20 * mandatory obfuscation (Anne Vitale syndrome)
21 * if part of the resistacne to an honest cost/benefit analysis is 
22
23
24 * what did I expect, taking on an egregore so much bigger than me?
25 * if I agree that people should be allowed to transition, why am I freaking out? Because I _actually care about getting the theory correct_
26 * culture matters: if you're surrounded by crazy people
27 * it's not particular to social justice; I'd punch right in a Christian theocracy
28 * what I mean by "gaslighting"
29
30 person paper on purity
31
32 "The thought you cannot think controls you more than thoughts you speak aloud."
33
34 Sara Bareilles song
35
36   
37 So, I've spent basically my entire adult life in this insular little intellectual subculture that was founded in the late 'aughts on an ideal of _absolute truthseeking_.
38
39
40
41
42 , to forge and refine a new mental martial art of _systematically correct reasoning_ that we were going to use to optimize ourselves and the world.
43
44 (Oh, and there was also this part about how the uniquely best thing for non-math-geniuses to do with their lives was to earn lots of money and donate it to our founder's nonprofit dedicated to building a recursively self-improving artificial superintelligence to take over the world in order to save our entire future light cone from the coming robot apocalypse. That part's complicated.)
45
46 I guess I feel pretty naïve now, but—I _actually believed our own propoganda_. I _actually thought_ we were doing something new and special of historical and possibly even _cosmological_ significance.
47
48 And so when I moved to "Portland" (which is actually Berkeley) in 2016, met a lot of trans women in real life for the first time, and did some more reading that convinced me of the at-least-approximate-correctness of the homosexual/autogynephilic two-types theory of MtF transgenderism that I had previously assumed was false (while being privately grateful that [there was a _word_ for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)) because everyone _said_ it was false
49
50
51 rebrand—or, failing that, disband—or, failing that, be destroyed.
52
53
54 (As usual, no one cares about trans men.)
55
56 We're all about, like, science and rationality and stuff, right? And so if there's a theory that's been sitting in the psychology literature for twenty years, that looks _correct_ (or at least, ah, [less wrong](https://tvtropes.org/pmwiki/pmwiki.php/Main/TitleDrop) than the mainstream view), that's _directly_ relevant to a _lot_ of people around here, that seems like the sort of thing 
57
58 https://www.lesswrong.com/posts/9KvefburLia7ptEE3/the-correct-contrarian-cluster
59
60 I confess that I _may have [overreacted](/2017/Mar/fresh-princess/) [somewhat](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)_ when people weren't converging (or [even engaging](/2017/Jan/im-sick-of-being-lied-to/)) with me on the two-types/autogynephilia thing. Psychology is a genuinely difficult empirical science
61
62 I would _never_ write someone off for disagreeing with me about a complicated empirical thing, because complicated empirical things are complicated enough that I have to [take the Outside View seriously](https://www.overcomingbias.com/2007/07/beware-the-insi.html): no matter how "obvious" I think my view is, I might still be wrong for real in real life. So, while I was pretty upset for my own idiosyncratic personal reasons, it wasn't cause to _give up entirely on the dream of a rationality community_.
63
64 A.T. and R.B.'s Facebook comments
65
66 emphasize that the categories-are-relative thing is an important grain of truth, but that I expect _us_ to see deeper into the Bayes-structure
67
68 this is _really basic shit_
69
70
71
72
73
74 The way this is supposed to work is that you just make your arguments and trust that good arguments will outcompete bad ones; emailing people begging for a clarification is kind of rude and I want to acknowledge the frame in which I'm the bad guy (or pitably mentally ill)—but I was taught that arguing with people when they're doing something wrong is actually doing them a _favor_—I was taught that it's virtuous to make an extraordinary effort
75
76 bad-faith nitpicker—I would be annoyed if someone repeatedly begged me to correct a mistake I made in a blog post from five years ago or a Tweet from November
77
78 Losing faith in guided-by-the-beauty-of-our-weapons
79
80 https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
81 http://slatestarcodex.com/2017/03/24/guided-by-the-beauty-of-our-weapons/
82
83 "I ought to accept ... within the conceptual boundaries" is a betrayal of everything we stand for
84
85 (I don't consider "if it'll save someone's life" to be a compelling consideration here, for the same reason that "What if Omega punishes all agents who don't choose the alphabetically first option?" doesn't seem like a compelling argument against timeless decision theory. Specifying punishments for agents that don't follow a particular ritual of cognition doesn't help us understand the laws that make intelligence work.)
86
87 when _yet another_ (higher-profile, but more careful, this time only committing the error by Grecian implicature rather than overtly—if you're being careful to disclaim most obvious misinterpretations) people comitting the fallacy, I _flipped out_
88
89 The sheer number of hours we invested in this operation is _nuts_: desperate all-out effort, arguing over email with two ppl who were higher-status than me and fighting an entire Discord server three times, $1000, three postcards
90
91 what about _my_ mental health?
92
93 Men who wish they were women do not particularly resemble actual women? We just—don't? This seems kind of obvious, really?
94
95 my friend thinks I'm naive to have expected such a community—she was recommending "What You Can't Say" in 2009—but in 2009, we did not expect that _whether or not I should cut my dick off_ would _become_ a politicized issue, which is new evidence about the wisdom of the original vision
96
97 but if my expectations (about the community) were wrong, that's a problem with my model; reality doesn't have to care
98
99 it's naive to think you can win against an egregore 1000 times bigger than you
100
101 MASSIVE cognitive dissonance, "What? What???"
102
103 the Church
104
105 won't you be embarrassed to leave if we create utopia
106
107 invent a fake epistemology lesson
108
109 we live in a world where reason doesn't work
110
111 _not_ gaslight me about the most important thing in my life?
112
113 I don't think I'm setting my price for joining particularly high here?
114
115 if you're doing systematically correct reasoning, you should be able to get the right answer even on things that don't matter
116
117 There could be similarly egregious errors that I'm not as sensitive too
118
119 I don't think you can build an aligned superintelligence from a culture this crazy
120
121 it's not fair to expect ordinary people to understand the univariate fallacy before they're allowed to say "men aren't women"
122
123 maybe S. was trying to talk about "legal fiction" categories, but I'm trying to talk about epistemology, and that's a probable reading when you say "categories"
124
125 Hansonian mental illness that people should be less accomodating of
126
127 there has to be a way to apply a finite amount of effort to _correct_ errors, and possibly even profit from correcting errors
128
129 (I'm not making this up! I _couldn't_ make this up!)
130
131 the frame in which I'm 
132
133 outside view hobby-horse
134
135 standards
136
137 cognitive dissonance
138
139 smart people clearly know
140
141 free-speech norms
142
143 I'll be alright. Just not tonight.
144
145 maybe 50,000 years from now we'll all be galatic superminds and laugh about all this
146
147 (probably tell the story with no external links, only this-blog links)
148
149 I'll be alright. Just not tonight. But someday.
150
151 Avoiding politically-expensive topics is fine! Fabricating bad epistemology to support a politically-convenient position and then not retracting it after someone puts a lot of effort into explaining the problem is not OK.
152
153 I guess this issue is that the mob thinks that arguments are soldiers and doesn't understand local validity, and if you're trying to appease the mob, you're not even allowed to do the local-validity "This is a bad argument, but the conclusion might be true for other reasons" thing?
154
155
156 I think a non-stupid reason is that the way I talk has actually been trained really hard on this subculture for ten years: most of my emails during this whole campaign have contained multiple Sequences or Slate Star Codex links that I can just expect people to have read. I can spontaneously use the phrase "Absolute Denial Macro" in conversation and expect to be understood. That's a massive "home field advantage." If I just give up on "rationalists" being as sane as we were in 2009 (when we knew that men can't become women by means of saying so), and go out in the world to make intellectual friends elsewhere (by making friends with Quillette readers or arbitrary University of Chicago graduates), then I lose all that accumulated capital. The language I speak is mostly educated American English, but I rely on subculture dialect for a lot. My sister has a chemistry doctorate from MIT (so speaks the language of STEM intellectuals generally), and when I showed her "... To Make Predictions", she reported finding it somewhat hard to read, probably because I casually use phrases like "thus, an excellent motte", and expect to be understood without the reader taking 10 minutes to read the link. This essay, which was me writing from the heart in the words that came most naturally to me, could not be published in Quillette. The links and phraseology are just too context-bound.
157
158 Berkeley "rationalists" are very good at free speech norms and deserve credit for that! But it still feels like a liberal church where you can say "I believe in evolution" without getting socially punished. Like, it's good that you can do that. But I had a sense that more is possible: a place where you can not just not-get-punished for being an evolutionist, but a place where you can say, "Wait! Given all this evidence for natural selection as the origin of design in the biological world, we don't need this 'God' hypothesis anymore. And now that we know that, we can work out whatever psychological needs we were trying to fulfil with this 'church' organization, and use that knowledge to design something that does an even better job at fulfilling those needs!" and have everyone just get it, at least on the meta level.
159
160 I can accept a church community that disagrees on whether evolution is true. (Er, on the terms of this allegory.) I can accept a church community that disagrees on what the implications are conditional on the hypothesis that evolution is true. I cannot accept a church in which the canonical response to "Evolution is true! God isn't real!" is "Well, it depends on how you choose to draw the 'God' category boundary." I mean, I agree that words can be used in many ways, and that the answer to questions about God does depend on how the asker and answerer are choosing to draw the category boundary corresponding to the English language word 'God'. That observation can legitimately be part of the counterargument to "God isn't real!" But if the entire counterargument is just, "Well, it depends on how you define the word 'God', and a lot of people would be very sad if we defined 'God' in a way such that it turned out to not exist" ... unacceptable! Absolutely unacceptable! If this is the peak of publicly acceptable intellectual discourse in Berkeley, CA, and our AI alignment research group is based out of Berkeley (where they will inevitably be shaped by the local culture), and we can't even notice that there is a problem, then we're dead! We're just fucking dead! Right? Right?? I can't be the only one who sees this, am I? What is Toronto??????
161
162 _everyone else shot first_, and I'm _correct on the merits_
163
164 competence forcing conclusions: http://www.sl4.org/archive/0602/13903.html
165
166 language as an AI capability
167
168 https://www.lesswrong.com/posts/NnohDYHNnKDtbiMyp/fake-utility-functions
169
170 "the love of a man for a woman, and the love of a woman for a man, have not been cognitively derived from each other or from any other value. [...]  There are many such shards of desire, all different values."
171
172 I wouldn't hold anyone to standards I wouldn't myself—for whatever that's worth http://zackmdavis.net/blog/2018/07/object-vs-meta-golden-rule/
173
174
175 analogy to school
176
177 (["_Perhaps_, replied the cold logic. _If the world were at stake_. _Perhaps_, echoed the other part of himself, _but that is not what was actually happening_."](http://yudkowsky.net/other/fiction/the-sword-of-good))
178
179
180
181 https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong
182
183
184 ["It is a common misconception that you can define a word any way you like."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
185
186 ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
187
188 ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
189
190 [There's an idea, which you may have noticed I hate, that "you can define a word any way you like".](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
191
192 [And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying "I can define a word any way I like".](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
193
194 ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind.  One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
195
196 ["And people are lazy.  They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
197
198 [I say all this, because the idea that "You can X any way you like" is a huge obstacle to learning how to X wisely.  "It's a free country; I have a right to my own opinion" obstructs the art of finding truth.  "I can define a word any way I like" obstructs the art of carving reality at its joints.  And even the sensible-sounding "The labels we attach to words are arbitrary" obstructs awareness of compactness.](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
199
200
201 "One may even consider the act of defining a word as a promise to this effect.  Telling someone, "I define the word 'wiggin' to mean a person with green eyes and black hair", by Gricean implication, asserts that the word "wiggin" will somehow help you make inferences / shorten your messages.
202
203 If green-eyes and black hair have no greater than default probability to be found together, nor does any other property occur at greater than default probability along with them, then the word "wiggin" is a lie:  The word claims that certain people are worth distinguishing as a group, but they're not.
204
205 In this case the word "wiggin" does not help describe reality more compactly—it is not defined by someone sending the shortest message—it has no role in the simplest explanation.  Equivalently, the word "wiggin" will be of no help to you in doing any Bayesian inference.  Even if you do not call the word a lie, it is surely an error." (https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
206
207 [And this suggests another—yes, yet another—reason to be suspicious of the claim that "you can define a word any way you like".  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power.](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
208
209 selection effect whereby citizens of the Caliphate only petition the rightful caliph when they have a problem, which can be discouraging when you're the caliph and you don't see the people's appreciation for the ways in which the kingdom is great
210
211 From my perspective, Professor, I'm just doing what you taught me (carve reality at the joints; speak the truth, even if your voice trembles; make an extraordinary effort when you've got Something to Protect; _&c._)
212
213 I _have_ to keep escalating, because I don't have a choice
214
215 I'm trying to keep the rheotrical emphasis on "tale of personal heartbreak, plus careful analysis of the sociopolitical causes of said heartbreak" rather than "attacking my friends and heros"
216
217 It shouldn't be a political demand; people should actually process my arguments because they're good arguments
218
219 "Actually, we're Ashkenazi supremacists" 
220
221 James Watson 'aught-seven
222
223 Arguing is not a punishment https://srconstantin.wordpress.com/2018/12/15/argue-politics-with-your-best-friends/
224
225 Brief group conversational silences are ostracism threats, but like, threats are great because you have the option of complying with them if you don't want a war.)
226
227 I do, however, think there's a subtler failure mode than "heretics get shouted down", namely, "heretics have to put up with spurious isolated demands for rigor, logical rudeness, conversation-halters, &c., such that the community doesn't update or updates slower than it could have."
228
229 This is, of course, a much harder problem to solve, because "Speaker gets shouted down" is easy for third parties to detect as a discourse-norm violation, whereas "Speaker's (polite!) interlocutors are engaging in motivated continuation" is a subtle judgment call that a lot of third-parties are going to get wrong. But if and to the extent that such a thing does happen in our community—and you shouldn't take my word for it—I think it's causally downstream of silencing going on elsewhere in the trash fire that is Society (which we're not isolated from).
230
231 http://www.sl4.org/archive/0602/13903.html
232
233 probably the strongest is "These people have ignored their own carefully gathered experimental evidence for decades in favor of stuff that sounds more intuitive."  : https://www.lesswrong.com/posts/9KvefburLia7ptEE3/the-correct-contrarian-cluster
234
235 power is weird: I feel a bit icky when I notice Sophia or Rachel or Tetra changing their description in a way that seemed influenced by me
236
237
238 "audience capture" https://forward.com/opinion/431400/youtuber-pewdiepies-adl-boycott-shows-how-anti-semitism-goes-mainstream/
239
240
241 https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/
242 https://slatestarcodex.com/2015/08/15/my-id-on-defensiveness/
243
244 _out of cards_
245
246 As it is written, ["Almost No One Is Evil; Almost Everything Is Broken."](https://blog.jaibot.com/)