check in
[Ultimately_Untrue_Thought.git] / content / drafts / i-tell-myself-to-let-the-story-end.md
1 Title: "I Tell Myself to Let the Story End"; Or, A Hill of Validity in Defense of Meaning
2 Date: 2020-01-01
3 Category: commentary
4 Tags: personal
5 Status: draft
6
7 > _And I tell myself to let the story end  
8 > And my heart will rest in someone else's hand  
9 > My 'why not me?' philosophy began  
10 > And I say  
11 > Ooh, how'm I gonna get over you?  
12 > I'll be alright, just not tonight  
13 > But someday_
14 >
15 > —Sara Barellies, ["Gonna Get Over You"](https://genius.com/Sara-bareilles-gonna-get-over-you-lyrics)
16
17 I mostly haven't been doing so well for the past eight months or so. I've been reluctant to write about it in too much detail for poorly-understood psychological reasons. Maybe it feels too much like attacking my friends? Maybe I'm not sure how much I can say without leaking too much information from private conversations? But I need to write _something_—not to attack anyone or spill anyone's secrets, but just to _tell the truth_ about why I've been wasting stretches of days in _constant emotional pain_ all year. For my own healing, for my own sanity.
18
19 So, I've spent basically my entire adult life in this insular little intellectual subculture that was founded in the late 'aughts on an ideal of _absolute truthseeking_. Sure, anyone will _say_ that their beliefs are true, but you can tell most people aren't being very serious about it. _We_ were going to be serious: starting with the shared canon of knowledge of cognitive biases, reflectivity, and Bayesian probability theory bequeathed to us by our founder, _we_ were going to make serious [collective](https://www.lesswrong.com/posts/XqmjdBKa4ZaXJtNmf/raising-the-sanity-waterline) [intellectual progress](https://www.lesswrong.com/posts/Nu3wa6npK4Ry66vFp/a-sense-that-more-is-possible) in a way that had [never been done before](https://slatestarcodex.com/2017/04/07/yes-we-have-noticed-the-skulls/), to forge and refine a new mental martial art of _systematically correct reasoning_ that we were going to use to optimize ourselves and the world.
20
21 (Oh, and there was also this part about how the uniquely best thing for non-math-geniuses to do with their lives was to earn lots of money and donate it to our founder's nonprofit dedicated to building a recursively self-improving artificial superintelligence to take over the world in order to save our entire future light cone from the coming robot apocalypse. That part's complicated.)
22
23 I guess I feel pretty naïve now, but—I _actually believed our own propoganda_. I _actually thought_ we were doing something new and special of historical and possibly even _cosmological_ significance.
24
25 And so when I moved to "Portland" (which is actually Berkeley) in 2016, met a lot of trans women in real life for the first time, and did some more reading that convinced me of the at-least-approximate-correctness of the homosexual/autogynephilic two-types theory of MtF transgenderism that I had previously assumed was false (while being privately grateful that [there was a _word_ for my thing](/2017/Feb/a-beacon-through-the-darkness-or-getting-it-right-the-first-time/)) because everyone _said_ it was false
26
27
28
29 We're all about, like, science and rationality and stuff, right? And so if there's a theory that's been sitting in the psychology literature for twenty years, that looks _correct_ (or at least, ah, less wrong than the mainstream view), that's _directly_ relevant to a _lot_ of people around here, that seems like the sort of thing 
30
31 https://www.lesswrong.com/posts/9KvefburLia7ptEE3/the-correct-contrarian-cluster
32
33 I confess that I _may have [overreacted](/2017/Mar/fresh-princess/) [somewhat](/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/)_ when people weren't converging (or [even engaging](/2017/Jan/im-sick-of-being-lied-to/)) with me on the two-types/autogynephilia thing. Psychology is a genuinely difficult empirical science
34
35 I would _never_ write someone off for disagreeing with me about a complicated empirical thing, because complicated empirical things are complicated enough that I have to [take the Outside View seriously](https://www.overcomingbias.com/2007/07/beware-the-insi.html): no matter how "obvious" I think my view is, I might still be wrong for real in real life. So, while I was pretty upset for my own idiosyncratic personal reasons, it wasn't cause to _give up entirely on the dream of a rationality community_.
36
37 A.T. and R.B.'s Facebook comments
38
39 emphasize that the categories-are-relative thing is an important grain of truth, but that I expect _us_ to see deeper into the Bayes-structure
40
41 this is _really basic shit_
42
43
44
45 The way this is supposed to work is that you just make your arguments and trust that good arguments will outcompete bad ones; emailing people begging for a clarification is kind of rude and I want to acknowledge the frame in which I'm the bad guy (or pitably mentally ill)—but I was taught that arguing with people when they're doing something wrong is actually doing them a _favor_—I was taught that it's virtuous to make an extraordinary effort
46
47 bad-faith nitpicker—I would be annoyed if someone repeatedly begged me to correct a mistake I made in a blog post from five years ago or a Tweet from November
48
49 Losing faith in guided-by-the-beauty-of-our-weapons
50
51 https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
52 http://slatestarcodex.com/2017/03/24/guided-by-the-beauty-of-our-weapons/
53
54 "I ought to accept ... within the conceptual boundaries" is a betrayal of everything we stand for
55
56 (I don't consider "if it'll save someone's life" to be a compelling consideration here, for the same reason that "What if Omega punishes all agents who don't choose the alphabetically first option?" doesn't seem like a compelling argument against timeless decision theory. Specifying punishments for agents that don't follow a particular ritual of cognition doesn't help us understand the laws that make intelligence work.)
57
58 when _yet another_ (higher-profile, but more careful, this time only committing the error by Grecian implicature rather than overtly—if you're being careful to disclaim most obvious misinterpretations) people comitting the fallacy, I _flipped out_
59
60 The sheer number of hours we invested in this operation is _nuts_: desperate all-out effort, arguing over email with two ppl who were higher-status than me and fighting an entire Discord server three times, $1000, three postcards
61
62 what about _my_ mental health?
63
64 Men who wish they were women do not particularly resemble actual women? We just—don't? This seems kind of obvious, really?
65
66 my friend thinks I'm naive to have expected such a community—she was recommending "What You Can't Say" in 2009—but in 2009, we did not expect that _whether or not I should cut my dick off_ would _become_ a politicized issue, which is new evidence about the wisdom of the original vision
67
68 but if my expectations (about the community) were wrong, that's a problem with my model; reality doesn't have to care
69
70 it's naive to think you can win against an egregore 1000 times bigger than you
71
72 MASSIVE cognitive dissonance, "What? What???"
73
74 the Church
75
76 won't you be embarrassed to leave if we create utopia
77
78 invent a fake epistemology lesson
79
80 we live in a world where reason doesn't work
81
82 _not_ gaslight me about the most important thing in my life?
83
84 I don't think I'm setting my price for joining particularly high here?
85
86 if you're doing systematically correct reasoning, you should be able to get the right answer even on things that don't matter
87
88 There could be similarly egregious errors that I'm not as sensitive too
89
90 I don't think you can build an aligned superintelligence from a culture this crazy
91
92 it's not fair to expect ordinary people to understand the univariate fallacy before they're allowed to say "men aren't women"
93
94 maybe S. was trying to talk about "legal fiction" categories, but I'm trying to talk about epistemology, and that's a probable reading when you say "categories"
95
96 Hansonian mental illness that people should be less accomodating of
97
98 there has to be a way to apply a finite amount of effort to _correct_ errors, and possibly even profit from correcting errors
99
100 (I'm not making this up! I _couldn't_ make this up!)
101
102 the frame in which I'm 
103
104 outside view hobby-horse
105
106 standards
107
108 cognitive dissonance
109
110 smart people clearly know
111
112 free-speech norms
113
114 I'll be alright. Just not tonight.
115
116 maybe 50,000 years from now we'll all be galatic superminds and laugh about all this
117
118 (probably tell the story with no external links, only this-blog links)
119
120 I'll be alright. Just not tonight. But someday.