"I Tell Myself" 1 December drafting session 4
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Mon, 2 Dec 2019 00:09:49 +0000 (16:09 -0800)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Mon, 2 Dec 2019 00:11:51 +0000 (16:11 -0800)
content/drafts/i-tell-myself-to-let-the-story-end-or-a-hill-of-validity-in-defense-of-meaning.md
notes/i-tell-myself-notes.txt
notes/i-tell-myself-sections.md

index 6a0f965..29dd4df 100644 (file)
@@ -113,14 +113,19 @@ This is _basic shit_. As we say locally, this is _basic Sequences shit_.
 
 A friend tells me that I'm delusional to expect so much from "the community", that the original vision _never_ included tackling politically sensitive subjects. (I remember this friend recommending Paul Graham's ["What You Can't Say"](http://www.paulgraham.com/say.html) back in 'aught-nine, with the suggestion to take Graham's advice to figure out what you can't say, and then _don't say it_.)
 
-Perhaps so. But back in 2009, we did not anticipate that _whether or not I should cut my dick off_ would _become_ a politicized issue.
+Perhaps so. But back in 2009, we did not _anticipate_ that _whether or not I should cut my dick off_ would _become_ a politicized issue.
 
-To be fair, it's not obvious that I _shouldn't_ cut my dick off! A lot of people seem to be doing it nowadays, and a lot of them seem pretty happy. But in order to _decide_ whether to join them, I need _accurate information_. I need an _honest_ accounting of the costs and benefits of transition, so that I can cut my dick off in the possible worlds where that's a good idea, and not cut my dick off in the possible worlds where it's not a good idea.
+To be fair, it's not obvious that I _shouldn't_ cut my dick off! A lot of people seem to be doing it nowadays, and a lot of them seem pretty happy! But in order to _decide_ whether to join them, I need _accurate information_. I need an _honest_ accounting of the costs and benefits of transition, so that I can cut my dick off in the possible worlds where that's a good idea, and not cut my dick off in the possible worlds where it's not a good idea.
 
 And if the community whose marketing literature says they're all about systematically correct reasoning, is not only not going to be helpful at producing accurate information, but is furthermore going _actively manufacture fake rationality lessons_ that have been optimized to _confuse me into cutting my dick off_ independently of the empirical facts that determine whether or not we live in one of the possible worlds where cutting my dick off is a good idea, then that community is _fraudulent_. It needs to either _rebrand_—or failing that, _disband_—or failing that, _be destroyed_.
 
+
+
+
 [section: the community is politically constrained]
 
+[section: and _I_ get accused of playing politics?!]
+
 [section: "Against Lie Inflation" (and less violently https://www.lesswrong.com/posts/tSemJckYr29Gnxod2/building-intuitions-on-non-empirical-arguments-in-science ) made me scream in fury (punch the lightswitch cover), because]
 
 [section: the success of "Heads I Win" made me feel better; interesting how re-shared de-emphasized the political aspect]
index 393ed8e..59c2053 100644 (file)
@@ -517,10 +517,12 @@ I think if the so-called "rationality" community is going to not be FRAUDULENT,
 
 I'm grateful to [...] for actually helping me, but I feel incredibly betrayed that Scott is playing dumb about philosophy (and doesn't want to talk to our coalition anymore), Eliezer will PRIVATELY admit that he has no objections to my philosophy arguments but is playing dumb about how the things he said in public were incredibly misleading (and doesn't want to talk to our coalition anymore). I have more conversation-bandwidth with Anna because I've been friends with her for 10 years, but Anna doesn't believe in free speech; she'll privately sympathize that it's bad that we're in a situation where political factors are interfering with being able to have an honest public conversation about philosophy, but
 
-
+> "friendship, supplication and economics"
 
 This whole multi-year drama _should_ have been a three-comment conversation. If we were _actually trying_ to do the systematically-correct-reasoning thing
 
 Random Commenter: Hey, that can't be right—we had a whole Sequence about 
 
 Robot cult leaders: 
+
+> "Those who are savvy in high-corruption equilibria maintain the delusion that high corruption is common knowledge, to justify expropriating those who naively don't play along, by narratizing them as already knowing and therefore intentionally attacking people, rather than being lied to and confused."
index f9b4b2b..2269b12 100644 (file)
@@ -95,3 +95,14 @@ Sidebar: I'm avoiding naming anyone in this post even when linking to their publ
 I'd almost rather we all pretend this narrative was written in a ["nearby" Everett branch](https://www.lesswrong.com/posts/9cgBF6BQ2TRB3Hy4E/and-the-winner-is-many-worlds) whose history diverged from ours maybe forty-five years ago—a world almost exactly like our own as far as the macro-scale institutional and ideological forces at play, but with different individual people filling out the relevant birth cohorts. _My_ specific identity doesn't matter; the specific identities of any individuals I mention while telling my story don't matter.
 
 What matters is the _structure_: I'm just a sample from the _distribution_ of what happens when an American upper-middle-class high-Openness high-Neuroticism late-1980s-birth-cohort IQ-130 78%-Ashkenazi obligate-autogynephilic boy falls in with this kind of robot cult in this kind of world. End sidebar.
+
+-----
+
+I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here? That's a reference to a post by the Great Teacher about how people [(especially nonconformist nerds like us)](https://www.lesswrong.com/posts/7FzD7pNm9X68Gp5ZC/why-our-kind-can-t-cooperate) tend to impose far too many demands before being willing to contribute their efforts to a collective endeavor. That post [concludes](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining)—
+
+> If the issue isn't worth your personally fixing by however much effort it takes, and it doesn't arise from outright bad faith, it's not worth refusing to contribute your efforts to a cause you deem worthwhile.
+
+I think I've _more than_ met this standard. I _tried_ personally fixing the issue no matter how much effort it took! Also, the issue _does_, in fact, arise from outright bad faith. (We had [an entire Sequence](https://www.lesswrong.com/s/SGB7Y5WERh4skwtnb) about this! You lying motherfuckers!)
+
+That ended up being quite a lot of effort!—but at this point I've _exhausted every possible avenue of appeal_.
+