November 5 is problematic but November is still serious
[Ultimately_Untrue_Thought.git] / content / drafts / agreeing-with-stalin-in-ways-that-exhibit-generally-rationalist-principles.md
index 48e5f33..54dfa6d 100644 (file)
@@ -9,9 +9,27 @@ Status: draft
 >
 > _Atlas Shrugged_ by Ayn Rand
 
-[TODO: Sasha disaster, breakup with Vassar group]
+[TODO: Sasha disaster, breakup with Vassar group, this was really bad for me]
+
+[TODO: NYT affair and Brennan link, prelude to pronouns post
+ * Cade Metz's story came out, and it was pretty bad in the ways you'd expect
+ * notably, the Charles Murray guilt-by-association was a reach on the part of the reporter
+ * What's particularly weird is that if you actually read Scott's work (e.g. "High School Science Project", he's obviously sympathetic to genetic explanations; it's _possible_ for Jews to be smart for genetic reasons but the black/white gap to be fake and environmental
+ * Scott's denial doesn't go into this, of course
+ * Brennan email leak
+ * my comment on bullies and heresy / my Twitter comment on lying
+ * Yudkowsky reopens the conversation?! Why?!
+
+
+https://twitter.com/ESYudkowsky/status/1362514650089156608
+> Hypothesis:  People to whom self-awareness and introspection come naturally, put way too much moral exculpatory weight on "But what if they don't know they're lying?"  They don't know a lot of their internals!  And don't want to know!  That's just how they roll.
+
+Oh, this was also on 18 February 2021 (same day as my comment about SneerClub); maybe the conjunction of the two made me more salient
+https://twitter.com/zackmdavis/status/1362555980232282113
+> Oh, maybe it's relevant to note that those posts were specifically part of my 21-month rage–grief campaign of being furious at Eliezer all day every day for lying-by-implicature about the philosophy of language? But, I don't want to seem petty by pointing that out! I'm over it!
+
+And I think I _would_ have been over it, except—
 
-[TODO: NYT affair and Brennan link
 https://astralcodexten.substack.com/p/statement-on-new-york-times-article
 https://reddragdiva.tumblr.com/post/643403673004851200/reddragdiva-topher-brennan-ive-decided-to-say
 https://www.facebook.com/yudkowsky/posts/10159408250519228
@@ -322,13 +340,13 @@ Accusing one's interlocutor of bad faith is frowned upon for a reason. We would
 
 Accordingly, I tried the object-level good-faith argument thing _first_. I tried it for _years_. But at some point, I think I should be _allowed to notice_ the nearest-unblocked-strategy game which is _very obviously happening_ if you look at the history of what was said. I think there's _some_ number of years and _some_ number of thousands of words of litigating the object-level _and_ the meta level after which there's nothing left for me to do but jump up to the meta-meta level and explain, to anyone capable of hearing it, why in this case I think I've accumulated enough evidence for the assumption of good faith to have been _empirically falsified_.
 
-(Obviously, if we're crossing the Rubicon of abandoning the norm of assuming good faith, it needs to be abandoned symmetrically. I _think_ I'm doing a _pretty good_ job of adhering to standards of intellectual conduct and being transparent about my motivations, but I'm definitely not perfect, and, unlike Yudkowsky, I'm not so absurdly miscalibratedly arrogant to claim "confidence in my own ability to independently invent everything important" (!) about my topics of interest. If Yudkowsky or anyone else thinks they _have a case_ based on my behavior that _I'm_ being culpably intellectually dishonest, they of course have my blessing and encouragement to post it for the audience to evaluate.)
+(Obviously, if we're crossing the Rubicon of abandoning the norm of assuming good faith, it needs to be abandoned symmetrically. I _think_ I'm doing a _pretty good_ job of adhering to standards of intellectual conduct and being transparent about my motivations, but I'm definitely not perfect, and, unlike Yudkowsky, I'm not so absurdly mendaciously arrogant to claim "confidence in my own ability to independently invent everything important" (!) about my topics of interest. If Yudkowsky or anyone else thinks they _have a case_ based on my behavior that _I'm_ being culpably intellectually dishonest, they of course have my blessing and encouragement to post it for the audience to evaluate.)
 
 What makes all of this especially galling is the fact that _all of my heretical opinions are literally just Yudkowsky's opinions from the 'aughts!_ My whole thing about how changing sex isn't possible with existing technology because the category encompasses so many high-dimensional details? Not original to me! I [filled in a few technical details](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#changing-sex-is-hard), but again, this was _in the Sequences_ as ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions). My thing about how you can't define concepts any way you want because there are mathematical laws governing which category boundaries compress your anticipated experiences? Not original to me! I [filled in](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [a few technical details](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception), but [_we had a whole Sequence about this._](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong)
 
 Seriously, you think I'm _smart enough_ to come up with all of this indepedently? I'm not! I ripped it all off from Yudkowsky back in the 'aughts _when he still gave a shit about telling the truth_. (Actively telling the truth, and not just technically not lying.) The things I'm hyperfocused on that he thinks are politically impossible to say, are things he _already said_, that anyone could just look up!
 
-I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather the egregore has no reason to care about the past; if you get tagged by the mob as an Enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009?
+I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather, the egregore has no reason to care about the past; if you get tagged by the mob as an Enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009?
 
 Does ... does he expect the rest of us not to _notice_? Or does he think that "everybody knows"?
 
@@ -338,13 +356,19 @@ Yudkowsky [defends his behavior](https://twitter.com/ESYudkowsky/status/13568121
 
 > I think that some people model civilization as being in the middle of a great battle in which this tweet, even if true, is giving comfort to the Wrong Side, where I would not have been as willing to tweet a truth helping the Right Side. From my perspective, this battle just isn't that close to the top of my priority list. I rated nudging the cognition of the people-I-usually-respect, closer to sanity, as more important; who knows, those people might matter for AGI someday. And the Wrong Side part isn't as clear to me either.
 
+There's a number of things that could be said about this,[^number-of-things] but to focus on what's most important, I reply—
+
+[^number-of-things]: Note the striking contrast between "A Rational Argument", in which the Yudkowsky of 2007 wrote that  
+
+
+
+
 [TODO: there are a number of things to be said to this—
  * A Rational Arugment" is very explicit about "not have been as willing to Tweet a truth helping the side" meaning you've crossed the line; 
- * It's not clear anyone he usually respects was making this mistake; it seems likely that the original thread was subtweeting Eric Weinstein, who was not making this mistake
  * it's if anything more plausible that trans women will matter to AGI, as I pointed out in my email
 ]
 
-But the battle that matters—the battle with a Right Side and a Wrong Side—isn't "pro-trans" _vs._ "anti-trans". (The central tendency of the contemporary trans rights movement is firmly on the Wrong Side, but that's not the same thing as all trans people as individuals.) That's why Jessica joined our posse to try to argue with Yudkowsky in early 2019. (She wouldn't have, if my objection had been, "trans is fake; trans people Bad".) That's why Somni—one of the trans women who [infamously protested the 2019 CfAR reunion](https://www.ksro.com/2019/11/18/new-details-in-arrests-of-masked-camp-meeker-protesters/) for (among other things) CfAR allegedly discriminating against trans women—[understands what I've been saying](https://somnilogical.tumblr.com/post/189782657699/legally-blind).
+The battle that matters—the battle with a Right Side and a Wrong Side—isn't "pro-trans" _vs._ "anti-trans". (The central tendency of the contemporary trans rights movement is firmly on the Wrong Side, but that's not the same thing as all trans people as individuals.) That's why Jessica joined our posse to try to argue with Yudkowsky in early 2019. (She wouldn't have, if my objection had been, "trans is Fake and Wrong; trans people Bad".) That's why Somni—one of the trans women who [infamously protested the 2019 CfAR reunion](https://www.ksro.com/2019/11/18/new-details-in-arrests-of-masked-camp-meeker-protesters/) for (among other things) CfAR allegedly discriminating against trans women—[understands what I've been saying](https://somnilogical.tumblr.com/post/189782657699/legally-blind).
 
 The battle that matters—and I've been _very_ explicit about this, for years—is over this proposition eloquently stated by Scott Alexander (redacting the irrelevant object-level example):
 
@@ -379,12 +403,10 @@ https://twitter.com/ESYudkowsky/status/1096769579362115584
 ]
 
 [TODO section existential stakes, cooperation
- * so far, I've been writing this from the perspective of _rationalit
-
-
-
-
-
+ * so far, I've been writing this from the perspective of caring about _rationality_ and wanting there to be a rationality movement, the common interest of many causes
+ * e.g., as recently as 2020 I was daydreaming about working for an embryo selection company as part of the "altruistic" (about optimizing the future, rather than about my own experiences) component of my actions 
+ * if you have short timelines, and want to maintain influence over what big state-backed corporations are doing, self-censoring about contradicting the state religion makes sense
+ * you could tell a story in which I'm the villain for undermining Team Singularity with my petty temporal concerns
 ]
 
 > [_Perhaps_, replied the cold logic](https://www.yudkowsky.net/other/fiction/the-sword-of-good). _If the world were at stake._
@@ -392,10 +414,12 @@ https://twitter.com/ESYudkowsky/status/1096769579362115584
 > _Perhaps_, echoed the other part of himself, _but that is not what was actually happening._
 
 [TODO: social justice and defying threats
-
- * back in 'aught-nine, SingInst had made a point of prosecuting Tyler Emerson 
-
-at least Sabbatai Zevi had an excuse: his choices were to convert to Islam or be impaled https://en.wikipedia.org/wiki/Sabbatai_Zevi#Conversion_to_Islam
+ * There's _no story_ in which misleading people about this is on Yudkowsky's critical path!! I can cooperate with censorship that doesn't actively interfere with my battle, but Yudkowsky was interfering
+ * I don't pick fights with Paul Christiano, because Paul Christiano doesn't take a shit on my Something to Protect
+ * back in 'aught-nine, SingInst had made a point of prosecuting Tyler Emerson, citing decision theory
+ * there's a lot of naive misinterpretations of timeless decision theory out there that don't understand the counterfactual dependence thing, but the parsing of social justice as an agentic "threat" to be avoided rather than a rock to be dodged does seem to line up with the fact that people punish heretics more than infidels
+ * But it matters where you draw the zero point: is being excluded from the coalition a "punishment" to threaten you out of bad behavior, or is being included a "reward" for good behavior?
+ * at least Sabbatai Zevi had an excuse: his choices were to convert to Islam or be impaled https://en.wikipedia.org/wiki/Sabbatai_Zevi#Conversion_to_Islam
 ]
 
 
@@ -403,19 +427,26 @@ I like to imagine that they have a saying out of dath ilan: once is happenstance
 
 I could forgive him for taking a shit on d4 of my chessboard (["at least 20% of the ones with penises are actually women"](https://www.facebook.com/yudkowsky/posts/10154078468809228)). I could even forgive him for subsequently taking a shit on e4 of my chessboard (["you're not standing in defense of truth if you insist on a word [...]"](https://twitter.com/ESYudkowsky/status/1067198993485058048)) as long as he wiped most of the shit off afterwards (["you are being the bad guy if you try to shut down that conversation by saying that 'I can define the word "woman" any way I want'"](https://www.facebook.com/yudkowsky/posts/10158853851009228)), even though, really, I would have expected someone so smart to take a hint after the incident on d4.
 
-But if he's _then_ going to take a shit on c3 of my chessboard (["In terms of important things? Those would be all the things I've read [...] describing reasons someone does not like to be tossed into a Male Bucket or Female Bucket, as it would be assigned by their birth certificate"](https://www.facebook.com/yudkowsky/posts/10159421750419228)),
-
+But if he's _then_ going to take a shit on c3 of my chessboard (["the simplest and best protocol is, '"He" refers to the set of people who have asked us to use "he"'"](https://www.facebook.com/yudkowsky/posts/10159421750419228)),
 
 
+[TODO cap off chess analogy—
 
 The turd on c3 is a pretty big likelihood ratio!
+] 
 
 
 
-[TODO: the dolphin war, our thoughts about dolphins are literally downstream from Scott's political incentives in 2014; this is a sign that we're a cult
+[TODO the dolphin war: 
+ * Yudkowsky retweeted Soares on dolphins, and I _lost it_; I had specifically covered the dolphin example!!
+ * the memetic dead hand of "... Not Man for the Categories" was very clear in the arguments; it got linked three times in the comments and Nate Liked it
+ * I did, actually, overestimate the probability that Nate was messing with me
+ * I overheated in the comments section in a way that was a huge misplay
+ * nevertheless, the fact that our thoughts about dolphins are literally downstream from Scott's political incentives in 2014 (even if people who caught the meme weren't thinking about gender); this is a sign that we're a cult rather than having a special engine of reasoning that can re-generate correct beliefs
+ * "Blood Is Thicker Than Water" followup
 
 https://twitter.com/ESYudkowsky/status/1404700330927923206
-> That is: there's a story here where not just particular people hounding Zack as a responsive target, but a whole larger group, are engaged in a dark conspiracy that is all about doing damage on issues legible to Zack and important to Zack.  This is merely implausible on priors.
+> That is: there's a story here where not just particular people hounding Zack as a responsive target, but a whole larger group, are engaged in a dark conspiracy that is all about doing damage on issues legible to Zack and important to Zack. This is merely implausible on priors.
 
 I mean, I wouldn't _call_ it a "dark conspiracy" exactly, but if the people with intellectual authority are computing what to say on the principle of "it is sometimes personally prudent and not community-harmful to post [their] agreement with Stalin", and Stalin cares a lot about doing damage on issues legible and important to me, then, pragmatically, I think that has _similar effects_ on the state of our collective knowledge as a dark conspiracy, even if the mechanism of coordination is each individual being separately terrified of Stalin, rather than them meeting with dark robes to plot under a full moon.
 
@@ -424,6 +455,7 @@ I mean, I wouldn't _call_ it a "dark conspiracy" exactly, but if the people with
 ]
 
 [TODO: 
+ * depressed after talking to him at Independence Day party 2021 (I can mention that, because it was outdoors and probably lots of other people saw us, even if I can't talk about content)
  * It wouldn't be so bad if he weren't trying to sell himself as a religious leader, and profiting from the conflation of rationalist-someone-who-cares-about-reasoning, and rationalist-member-of-robot-cult
  * But he does, in fact, seem to actively encourage this conflation (contrast to how the Sequences had a litany against gurus)
  * a specific example that made me very angry in September 2021
@@ -533,6 +565,8 @@ I don't doubt Yudkowsky could come up with some clever casuistry why, _technical
 
 [TODO: elaborate on how 2007!Yudkowsky and 2021!Xu are saying the opposite things if you just take a plain-language reading and consider, not whether individual sentences can be interpreted as "true", but what kind of _optimization_ the text is doing to the behavior of receptive readers]
 
+[TODO: address Yudkowsky's clarification in Eliezerfic that it's a strictly first-person exercise]
+
 On the offhand chance that Eliezer Yudkowsky happens to be reading this—if someone _he_ trusts (MIRI employees?) genuinely thinks it would be good for the lightcone to bring this paragraph to his attention—he should know that if he _wanted_ to win back _some_ of the trust and respect he's lost from me and everyone I can influence—not _all_ of it, but _some_ of it[^some-of-it]—I think it would be really easy. All he would have to do is come clean about the things he's _already_ misled people about.
 
 [^some-of-it]: Coming clean _after_ someone writes a 80,000 word memoir explaining how dishonest you've been, engenders less trust than coming clean spontenously of your own accord.
@@ -557,7 +591,9 @@ Again, that's the administrator of Yudkowsky's _own website_ saying that he's de
 
 ... but I'm not, holding my breath. If Yudkowsky _wants_ to reply—if he _wants_ to try to win back some of the trust and respect he's lost from me—he's totally _welcome_ to. (_I_ don't censor my comment sections of people whom it "looks like it would be unhedonic to spend time interacting with".) 
 
-[TODO: I've given up talking to the guy (nearest unblocked strategy sniping in Eliezerfic doesn't count), my last email, giving up on hero-worship I don't want to waste any more of his time. I owe him that much.]
+[TODO: I've given up talking to the guy (nearest unblocked strategy sniping in Eliezerfic doesn't count), my last email, giving up on hero-worship I don't want to waste any more of his time. I owe him that much.
+  * like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
+]
 
 [TODO: https://www.lesswrong.com/posts/MnFqyPLqbiKL8nSR7/my-experience-at-and-around-miri-and-cfar-inspired-by-zoe 
  * when Jessica published her story, the karma took a nosedive when Scott commented blaming all of Jessica's problems on Michael, and Yudkowsky backed up Scott; to me, this looks like raw factional conflict: Jessica had some negative-valence things to say about the Calilphate, so Caliphate leaders move in to discredit her by association. 
@@ -568,18 +604,22 @@ Again, that's the administrator of Yudkowsky's _own website_ saying that he's de
 
 "Death With Dignity" isn't really an update; he used to refuse to give a probability, and now he says the probability is ~0
 
-/2017/Jan/from-what-ive-tasted-of-desire/
+ * swimming to shore analogy
 
+/2017/Jan/from-what-ive-tasted-of-desire/
 ]
 
 [TODO:
  * I wrote to him asking if he cared if I said negative things about him, that it would be easier if he wouldn't hold it against me, and explained my understanding of the privacy norm
  * in retrospect, I was wrong to ask that. I _do_ hold it against him. And if I'm entitled to my feelings, isn't he entitled to his?
+ * Is this the hill _he_ wants to die on? The pronouns post mentions "while you can still get away with disclaimers", referring to sanction from the outside world, as if he won't receive any sanction from his people, because he owns us. That's wrong. Yudkowsky as a person doesn't own me; the Sequences-algorithm does
+
+If the world is ending either way, wouldn't it be more dignified for him to die _without_ Stalin's dick in his mouth?
+
+ * Maybe not? If "dignity" is a term of art for log-odds of survival, maybe self-censoring to maintain influence over what big state-backed corporations are doing is "dignified" in that sense
 
-like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
 ]
 
 [TODO: regrets and wasted time
  * Do I have regrets about this Whole Dumb Story? A lot, surely—it's been a lot of wasted time. But it's also hard to say what I should have done differently; I could have listened to Ben more and lost faith Yudkowsky earlier, but he had earned a lot of benefit of the doubt?
-
 ]