poke
[Ultimately_Untrue_Thought.git] / content / drafts / agreeing-with-stalin-in-ways-that-exhibit-generally-rationalist-principles.md
index 54dfa6d..346060c 100644 (file)
@@ -12,19 +12,25 @@ Status: draft
 [TODO: Sasha disaster, breakup with Vassar group, this was really bad for me]
 
 [TODO: NYT affair and Brennan link, prelude to pronouns post
- * Cade Metz's story came out, and it was pretty bad in the ways you'd expect
+ * On 13 February 2021, [the _New York Times_ article on _Slate Star Codex_](https://archive.ph/zW6oX) came out.
  * notably, the Charles Murray guilt-by-association was a reach on the part of the reporter
- * What's particularly weird is that if you actually read Scott's work (e.g. "High School Science Project", he's obviously sympathetic to genetic explanations; it's _possible_ for Jews to be smart for genetic reasons but the black/white gap to be fake and environmental
+ * a "[Gettier](https://en.wikipedia.org/wiki/Gettier_problem) attack"—right for the wrong reasons
+ * Anyone who's _actually read_ Scott's work, knows that Scott thinks hereditarianism is plausible.
+ * Charles Murray is _also_ agnostic about causality.
+ * (maybe footnote) ["The Atomic Bomb Considered As Hungarian High School Science Fair Project"](https://slatestarcodex.com/2017/05/26/the-atomic-bomb-considered-as-hungarian-high-school-science-fair-project/) or the ["Biodeterminist's Guide to Parenting"](https://expost.padm.us/biodet), or the mention of _Human Varieties_ in ["Can Things Be Both Popular And Silenced?"](https://slatestarcodex.com/2018/05/23/can-things-be-both-popular-and-silenced/)
+ * (It's certainly _possible_ for the Ashkenazi IQ advantage to be real and genetic, and black–white gap to be fake and environmental.)
  * Scott's denial doesn't go into this, of course
  * Brennan email leak
  * my comment on bullies and heresy / my Twitter comment on lying
+ * If you actually read the email, it doesn't look like Brennan made any promises—Scott confessed, and threatened. I don't think Scott did anything wrong—_because_ I don't think belief in hereditarianism is wrong. If you imagine someone confessing to a real crime and then threatening "Don't tell anyone this", we would regard the leaker as a valiant whistleblower, not a privacy breaker
  * Yudkowsky reopens the conversation?! Why?!
 
+https://www.facebook.com/yudkowsky/posts/10159408250519228
 
 https://twitter.com/ESYudkowsky/status/1362514650089156608
 > Hypothesis:  People to whom self-awareness and introspection come naturally, put way too much moral exculpatory weight on "But what if they don't know they're lying?"  They don't know a lot of their internals!  And don't want to know!  That's just how they roll.
 
-Oh, this was also on 18 February 2021 (same day as my comment about SneerClub); maybe the conjunction of the two made me more salient
+Oh, this was also on 18 February 2021 4:13 p.m. (same day as my comment about SneerClub); maybe the conjunction of the two made me more salient
 https://twitter.com/zackmdavis/status/1362555980232282113
 > Oh, maybe it's relevant to note that those posts were specifically part of my 21-month rage–grief campaign of being furious at Eliezer all day every day for lying-by-implicature about the philosophy of language? But, I don't want to seem petty by pointing that out! I'm over it!
 
@@ -148,9 +154,9 @@ Really, it would be _less_ embarassing for Yudkowsky if he were outright lying a
 
 Furthermore, the claim that only I "would have said anything where you could hear it" is also discrediting of the community. Transitioning or not is a _major life decision_ for many of the people in this community. People in this community _need the goddamned right answers_ to the questions I've been asking in order to make that kind of life decision sanely [(whatever the sane decisions turn out to be)](/2021/Sep/i-dont-do-policy/). If "the community" is _so_ bad at exploring the space of arguments that I'm the only one (!?) who can talk about any of the obvious decision-relevant considerations that code as "anti-trans" when you project into the one-dimensional subspace corresponding to our Society's usual Culture War, why would you pay attention to "the community" _at all_? Insofar as "the community" is successfully marketing itself to promising young minds as the uniquely best place in the entire world for the practice of reasoning and sensemaking, then "the community" is _fraudulent_ (misleading people about what it has to offer in a way that moves resources): it needs to either _rebrand_—or failing that, _disband_—or failing that, _be destroyed_.
 
-The "where you could hear it" clause is _particularly_ bizarre—as if Yudkowsky takes it as an unexamined and unproblematic assumption that people in "the community" _don't read widely_. It's gratifying to be acknowledged by my caliph—or it would be, if he were still my caliph—but I don't think the points I've been making about the relevance of autogynephilia to transgender identity and the reality of biological sex (!) are particularly novel. I think I _am_ unusual in the amount of analytical rigor I can bring to bear on these topics: when people like Kathleen Stock or Corrina Cohn or Aaron Terrell make similar points, they don't have the background to formulate it [in the language of probabilistic graphical models](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/). _That_ part is a genuine value-add of the "rationalist" memeplex—something I wouldn't have been able to do without the influence of Yudkowsky's Sequences, and all the math books I studied afterwards because the vibe of the _Overcoming Bias_ comment section made that sound like an important and high-status thing to do.
+The "where you could hear it" clause is _particularly_ bizarre—as if Yudkowsky takes it as an unexamined and unproblematic assumption that people in "the community" _don't read widely_. It's gratifying to be acknowledged by my caliph—or it would be, if he were still my caliph—but I don't think the basic points I've been making about the relevance of autogynephilia to male-to-female transsexualism and the reality of biological sex (!) are particularly novel. I think I _am_ unusual in the amount of analytical rigor I can bring to bear on these topics. When similar points are made by people like Kathleen Stock or Corrina Cohn or Aaron Terrell—or for that matter Steve Sailer—they don't have the background to formulate it [in the language of probabilistic graphical models](/2022/Jul/the-two-type-taxonomy-is-a-useful-approximation-for-a-more-detailed-causal-model/). _That_ part is a genuine value-add of the "rationalist" memeplex—something I wouldn't have been able to do without the influence of Yudkowsky's Sequences, and all the math books I studied afterwards because the vibe of the _Overcoming Bias_ comment section made that sound like an important and high-status thing to do.
 
-But the promise of Sequences was in offering a discipline of thought that could be _applied to_ everything else you would have read and thought about anyway. This notion that if someone in "the community" (such as it was) didn't say something, then Yudkowsky's faithful students therefore _wouldn't be able to hear it_ (?!?), would be absurd: _Overcoming Bias_ was a gem of the blogoshere, but not a substitute for the rest of it. (Nor was the blogosphere a substitute for the University library, which escaped the autodidact's resentment of the tyranny of schools by selling borrowing privileges to the public for $100 a year.) To the extent that the Yudkowsky of the current year doesn't expect his followers to be able to pick up on obvious points when someone like Kathleen Stock or Corrina Cohn or Aaron Terrell says it, he should notice that he's running a mere cult or fandom rather than anything one would want to dignify by calling it an intellectual community.
+But the promise of Sequences was in offering a discipline of thought that could be _applied to_ everything else you would have read and thought about anyway. This notion that if someone in "the community" (such as it was) didn't say something, then Yudkowsky's faithful students therefore _wouldn't be able to hear it_ (?!?), would be absurd: _Overcoming Bias_ was a gem of the blogoshere, but not a substitute for the rest of it. (Nor was the blogosphere a substitute for the University library, which escaped the autodidact's resentment of the tyranny of schools by selling borrowing privileges to the public for $100 a year.) To the extent that the Yudkowsky of the current year takes for granted that his readers _don't read Steve Sailer_, he should notice that he's running a mere cult or fandom rather than anything one would want to dignify by calling it an intellectual community.
 
 Yudkowsky's disclaimer comment mentions "speakable and unspeakable arguments"—but what, one wonders, is the boundary of the "speakable"? In response to a commenter mentioning the cost of having to remember pronouns as a potential counterargument, Yudkowsky [offers us another clue](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228&reply_comment_id=10159421871809228):
 
@@ -356,19 +362,11 @@ Yudkowsky [defends his behavior](https://twitter.com/ESYudkowsky/status/13568121
 
 > I think that some people model civilization as being in the middle of a great battle in which this tweet, even if true, is giving comfort to the Wrong Side, where I would not have been as willing to tweet a truth helping the Right Side. From my perspective, this battle just isn't that close to the top of my priority list. I rated nudging the cognition of the people-I-usually-respect, closer to sanity, as more important; who knows, those people might matter for AGI someday. And the Wrong Side part isn't as clear to me either.
 
-There's a number of things that could be said about this,[^number-of-things] but to focus on what's most important, I reply—
-
-[^number-of-things]: Note the striking contrast between "A Rational Argument", in which the Yudkowsky of 2007 wrote that  
-
-
-
+There are a number of things that could be said to this,[^number-of-things] but most importantly: the battle that matters—the battle with a Right Side and a Wrong Side—isn't "pro-trans" _vs._ "anti-trans". (The central tendency of the contemporary trans rights movement is firmly on the Wrong Side, but that's not the same thing as all trans people as individuals.) That's why Jessica joined our posse to try to argue with Yudkowsky in early 2019. (She wouldn't have, if my objection had been, "trans is Wrong; trans people Bad".) That's why Somni—one of the trans women who [infamously protested the 2019 CfAR reunion](https://www.ksro.com/2019/11/18/new-details-in-arrests-of-masked-camp-meeker-protesters/) for (among other things) CfAR allegedly discriminating against trans women—[understands what I've been saying](https://somnilogical.tumblr.com/post/189782657699/legally-blind).
 
-[TODO: there are a number of things to be said to this—
- * A Rational Arugment" is very explicit about "not have been as willing to Tweet a truth helping the side" meaning you've crossed the line; 
- * it's if anything more plausible that trans women will matter to AGI, as I pointed out in my email
-]
+[^number-of-things]: Note the striking contrast between ["A Rational Argument"](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument), in which the Yudkowsky of 2007 wrote that a campaign manager "crossed the line [between rationality and rationalization] at the point where you considered whether the questionnaire was favorable or unfavorable to your candidate, before deciding whether to publish it"; and these 2021 Tweets, in which Yudkowsky seems completely nonchalant about "not have been as willing to tweet a truth helping" one side of a cultural dispute, because "this battle just isn't that close to the top of [his] priority list". Well, sure! Any hired campaign manager could say the same: helping the electorate make an optimally informed decision just isn't that close to the top of their priority list, compared to getting paid.
 
-The battle that matters—the battle with a Right Side and a Wrong Side—isn't "pro-trans" _vs._ "anti-trans". (The central tendency of the contemporary trans rights movement is firmly on the Wrong Side, but that's not the same thing as all trans people as individuals.) That's why Jessica joined our posse to try to argue with Yudkowsky in early 2019. (She wouldn't have, if my objection had been, "trans is Fake and Wrong; trans people Bad".) That's why Somni—one of the trans women who [infamously protested the 2019 CfAR reunion](https://www.ksro.com/2019/11/18/new-details-in-arrests-of-masked-camp-meeker-protesters/) for (among other things) CfAR allegedly discriminating against trans women—[understands what I've been saying](https://somnilogical.tumblr.com/post/189782657699/legally-blind).
+    Yudkowsky's claim to have been focused on nudging people's cognition towards sanity seems dubious: if you're focused on sanity, you should be noticing sanity errors on both sides. (Moreover, if you're living in what you yourself describe as a "half-Stalinist environment", you should expect your social environment to proportionately _more_ errors on the "pro-Stalin" side.) Judging by local demographics, the rationale that "those people might matter to AGI someday" seems much _more_ likely to apply to trans women themselves, than their critics.
 
 The battle that matters—and I've been _very_ explicit about this, for years—is over this proposition eloquently stated by Scott Alexander (redacting the irrelevant object-level example):
 
@@ -435,24 +433,20 @@ But if he's _then_ going to take a shit on c3 of my chessboard (["the simplest a
 The turd on c3 is a pretty big likelihood ratio!
 ] 
 
+In June 2021, MIRI Executive Director Nate Soares [wrote a Twitter thread aruging that](https://twitter.com/So8res/status/1401670792409014273) "[t]he definitional gynmastics required to believe that dolphins aren't fish are staggering", which [Yudkowsky retweeted](https://archive.is/Ecsca).[^not-endorsements]
 
+[^not-endorsements]: In general, retweets are not necessarily endorsements—sometimes people just want to draw attention to some content without further comment or implied approval—but I was inclined to read this instance as implying approval, partially because this doesn't seem like the kind of thing someone would retweet for attention-without-approval, and partially because of the working relationship between Soares and Yudkowsky.
 
-[TODO the dolphin war: 
- * Yudkowsky retweeted Soares on dolphins, and I _lost it_; I had specifically covered the dolphin example!!
- * the memetic dead hand of "... Not Man for the Categories" was very clear in the arguments; it got linked three times in the comments and Nate Liked it
- * I did, actually, overestimate the probability that Nate was messing with me
- * I overheated in the comments section in a way that was a huge misplay
- * nevertheless, the fact that our thoughts about dolphins are literally downstream from Scott's political incentives in 2014 (even if people who caught the meme weren't thinking about gender); this is a sign that we're a cult rather than having a special engine of reasoning that can re-generate correct beliefs
- * "Blood Is Thicker Than Water" followup
+Soares's points seemed cribbed from part I of Scott Alexander's ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), which post I had just dedicated _more than three years of my life_ to rebutting in [increasing](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) [technical](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries) [detail](https://www.lesswrong.com/posts/onwgTH6n8wxRSo2BJ/unnatural-categories-are-optimized-for-deception), _specifically using dolphins as my central example_—which Soares didn't necessarily have any reason to have known about, but Yudkowsky (who retweeted Soares) definitely did. (Soares's [specific reference to the Book of Jonah](https://twitter.com/So8res/status/1401670796997660675) made it seem particularly unlikely that he had invented the argument independently from Alexander.) [One of the replies (which Soares Liked) pointed out the similar _Slate Star Codex_ article](https://twitter.com/max_sixty/status/1401688892940509185), [as did](https://twitter.com/NisanVile/status/1401684128450367489) [a couple of](https://twitter.com/roblogic_/status/1401699930293432321) quote-Tweet discussions.
 
-https://twitter.com/ESYudkowsky/status/1404700330927923206
-> That is: there's a story here where not just particular people hounding Zack as a responsive target, but a whole larger group, are engaged in a dark conspiracy that is all about doing damage on issues legible to Zack and important to Zack. This is merely implausible on priors.
+I took this as another occasion to _flip out_. I didn't _immediately_ see anything for me to overtly object to in the thread itself—[I readily conceded that](https://twitter.com/zackmdavis/status/1402073131276066821) there was nothing necessarily wrong with wanting to use the symbol "fish" to refer to the cluster of similarities induced by convergent evolution to the acquatic habitat rather than the cluster of similarities induced by phylogenetic relatedness—but Soares and Yudkowsky implicitly lending more legtimacy to "... Not Man for the Categories" was _hostile to my interests_. Was I paranoid to read this as a potential [dogwhistle](https://en.wikipedia.org/wiki/Dog_whistle_(politics))? It just seemed _implausible_ that Soares would be Tweeting that dolphins are fish in the counterfactual in which "... Not Man for the Categories" had never been published.
 
-I mean, I wouldn't _call_ it a "dark conspiracy" exactly, but if the people with intellectual authority are computing what to say on the principle of "it is sometimes personally prudent and not community-harmful to post [their] agreement with Stalin", and Stalin cares a lot about doing damage on issues legible and important to me, then, pragmatically, I think that has _similar effects_ on the state of our collective knowledge as a dark conspiracy, even if the mechanism of coordination is each individual being separately terrified of Stalin, rather than them meeting with dark robes to plot under a full moon.
+After a little more thought, I decided the thread _was_ overtly objectionable, and [quickly wrote up a reply on _Less Wrong_](https://www.lesswrong.com/posts/aJnaMv8pFQAfi9jBm/reply-to-nate-soares-on-dolphins): Soares wasn't merely advocating for a "swimmy animals" sense of the word _fish_, but specifically deriding phylogenetic definitions as unmotivated for everyday use, and _that_ was wrong. Genetics is at the root of the causal graph underlying all other features of an organism; creatures that are more closely evolutionarily related are more similar _in general_. Classifying things by evolutionary lineage isn't an arbitrary æsthetic whim by people who care about geneology for no reason; we need the natural category of "mammals (including marine mammals)" to make sense of how dolphins are warm-blooded, breathe air, and nurse their live-born young.
 
-[when you consider the contrast between how Yudkowsky talks about sex differences, and how he panders to trans people—that really does look like he's participating in a conspiracy to do damage on issues legible to me; if there's no conspiracy, how else am I supposed to explain the difference?]
+(Somehow, it felt appropriate to use a quote from Arthur Jensen's ["How Much Can We Boost IQ and Scholastic Achievement?"](https://en.wikipedia.org/wiki/How_Much_Can_We_Boost_IQ_and_Scholastic_Achievement%3F) as an epigraph.)
+
+[TODO: dolphin war con'td]
 
-]
 
 [TODO: 
  * depressed after talking to him at Independence Day party 2021 (I can mention that, because it was outdoors and probably lots of other people saw us, even if I can't talk about content)
@@ -606,6 +600,10 @@ Again, that's the administrator of Yudkowsky's _own website_ saying that he's de
 
  * swimming to shore analogy
 
+ * I've believed since Kurzweil that technology will remake the world sometime in the 21th century; it's just "the machines won't replace us, because we'll be them" doesn't seem credible
+
+ * I agree that it would be nice if Earth had a plan
+
 /2017/Jan/from-what-ive-tasted-of-desire/
 ]