memoir pokes: critical communism, vaccine polarization
[Ultimately_Untrue_Thought.git] / content / drafts / agreeing-with-stalin-in-ways-that-exhibit-generally-rationalist-principles.md
index ed8111b..6d1923c 100644 (file)
@@ -29,7 +29,7 @@ It _is_ a weirdly brazen invalid _inference_. But by calling it a "falsehood", A
 
 But ... anyone who's read _and understood_ Alexander's work should be able to infer that Scott probably finds it plausible that there exist genetically-mediated ancestry-group differences in socially-relevant traits (as a value-free matter of empirical Science with no particular normative implications): for example, his [review of Judith Rich Harris](https://archive.ph/Zy3EL) indicates that he accepts the evidence from [twin studies](/2020/Apr/book-review-human-diversity/#twin-studies) for individual behavioral differences having a large genetic component, and section III. of his ["The Atomic Bomb Considered As Hungarian High School Science Fair Project"](https://slatestarcodex.com/2017/05/26/the-atomic-bomb-considered-as-hungarian-high-school-science-fair-project/) indicates that he accepts genetics as an explantion for group differences in the particular case of cognitive ability in Ashkenazi Jews.[^murray-alignment]
 
-[^murray-alignment]: And as far as aligning himself with Murray more generally, Alexander had tapped Murray for Welfare Czar in [a hypothetical "If I were president" Tumblr post](https://archive.vn/xu7PX).
+[^murray-alignment]: And as far as aligning himself with Murray more generally, it's notable that Alexander had tapped Murray for Welfare Czar in [a hypothetical "If I were president" Tumblr post](https://archive.vn/xu7PX).
 
 There are a lot of standard caveats that go here that Scott would no doubt scrupulously address if he ever chose to tackle the subject of genetically-mediated group differences in general: [the mere existence of a group difference in a "heritable" trait doesn't itself imply a genetic cause of the group difference (because the groups' environments could also be different)](/2020/Apr/book-review-human-diversity/#heritability-caveats). It is without a doubt _entirely conceivable_ that the Ashkenazi IQ advantage is real and genetic, but black–white IQ gap is fake and environmental.[^bet] Moreover, group averages are just that—averages. They don't imply anything about individuals and don't justify discrimination against individuals.
 
@@ -39,7 +39,7 @@ But ... anyone who's read _and understood_ Charles Murray's work, knows that [Mu
 
 [^murray-caveat]: For example, the introductory summary for Ch. 13 of _The Bell Curve_, "Ethnic Differences in Cognitive Ability", states: "Even if the differences between races were entirely genetic (which they surely are not), it should make no practical difference in how individuals deal with each other."
 
-Why do I keep repeatedly bringing this up, that "rationalist" leaders almost certainly believe in cognitive race differences (even if it's hard to get them to publicly admit it in a form that's easy to selectively quote in front of _New York Times_ reader)?
+Why do I keep repeatedly bringing this up, that "rationalist" leaders almost certainly believe in cognitive race differences (even if it's hard to get them to publicly admit it in a form that's easy to selectively quote in front of _New York Times_ readers)?
 
 Because one of the things I noticed while trying to make sense of why my entire social circle suddenly decided in 2016 that guys like me could become women by means of saying so, is that in the conflict between the "rationalist" Caliphate and mainstream progressives, the "rationalists"' defensive strategy is one of deception.
 
@@ -57,9 +57,9 @@ So the _New York Times_ implicitly accuses us of being racists, like Charles Mur
 
 It works surprisingly well. I fear my love of Truth is not so great that if I didn't have Something to Protect, I would have happily participated in the cover-up.
 
-As it happens, in our world, the defensive cover-up consists of _throwing me under the bus_. Facing censure from the progressive egregore for being insufficiently progressive, we can't defend ourselves ideologically. (_We_ think we're egalitarians, but progressives won't buy that because we like markets too much.) We can't point to our racial diversity. (Mostly white if not Jewish, with a generous handful of Asians, exactly as you'd expect from chapters 13 and 14 of _The Bell Curve_.) [Subjectively](https://en.wikipedia.org/wiki/Availability_heuristic), I felt like the sex balance got a little better after we hybridized with Tumblr and Effective Alruism (as [contrasted with the old days](/2017/Dec/a-common-misunderstanding-or-the-spirit-of-the-staircase-24-january-2009/)), but survey data doesn't unambiguously back this up.
+As it happens, in our world, the defensive cover-up consists of _throwing me under the bus_. Facing censure from the progressive egregore for being insufficiently progressive, we can't defend ourselves ideologically. (_We_ think we're egalitarians, but progressives won't buy that because we like markets too much.) We can't point to our racial diversity. (Mostly white if not Jewish, with a generous handful of Asians, exactly as you'd expect from chapters 13 and 14 of _The Bell Curve_.) [Subjectively](https://en.wikipedia.org/wiki/Availability_heuristic), I felt like the sex balance got a little better after we hybridized with Tumblr and Effective Alruism (as [contrasted with the old days](/2017/Dec/a-common-misunderstanding-or-the-spirit-of-the-staircase-24-january-2009/)), but survey data doesn't unambiguously back this up.[^survey-data]
 
-(We go from 89.2% male in the [2011 _Less Wrong_ survey](https://www.lesswrong.com/posts/HAEPbGaMygJq8L59k/2011-survey-results) to a virtually unchanged 88.7% male on the [2020 _Slate Star Codex_ survey](https://slatestarcodex.com/2020/01/20/ssc-survey-results-2020/)—although the [2020 EA survey](https://forum.effectivealtruism.org/posts/ThdR8FzcfA8wckTJi/ea-survey-2020-demographics) says only 71% male, so it depends on how you draw the category boundaries of "we.")
+[^survey-data]: We go from 89.2% male in the [2011 _Less Wrong_ survey](https://www.lesswrong.com/posts/HAEPbGaMygJq8L59k/2011-survey-results) to a virtually unchanged 88.7% male on the [2020 _Slate Star Codex_ survey](https://slatestarcodex.com/2020/01/20/ssc-survey-results-2020/)—although the [2020 EA survey](https://forum.effectivealtruism.org/posts/ThdR8FzcfA8wckTJi/ea-survey-2020-demographics) says only 71% male, so it depends on how you draw the category boundaries of "we."
 
 But _trans!_ We have plenty of trans people to trot out as a shield to definitively prove that we're not counter-revolutionary right-wing Bad Guys! (Alexander joked in April 2016 that ["We are solving the gender ratio issue one transition at a time"](https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup).) Thus, [Jacob Falkovich noted](https://twitter.com/yashkaf/status/1275524303430262790) (on 23 June 2020, just after _Slate Star Codex_ went down), "The two demographics most over-represented in the SlateStarCodex readership according to the surveys are transgender people and Ph.D. holders", and Scott Aaronson [noted (in commentary on the February 2021 _Times_ article) that](https://www.scottaaronson.com/blog/?p=5310) "the rationalist community's legendary openness to alternative gender identities and sexualities" as something that would have "complicated the picture" of our portrayal as anti-feminist.
 
@@ -101,7 +101,7 @@ Yudkowsky [commented that](https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPj
 
 To this, I'll agree that the problems shouldn't be confused. Psychology is complicated, and people have more than one reason for doing things: I can easily believe that Brennan was largely driven by bully-like motives even if he told himself a story about being a valiant whistleblower defending Cade Metz's honor against Scott's deception.
 
-But I think it's also important to _notice both problems_, instead of pretending that the only problem was Brennan's disregard for Alexander's privacy on account of Brennan being an evil bully.
+But I think it's also important to _notice both problems_, instead of pretending that the only problem was Brennan's disregard for Alexander's privacy.
 
 It's one thing to believe that people should keep promises that they, themselves, explicitly made. But instructing commenters not to link to the email seems to imply not just that Brennan should keep _his_ promises, but that _everyone else_ is obligated to participate in a conspiracy to conceal information that Alexander would prefer concealed. I can see an ethical case for it, analogous to returning stolen property after it's already been sold, and expecting buyers not to buy items that they know have been stolen. (If Brennan had obeyed Alexander's confidentiality demand, we wouldn't have an email to link to, so if we wish Brennan had obeyed, we can just _act as if_ we don't have an email to link to.) But also I think expecting people to _pretend not to know things_ is a _big ask_, not something you can casually demand.
 
@@ -509,7 +509,7 @@ So far, I've been writing from the perspective of caring (and expecting Yudkowsk
 
 That's pretty much always where I've been at. I _never_ wanted to save the world. I got sucked in to this robot cult because Yudkowsky's philsophy-of-science writing was just that good. I did do a little bit of work for the Singularity Institute back in the day (an informal internship in 'aught-nine, some data-entry-like work manually adding Previous/Next links to the Sequences, designing several PowerPoint presentations for Anna, writing some Python scripts to organize their donor database), but that was because it was my social tribe and I had connections. To the extent that I took at all seriously the whole save/destroy/take-over the world part (about how we needed to encode all of human morality into a recursively self-improving artificial intelligence to determine our entire future light cone until the end of time), I was scared rather than enthusiastic.
 
-Okay, being scared was entirely appropriate, but what I mean is that I was scared, and concluded that shaping the Singularity was _not my problem_, as contrasted to being scared, then facing up to the responsibility anyway. After a 2013 sleep-deprivation-induced psychotic episode which featured futurist-themed delusions, I wrote to Anna, Michael, and some MIRI employees who had been in my contacts for occasional contract work, that "my current plan [was] to just try to forget about _Less Wrong_/MIRI for a long while, maybe at least a year, not because it isn't technically the most important thing in the world, but because I'm not emotionally stable enough think about this stuff anymore" (Subject: "to whom it may concern"). When I got a real programming job and established an income for myself, I [donated to CfAR rather than MIRI](http://zackmdavis.net/blog/2016/12/philanthropy-scorecard-through-2016/), because public rationality was something I could be unambiguously enthusiastic about, and doing anything about AI was not.
+Okay, being scared was entirely appropriate, but what I mean is that I was scared, and concluded that shaping the Singularity was _not my problem_, as contrasted to being scared, then facing up to the responsibility anyway. After a 2013 sleep-deprivation-induced psychotic episode which [featured](http://zackmdavis.net/blog/2013/03/religious/) [futurist](http://zackmdavis.net/blog/2013/04/prodrome/)-[themed](http://zackmdavis.net/blog/2013/05/relativity/) [delusions](http://zackmdavis.net/blog/2013/05/relevance/), I wrote to Anna, Michael, and some MIRI employees who had been in my contacts for occasional contract work, that "my current plan [was] to just try to forget about _Less Wrong_/MIRI for a long while, maybe at least a year, not because it isn't technically the most important thing in the world, but because I'm not emotionally stable enough think about this stuff anymore" (Subject: "to whom it may concern"). When I got a real programming job and established an income for myself, I [donated to CfAR rather than MIRI](http://zackmdavis.net/blog/2016/12/philanthropy-scorecard-through-2016/), because public rationality was something I could be unambiguously enthusiastic about, and doing anything about AI was not.
 
 At the time, it seemed fine for the altruistically-focused fraction of my efforts to focus on rationality, and to leave the save/destroy/take-over the world stuff to other, less crazy people, in accordance with the principle of comparative advantage. Yudkowsky had written his Sequences as a dependency for explaining [the need for friendly AI](https://www.lesswrong.com/posts/GNnHHmm8EzePmKzPk/value-is-fragile), ["gambl[ing] only upon the portion of the activism that would flow to [his] own cause"](https://www.lesswrong.com/posts/9jF4zbZqz6DydJ5En/the-end-of-sequences), but rationality was supposed to be the [common interest of many causes](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes). Even if I wasn't working or donating to MIRI, I was still _helping_, a good citizen according to the morality of my tribe.
 
@@ -519,21 +519,25 @@ Now it looks like we have—less time? Not just tautologically because time has
 
 [TODO: specifically, AlphaGo seemed "deeper" than minimax search so you shouldn't dimiss it as "meh, games", the way it rocketed past human level from self-play https://twitter.com/zackmdavis/status/1536364192441040896]
 
-My AlphaGo moment was 5 January 2021, OpenAI's release of [DALL-E](https://openai.com/blog/dall-e/) (by far the most significant news story of that week of January 2021).
+My AlphaGo moment was 5 January 2021, when OpenAI released [DALL-E](https://openai.com/blog/dall-e/) (by far the most significant news story of that week in January 2021). Previous AI milestones, like GANs for a _fixed_ image class, were easier to dismiss as clever statistical tricks. If you have thousands and thousands of photographs of people's faces, I didn't feel surprised that some clever algorithm could "learn the distribution" and spit out another sample; I don't know the _details_, but it doesn't seem like scary "understanding." DALL-E's ability to _combine_ concepts—responding to "an armchair in the shape of an avacado" as a novel text prompt, rather than already having thousands of avacado-chairs and just spitting out another one of those—viscerally seemed more like "real" creativity to me, something qualitatively new and scary.
 
-[TODO: previous AI milestones had seemed dismissible as a mere clever statistics trick; this looked more like "real" understanding, "real" creativity]
+[As recently as 2020, I had been daydreaming about](/2020/Aug/memento-mori/#if-we-even-have-enough-time) working at an embryo selection company (if they needed programmers—but everyone needs programmers, these days), and having that be my altruistic[^eugenics-altruism] contribution to the great common task. Existing companies working on embryo selection [boringly](https://archive.is/tXNbU) [market](https://archive.is/HwokV) their services as being about promoting health, but [polygenic scores should work as well for maximizing IQ as they do for minimizing cancer risk](https://www.gwern.net/Embryo-selection).[^polygenic-score] Making smarter people would be a transhumanist good in its own right, and [having smarter biological humans around at the time of our civilization's AI transition](https://www.lesswrong.com/posts/2KNN9WPcyto7QH9pi/this-failing-earth) would give us a better shot at having it go well.[^ai-transition-go-well]
 
-[As recently as 2020, I had been daydreaming about about](/2020/Aug/memento-mori/#if-we-even-have-enough-time) working at an embryo selection company (if they needed programmers—but everyone needs programmers, these days), and having that be my altruistic[^altruism] contribution to the world.
+[^eugenics-altruism]: If it seems odd to frame _eugenics_ as "altruistic", translate it as a term of art referring to the component of my actions dedicating to optimizing the world at large, as contrasted to "selfishly" optimizing my own experiences.
 
-[^altruism]: If it seems odd to frame _eugenics_ as "altruistic", translate it as a term of art referring to the component of my actions dedicating to optimizing the future of the world, as opposed to selfishly optimizing my own experiences.
+[^polygenic-score]: Better, actually: [the heritability of IQ is around 0.65](https://en.wikipedia.org/wiki/Heritability_of_IQ), as contrasted to [about 0.33 for cancer risk](https://pubmed.ncbi.nlm.nih.gov/26746459/).
 
-[TODO—
+[^ai-transition-go-well]: Natural selection eventually developed intelligent creatures, but evolution didn't know what it was doing and was not foresightfully steering the outcome in any particular direction. The more humans know what we're doing, the more our will determines the fate of the cosmos; the less we know what we're doing, the more our civilization is just another primordial soup for the next evolutionary transition.
 
- * If you have short timelines, and want to maintain influence over what big state-backed corporations are doing, self-censoring about contradicting the state religion makes sense. There's no time to win a culture war; we need to grab hold of the Singularity now!!
+But pushing on embryo selection only makes sense as an intervention for optimizing the future if AI timelines are sufficiently long, and the breathtaking pace (or too-fast-to-even-take-a-breath pace) of the deep learning revolution is so much faster than the pace of human generations, that it's starting to look unlikely that we'll get that much time. If our genetically uplifted children would need at least twenty years to grow up to be productive alignment researchers, but unaligned AI is on track to end the world in twenty years, we would need to start having those children _now_ in order for them to make any difference at all. 
 
- * So isn't there a story here where I'm the villain for not falling in line and accepting orders? Aren't I causing damage, losing dignity points for our Earth, by criticizing Yudkowsky so harshly, when actually the rest of the world should listen to him more about the coming robot apocalypse?
+[It's ironic that "longtermism" got some traction as the word for the "EA" cause of benefitting the far future](https://applieddivinitystudies.com/longtermism-irony/), because the decision-relevant beliefs of most of the people who think about the far future work out to extreme short-termism.
 
-]
+Common-sense longtermism—a longtermism that assumed there's still going to be a world of recognizable humans in 2123—_would_ care about eugenics, and would be willing to absorb political costs today in order to fight for a saner future. The story of humanity would not have gone _better_ if Galileo had declined to publish his theories for fear of the Inquisition.
+
+But if you think the only hope for there _being_ a future flows through maintaining influence over what big state-backed corporations are doing, declining to contradict the state religion makes more sense—if you don't have _time_ to win a culture war, because you need to grab hold of the Singularity (or perform a [pivotal act](https://arbital.com/p/pivotal/) to prevent it) _now_.
+
+[...]
 
 > [_Perhaps_, replied the cold logic. _If the world were at stake._
 >
@@ -621,7 +625,7 @@ After a little more thought, I decided the thread _was_ overtly objectionable, a
 
  * It wouldn't be so bad if he weren't trying to sell himself as a religious leader, and profiting from the conflation of rationalist-someone-who-cares-about-reasoning, and rationalist-member-of-robot-cult
 
- * But he does, in fact, seem to actively encourage this conflation (contrast to how the Sequences had a [Litany Against Gurus](https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus) these days, with the way he sneers as Earthlings and post-rats
+ * But he does, in fact, seem to actively encourage this conflation (contrast to how the Sequences had a [Litany Against Gurus](https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus) these days, with the way he sneers as Earthlings and post-rats)
 
  * "I may as well do it on Earth"
 
@@ -630,7 +634,7 @@ After a little more thought, I decided the thread _was_ overtly objectionable, a
 https://twitter.com/ESYudkowsky/status/1434906470248636419
 > Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
 
-Okay, I get that it was meant as humorous exaggeration. But I think it still has the effect of discouraging people from criticizing Scott or Eliezer because they're the leaders of the caliphate. I spent three and a half years of my life explaining in exhaustive, exhaustive detail, with math, how Scott was wrong about something, no one serious actually disagrees, and Eliezer is still using his social power to boost Scott's right-about-everything (!!) reputation. That seems really unfair, in a way that isn't dulled by "it was just a joke."
+Okay, I get that it was meant as humorous exaggeration. But I think it still has the effect of discouraging people from criticizing Scott or Eliezer because they're the leaders of the Caliphate. I spent three and a half years of my life explaining in exhaustive, exhaustive detail, with math, how Scott was wrong about something, no one serious actually disagrees, and Eliezer is still using his social power to boost Scott's right-about-everything (!!) reputation. That seems really unfair, in a way that isn't dulled by "it was just a joke."
 
 Or [as Yudkowsky put it](https://www.facebook.com/yudkowsky/posts/10154981483669228)—
 
@@ -649,11 +653,20 @@ sneering at post-rats; David Xu interprets criticism of Eliezer as me going "ful
 > Also: speaking as someone who's read and enjoyed your LW content, I do hope this isn't a sign that you're going full post-rat. It was bad enough when QC did it (though to his credit QC still has pretty decent Twitter takes, unlike most post-rats).
 
 https://twitter.com/davidxu90/status/1435106339550740482 
-]
 
 https://twitter.com/zackmdavis/status/1435856644076830721
 > The error in "Not Man for the Categories" is not subtle! After the issue had been brought to your attention, I think you should have been able to condemn it: "Scott's wrong; you can't redefine concepts in order to make people happy; that's retarded." It really is that simple! 4/6
 
+I once wrote [a post whimsically suggesting that trans women should owe cis women royalties](/2019/Dec/comp/) for copying the female form (as "intellectual property"). In response to a reader who got offended, I [ended up adding](/source?p=Ultimately_Untrue_Thought.git;a=commitdiff;h=03468d274f5) an "epistemic status" line to clarify that it was not a serious proposal.
+
+But if knowing it was a joke partially mollifies the offended reader who thought I might have been serious, I don't think they should be _completely_ mollified, because the joke (while a joke) reflects something about my thinking when I'm being serious: I don't think sex-based collective rights are inherently a crazy idea; I think _something of value has been lost_ when women who want female-only spaces can't have them, and the joke reflects the conceptual link between the idea that something of value has been lost, and the idea that people who have lost something of value are entitled to compensation.
+
+At Valinor's 2022 Smallpox Eradication Day party, I remember overhearing[^overhearing] Yudkowsky saying that OpenAI should have used GPT-3 to mass-promote the Moderna COVID vaccine to Republicans and the Pfizer vaccine to Democrats (or vice versa). I assume this was not a serious proposal.
+
+[^overhearing]: Conversations at a party with lots of people are not protected by privacy norms.
+
+
+]
 
 
 [David Xu writes](https://twitter.com/davidxu90/status/1436007025545125896) (with Yudkowsky ["endors[ing] everything [Xu] just said"](https://twitter.com/ESYudkowsky/status/1436025983522381827)):
@@ -737,14 +750,9 @@ I don't doubt Yudkowsky could come up with some clever casuistry why, _technical
 [TODO: elaborate on how 2007!Yudkowsky and 2021!Xu are saying the opposite things if you just take a plain-language reading and consider, not whether individual sentences can be interpreted as "true", but what kind of _optimization_ the text is doing to the behavior of receptive readers]
 
 
-
-On the offhand chance that Eliezer Yudkowsky happens to be reading this—if someone _he_ trusts (MIRI employees?) genuinely thinks it would be good for the lightcone to bring this paragraph to his attention—he should know that if he _wanted_ to win back _some_ of the trust and respect he's lost from me and everyone I can influence—not _all_ of it, but _some_ of it[^some-of-it]—I think it would be really easy. All he would have to do is come clean about the things he's _already_ misled people about.
-
-[^some-of-it]: Coming clean _after_ someone writes a 80,000 word memoir explaining how dishonest you've been, engenders less trust than coming clean spontenously of your own accord.
-
 I don't, actually, expect people to spontaneously blurt out everything they believe to be true, that Stalin would find offensive. "No comment" would be fine. Even selective argumentation that's _clearly labeled as such_ would be fine. (There's no shame in being an honest specialist who says, "I've mostly thought about these issues though the lens of ideology _X_, and therefore can't claim to be comprehensive; if you want other perspectives, you'll have to read other authors and think it through for yourself.")
 
-What's _not_ fine is selective argumentation while claiming "confidence in [your] own ability to independently invent everything important that would be on the other side of the filter and check it [yourself] before speaking" when you _very obviously have done no such thing_. That's _not_ "no commment"! Having _already_ chosen to comment, he can't reasonably expect any self-respecting rationalist to take his "epistemic hero" bluster seriously if he's not going to reply to the obvious objections to have been made with standing and warrant. To wit—
+What's _not_ fine is selective argumentation while claiming "confidence in [your] own ability to independently invent everything important that would be on the other side of the filter and check it [yourself] before speaking" when you _very obviously have done no such thing_. That's _not_ "no commment"! Having _already_ chosen to comment, he can't reasonably expect any self-respecting rationalist to take his "epistemic hero" bluster seriously if he's not going to reply to the obvious objections to have been made with standing and warrant. 
 
  * Yudkowsky is _on the record_ [claiming that](https://www.facebook.com/yudkowsky/posts/10154078468809228) "for people roughly similar to the Bay Area / European mix", he is "over 50% probability at this point that at least 20% of the ones with penises are actually women". What ... does that mean? What is the _truth condition_ of the word 'woman' in that sentence? This can't be the claim that 20% of males would benefit from a gender transition, and in that sense _become_ "transsexual women"; the claim stated in the post is that members of this group are _already_ "actually women", "female-minds-in-male-bodies". How does Yudkowsky reconcile this claim with the perponderance of male-typical rather than female-typical behavior in this group (_e.g._, in gynephilic sexual orientation, or [in vocational interests](/2020/Nov/survey-data-on-cis-and-trans-women-among-haskell-programmers/))? On the other hand, if Yudkowsky changed his mind and no longer believes that 20% of Bay Area males of European descent have female brains, can he state that for the public record? _Reply!_
  
@@ -766,9 +774,6 @@ Again, that's the administrator of Yudkowsky's _own website_ saying that he's de
 
 If Yudkowsky _wants_ to reply—if he _wants_ to try to win back some of the trust and respect he's lost from me—he's totally _welcome_ to. (_I_ don't censor my comment sections of people whom it "looks like it would be unhedonic to spend time interacting with".) 
 
-[TODO: I've given up talking to the guy (nearest unblocked strategy sniping in Eliezerfic doesn't count), my last email, giving up on hero-worship I don't want to waste any more of his time. I owe him that much.
-  * like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
-]
 
 [TODO: https://www.lesswrong.com/posts/MnFqyPLqbiKL8nSR7/my-experience-at-and-around-miri-and-cfar-inspired-by-zoe  October 2021
 https://www.lesswrong.com/posts/pQGFeKvjydztpgnsY/occupational-infohazards December 2021
@@ -790,6 +795,11 @@ https://www.lesswrong.com/posts/pQGFeKvjydztpgnsY/occupational-infohazards Decem
 /2017/Jan/from-what-ive-tasted-of-desire/
 ]
 
+
+[TODO: I've given up talking to the guy (nearest unblocked strategy sniping in Eliezerfic doesn't count), my last email, giving up on hero-worship I don't want to waste any more of his time. I owe him that much.
+  * like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
+]
+
 [TODO:
  * January 2022
  * I wrote to him asking if he cared if I said negative things about him, that it would be easier if he wouldn't hold it against me, and explained my understanding of the privacy norm
@@ -802,7 +812,31 @@ If the world is ending either way, wouldn't it be more dignified for him to die
 
 ]
 
-[TODO: fighting in Eliezerfic]
+After the September 2021 Twitter altercation, I updgraded my "mute" of @ESYudkowsky to a "block", to avoid the temptation to pick more fights.
+
+I still had more things to say—a reply to the February 2021 post on pronoun reform, and the present memoir telling this Whole Dumb Story—but those could be written and published unilaterally. Given that we weren't actually going to get to clarity and resolution, I didn't need to bid for any more of my ex-hero's attention and waste more of his time; I owed him that much.
+
+[TODO last email and not bothering him—
+
+Although, as I struggled to write, I noticed I was 
+
+(Subject: "blessing to speak freely, and privacy norms?")
+
+]
+
+[TODO background on Planecrash, medianworlds, dath ilan, Keepers, masochism coverup—
+
+(The title is a pun, referring to both the airplane crash leading to Keltham's death in dath ilan, and how his resurrection in Golarion collides dath ilan with [the "planes" of existence of the _Pathfinder_ universe](https://pathfinderwiki.com/wiki/Great_Beyond).)
+
+(I asked Anna how Eliezer could stand the Glowfic people. She said she thought Eliezer could barely stand anyone. That makes sense, I said.)
+
+]
+
+It did not escape my notice that when "rationalist" authorities _in real life_ considered public knowledge of some paraphilia to be an infohazard (ostensibly for the benefit of people with that paraphilia), I _didn't take it lying down_.
+
+I ended up writing a few critical messages on dath ilan's censorship regime in the "Eliezerfic" Discord server for reader discussion of _Planecrash_ and related works.
+
+(Although Yudkowsky participated in the server, I had reasoned that my participation didn't violate my previous intent not to bother him anymore, because it was a publicly-linked Discord server with hundreds of members. Me criticizing the story for the _other_ 499 people in the chat room wouldn't generate a notification _for him_, the way it would if I sent him an email or replied to him on Twitter.)
 
 [TODO: regrets and wasted time
  * Do I have regrets about this Whole Dumb Story? A lot, surely—it's been a lot of wasted time. But it's also hard to say what I should have done differently; I could have listened to Ben more and lost faith Yudkowsky earlier, but he had earned a lot of benefit of the doubt?