check in
[Ultimately_Untrue_Thought.git] / content / drafts / standing-under-the-same-sky.md
index e9c8bfc..f7c3e30 100644 (file)
@@ -65,7 +65,13 @@ Yudkowsky made an appearance. (After he replied to someone else, I remarked pare
 > **Eliezer** — 11/29/2022 10:36 PM  
 > I am sorry that some of the insane people I attracted got together and made each other more insane and then extensively meta-gaslit you into believing that everyone generally and me personally was engaging in some kind of weird out-in-the-open gaslighting that you could believe in if you attached least-charitable explanations to everything we were doing
 
-It was pretty annoying that Yudkowsky was still attributing my greviances to Michael's malign influence—as if the gender identity revolution was something I would otherwise have just taken lying down. In the counterfactual where Michael had died in 2015, I think something like my February 2017 breakdown would have likely happened anyway. (Between August 2016 and January 2017, I sent Michael 14 emails, met with him once, and watched 60% of South Park season 19 at his suggestion, so he was _an_ influence on my thinking during that period, but not a disproportionately large one compared to everything else I was doing at the time.) How would I have later reacted to the November 2018 "hill of meaning" Tweets (assuming they weren't butterfly-effected away in this counterfactual)? It's hard to say. Maybe, if that world's analogue of my February 2017 breakdown had gone sufficiently badly (with no Michael to visit me in the psych ward or help me make sense of things afterwards), I would have already been a broken man, and not even sent Yudkowsky an email. In any case, I feel very confident that my understanding of the behavior of "everyone generally and [Yudkowsky] personally" would not have been _better_ without Michael _et al._'s influence.
+It was pretty annoying that Yudkowsky was still attributing my greviances to Michael's malign influence—as if [the rationalists' wholesale embrace of gender identity revolution](/2023/Jul/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/) was something I would otherwise have just taken lying down. In the counterfactual where Michael had died in 2015, I think something like [my February 2017 mental breakdown](/2017/Mar/fresh-princess/) would have likely happened anyway.[^vassar-influence]
+
+[^vassar-influence]: Between August 2016 and January 2017, I sent Michael 14 emails, met with him once, and watched 60% of South Park season 19 at his suggestion, so he was _an_ influence on my thinking during that period, but not a disproportionately large one compared to everything else I was doing at the time.
+
+How would I have later reacted to [Yudkowsky's November 2018 "hill of meaning in defense of validity" Tweets](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/) (assuming they weren't butterfly-effected away in this counterfactual)? It's hard to say. Maybe, if that world's analogue of my February 2017 breakdown had gone sufficiently badly (with no Michael to visit me in the psych ward or help me make sense of things afterwards), I would have already been a broken man, and not even sent Yudkowsky an email. In any case, I feel very confident that my understanding of the behavior of "everyone generally and [Yudkowsky] personally" would not have been _better_ without Michael _et al._'s influence.
+
+Also, while "weird out-in-the-open gaslighting" was clearly a hostile paraphrase optimized to make my position look silly, I'm tempted to bite the bullet on it being an apt description of repeatedly publishing text that's optimized to delegitimize thinking about biological sex (which is gaslighting, manipulating people such that they doubt their own perceptions of reality) and justifying it on the grounds that ["people do _know_ they're living in a half-Stalinist environment"](/images/yudkowsky-personally_prudent_and_not_community-harmful.png) (which makes it weird and out in the open).
 
 > [cont'd]  
 > you may recall that this blog included something called the "Bayesian Conspiracy"  
@@ -79,7 +85,7 @@ Is it, though? The "always a complicated person [who has] shifted in [his] empha
 
 (As far as [the](https://www.lesswrong.com/posts/fnEWQAYxcRnaYBqaZ/initiation-ceremony) [Bayesian](https://www.lesswrong.com/posts/ZxR8P8hBFQ9kC8wMy/the-failures-of-eld-science) [Conspiracy](https://www.lesswrong.com/posts/xAXrEpF5FYjwqKMfZ/class-project) [stories](https://www.lesswrong.com/posts/kXAb5riiaJNrfR8v8/the-ritual) [went](https://www.lesswrong.com/posts/yffPyiu7hRLyc7r23/final-words), I think there's a significant narrative contrast between Brennan _seeking_ knowledge from the master _beisutsukai_, and Keltham, Merrin, and Thellim being _protected from_ knowledge by the Keepers. Neither the Bayesian Conspiracy nor the Keepers are publishing open-access textbooks, but at least the Conspiracy isn't claiming that their secretiveness is _for others' benefit_.)
 
-It's notable that Yudkowsky listed "still having posts like [Meta-Honesty](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases)" as an exculpatory factor here. The thing is, I [wrote a _critique_ of Meta-Honesty](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly). It was well-received (being [cited as a good example in the introductory post for the 2019 Less Wrong Review](https://www.lesswrong.com/posts/QFBEjjAvT6KbaA3dY/the-lesswrong-2019-review), for instance). I don't think I could have written a similarly impassioned critique of anything from the Sequences era, because the stuff from the Sequences era still looked correct to me. To me, "Meta-Honesty" was evidence _for_ Yudkowsky having relinquished his Art and lost his powers, not evidence that his powers were still intact.
+It's notable that Yudkowsky listed "still having posts like [Meta-Honesty](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases)" as an exculpatory factor here. The thing is, I [wrote a _critique_ of "Meta-Honesty"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly). It was well-received (being [cited as a good example in the introductory post for the 2019 Less Wrong Review](https://www.lesswrong.com/posts/QFBEjjAvT6KbaA3dY/the-lesswrong-2019-review), for instance). I don't think I could have written a similarly impassioned critique of anything from the Sequences era, because the stuff from the Sequences era still looked correct to me. To me, "Meta-Honesty" was evidence _for_ Yudkowsky having relinquished his Art and lost his powers, not evidence that his powers were still intact.
 
 I didn't have that response thought through in real time. At the time, I just agreed:
 
@@ -133,7 +139,7 @@ I didn't have that response thought through in real time. At the time, I just ag
 > **Eliezer** — 11/29/2022 11:31 PM  
 > I think you should worry first about editing the hate-warp out of yourself, but editing the memoir might be useful practice for it. Good night.  
 
-It turned out that I was lying about probably not talking in the server anymore. (Hedging with the word "probably" didn't make the claim true, and of course I wasn't _consciously_ lying, but that hardly seems exculpatory.)
+It turned out that I was lying about probably not talking in the server anymore. (Hedging with the word "probably" didn't make the claim true, and of course I wasn't _consciously_ lying, but that hardly seems exculpatory.) The fact that Yudkowsky had been replying to me at length—explaining why my literary criticism was nuts, but in a way that respected my humanity and expected me to be able to hear it—implied that I was apparently in his "I can cheaply save him from crazy people like Michael Vassar" bucket, rather than the "AI timelines and therefore life is too short" bucket. Maybe my presence wasn't tresspassing; maybe I had a right to speak.
 
 The next day, I belatedly pointed out that "Keltham thought that not learning about masochists he can never have, was obviously in retrospect what he'd have wanted Civilization to do" seemed to contradict "one thing hasn't changed: the message that you, yourself, should always be trying to infer the true truth". In the first statement, it didn't sound like Keltham thinks it's good that Civilization didn't tell him so that he could figure it out for himself (in accordance with the discipline of "you, yourself, always trying to infer the truth"). It sounded like he was better off not knowing—better off having a _less accurate self-model_ (not having the concept of "obligate romantic sadism"), better off having a _less accurate world-model_ (thinking that masochism isn't real).
 
@@ -172,17 +178,15 @@ I admitted, again, that there was a sense in which I couldn't argue with authori
 
 Something about innate _kung fu_ world seems fake in a way that seems like a literary flaw. It's not just about plausibility. Fiction often incorporates unrealistic elements in order to tell a story that has relevance to real human lives. Innate _kung fu_ skills are scientifically plausible[^instinct] in a way that faster-than-light travel is not, but throwing faster-than-light travel into the universe so that you can do a [space opera](https://tvtropes.org/pmwiki/pmwiki.php/Main/SpaceOpera) doesn't make the _people_ fake in the way that Superman's fighting skills are fake.
 
-[^instinct]: All sorts of other instinctual behaviors exist in animals; I don't se why skills humans have to study for years as a "martial art" couldn't be coded into the genome.
+[^instinct]: All sorts of other instinctual behaviors exist in animals; I don't see why skills humans have to study for years as a "martial art" couldn't be coded into the genome.
 
-Maybe it was okay for Superman's fighting skills to be fake from a literary perspective (because realism along that dimension is not what Superman is _about_), but if the Yudkowskian ethos exulted intelligence as ["the power that cannot be removed without removing you"](https://www.lesswrong.com/posts/SXK87NgEPszhWkvQm/mundane-magic), readers had grounds to demand that the dath ilani's thinking skills be real, and a world that's claimed by authorial fiat to be super-great at epistemic rationality, but where the people don't have a will-to-truth stronger than their will-to-happiness, felt fake to me. I couldn't _prove_ that it was fake. I agreed with Harmless's case that, _technically_, as far as the Law went, you could build a Civilization or a Friendly AI to see all the ugly things that you preferred not to see.
+Maybe it was okay for Superman's fighting skills to be fake from a literary perspective (because realism along that dimension is not what Superman is _about_), but if the Yudkowskian ethos exulted intelligence as ["the power that cannot be removed without removing you"](https://www.lesswrong.com/posts/SXK87NgEPszhWkvQm/mundane-magic), readers had grounds to demand that the dath ilani's thinking skills be real, and a world that's claimed by authorial fiat to be super-great at epistemic rationality, but where the people don't have a will-to-truth stronger than their will-to-happiness, felt fake to me. I couldn't _prove_ that it was fake. I agreed with Harmless's case that, technically, as far as the Law went, you could build a Civilization or a Friendly AI to see all the ugly things that you preferred not to see.
 
 But if you could—would you? And more importantly, if you would—could you?
 
 It was possible that the attitude I was evincing here was just a difference between the eliezera out of dath ilan and the Zackistani from my medianworld, and that there was nothing more to be said about it. But I didn't think the thing was a _genetic_ trait of the Zackistani! _I_ got it from spending my early twenties obsessively re-reading blog posts that said things like, ["I believe that it is right and proper for me, as a human being, to have an interest in the future [...] One of those interests is the human pursuit of truth [...] I wish to strengthen that pursuit further, in this generation."](https://www.lesswrong.com/posts/anCubLdggTWjnEvBS/your-rationality-is-my-business)
 
-There were definitely communities on Earth where I wasn't allowed in because of my tendency to shout things from street corners, and I respected those people's right to have a safe space for themselves.
-
-But those communities didn't call themselves _rationalists_, weren't _pretending_ be to be inheritors of the great tradition of E. T. Jaynes and Richard Feynman and Robin Hanson. And if they _did_, I think I would have a false advertising complaint against them.
+There were definitely communities on Earth where I wasn't allowed in because of my tendency to shout things from street corners, and I respected those people's right to have a safe space for themselves. But those communities didn't call themselves _rationalists_, weren't pretending be to be inheritors of the great tradition of E. T. Jaynes and Richard Feynman and Robin Hanson. And if they _did_, I think I would have a false advertising complaint against them.
 
 "[The eleventh virtue is scholarship. Study many sciences and absorb their power as your own](https://www.yudkowsky.net/rational/virtues) ... unless a prediction market says that would make you less happy," just didn't have the same ring to it. Neither did "The first virtue is curiosity. A burning itch to know is higher than a solemn vow to pursue truth. But higher than both of those, is trusting your Society's institutions to tell you which kinds of knowledge will make you happy"—even if you stipulated by authorial fiat that your Society's institutions are super-competent, such that they're probably right about the happiness thing.
 
@@ -212,16 +216,16 @@ I maintained that the fact that the eliezera prefer not to know that there are d
 
 Apparently I struck a nerve. Yudkowsky started "punching back":
 
-> **Eliezer** — 12/08/2022 12:45 PM
+> **Eliezer** — 12/08/2022 12:45 PM  
 > Do zacki have no concept of movie spoilers, such that all movies are just designed not to rely on uncertainty for dramatic tension?  Do children have to be locked in individual test rooms because they can't comprehend the concept of refusing to look at other children's answer sheets because it's evidence and you should observe it?  Do adults refuse to isolate the children so they can have practice problems, because you can't stop them from learning the answer to skill-building problems, only the legendary evil alien eliezera would do that?  Obviously they don't have surprise parties.  
 > It's noticeably more extreme than the _Invention of Lying_ aliens, who can still have nudity taboos  
 > I'd also note that I think in retrospect (only after having typed it) that Zack could not have generated these examples of other places where society refrains from observation, and that I think this means I am tracking the thing Zack fears in a way that Zack cannot because his thinking is distorted and he is arguing rather than seeing; and this, not verbally advocating for "truth", is more what respect for truth really is.  
 
-I thought the "you could not have generated the answer I just told you" gambit was a pretty dirty argumentative trick on Yudkowsky's part. (Given that I could, how would I be able to prove it?—this was itself a good use-case for concealing spoilers.)
+I thought the "you could not have generated the answer I just told you" gambit was a pretty dirty argumentative trick on Yudkowsky's part. (Given that I could, how would I be able to prove it? This was itself a good use-case for concealing spoilers.)
 
-As it happened, however, I _had_ already considered the case of spoilers as a class of legitimate infohazards, and was prepared to testify that I had already thought of it, and explain why I thought hiding spoilers were relevantly morally different from the coverups I was objecting to. The previous night, 7 December 2022, I had had a phone call with Anna Salamon,[^evidence-of-independent-generation] in which I had cited dath ilan's [practice of letting children figure out heliocentrism for themselves](https://www.glowfic.com/replies/1777588#reply-1777588) as not being objectionable in the way the sadism/masochism coverup was.
+As it happened, however, I had already considered the case of spoilers as a class of legitimate infohazards, and was prepared to testify that I had already thought of it, and explain why I thought hiding spoilers were relevantly morally different from the coverups I was objecting to: the previous night, 7 December 2022, I had had a phone call with Anna Salamon,[^evidence-of-independent-generation] in which I had cited dath ilan's [practice of letting children figure out heliocentrism for themselves](https://www.glowfic.com/replies/1777588#reply-1777588) as not being objectionable in the way the sadism/masochism coverup was.
 
-[^evidence-of-independent-generation]: I was lucky to be able to point to Anna as a potential witness to defend myself against the "could not have generated" trick—as a matter of principle, not because I seriously expected anyone to care enough to go ask Anna if she remembered the conversation the same way.
+[^evidence-of-independent-generation]: I counted myself lucky to be able to point to Anna as a potential witness to defend myself against the "could not have generated" trick—as a matter of principle, not because I seriously expected anyone to care enough to go ask Anna if she remembered the conversation the same way.
 
     I also mentioned that when I had used spoiler blocks on the _Atlas Shrugged_ quote I had posted upthread, I had briefly considered making some kind of side-remark noting that the spoiler blocks were also a form of information-hiding, but couldn't think of anything funny or relevant enough (which, if my self-report could be trusted, showed that I had independently generated the idea of spoilers being an example of hiding information—but I didn't expect other people to uncritically believe my self-reports).
 
@@ -231,13 +235,13 @@ Yudkowsky replied:
 
 > only half the battle even if you could do it. you're also not reporting any facts/arguments on the other side, which is a much larger and visible gap to me, and has a lot to do with why I'm not presently considering this criticism from a peer despite your spoken adherence to virtues I value. **QUESTION FOR ZACK ONLY, NOBODY ELSE ANSWER OR SAY ANYTHING ABOUT IT IN THIS MAIN CHANNEL:** What are some of the ways that Planecrash valorizes truth, as you, yourself, see that virtue?
 
-I didn't ask why it was relevant whether or not I was a "peer." If we're measuring IQ[^iq-comparison] or fiction-writing ability[^fiction-comparison] or contributions to AI alignment[^alignment-comparison], I'm obviously _not_ his peer. It didn't seem like that was necessary when one could just [evaluate my arguments about dath ilan on their own merits](https://www.lesswrong.com/posts/5yFRd3cjLpm3Nd6Di/argument-screens-off-authority). But I wasn't going to be so impertinent to point that out when the master was testing me (!) and I was eager to pass the test.
+I chose not to ask why it was relevant whether or not I was a "peer." If we're measuring IQ[^iq-comparison] or fiction-writing ability[^fiction-comparison] or contributions to AI alignment[^alignment-comparison], I'm obviously _not_ his peer. It didn't seem like that was necessary when one could just [evaluate my arguments about dath ilan on their own merits](https://www.lesswrong.com/posts/5yFRd3cjLpm3Nd6Di/argument-screens-off-authority). (Also, you'd think that people who are obsessed with prediction markets—whose trustworthiness does not stem from individual traders having unimpeachably perfect cognition—would be able to appreciate the value of the somewhat older [social technology of "debate"](https://www.lesswrong.com/posts/SX6wQEdGfzz7GKYvp/rationalist-discourse-is-like-physicist-motors).) But I wasn't going to be so impertinent to point that out when the master was testing me (!) and I was eager to pass the test.
 
 [^iq-comparison]: [143](https://twitter.com/ESYudkowsky/status/1076154502326013952) _vs._ [131](/images/wisc-iii_result.jpg).
 
-[^fiction-comparison]: Several [highly-acclaimed](https://www.lesswrong.com/posts/HawFh7RvDM4RyoJ2d/three-worlds-collide-0-8) [stories](https://www.yudkowsky.net/other/fiction/the-sword-of-good) [including the world's most popular _Harry Potter_ fanfiction](https://www.hpmor.com/) _vs._ a [few](/2018/Jan/blame-me-for-trying/) [blog](http://zackmdavis.net/blog/2016/05/living-well-is-the-best-revenge/) [vignettes](https://www.lesswrong.com/posts/dYspinGtiba5oDCcv/feature-selection) and a [_My Life as a Teenage Robot_ fanfiction](https://archive.ph/WdydM) with double-digit Favorites on _fanfiction.net_.
+[^fiction-comparison]: Several [highly-acclaimed](https://www.lesswrong.com/posts/HawFh7RvDM4RyoJ2d/three-worlds-collide-0-8) [stories](https://www.yudkowsky.net/other/fiction/the-sword-of-good) [including the world's most popular _Harry Potter_ fanfiction](https://www.hpmor.com/) _vs._ a [few](/2018/Jan/blame-me-for-trying/) [blog](http://zackmdavis.net/blog/2016/05/living-well-is-the-best-revenge/) [vignettes](https://www.lesswrong.com/posts/dYspinGtiba5oDCcv/feature-selection) and a [_My Life as a Teenage Robot_ fanfic](https://archive.ph/WdydM) with double-digit Favorites on _fanfiction.net_.
 
-[^alignment-comparison]: Founder of the field _vs._ author of some dubiously relevant blog comments.
+[^alignment-comparison]: Founder of the field _vs._ author of some questionably relevant blog comments.
 
 I said that I'd like to take an hour to compose a _good_ answer. (It was 10:26 _p.m._) If I tried to type something off-the-cuff on the timescale of five minutes, it wasn't going to be of similar quality as my criticisms, because, as I had just admitted, I had _totally_ been running a biased search for criticisms—or did the fact that I had to ask that mean I had already failed the test?
 
@@ -255,9 +259,9 @@ Yudkowsky said that he would accept that characterization of what the thread was
 
 I expounded for some more paragraphs about why I _did_ object to Keltham's judgement, and then started on my essay exam—running with my "truth-telling" reframing.
 
-I wanted to nominate the part where the Conspiracy is unveiled—I thought I remembered Keltham saying something about how Carissa's deception was the worst thing anyone could have done to him—that is, the fact that someone he trusted was putting him in a fake reality was _itself_ considered a harm, separately from the fact that Cheliax is evil. I re-read pages 74 onwards of the ["What the Truth Can Destroy"](https://www.glowfic.com/posts/5930) thread, and didn't see Keltham saying the thing I thought he said (maybe it happened in the next thread, or I had misremembered), but found two more things to submit as answers to my lit exam, which I posted at 12:30 _a.m._ (so I had actually taken two hours rather than the one I had asked for).
+I wanted to nominate the part where the Project Lawful Conspiracy is unveiled: I thought I remembered Keltham saying something about how Carissa's deception was the worst thing anyone could have done to him—that is, that the fact that someone he trusted was putting him in a fake reality was _itself_ considered a harm, separately from the fact that Cheliax is evil. I re-read pages 74 onwards of the ["What the Truth Can Destroy"](https://www.glowfic.com/posts/5930) thread, and didn't see Keltham saying the thing I thought he said (maybe it happened in the next thread, or I had misremembered), but found two more things to submit as answers to my lit exam, which I posted at 12:30 _a.m._ (so I had actually taken two hours, rather than the one I had asked for).
 
-First, I liked how [Snack Service intervenes to stage](https://www.glowfic.com/replies/1811461#reply-1811461) a ["truth and reconciliation commission"](https://en.wikipedia.org/wiki/Truth_and_Reconciliation_Commission_(South_Africa)) for Keltham and his paramours, on the grounds that it's necessary for Asmodeus and Cayden Caliean and Adabar and Keltham to make their best decisions. People testifying in public (with the Chelaxians and Oririons present, as one would at a trial) reflects a moral about the importance of common knowledge, _shared_ maps. The testimony being public ensured that not just that Keltham got to know what's been done to him, but that his paramours and counterparties _know that he knows_. There was something honorable about getting things on the public record like that, in the end, even while Snack Service was willing to participate in the conspiracy _before_ the jig was up.
+First, I liked how [Snack Service intervenes to stage](https://www.glowfic.com/replies/1811461#reply-1811461) a ["truth and reconciliation commission"](https://en.wikipedia.org/wiki/Truth_and_Reconciliation_Commission_(South_Africa)) for Keltham and his paramours, on the grounds that it's necessary for Asmodeus and Cayden Caliean and Adabar and Keltham to make their best decisions. People testifying in public (with the Chelaxians and Oririons present, as one would at a trial) reflects a moral about the importance of common knowledge, _shared_ maps. The testimony being public ensured that not just that Keltham got to know what had been done to him, but that his paramours and counterparties would _know that he knows_. There was something honorable about getting things on the public record like that, in the end, even while Snack Service was willing to participate in the conspiracy _before_ the jig was up.
 
 Second, I liked Korva's speech about why she hates Keltham, and how Keltham not only takes it in stride, but also asks to buy the right to take Korva with him to Osirion. When Abrogail expresses surprise that Keltham would want Korva, Keltham cites a dath ilani proverb about advice that's easier to get from people who aren't friends with you. This reflects an understanding that your friends wanting to be nice to you can be a source of distortions; Keltham specifically values Korva _as a critic_.
 
@@ -270,17 +274,19 @@ Yudkowsky replied:
 
 As a _quick_ reply to the followup question (posted within 19 minutes of it being asked), I said that Cheliax was at a structural disadvantage in its conflict with the forces of Good, because learning how to think inevitably turns mortals away from Asmodeus's will.
 
-But I was _more_ interested in replying to the part about me being ill-shaped to another's purpose. (I said that I wouldn't have considered that on-topic for the fiction server, but if _he_ thought it was on-topic, then it made sense for me to reply—and I did so at 12:26 _p.m._ the next day, after some time to think. Discord lends itself quite well to a mix of synchronous and asynchronous communication, depending on when people happen to be at their computers.)
+But I was more interested in replying to the part about me being ill-shaped to another's purpose. (I said, after sleeping on it,[^async-discord] that I wouldn't have considered that on-topic for the fiction server, but if _he_ thought it was on-topic, then it made sense for me to reply.)
+
+[^async-discord]: Discord lends itself quite well to a mix of synchronous and asynchronous communication, depending on when people happen to be at their computers.
 
-I said that he seemed _really_ stuck on this hypothesis that it was Michael Vassar's fault that I'd been shaped into an alienated and angry thing.
+I said that he seemed really stuck on this hypothesis that it was Michael Vassar's fault that I'd been shaped into an alienated and angry thing.
 
 To be clear, I totally agreed that I had been shaped into an alienated and an alienated and angry thing. Obviously. But speaking of people "look[ing] inside themselves and correctly see[ing] that this is not how they work" (as Yudkowsky had said earlier), I thought he was getting the causality all wrong.
 
-It seemed to _me_ that the reason I had become an alienated and angry thing is because I had been shaped by [making an extraordinary effort](https://www.lesswrong.com/posts/GuEsfTpSDSbXFiseH/make-an-extraordinary-effort) since 2016 to respond to a class of things that included Yudkowsky "mak[ing] up sophisticated stories for why pretty obviously true things are false"—again referencing Oliver Habryka's comment on "Challenges to Yudkowsky's Pronoun Reform Proposal."
+It seemed to _me_ that the reason I had become an alienated and angry thing is because I had been shaped by [making an extraordinary effort](https://www.lesswrong.com/posts/GuEsfTpSDSbXFiseH/make-an-extraordinary-effort) since 2016 to respond to a class of things that included Yudkowsky "mak[ing] up sophisticated stories for why pretty obviously true things are false"—again referencing [Oliver Habryka's comment on "Challenges to Yudkowsky's Pronoun Reform Proposal."](https://www.lesswrong.com/posts/juZ8ugdNqMrbX7x2J/challenges-to-yudkowsky-s-pronoun-reform-proposal?commentId=he8dztSuBBuxNRMSY)
 
-That's the context in which it wasn't surprising that my Art had involved some amount of specialization in "detecting whose monkey-side they seem to be on." In a world where monkeys are trying to cover up otherwise-obvious truths, successfully blowing the whistle on them involves being sensitive to their monkey games; figuring out the truth they're trying to cover up is the easy part. The whistleblowing-skill of of promoting otherwise-obvious things to _common_ knowledge in opposition to a Power trying to prevent common knowledge, is different from the science-skill of figuring out organically-nonobvious things from scratch. It _makes sense_ for Alexander Solzhenitsyn and Andrey Kolmogorov—or for that matter, John Galt and Robert Stadler—to have developed different crystalized skills.
+That's the context in which it wasn't surprising that my Art had involved some amount of specialization in "detecting whose monkey-side they seem to be on." In a world where monkeys are trying to cover up otherwise-obvious truths, successfully blowing the whistle on them involves being sensitive to their monkey games; figuring out the truth they're trying to cover up is the easy part. The whistleblowing-skill of of promoting otherwise-obvious things to _common_ knowledge in opposition to a Power trying to prevent common knowledge, is different from the science-skill of figuring out organically-nonobvious things from scratch. It _makes sense_ for Alexander Solzhenitsyn and [Andrey Kolmogorov](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/)—or for that matter, John Galt and Robert Stadler—to have developed different crystalized skills.
 
-(Indeed, it even makes sense for Kolmogorov and Stadler to _not_ develop some skills, because the skills would show up under Detect Thoughts.)
+(Indeed, it even makes sense for Kolmogorov and Stadler to _not_ develop some skills, because the skills would show up under [Detect Thoughts](https://www.d20pfsrd.com/magic/all-spells/d/detect-thoughts/).)
 
 If it was all Michael's fault for "extensively meta-gas[lighting me] into believing that everyone generally and [him] personally [were] engaging in some kind of weird out-in-the-open gaslighting", I asked, echoing Yudkowsky's language from earlier (with appropriate quotation marks and brackets),[^gaslighting] then _how come Oli could see it, too?_
 
@@ -290,9 +296,11 @@ Yudkowsky replied:
 
 > I think if you asked Oli about the state of reality with respect to this whole affair, he'd have a very different take from your take, _if you're still able to hear differences instead of only those similarities you demand._
 
-That sounded like an easy enough experimental test! I wrote Habryka an email explaining the context, and asking him what "very different take" he might have, if any. (I resisted the temptation to start a [Manifold market](https://manifold.markets/) first.) As I mentioned in the email, I didn't expect to have a very different take from him _about the state of reality_. ("Zack is (still?!) very upset about this, but Oli mostly doesn't care" is a values-difference, not a disagreement about the state of reality.) I didn't think I disagreed with _Yudkowsky_ much about the state of reality! (In his own account, he thought it was "sometimes personally prudent [...] to post your agreement with Stalin about things you actually agree with Stalin about", and I believed him; I was just unhappy about some of the side-effects of his _prudence_.)
+That sounded like an easy enough experimental test! I wrote Habryka an email explaining the context, and asking him what "very different take" he might have, if any. (I resisted the temptation to start a [Manifold market](https://manifold.markets/) first.) As I mentioned in the email, I didn't expect to have a very different take from him _about the state of reality_. ("Zack is (still?!) very upset about this, but Oli mostly doesn't care" is a values-difference, not a disagreement about the state of reality.) I didn't think I disagreed with _Yudkowsky_ much about the state of reality! (In his own account, he thought it was ["sometimes personally prudent [...] to post your agreement with Stalin about things you actually agree with Stalin about"](/images/yudkowsky-personally_prudent_and_not_community-harmful.png), and I believed him; I was just unhappy about some of the side-effects of his _prudence_.)
 
-Oliver didn't reply. (I might have guessed the wrong email address, out of the two I had on file for him?) I don't blame him; it might have been timelessly ungrateful of me to ask. (The reason people are reluctant to make on-the-record statements in politically charged contexts is because they're afraid the statements will be _used_ to drag them into more political fights later. He had already done me a huge favor by being brave enough to state the obvious in March; I had no right to demand anything more of him.)
+Oliver didn't reply. (I might have guessed the wrong email address, out of the two I had on file for him?) I don't blame him; it might have been timelessly ungrateful of me to ask.[^timeless-ingratitude]
+
+[^timeless-ingratitude]: One reason people are reluctant to make on-the-record statements in politically charged contexts is because they're afraid the statements will be _used_ to drag them into more political fights later. Habryka had already done me a huge favor by being brave enough to state the obvious in March; I had no right to demand anything more of him.
 
 Regarding my quick reply about Cheliax's structural disadvantage, Yudkowsky said it was "okay as one element", but complained that the characters had already observed it out loud, and that I "didn't name any concrete sequence of events that bore it out or falsified it." He continued:
 
@@ -312,7 +320,7 @@ Adabar is kind of a weirdo. He's not a vanishly rare freak (whose specification
 
 It's the same thing with honesty. Generic consequentialists have no reason to "tell the truth" to agents with different utility functions when they're not under compact and being compensated for the service. Why _would_ you emit signals that other agents can interpret as a map that reflects the territory? [You can't get more paperclips that way!](https://arbital.com/p/not_more_paperclips/)
 
-I had previously written about this in ["Commucation Requires Common Interests or Differential Signal Costs"](https://www.lesswrong.com/posts/ybG3WWLdxeTTL3Gpd/communication-requires-common-interests-or-differential); you needed some common interests in order for flexible, "digital" language to exist at all. ("Digital" language being that for which the relationship between signals and meaning can be arbitrary, in contrast to costly signaling, where me expending resources at least tell you that I could afford those resources.)
+I had previously written about this in ["Commucation Requires Common Interests or Differential Signal Costs"](https://www.lesswrong.com/posts/ybG3WWLdxeTTL3Gpd/communication-requires-common-interests-or-differential); you needed some common interests in order for flexible, "digital" language to exist at all. ("Digital" language being that for which the relationship between signals and meaning can be arbitrary, in contrast to costly signaling, where me expending resources at least tells you that I could afford those resources.)
 
 It's _possible_ for imperfectly deceptive social organisms to develop a taste for "honesty" as a computationally efficient heuristic for navigating to Pareto improvements in the ancestral environment, which _might_ get reified into the utilityfunction as they ascend—but that's an Adabar-class weird outcome, not the default outcome.
 
@@ -332,99 +340,82 @@ The outcome was—silence. No response from Yudkowsky in several days. Maybe I s
 
 I tried to explain that my third answer wasn't _just_ doubling down on my previous thesis: "my virtue ethics run against the grain of the hidden Bayesian structure of reality" wasn't an argument _in favor of_ my virtue ethics. My friend wasn't buying it; I still hadn't been fulfilling the original prompt.
 
-He had me there. I had no more excuses after that: I had apparently failed the test. I was feeling pretty glum about this, and lamented my poor performance in the `#drama` channel of another Discord server (that Yudkowsky was also a member of). I had thought I was doing okay—I definitely _didn't_ say, "That's impossible because Big Yud and Linta are lying liars who hate Truth", and there were reasons why my Original Seeing answer made sense _to me_ as a thing to say, but _that wasn't what I was being tested on_. It _genuinely_ looked bad in context. I had failed in [my ambition to know how it looks](/2022/context-is-for-queens/#knowing-how-that-looks).
+He had me there. I had no more excuses after that: I had apparently failed the test. I was feeling pretty glum about this, and lamented my poor performance in the `#drama` channel of another Discord server (that Yudkowsky was also a member of). I had thought I was doing okay: I definitely _didn't_ say, "That's impossible because Big Yud and Linta are lying liars who hate Truth", and there were reasons why my Original Seeing answer made sense _to me_ as a thing to say, but _that wasn't what I was being tested on_. It _genuinely_ looked bad in context. I had failed in [my ambition to know how it looks](/2022/Dec/context-is-for-queens/#knowing-how-that-looks).
+
+I think Yudkowsky saw the `#drama` messages in the other server (he left an emoji-reaction in the relevant timespan of messages) and took pity on me. (Negative feedback from a teacher is kinder than the teacher not even deigning to grade your assignment at all.)
 
-I think Yudkowsky saw the #drama messages in the other server (he left an emoji-reaction in the relevant timespan of messages) and took pity on me. (Negative feedback from a teacher is kinder than the teacher not even deigning to grade your assignment at all.)
+As examples of the kind of thing he was looking for, he cited Keltham letting Carissa wait before telling him disturbing things about Golarion, or talking himself out of taking another Owl's Wisdom or putting on a cognitive-enhancement headband on account of his squeamishness about mind-altering interventions. If Keltham had been more proactive about seeking knowledge, he could have uncovered the Conspiracy earlier; the universe punished his cowardice.
 
-As examples of the kind of thing he was looking for, he cited Keltham letting Carissa wait before telling him disturbing things about Golarion, or talking himself out of taking another Owl's Wisdom or putting on a cognitive-enhancement headband on account of his squeamishness about mind-altering interventions. If Keltham had been more proactive about seeking knowledge, he could have uncovered the Conspiracy earlier; the universe punished his cowardice. Or consider Peranza, who awakens to seeing the evil of Asmodeanism—but manages to get out a critical warning to the Good god Iomedae, and ends up being rescued from punishment in Hell; the universe rewarded her bravery. This is a big theme, Yudkowsky said; I shouldn't have had to look in weird side corners to dredge up something exotic to say; my initial answers were "really small on the scale of a story whose central conflict is that Cheliax is hiding the truth from Keltham and Asmodeus is hiding the truth from Cheliax."
+Or consider Peranza, who awakens to seeing the evil of Asmodeanism—but manages to get out a critical warning to the Good god Iomedae, and ends up being rescued from punishment in Hell; the universe rewarded her bravery. This is a big theme, Yudkowsky said; I shouldn't have had to look in weird side corners to dredge up something exotic to say; my initial answers were "really small on the scale of a story whose central conflict is that Cheliax is hiding the truth from Keltham and Asmodeus is hiding the truth from Cheliax."
 
 In characteristically condescending fashion, he said that he was worried about "the possibility that earthlings are only capable of hearing what the characters said to each other, because to ask what the universe thinks is some kind of direction of thought that Twitter has trained out of them", and hoped that readers don't "come away with the wordless sense of the universe being a place that rewards you for not looking places."
 
-Regarding the intended exam answers about the universe's treatment of Keltham and Peranza—fair enough; I'll acknowledge that I didn't do great on the literary exam as assigned. Other participants in the chatroom, and readers of this memoir, _should_ correspondingly update their beliefs about my competence. When I tried to do Original Seeing about what the universe of _Planecrash_ was saying, it came out in a particular _shape_ (characteristic of my recent preoccupations), and a more powerful mind would be able to do different shapes; I could protest that the prompts didn't do enough to steer me away from that (the use of the second person in "as you, yourself, see that virtue" and "your Most Important Issues" keeping me anchored on my own concerns), but that would be too much excuse-making for a mediocre exam performance.
+Regarding the intended exam answers about the universe's treatment of Keltham and Peranza—fair enough; I'll acknowledge that I didn't do great on the literary exam as assigned. Other participants in the chatroom, and readers of this memoir, should correspondingly update their beliefs about my competence. When I tried to do Original Seeing about what the universe of _Planecrash_ was saying, it came out in a particular _shape_ (characteristic of my recent preoccupations), and a more powerful mind would be able to do different shapes; I could protest that the prompts didn't do enough to steer me away from that (the use of the second person in "as you, yourself, see that virtue" and "your Most Important Issues" keeping me anchored on my own concerns), but that would be too much excuse-making for a mediocre exam performance.
 
 (Peranza's pre-awakening username[^glowfic-username] was 'not-looking-there'! My 11th-grade English class algorithm probably would have gotten there if I had just given it more compute, instead of running with my philosophy insight!)
 
 [^glowfic-username]: "Glowfic" stories were originally hosted on DreamWidth (a LiveJournal clone), with each character's dialogue and actions being posted from "their own" account (and therefore their own username, typically distinct from the character's own name). When the bespoke _glowfic.com_ website launched, the convention of characters having usernames was retained.
 
-On the other hand, however poorly my exam performance reflected on other people's estimates of my competence and the question of whether Yudkowsky should consider my criticisms of dath ilan as coming from a "peer", it ... still doesn't invalidate my criticisms of dath ilan, which can, still, be evaluated on their own merits.
+On the other hand, however poorly my exam performance reflected on other people's estimates of my competence and the question of whether Yudkowsky should consider my criticisms of dath ilan as coming from a "peer", it still doesn't invalidate my criticisms of dath ilan, which can, still, be evaluated on their own merits.
 
 (Was I a fool to so submissively agree to be tested, given that Yudkowsky could predictably find some grounds to dismiss me as a mere earthling? Should I have tried to negotiate—I'm happy to take your test, but only if _you_ reply to my argument that spoiler protections are morally different from coverups?)
 
-The universe of _Planecrash_ (like [almost all](https://en.wikipedia.org/wiki/Almost_all) universes) doesn't itself reward you for not looking places. But dath ilan as a Society _absolutely_ punishes you for looking places _if you expect to tell anyone about it_.[^punishment]
+Slightly later in the thread, Yudkowsky would say that the story of _Planecrash_ was that of Keltham's innocence born of growing up in an incredibly high-functioning Society leading him to wrongfully trust Cheliax, which was not dath ilan. Someone who characterized the story as endorsing outsourcing one's epistemology, without noting that most of the story is about trusting someone wrongly and being accordingly punished by reality, would be behaving like the hostile critics of _Harry Potter and the Methods of Rationality_ who harp on [Draco wanting to rape Luna](https://hpmor.com/chapter/7) without mentioning Harry's reaction to that. "[I]f you leave out very clear information like that, which contradicts the politicized story you want to tell, that's basically tantamount to lying, falling short of it only under the most technical-words versions of what it means to tell the truth", Yudkowsky said.
+
+I agree that it would be wrong to summarize the dath ilan mythos as endorsing trusting authorities in general, but this would seem somewhat beside the point of my criticism. The work depicts Keltham suffering from trusting Cheliax, which is not dath ilan, and lampoons Earth, which is not dath ilan, but my point was that _dath ilan itself is not trustworthy_ (except by ludicrous authorial assertion). The universe of _Planecrash_ (like [almost all](https://en.wikipedia.org/wiki/Almost_all) universes) doesn't itself reward you for not looking places. But dath ilan as a Society _absolutely_ punishes you for looking places[^punishment] if you expect to tell anyone about it—if you expect to [live in truth](https://www.vhlf.org/havel-in-the-media/living-in-truth/), rather than join the conspiracy to coordinate on false maps for the greater good.
 
 [^punishment]: I mean "punish" in a colloquial sense, just that there are things most dath ilani get to do, like living in most cities, that my analogue in dath ilan wouldn't be allowed to do on account of his tendency to shout truths from street corners. I understand that there's a decision-theoretic sense in which this doesn't count as a "punishment", because dath ilan is only trying to advance its _own_ interests in preventing the spread of what it considers infohazards; the "punishment" makes sense for them whether or not I change my policy in response to it.
 
-Yudkowsky added that he wished he had paid more attention to my re-framing, where "[he] said 'valorizes truth' and [I] repeated back 'valorizes truth-telling'". I pointed out that I had marked that as a proposed revision; I thought I was proposing a change rather than repeating. But maybe you don't get to propose changes when someone is testing you. He then gave a nice speech (in the style of C. S. Lewis's _The Screwtape Letters_) about the dangers of focusing on truth-telling:
+Regarding the lit exam, Yudkowsky added that he wished he had paid more attention to my re-framing, where "[he] said 'valorizes truth' and [I] repeated back 'valorizes truth-telling'". I pointed out that I had marked that as a proposed revision; I thought I was proposing a change rather than repeating. But maybe you don't get to propose changes when someone is testing you. He then gave a nice speech (in the style of C. S. Lewis's _The Screwtape Letters_) about the dangers of focusing on truth-telling:
 
 > so if you have an awareness of you in how people can be broken, where it's possible to redirect them into infinite loops, how they can be induced to press the anger button over and over, then you can perhaps see how somebody setting out to break Zack Davis would get him to focus on truth-telling rather than truth-seeking.  for the Way of searching out truth within yourself is one of calm, balance, questioning not 'what society tells you' but also your own thoughts, and also sometimes answering those questions and moving on to different ones; the operation, not of firmly rooting your feet, nor finding somewhere to hover forever uncertainly in place and immovable in that proud ignorance, but of picking up your feet and putting them back down, over and over, the uncomfortable operation of not staying in the same mental place, which most people find some way or another to reject.  it valorizes calm, and balance, and these are not useful states of mind to people who would like you frantically doing something useful to them.  
 > when you get somebody to turn outward and away from Reality and towards their fellow monkeys and focus on truth-telling, then, their fellow monkeys being imperfect, there will always be something in which to explode into fury; so this is a useful state of mind to inculcate in somebody, lending itself to constant outrage at a world where somebody has once said a thing that if you look at it hard could be misleading or teach the wrong lesson, it misled you, how dare they!  
 > so by all means if you would like to destroy a rationalist, teach them anger and focus it on others' imperfect conformance to the principles they were once taught to hold dear to themselves  
 
-... and you know, that's a fair criticism of me. It _is_ unhealthy to focus on other people's errors rather than perfecting oneself! I'm optimistic about rectifying this after I've gotten this Whole Dumb Story out of my system—to retire from this distasteful chore of criticizing Yudkowsky and "the community", and just go directly do the thing that I thought "the community" was for, in the time we have left.
+And you know, that's a fair criticism of me. It _is_ unhealthy to focus on other people's errors rather than perfecting oneself! I'm optimistic about rectifying this after I've gotten this Whole Dumb Story out of my system—to retire from this distasteful chore of criticizing Yudkowsky and "the community", and just go directly do the thing that I thought "the community" was for, in the time we have left.
 
 But, as I pointed out, it was significant that the particular problem to which my Art had been shaped (in some ways) and misshaped (in others) wasn't just a matter of people being imperfect. Someone at the 2021 Event Horizon Independence Day party had told me that people couldn't respond to my arguments because of the obvious political incentives. And so, the angry question I wanted to ask, since I didn't immediately know how to rephrase it to not be doing the angry monkey thing, was, did Yudkowsky think I was supposed to _take that lying down?_
 
 Apparently, yes:
 
-**Eliezer** — 12/17/2022 5:50 PM  
-you sure are supposed to not get angry at the people who didn't create those political punishments  
-that's insane  
-they're living in Cheliax and you want them to behave like they're not in Cheliax and get arrested by the Church  
-your issue is with Asmodeus. take it to Him, and if you can't take Him down then don't blame others who can't do that either.  
-
-Admirably explicit! If he were that frank all the time, I wouldn't actually have had a problem with him. (I don't expect people to pay arbitrary costs to defy their political incentives; my problem with the "hill of meaning in defense of validity" and "simplest and best protocol" performances was precisely that they were _pretending not to be political statements_; if we can be clear about the _existence_ of the Asmodean elephant in the room listening to everything we say, I don't blame anyone for not saying anything else that the elephant would report to its superiors.)
-
-[TODO: still having trouble with how I want to summarize this part of the conversation?! maybe looking at the record of exactly how I ended up voicing my full greviance will unlock my memory-reconstruction and unblock the writing here
- * Yudkowsky says Planecrash is the tragedy of Keltham out of dath ilan, wrongfully trusting Cheliax
- * Arete says that the moral here isn't that you should truthseek
- * I said that's not what the story was _about_, just an aspect of the story
- * Yudkowsky says the standards are very high, comparison to SneerClub quoting Draco on rape, but leaving out Harry's reaction to support the politicized story they want to tell; that's tantamount to lying.
- * Indeed, I agree that leaving out details that would undermine the politicized story you want to tell is tantamount to lying!! That's why I'm mad at him!
- * other commenters pick up on "But you're still saying to trust awesome institutions"
- * Yudkowsky could say "But my narrow point about pronouns was correct", but I'm suspicious that the "real" goal was political. I could say "But my narrow point about dath ilan's secrecy was correct", but Yudkowsky is suspicious that the "real" goal was political ... and we're both right??
-]
+> **Eliezer** — 12/17/2022 5:50 PM  
+> you sure are supposed to not get angry at the people who didn't create those political punishments  
+> that's insane  
+> they're living in Cheliax and you want them to behave like they're not in Cheliax and get arrested by the Church  
+> your issue is with Asmodeus. take it to Him, and if you can't take Him down then don't blame others who can't do that either.
 
-[TODO: I think there's a bit of question-substitution going on; the reason the virtue of evenness is important is because if you only count arguments for and not against the hypothesis, you mess up your beliefs about the hypothesis; if you substitute a different question "Is Yudkowsky bad?"/"Am I a good coder?", that's a bucket error—or was he "correctly" sensing that the real question was "Is Yudkowsky bad?"]
+I thought the game theory was subtler than that. As a member of the Chelaxian resistance, I didn't have a quarrel with ordinary citizens who kept their heads down and paid their taxes, but the more someone actively collaborated with the Asmodean regime more than they had to, the more they started to seem like a legitimate military target. Yudkowsky's history of repeatedly making sweeping public declarations about transgenderism while leaving out very clear information which contradicted the politicized story he wanted to tell made him an active collaborator, not an innocent taxpayer trying to keep his head down.[^topic-bounce]
 
-[TODO: I express my fully-updated grievance (this doesn't seem to be in the transcript I saved??); I hadn't consciously steered the conversation this way, but the conversation _bounced_ in a way that made it on-topic; that's technically not my fault, even if the elephant in my brain was optimizing for this outcome.
+[^topic-bounce]: It was arguably bad for me to be talking about my grivances against Yudkowsky in the fiction server (as contrasted to my complaints about dath ilan's worldbuilding, which were unambiguously on-topic). I hadn't consciously steered the conversation this way, but the conversation _bounced_ in a way that made it on-topic; that was technically not my fault, even if the elephant in my brain was optimizing for this outcome.
 
-The fact that Yudkowsky had been replying to me at length—explaining why my literary criticism was nuts, but in a way that respected my humanity and expected me to be able to hear it—implied that I was apparently in his "I can cheaply save him (from crazy people like Michael Vassar)" bucket, rather than the "AI timelines and therefore life is too short" bucket.]
+He couldn't claim that everyone does this and that it was therefore insane to expect better, because (picking an arbitrary example) Paul Christiano didn't make those kinds of political statements while claiming that everyone from Earth is insane unlike him (!) while claiming the right to ignore counterarguments on political grounds (!!), because Paul Christiano wasn't trying to be a religious leader.
 
-It was disappointing that Yudkowsky's reaction to my complaints was (verbatim!) "that's insane", rather than something more like, "OK, I totally see why you see this as a betrayal, but unfortunately for you, I don't actually consider myself bound by what you thought I was promising."
+I gave a parable (along the lines of ["it's not the incentives; it's you"](https://www.lesswrong.com/posts/5nH5Qtax9ae8CQjZ9/tal-yarkoni-no-it-s-not-the-incentives-it-s-you)) to illustrate the problem: a senior scientist publishes a paper with a conclusion favorable to an organization that gave his lab a grant. The scientist's faithful student points out a fatal flaw in the paper, and suggests publishing a retraction. The scientist says, "No, that would be bad for my career." The student gets angry. The scientist says, "You're supposed to not get angry at the people who didn't create those career incentives. That's insane. Your issue is with Moloch: the publish-or-perish incentives of grant-funded science. If you can't take that down, then don't blame others who can't do that, either."
 
-I gave a parable (along the lines of ["it's not the incentives; it's you"](https://www.lesswrong.com/posts/5nH5Qtax9ae8CQjZ9/tal-yarkoni-no-it-s-not-the-incentives-it-s-you) to illustrate the problem: a senior scientist publishes a paper with a conclusion favorable to an organization that gave his lab a grant. The scientist's faithful student points out a fatal flaw in the paper, and suggests publishing a retraction. The scientist says, "No, that would be bad for my career." The student gets angry. The scientist says, "You're supposed to not get angry at the people who didn't create those career incentives. That's insane. Your issue is with Moloch: the publish-or-perish incentives of grant-funded science. If you can't take that down, then don't blame others who can't do that, either."
+That is, blaming people who commit fraud (where an innocent mistake _becomes_ fraud if you refuse to acknowledge it after it's been pointed out) is part of a strategy for defeating Moloch, an attempt to establish norms against fraud.
 
-That is, blaming people who commit fraud (where an innocent mistake _becomes_ fraud if you refuse to acknowledge it after it's been pointed out) is _part_ of a strategy for defeating Moloch.
+I successfully baited Lintamande, the other _Planecrash_ coauthor, into engaging with me. Lintamande said I was impossible to talk to about my special topic, because of the bizarre hostile performative thing I did in place of truthseeking inquiry; I imposed too stark of a trade-off on my interlocutors between successfully saying anything at all and not getting immediately whalloped with 30,000 words from me about how they fundamentally lack intellectual integrity; my behavior discouraged stifled genuine discussion in places where I might see it.
 
-[TODO: explain how this counters Moloch; I bait Lintamande into engagement]
+(I almost wondered whether this might be a good thing from a _realpolitik_ perspective. I'd prefer to argue people out of bad ideas, but if the threat of an argument disincentivized people from spreading them, did that not have similar consequences at lesser expense? The game theory went both ways; I'd _also_ been doing some amount of self-censoring to avoid fights.)
 
-[TODO: Linta says I'm impossible to talk to and the anticipation of my pouncing stiffles discussion. (I almost wonder if this is a good thing, from a _realpolitik_ perspective? I'd prefer to argue people out of bad ideas, but if the threat of an argument disincentivizes them from spreading ...? Game theory goes both ways—I've been self-censoring, too.)]
+I said that Lintamande was giving good feedback on my social behavior—which, okay, I should work on that—but which didn't particularly bear on the substance of my position. I was super-fighty because I was super-traumatized, because there was social–political territory I was trying to defend. The thing I was trying to keep on Society's shared map was, Biological Sex Actually Exists and Is Sometimes Decision-Relevant; Biological Sex Actually Exists and Is Sometimes Decision-Relevant _Even When It Makes People Sad_; Biological Sex Actually Exists and Is Sometimes Decision-Relevant _Even When a Prediction Market Says It Will Make People Sad_.
 
-I said that Lintamande was giving me a lot of good feedback about my social behavior. I was super-fighty because I was super-traumatized, and I should plausibly work on fixing that, whereas I didn't intellectually disagree that different cultures are different, different people are different. The reason I was super-fighty is because there was social–political territory I was trying to defend.
+Lintamande said they agreed with those claims; Yudkowsky concurred with a "+1" emoji.
 
-The thing I was trying to keep on Society's shared map was, Biological Sex Actually Exists and Is Sometimes Decision-Relevant; Biological Sex Actually Exists and is Sometimes Decision-Relevant _Even When It Makes People Sad_; Biological Sex Actually Exists and is Sometimes Decision-Relevant _Even When a Prediction Market Says It Will Make People Sad_.
+I didn't think it was fair, I continued, for Yudkowsky to pull his everyone-but-me-is-retarded shtick while simultaneously pretending that Gendered Pronouns For Everyone and Asking To Leave The System Is Lying was the crux of trans rights debates.
 
-Lintamande said they agreed with these claims. Yudkowsky replied with a "+1" emoji.
+Lintamande said they didn't read Yudkowsky as having made any claims about the the crux of trans rights debates, just the narrow claim about pronouns.
 
-[TODO: Linta saying "intersex condition" was just semantics was emblematic of a disagreement-minimizing culture?]
+I said that when he knocks down bad arguments for sex-based pronouns without addressing the good ones, I read him as (not necessarily consciously) playing a ["Weak Men Are Superweapons"](https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/) political strategy: carefully choosing what arguments to respond to in order to mood-affiliate with the winning team, without technically saying anything false. A lot of TERFs would be overjoyed to compromise on pronouns if pronouns weren't a wedge or proxy for the other issues that anyone cared about.
 
-[TODO: "like, if you just went and found Eliezer!2004 and were like 'hey, weird sci fi hypothetical'
-_speaking of the year 2004_; the thing I'm at war with is that I don't think he would _dare_ publish the same essay today
- ...
-]
-
-The 2004 mailing list post was almost _mocking_ the guy, for being so naïve, for not seeing the type mismatch between the deep structure of reality, and mentalistic fantasies vaguely gestured at with English words.
-
-And the 2016–2021 posts _couldn't even acknolwedge that Biological Sex Actually Exists_. Did Yudkowsky expect us not to _notice_?? Coming from anyone else in the world, I wouldn't have minded. But the _conjunction_ of these political games and the eliezera racial supremacy rhetoric was just _insulting_.
-
-April said she didn't think the "Changing Emotions" argument was making claims relevant to trans people. The only claim you really needed was that it was reasonable for cis men and trans men, and cis women and trans women, to be in the same category for the purposes of general social interaction; whether you would need post-Singularity tech to make a biological male indistinguishable from a cis woman had little bearing on what we should make of trans women.
+Lintamande pointed out that other people thought about this topic less often than I did. Maybe they didn't carefully select which arguments to respond to in order to cleverly mood-affiliate, so much as get prompted by the surrounding Society to think about pronouns, do so, and come up with an answer. They thought it was plausible that Yudkowsky would have given the same verdict on pronoun conventions if someone had posed the question to him as a hypothetical in 2004. Just because pronouns had become a political proxy debate, didn't mean that it was disingenuous to just talk about pronouns without reference to the proxy debate.
 
-That was interesting. April's profile said she was 19 years old and transfeminine.
+I didn't think that was what was actually going on.
 
-[TODO: April saying that the essay wasn't making claims relevant to trans people; but _I_ thought it was relevant in 2008]
-
-[TODO: bridge ...]
-
-[TODO: someone said "the word in their language doesn't match the word in yours"; and got a +1 emoji;  I resisted the temptation to say "So ... I can define a word any way I want"; I call a killthread.]
-
-[TODO: I made a few more comments about kitchen knife deception (and let my friends talk me down from making more). I'm not worried about what he thinks about me anymore.]
+[TODO
+ * The input-output behavior of consciously trying to agree with Stalin and "getting prompted by the surrounding Society" are similar, as I noted in "Tails, Never Heard of Her"; it's not a coincidence that he didn't write this in 2004
+ * _speaking of the year 2004_; the thing I'm at war with is that I don't think he would _dare_ publish the same essay today The 2004 mailing list post was almost _mocking_ the guy, for being so naïve, for not seeing the type mismatch between the deep structure of reality, and mentalistic fantasies vaguely gestured at with English words.
+ * And the 2016–2021 posts _couldn't even acknolwedge that Biological Sex Actually Exists_. Did Yudkowsky expect us not to _notice_?? Coming from anyone else in the world, I wouldn't have minded. But the _conjunction_ of these political games and the eliezera racial supremacy rhetoric was just _insulting_. 
+ * April said she didn't think the "Changing Emotions" argument was making claims relevant to trans people. The only claim you really needed was that it was reasonable for cis men and trans men, and cis women and trans women, to be in the same category for the purposes of general social interaction; whether you would need post-Singularity tech to make a biological male indistinguishable from a cis woman had little bearing on what we should make of trans women. That was interesting. April's profile said she was 19 years old and transfeminine. April saying that the essay wasn't making claims relevant to trans people; but _I_ thought it was relevant in 2008. (My dream of a fiction of animosity between a Yudkowsky-like and Lynn Conway-like character.)
+ * someone said "the word in their language doesn't match the word in yours"; and got a +1 emoji from Big Yud;  I resisted the temptation to say "So ... I can define a word any way I want"; I call a killthread. 
+]