check in
[Ultimately_Untrue_Thought.git] / content / drafts / if-clarity-seems-like-death-to-them.md
index 1af0518..36cabfb 100644 (file)
@@ -1,6 +1,6 @@
 Title: If Clarity Seems Like Death to Them
 Author: Zack M. Davis
-Date: 2023-01-01 11:00
+Date: 2023-07-01 11:00
 Category: commentary
 Tags: autogynephilia, bullet-biting, cathartic, Eliezer Yudkowsky, Scott Alexander, epistemic horror, my robot cult, personal, sex differences, two-type taxonomy, whale metaphors
 Status: draft
@@ -57,9 +57,13 @@ I may have subconsciously pulled off an interesting political thing. In my final
 
 And as it happened, on 4 May 2019, Yudkowsky [re-Tweeted Colin Wright on the "univariate fallacy"](https://twitter.com/ESYudkowsky/status/1124751630937681922)—the point that group differences aren't a matter of any single variable—which was _sort of_ like the clarification I had been asking for. (Empirically, it made me feel a lot less personally aggrieved.) Was I wrong to interpet this as another "concession" to me? (Again, notwithstanding that the whole mindset of extracting "concessions" was corrupt and not what our posse was trying to do.)
 
-Separately, I visited some friends' house on 30 April 2019 saying, essentially (and sincerely), "Oh man oh jeez, Ben and Michael want me to join in a rationalist civil war against the corrupt mainstream-rationality establishment, and I'd really rather not, and I don't like how they keep using scary hyperbolic words like 'cult' and 'war' and 'criminal', but on the other hand, they're _the only ones backing me up_ on this _incredibly basic philosophy thing_ and I don't feel like I have anywhere else to _go_." The ensuing group conversation made some progress, but was mostly pretty horrifying.
+Separately, on 30 April 2019, I visited the house where "Susan" and her husband Mike and Kelsey Piper and a few other people lived, which I'll call "Arcadia",[^named-houses] saying, essentially (and sincerely), Oh man oh jeez, Ben and Michael want me to join in a rationalist civil war against the corrupt mainstream-rationality establishment, and I'd really rather not, and I don't like how they keep using scary hyperbolic words like 'cult' and 'war' and 'criminal', but on the other hand, they're _the only ones backing me up_ on this _incredibly basic philosophy thing_ and I don't feel like I have anywhere else to _go_. The ensuing group conversation made some progress, but was mostly pretty horrifying.
 
-In an adorable twist, my friends' two-year-old son was reportedly saying the next day that Kelsey doesn't like his daddy, which was confusing until it was figured out he had heard Kelsey talking about why she doesn't like Michael _Vassar_.
+[^named-houses]: It was common practice in our subculture to name group houses. My apartment was "We'll Name It Later."
+
+In an adorable twist, Mike and "Susan"'s two-year-old son was reportedly saying the next day that Kelsey doesn't like his daddy, which was confusing until it was figured out he had heard Kelsey talking about why she doesn't like Michael _Vassar_.[^mike-pseudonym]
+
+[^mike-pseudonym]: I'm not giving Mike a pseudonym because his name is needed for this adorable anecdote to make sense, and this Whole Dumb Story isn't otherwise saying sensitive things about him.
 
 And as it happened, on 7 May 2019, Kelsey wrote [a Facebook comment displaying evidence of understanding my point](/images/piper-spending_social_capital_on_talking_about_trans_issues.png).
 
@@ -167,15 +171,15 @@ Posting on _Less Wrong_ made sense as harm-reduction, but the only way to get pe
 
 Ben said that trying to discuss with the _Less Wrong_ mod team would be a good intermediate step, after we clarified to ourselves what was going on; it might be "good practice in the same way that the Eliezer initiative was good practice." The premise should be, "If this is within the Overton window for _Less Wrong_ moderators, there's a serious confusion on the conditions required for discourse", not on scapegoating individuals. He was less optimistic about harm-reduction; participating on the site was implicitly endorsing it by submitting the rule of the karma and curation systems.
 
-Secret posse member expressed sadness about how the discussion on "The Incentives" demonstrated that the community he loved—including dear friends—was in a very bad way. Michael (in a separate private discussion) had said he was glad to hear about the belief-update. Secret posse member said that Michael saying that also made them sad, because it seemed discordant to be happy about sad news. Michael wrote (in the thread):
+"Trent" expressed sadness about how the discussion on "The Incentives" demonstrated that the community he loved—including dear friends—was in a very bad way. Michael (in a separate private discussion) had said he was glad to hear about the belief-update. "Trent" said that Michael saying that also made them sad, because it seemed discordant to be happy about sad news. Michael wrote (in the thread):
 
 > I['m] sorry it made you sad. From my perspective, the question is no[t] "can we still be friends with such people", but "how can we still be friends with such people" and I am pretty certain that understanding their perspective if an important part of the answer. If clarity seems like death to them and like life to us, and we don't know this, IMHO that's an unpromising basis for friendship.
 
 ------
 
-I got into a scuffle with Ruby (someone who had newly joined the _Less Wrong_ mod team) on his post on ["Causal Reality _vs. Social Reality"](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-reality-vs-social-reality). One section of the post asks, "Why people aren't clamoring in the streets for the end of sickness and death?" and gives the answer that it's because no one else is; people live in a social reality that accepts death as part of the natural order, even though life extension seems like it should be physically possible in causal reality.
+I got into a scuffle with Ruby (someone who had newly joined the _Less Wrong_ mod team) on his post on ["Causal Reality _vs_. Social Reality"](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-reality-vs-social-reality). One section of the post asks, "Why people aren't clamoring in the streets for the end of sickness and death?" and gives the answer that it's because no one else is; people live in a social reality that accepts death as part of the natural order, even though life extension seems like it should be physically possible in causal reality.
 
-I didn't think this was a good example. "Clamoring in the streets" (even if you interpreted it as a metonym for other forms of mass political action) seemed like the kind of thing that would be recommended by social-reality thinking, rather than causal-reality thinking. How, causally, would the action of clamoring in the streets lead to the outcome of the end of sickness and death? I would expect means–end reasoning about causal reality to instead recommend things like "working on or funding biomedical research".
+I didn't think this was a good example. "Clamoring in the streets" (even if you interpreted it as a metonym for other forms of mass political action) seemed like the kind of thing that would be recommended by social-reality thinking, rather than causal-reality thinking. How, causally, would the action of clamoring in the streets lead to the outcome of the end of sickness and death? I would expect means–end reasoning about causal reality to instead recommend things like working on or funding biomedical research.
 
 Ruby [complained that](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-reality-vs-social-reality?commentId=7b2pWiCL33cqhTabg) my tone was too combative, and asked for more charity and collaborative truth-seeking[^collaborative-truth-seeking] in any future comments.
 
@@ -183,7 +187,7 @@ Ruby [complained that](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-
 
 (My previous interaction with Ruby had been my challenge to "... Not Man for the Categories" appearing on the _Less Wrong_ FAQ. Maybe he couldn't let me "win" again so quickly?)
 
-I emailed the coordination group about it, insofar as gauging the psychology of the mod team was relevant to upcoming [Voice _vs._ Exit](https://en.wikipedia.org/wiki/Exit,_Voice,_and_Loyalty) choices: 
+I emailed the coordination group about it, on the grounds that gauging the psychology of the mod team was relevant to upcoming [Voice _vs._ Exit](https://en.wikipedia.org/wiki/Exit,_Voice,_and_Loyalty) choices:
 
 > he seems to be conflating transhumanist optimism with "causal reality", and then tone-policing me when I try to model good behavior of what means-end reasoning about causal reality actually looks like. This ... seems pretty cultish to me?? Like, it's fine and expected for this grade of confusion to be on the website, but it's more worrisome when it's coming from the mod team.[^rot-13]
 
@@ -191,33 +195,39 @@ I emailed the coordination group about it, insofar as gauging the psychology of
 
 The meta-discussion on _Less Wrong_ started to get heated. Ruby claimed:
 
+> [I]f the goal is everyone being less wrong, I think some means of communicating are going to be more effective than others. I, at least, am a social monkey. If I am bluntly told I am wrong (even if I agree, even in private—but especially in public), I will feel attacked (if only at the S1 level), threatened (socially), and become defensive. It makes it hard to update and it makes it easy to dislike the one who called me out. [...]
+>
+> [...]
+>
 > Even if you wish to express that someone is wrong, I think this is done more effectively if one simultaneously continues to implicitly express "I think there is still some prior that you are correct and I curious to hear your thoughts", or failing that "You are very clearly wrong here yet I still respect you as a thinker who is worth my time to discourse with." [...] There's an icky thing here I feel like for there to be productive and healthy discussion you have to act as though at least one of the above statements is true, even if it isn't.
 
+"Wow, he's really overtly arguing that people should lie to him to protect his feelings," Ben commented via email.
 
+(I would later complain to Anna (Subject: "uh, guys???", 20 July 2019) that Ruby's profile said he was one of two people to have volunteered for CfAR on three continents. If this was the level of performance we could expect from _veteran_ CfAR participants, what was CfAR _for_?)
 
-"Wow, he's really overtly arguing that people should lie to him to protect his feelings," Ben commented via email.
+[I replied to Ruby that](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-reality-vs-social-reality?commentId=v3zh3KhKNTdMXWkJH) you could just directly respond to your interlocutor's arguments. Whether or not you respect them as a thinker is _off-topic_. "You said X, but this is wrong because of Y" isn't a personal attack!
 
+Jessica said that there's no point in getting mad at [MOPs](http://benjaminrosshoffman.com/construction-beacons/). I said I was a _little_ bit mad, because I specialized in discourse strategies that were susceptible to getting trolled like this. I thought it was ironic that this happened on a post that was _explicitly_ about causal _vs._ social reality; it's possible that I wouldn't be inclined to be such a hardass about "whether or not I respect you is off-topic" if it weren't for that prompt.
 
-[TODO—
- * Jessica: "tone arguments are always about privileged people protecting their feelings, and are thus in bad faith.  Therefore, engaging with a tone argument as if it's in good faith is a fool's game, like playing chess with a pigeon. Either don't engage, or seek to embarrass them intentionally."
- * there's no point at being mad at MOPs
- * me (1 Jul): I'm a _little bit_ mad, because I specialize in cognitive and discourse strategies that are _extremely susceptible_ to being trolled like this
- * I wouldn't be such a hardass if not for the prompt
+Jessica ended up writing a post, ["Self-Consciousness Wants Everything to Be About Itself"](https://www.lesswrong.com/posts/bwkZD6uskCQBJDCeC/self-consciousness-wants-to-make-everything-about-itself), arguing that tone arguments are mainly about people silencing discussion of actual problems in order to protect their feelings, using as a central example a case study of a college official crying and saying that she "felt attacked" in response to complaints about her office being insufficiently supportive of a racial community.
 
-(I remarked to "Wilhelm": I'd rather not get into fights on _Less Wrong_, but at least I'm 2–0–1.)
+Jessica was surprised by how well it worked, judging by [Ruby mentioning silencing in an apology to me](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-reality-vs-social-reality?commentId=wfzxj4GGRtZGMG9ni) (plausibly influenced by Jessica's post), and [an exchange between Raemon (also a mod) and Ruby that she thought was "surprisingly okay"](https://www.lesswrong.com/posts/bwkZD6uskCQBJDCeC/self-consciousness-wants-to-make-everything-about-itself?commentId=EW3Mom9qfoggfBicf).
 
- * 2 Jul: Jessica is surprised by how well "Self-consciousness wants to make everything about itself" worked; theory about people not wanting to be held to standards that others aren't being held to
- * Michael: Jessica's example made it clear she was on the side of social justice
- * secret posse member: level of social-justice talk makes me not want to interact with this post in any way
-]
+From this, Jessica derived the moral that when people are doing something that seems obviously terrible and in bad faith, it could help to publicly explain why the abstract thing is bad, without accusing anyone. This made sense because people didn't want to be held to standards that other people aren't being held to: a call-out directed at oneself personally could be selective enforcement, but a call-out of the abstract pattern invited changing one's behavior if the new equilibrium looked better.
+
+Michael said that part of the reason this worked was because it represented a clear threat to skapegoat, while also _not_ skapegoating, and not surrendering the option to do so later; it was significant that Jessica's choice of example positioned her on the side of the powerful social-justice coalition.
+
+"Trent" said that the amount of social-justice talk in the post rose to the level where he wouldn't dare criticize it or even mention it (!) in public, regardless of whether they agreed or disagreed.
 
 ------
 
 On 4 July 2019, Scott Alexander published ["Some Clarifications on Rationalist Blogging"](https://slatestarcodex.com/2019/07/04/some-clarifications-on-rationalist-blogging/), disclaiming any authority as a "rationalist" leader. ("I don't want to claim this blog is doing any kind of special 'rationality' work beyond showing people interesting problems [...] Insofar as [_Slate Star Codex_] makes any pretensions to being 'rationalist', it's a rationalist picnic and not a rationalist monastery.") I assumed this was inspired by Ben's request back in March that Scott "alter the beacon" so as to not confuse people about what the current-year community was. I appreciated it.
 
+-------
+
 Also in early July 2019, Jessica published ["The AI Timelines Scam"](https://www.lesswrong.com/posts/KnQs55tjxWopCzKsk/the-ai-timelines-scam), arguing that the recent popularity of "short" (_e.g._, 2030) AI timelines was better explained by political factors, rather than any technical arguments: just as in previous decades, people had incentives to bluff and exaggerate about the imminence of AGI in order to attract resources to their own project.
 
-(Remember, this was 2019. After seeing what GPT-3/PaLM/DALL-E/_&c._ could do during the ["long May 2020"](https://twitter.com/MichaelTrazzi/status/1635871679133130752), it's now looking to me like the short-timelines people had better intuitions than Jessica gave them credit for. I won't say, "How could I have known?", but at the time, I didn't, actually, know.)
+(Remember, this was 2019. After seeing what GPT-3/PaLM/DALL-E/_&c._ could do during the ["long May 2020"](https://twitter.com/MichaelTrazzi/status/1635871679133130752), it's now looking to me like the short-timelines people had better intuitions than Jessica gave them credit for.)
 
 I still sympathized with the "mainstream" pushback against using "scam"/"fraud"/"lie"/_&c._ language to include motivated [elephant-in-the-brain](https://en.wikipedia.org/wiki/The_Elephant_in_the_Brain)-like distortions. I conceded that this was a _boring_ semantic argument, but I feared that until we invented better linguistic technology, the _boring_ semantic argument was going to _continue_ sucking up discussion bandwidth with others when it didn't need to.
 
@@ -231,28 +241,63 @@ I replied that the concept of [_mens rea_](https://www.law.cornell.edu/wex/mens_
 
 Ben replied that what mattered in the determination of manslaughter _vs._ murder was whether there was long-horizon optimization power towards the outcome of someone's death; it wasn't about what sentiments the killer rehearsed in their working memory.
 
-On a phone call, Michael made an analogy between EA and Catholicism. The Pope was fraudulent, because the legitimacy of the Pope's position (and his claims to power and resources) rested on the pretense that he had a direct relationship with God, which wasn't true, and the Pope _knew_ (he _had_ to know, at some level) that it asn't true. (I agreed that this usage of _fraud_ made sense to me.) In Michael's view, Ben's charges against GiveWell were similar: GiveWell's legitimacy rested on the pretense that they were making decisions based on numbers, and they [had to know at some level](https://blog.givewell.org/2011/08/18/why-we-cant-take-expected-value-estimates-literally-even-when-theyre-unbiased/) that they weren't doing that.
+On a phone call, Michael made an analogy between EA and Catholicism. The Pope was fraudulent, because the legitimacy of the Pope's position (and his claims to power and resources) rested on the pretense that he had a direct relationship with God, which wasn't true, and the Pope knew (he _had_ to know, at some level) that it asn't true. (I agreed that this usage of _fraud_ made sense to me.) In Michael's view, Ben's charges against GiveWell were similar: GiveWell's legitimacy rested on the pretense that they were making decisions based on numbers, and they [had to know at some level](https://blog.givewell.org/2011/08/18/why-we-cant-take-expected-value-estimates-literally-even-when-theyre-unbiased/) that they weren't doing that.
 
-[TODO: secret thread with Ruby; "uh, guys??" to Steven and Anna; people say "Yes, of course criticism and truthseeking is important; I just think that tact is important, too," only to go on and dismiss any _particular_ criticism as insufficiently tactful.]
+------
 
-[TODO: "progress towards discussing the real thing"
- * Jessica acks Ray's point of "why are you using court language if you don't intend to blame/punish"
- * Michael 20 Jul: court language is our way of saying non-engagement isn't an option
- * Michael: we need to get better at using SJW blamey language
- * secret posse member: that's you-have-become-the-abyss terrifying suggestion
- * Ben thinks SJW blame is obviously good
-]
+Ruby wrote a document about ways in which one's speech could harm people, which was discussed in the comments of a draft _Less Wrong_ post by some of our posse members and some of the _Less Wrong_ mods. (The draft was hidden, but the API apparently didn't filter out comments on hidden posts, and the thread was visible on the third-party [GreaterWrong](https://www.greaterwrong.com/) site; I [filed a bug](https://github.com/LessWrong2/Lesswrong2/issues/2161).)
 
-[TODO: epistemic defense meeting;
- * I ended up crying at one point and left the room for while
- * Jessica's summary: "Zack was a helpful emotionally expressive and articulate victim.  It seemed like there was consensus that "yeah, it would be better if people like Zack could be warned somehow that LW isn't doing the general sanity-maximization thing anymore"."
- * Vaniver admitting LW is more of a recruiting funnel for MIRI
- * I needed to exhaust all possible avenues of appeal before it became real to me; the first morning where "rationalists ... them" felt more natural than "rationalists ... us"
+Ben wrote:
+
+> What I see as under threat is the ability to say in a way that's actually heard, not only that opinion X is false, but that the process generating opinion X is untrustworthy, and perhaps actively optimizing in an objectionable direction. Frequently, attempts to say this are construed _primarily_ as moves to attack some person or institution, pushing them into the outgroup. Frequently, people suggest to me an "equivalent" wording with a softer tone, which in fact omits important substantive criticisms I mean to make, while claiming to understand what's at issue.
+
+Ray Arnold (another _Less Wrong_ mod) replied:
+
+> My core claim is: "right now, this isn't possible, without a) it being heard by many people as an attack, b) without people having to worry that other people will see it as an attack, even if they don't."
+>
+> It seems like you see this something as _"there's a precious thing that might be destroyed"_ and I see it as _"a precious thing does not exist and must be created, and the circumstances in which it can exist are fragile."_ It might have existed in the very early days of LessWrong. But the landscape now is very different than it was then. With billions of dollars available and at stake, what worked then can't be the same thing as what works now.
+
+(!!)[^what-works-now]
+
+[^what-works-now]: Arnold qualifies this in the next paragraph:
+
+    > [in public. In private things are much easier. It's _also_ the case that private channels enable collusion—that was an update [I]'ve made over the course of the conversation. ]
+
+    Even with the qualifier, I still think this deserves a "(!!)".
+
+Jessica pointed this out as a step towards discussing the real problem (Subject: "progress towards discussing the real thing??"). She elaborated in the secret thread: now that the "EA" scene was adjacent to real-world money and power, people were incentivized to protect their reputations (and beliefs related to their reputations) in anti-epistemic ways, in a way that they wouldn't if the scene was still just a philosophy club, catalyzing a shift of norms from "that which can be destroyed by the truth, should be" towards protecting feelings—where "protecting feelings" was actually about protecting power. The fact that the scene was allocating billions of dollars made it strictly _more_ important for public discussions to reach the truth, compared to philosophy club—but it also increased the likelihood of obfuscatory action, which philosophy-club norms (like "assume good faith") didn't account for. We might need to extend philosophy-club norms to take into account the possibility of adversarial action: there's a reason that courts of law don't assume good faith. We didn't want to disproportionately _punish_ people for getting caught up in obfuscatory patterns—that would just increase the incentive to obfuscate—but we did need some way to reveal what was going on.
+
+In email, Jessica acknowledged that Ray had a point that it was confusing to use court-inspired language if we didn't intend to blame and punish people. Michael said that court language was our way to communicate, "You don't have the option of non-engagement with the complaints that are being made." (Courts can _summon_ people; you can't ignore a court summons the way you can ignore ordinary critics.)
+
+Michael said that we should also develop skill in using social-justicey blame language, as was used against us, harder, while we were still acting under mistake-theoretic assumptions. "Trent" said that this was a terrifying you-have-become-the-abyss suggestion; Ben thought it was obviously a good idea.
+
+I was pretty horrified by the extent to which _Less Wrong_ moderators (!!) seemed to be explicitly defending "protect feelings" norms. Previously, I had mostly been seeing the present struggle through the lens of my idiosyncratic Something to Protect, as a simple matter of Bay Area political correctness; I was happy to have Michael/Ben/Jessica as allies, but I wasn't _seeing_ the Blight as a unified problem. Now ... I was seeing _something_.
+
+An in-person meeting was arranged on 23 July 2019 at the _Less Wrong_ office, with Ben, Jessica, me, and most of the _Less Wrong_ team (Ray, Ruby, Oliver Habryka, Vaniver, Jim Babcock). I don't have notes and don't really remember what was discussed in enough detail to recount it.[^memory] I ended up crying at one point and left the room for a while.
+
+[^memory]: An advantage of the important parts of my life taking place on the internet is that I have _logs_ of the important things; I'm only able to tell this Whole Dumb Story with as much fidelity as I am, because for most of it, I can go back and read the emails and chatlogs from the time. Now that [audio transcription has fallen to AI](https://openai.com/blog/whisper/), should I be recording more real-life conversations?? In this case of this meeting, supposedly one of the _Less Wrong_ guys was recording, but no one had it when I asked in October 2022.
+
+The next day, I asked Ben and Jessica for their takeaways via email (Subject: "peace talks outcome?"). Jessica said that I was a "helpful emotionally expressive and articulate victim", that there seemed to be a consensus that it would be better if people like me could be warned somehow that _Less Wrong_ wasn't doing the general sanity-maximization thing anymore. (Because community leaders were willing to sacrifice, for example, ability to discuss non-AI heresies, in order to focus on sanity about AI in particular while maintaining enough mainstream acceptability and power.)
+
+I said that for me and my selfish perspective, the main outcome was finally shattering my "rationalist" social identity. I needed to exhaust all possible avenues of appeal before it became real to me. The morning after was the first for which "rationalists ... them" felt more natural than "rationalists ... us".
+
+-------
+
+[TODO: Michael Vassar and the theory of optimal gossip
+  * Michael's "position" in the community, already not what it once was, was getting debased even further
+  * Berkeley REACH investigation; I asked what the charges were; they say it's not a court; I say _I_ don't feel safe in a place that bans Michael for no good reason
+  * Kelsey says in Discord that Michael is trying to get re-included
+  * I email her with quotes trying to argue that that's not his game
+  * She doesn't find the quotes convincing, because she thinks Vassar is a liar
+  * (sleep?!?)
+  * I call Ben to the stand, then Sarah ("You're a great prosecutor", I say in the channel)
+  * Kelsey in meatspace tells me that Vassar has a benefactor that she can't name; I'm retarded enough to not infer that it's him and she was obfuscating for compliance
+  ...
 ]
 
-[TODO: Michael Vassar and the theory of optimal gossip; make sure to include the part about Michael threatening to sue]
+-------
 
-[TODO: State of Steven]
+[TODO: State of Steven; maybe fold in content from "uh, guys??" 21 July?]
 
 -------
 
@@ -270,7 +315,7 @@ I was _furious_ when "Against Lie Inflation" came out. (Furious at what I percei
 
 -----
 
-While visiting Valinor on 7 August 2019, Merlin Blume (age 2¾ years) asked me, "Why are you a boy?"
+While visiting "Arcadia" on 7 August 2019, Mike and "Susan"'s son (age 2¾ years) asked me, "Why are you a boy?"
 
 After a long pause, I said, "Yes," as if I had misheard the question as "Are you a boy?" I think it was a motivated mishearing: it was only after I answered that I consciously realized that's not what the kid asked.
 
@@ -296,7 +341,7 @@ Suppose there are five true heresies, but anyone who's on the record believing m
 
 Scott (and Yudkowsky and Anna and the rest of the Caliphate) seemed to accept this as an inevitable background fact of existence, like the weather. But I saw a Schelling point off in the distance where us witches stick together for Free Speech, and it was _awfully_ tempting to try to jump there. (Of course, it would be _better_ if there was a way to organize just the good witches, and exclude all the Actually Bad witches, but the [Sorites problem](https://plato.stanford.edu/entries/sorites-paradox/) on witch Badness made that hard to organize without falling back to the falling back to the one-heresy-per-thinker equilibrium.)
 
-Jessica thought my use of "heresy" was conflating factual beliefs with political movements. (There are no intrinsically "right wing" _facts_.) I agreed that conflating political positions with facts would be bad (and that it would be bad if I were doing that without "intending" to). I wasn't interested in defending the "alt-right" (whatever that means) broadly. But I had _learned stuff_ from reading far-right authors (most notably Moldbug), and from talking with "Wilhelm". I was starting to appreciate [what Michael had said about "Less precise is more violent" back in April](#less-precise-is-more-violent) (when I was talking about criticizing "rationalists").
+Jessica thought my use of "heresy" was conflating factual beliefs with political movements. (There are no intrinsically "right wing" _facts_.) I agreed that conflating political positions with facts would be bad (and that it would be bad if I were doing that without "intending" to). I wasn't interested in defending the "alt-right" (whatever that means) broadly. But I had _learned stuff_ from reading far-right authors (most notably Moldbug), and from talking with "Thomas". I was starting to appreciate [what Michael had said about "Less precise is more violent" back in April](#less-precise-is-more-violent) (when I was talking about criticizing "rationalists").
 
 Jessica asked if my opinion would change depending on whether Yudkowsky thought neoreaction was intellectually worth engaging with. (Yudkowsky [had said years ago](https://www.lesswrong.com/posts/6qPextf9KyWLFJ53j/why-is-mencius-moldbug-so-popular-on-less-wrong-answer-he-s?commentId=TcLhiMk8BTp4vN3Zs) that Moldbug was low quality.)
 
@@ -398,31 +443,71 @@ I said I would bite that bullet: yes! Yes, I was trying to figure out whether I
 
 (This seemed correlated with the recurring stalemated disagreement within our coordination group, where Michael/Ben/Jessica would say, "Fraud, if that word _ever_ meant anything", and while I agreed that they were pointing to an important way in which things were messed up, I was still sympathetic to the Caliphate-defender's reply that this usage of "fraud" was motte-and-baileying between vastly different senses of _fraud_; I wanted to do _more work_ to formulate a _more precise theory_ of the psychology of deception to describe exactly how things are messed up a way that wouldn't be susceptible to the motte-and-bailey charge.)
 
+-------
+
 [TODO: Ziz's protest]
 
-[TODO: Somni? ("peek behind the fog of war" 6 Feb)]
+--------
+
+I had an interesting interaction with Somni, one of the "Meeker Four"—presumably out on bail at this time?—on 12 December 2019.
+
+I told her, from a certain perspective, it's surprising that you spend so much time complaining about CfAR, Anna Salamon, Kelsey Piper, _&c._, but _I_ seemed to get along fine with her—because "naïvely", one would think that my views were _so much worse_. Was I getting a pity pass because she thought false consciousness was causing me to act against my own transfem class interests? Or what?
+
+To be absolutely clear about my terrible views, I said that I was privately modeling a lot of transmisogyny complaints as something like—a certain neurotype-cluster of non-dominant male is latching onto locally-ascendant social-justice ideology in which claims to victimhood can be leveraged into claims to power. Traditionally, men are moral agents, but not patients; women are moral patients, but not agents. If weird non-dominant men aren't respected if identified as such (because low-ranking males aren't valuable allies, and don't have intrinsic moral patiency of women), but _can_ get victimhood/moral-patiency points for identifying as oppressed transfems, that creates an incentive gradient for them to do so, and no one was allowed to notice this except me, because everyone prefers to stay on the good side of social-justice ideology unless they have Something to Protect that requires defying it.
+
+Somni said that it was because I was being victimized by the same forces of gaslighting, and that I wasn't lying about my agenda. Maybe she _should_ be complaining about me?—but I seemed to be following a somewhat earnest epistemic process, whereas Kelsey, Scott, and Anna were not. If I were to start going, "Here's my rationality org; rule #1: no transfems (except me); rule #2, no telling people about rule #1", then she would talk about it.
+
+I would later remark to Anna (Subject: "a peek behind the fog of war; and, [redacted]", 6 February 2020) that Somni and Ziz saw themselves as being oppressed by people's hypocritical and manipulative social perceptions and behavior.
+
+Merely using the appropriate language ("Somni ... she", _&c._) protected her against threats from the Political Correctness police, but it actually didn't protect against threats from _them_. It was as if the mere fact that I wasn't optimizing for PR (lying about my agenda, as Somni said) was what made me not a direct enemy (although still a collaborator) in their eyes.
+
+--------
+
+[TODO: a culture that has gone off the rails; my warning points to Vaniver; discussion of Vassar on "ialdabaoth is banned"]
 
-[TODO: a culture that has gone off the rails; my warning points to Vaniver]
+--------
 
 [TODO: complicity and friendship]
 
------
+--------
 
-I had a pretty productive blogging spree in late 2019.
+I had a pretty productive blogging spree in December 2019. In addition to a number of [more](/2019/Dec/political-science-epigrams/) [minor](/2019/Dec/the-strategy-of-stigmatization/) [posts](/2019/Dec/i-want-to-be-the-one/) [on](/2019/Dec/promises-i-can-keep/) [this](/2019/Dec/comp/) [blog](/2019/Dec/more-schelling/) [and](https://www.lesswrong.com/posts/XbXJZjwinkoQXu4db/funk-tunul-s-legacy-or-the-legend-of-the-extortion-war) [on](https://www.lesswrong.com/posts/y4bkJTtG3s5d6v36k/stupidity-and-dishonesty-explain-each-other-away) _[Less](https://www.lesswrong.com/posts/tCwresAuSvk867rzH/speaking-truth-to-power-is-a-schelling-point) [Wrong](https://www.lesswrong.com/posts/jrLkMFd88b4FRMwC6/don-t-double-crux-with-suicide-rock)_, I also got out some more significant posts bearing on my agenda.
 
-[TODO:
- "Free Speech and Triskadekaphobic Calculators" 20 December  https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to
- "Funk-tunul's Legacy" 24 December https://www.lesswrong.com/posts/XbXJZjwinkoQXu4db/funk-tunul-s-legacy-or-the-legend-of-the-extortion-war
- "Firming Up Not-Lying" 26 December https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly
- "Stupidity and Dishonesty" 28 December https://www.lesswrong.com/posts/y4bkJTtG3s5d6v36k/stupidity-and-dishonesty-explain-each-other-away
- "Speaking Truth to Power" 29 December https://www.lesswrong.com/posts/tCwresAuSvk867rzH/speaking-truth-to-power-is-a-schelling-point
- "Don't Double-Crux With Suicide Rock" 1 January https://www.lesswrong.com/posts/jrLkMFd88b4FRMwC6/don-t-double-crux-with-suicide-rock
-]
+On this blog, in ["Reply to Ozymandias on Fully Consensual Gender"](/2019/Dec/reply-to-ozymandias-on-fully-consensual-gender/), I finally got out at least a partial reply to [Ozy's June 2018 reply](https://thingofthings.wordpress.com/2018/06/18/man-should-allocate-some-more-categories/) to ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), affirming the relevance of an analogy Ozy had made between the socially-constructed natures of money and social gender, while denying that the analogy supported gender by self-identification. (I had been [working on a more exhaustive reply](/2018/Dec/untitled-metablogging-26-december-2018/#reply-to-ozy), but hadn't managed to finish whittling it into a shape that I was totally happy with.)
+
+I also polished and pulled the trigger on ["On the Argumentative Form 'Super-Proton Things Tend to Come In Varieties'"](/2019/Dec/on-the-argumentative-form-super-proton-things-tend-to-come-in-varieties/), my reply to Yudkowsky's implicit political concession to me back in March. I had been reluctant to post it based on an intuition of, "My childhood hero was trying to _do me a favor_; it would be a betrayal to reject the gift." The post itself explained why that intuition was crazy, but _that_ just brought up more anxieties about whether the explanation constituted leaking information from private conversations—but I had chosen my words carefully such that it wasn't. ("Even if Yudkowsky doesn't know you exist [...] he's _effectively_ doing your cause a favor" was something I could have plausibly written in the possible world where the antecedent was true.) Jessica said the post seemed good.
+
+On _Less Wrong_, the mods had just announced [a new end-of-year Review event](https://www.lesswrong.com/posts/qXwmMkEBLL59NkvYR/the-lesswrong-2018-review), in which the best post from the year before would be reviewed and voted on, to see which had stood the test of time and deserved to be part of our canon of cumulative knowledge. (That is, this Review period starting in late 2019 would cover posts published in _2018_.)
+
+This provided me with [an affordance](https://www.lesswrong.com/posts/qXwmMkEBLL59NkvYR/the-lesswrong-2018-review?commentId=d4RrEizzH85BdCPhE) to write some "defensive"[^defensive] posts, critiquing posts that had been nominated for the Best-of-2018 collection that I didn't think deserved such glory. In response to ["Decoupling _vs._ Contextualizing Norms"](https://www.lesswrong.com/posts/7cAsBPGh98pGyrhz9/decoupling-vs-contextualising-norms) (which had been [cited in a way that I thought obfuscatory during the "Yes Implies the Possibility of No" trainwreck](https://www.greaterwrong.com/posts/WwTPSkNwC89g3Afnd/comment-section-from-05-19-2019/comment/wejvnw6QnWrvbjgns)), I wrote ["Relevance Norms; Or, Grecian Implicature Queers the Decoupling/Contextualizing Binary"](https://www.lesswrong.com/posts/GSz8SrKFfW7fJK2wN/relevance-norms-or-gricean-implicature-queers-the-decoupling), appealing to our [academically standard theory of how context affects meaning](https://plato.stanford.edu/entries/implicature/) to explain why "decoupling _vs._ contextualizing norms" is a false dichotomy.
+
+[^defensive]: Criticism is "defensive" in the sense of trying to _prevent_ new beliefs from being added to our shared map; a critic of an idea "wins" when the idea is not accepted (such that the set of accepted beliefs remains at the _status quo ante_).
+
+More significantly, in reaction to Yudkowsky's ["Meta-Honesty: Firming Up Honesty Around Its Edge Cases"](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases), I published ["Firming Up Not-Lying Around Its Edge-Cases Is Less Broadly Useful Than One Might Initially Think"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly), explaining why merely refraining from making false statments is an unproductively narrow sense of "honesty", because the ambiguity of natural language makes it easy to deceive people in practice without technically lying. (The ungainly title of my post was "softened" from an earlier draft following feedback from the posse; I had originally written "... Surprisingly Useless".)
 
+I thought this one cut to the heart of the shocking behavior that we had seen from Yudkowsky lately. (Less shocking as the months rolled on, and I told myself to let the story end.) The "hill of meaning in defense of validity" affair had been been driven by Yudkowsky's pathological obsession with not-technically-lying, on two levels: he had proclaimed that asking for new pronouns "Is. Not. Lying." (as if _that_ were the matter that anyone cared about—as if conservatives and gender-critical feminists should just pack up and go home after it had been demonstrated that trans people aren't _lying_), and he had seen no interest in clarifying his position on the philosophy of language, because he wasn't lying when he said that preferred pronouns weren't lies (as if _that_ were the matter that my posse cared about—as if I should keep honoring him as my Caliph after it had been demonstrated that he hadn't _lied_). But his Sequences had articulated a _higher standard_ than merely not-lying. If he didn't remember, I could at least hope to remind everyone else.
 
-I polished and pulled the trigger on ["On the Argumentative Form 'Super-Proton Things Tend to Come In Varieties'"](/2019/Dec/on-the-argumentative-form-super-proton-things-tend-to-come-in-varieties/), my reply to Yudkowsky's implicit political concession to me back in March. I had been reluctant to post it based on an intuition of, "My childhood hero was trying to _do me a favor_; it would be a betrayal to reject the gift." The post itself explained why that intuition was crazy, but _that_ just brought up more anxieties about whether the explanation constituted leaking information from private conversations—but I had chosen my words carefully such that it wasn't. ("Even if Yudkowsky doesn't know you exist [...] he's _effectively_ doing your cause a favor" was something I could have plausibly written in the possible world where the antecedent was true.) Jessica said the post seemed good.
+I also wrote a little post on 20 December 2019, ["Free Speech and Triskadekaphobic Calculators: A Reply to Hubinger on the Relevance of Public Online Discussion to Existential Risk"](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to).
 
-I also published ["Firming Up Not-Lying Around Its Edge-Cases Is Less Broadly Useful Than One Might Initially Think"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly), a critique of Yudkowsky's [code of "meta-honesty"](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases), on the occasion of the latter's nomination for a Best-of-2018 Review. (The ungainly title of my post was "softened" from an earlier draft, which said "... Surprisingly Useless".)
+Wei Dai had written ["Against Premature Abstraction of Political Issues"](https://www.lesswrong.com/posts/bFv8soRx6HB94p5Pg/against-premature-abstraction-of-political-issues)—itself plausibly an abstraction inspired by my philosophy-of-language blogging?—and had cited a clump of _Less Wrong_ posts about gender and pick-up artistry back in 'aught-nine as a successful debate that would have been harder to have if everyone had to obsfuscate the concrete topics of interest.
+
+A MIRI researcher, Evan Hubinger, asked:
+
+> Do you think having that debate online was something that needed to happen for AI safety/​x-risk? Do you think it benefited AI safety at all? I'm genuinely curious. My bet would be the opposite—that it caused AI safety to be more associated with political drama that helped further taint it.
+
+In my reply post, I claimed that our belief that AI safety was the most important problem in the world was causally downstream from from people like Yudkowsky and Nick Bostrom trying to do good reasoning, and following lines of reasoning to where they led. The [cognitive algorithm](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms) of assuming that your current agenda was the most important thing, and then distorting the process of inquiry to preserve its political untaintedness wouldn't have led us to _noticing_ the alignment problem, and I didn't think it would be sufficient to solve it.
+
+In some sense, it should be easier to have a rationality/alignment community that _just_ does systematically correct reasoning, rather than a politically-savvy community that does systematically correct reasoning _except_ when that would taint AI safety with political drama, analogously to how it's easier to build a calculator that just does correct arithmetic, than a calculator that does correct arithmetic _except_ that it never displays the result 13. 
+
+In order to build a "triskadekaphobic calculator", you would need to "solve arithmetic" anyway, and the resulting product would be limited not only in its ability to correctly compute `6 + 7`, but also the infinite family of calculations that included 13 as an intermediate result: if you can't count on `(6 + 7) + 1` being the same as `6 + (7 + 1)`, you lose the associativity of addition. And so on. (I had the "calculator that won't display 13" analogy cached from previous email correspondence.)
+
+It could have been a comment instead of a top-level post, but I wanted to bid for the extra attention. I think, at some level, putting Hubinger's name in the post title was deliberate. It wasn't inappropriate—"Reply to Author's Name on Topic Name" is a very standard academic title format, [which](/2016/Oct/reply-to-ozy-on-agp/) [I](/2016/Nov/reply-to-ozy-on-two-type-mtf-taxonomy/) [often](/2019/Dec/reply-to-ozymandias-on-fully-consensual-gender/) [use](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/) [myself](https://www.lesswrong.com/posts/aJnaMv8pFQAfi9jBm/reply-to-nate-soares-on-dolphins)—but it also wasn't necessary, and might have been a little weird given that I was mostly using Hubinger's comment as a jumping-off point for my Free Speech for Shared Maps campaign, rather than responding point-by-point to a longer piece Hubinger might have written. It's as if the part of my brain that chose that subtitle wanted to set an example, that arguing for cowardice, being in favor of concealing information for fear of being singled out by a mob, would just get you singled out _more_.
+
+I had [an exchange with Scott Alexander in the comment section](https://www.greaterwrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to/comment/JdsknCuCuZMAo8EbP).
+
+"I know a bunch of people in academia who do various verbal gymnastics to appease the triskaidekaphobics, and when you talk to them in private they get everything 100% right," [he said](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to?commentId=mHrHTvzg8MGNH2CwB) (in a follow-up comment on 5 January 2020).
+
+I'm happy for them, I replied, but I thought the _point_ of having taxpayer-funded academic departments was so that people who _aren't_ insider experts can have accurate information with which to inform decisions?
 
 -----
 
@@ -505,13 +590,13 @@ Ben wrote (Subject: "Re: state of Church leadership"):
 
 Or, I pointed out, (c) I had ceded the territory of the interior of my own mind _to Eliezer Yudkowsky in particular_, and while I had made a lot of progress unwinding this, I was still, still not done, and seeing him at the Newtonmas party set me back a bit.
 
-Secret posse member reassured me that finishing the memoir privately would be clarifying and cathartic _for me_. If people in the Caliphate came to their senses, I could either not publish it, or give it a happy ending where everyone comes to their senses.
+"Trent" reassured me that finishing the memoir privately would be clarifying and cathartic _for me_. If people in the Caliphate came to their senses, I could either not publish it, or give it a happy ending where everyone comes to their senses.
 
 (It does not, actually, have a happy ending where everyone comes to their senses.)
 
 ------
 
-While visiting Valinor on 4 February 2020, I remember my nose dripping while I was holding Koios, the baby. Alicorn offered me a tissue. I asked if I shouldn't be holding the baby while my nose was dripping and I therefore plausibly had a cold. She said it was fine. On the topic of possible sickness, I said that I hoped the novel coronavirus people were talking about didn't go pandemic.
+While visiting "Arcadia" on 4 February 2020, I remember my nose dripping while I was holding the baby. Alicorn offered me a tissue. I asked if I shouldn't be holding the baby while my nose was dripping and I therefore plausibly had a cold. She said it was fine. On the topic of possible sickness, I said that I hoped the novel coronavirus people were talking about didn't go pandemic.
 
 It did. The Berkeley rats took social distancing guidelines very seriously, so it would be a while before I could visit again.
 
@@ -606,6 +691,22 @@ I put the question to a few friends in July 2020 (Subject: "rubber duck philosop
 [TODO:
  * Yudkowsky made a stray remark about social media causing people to say crazy thing
  * I got enraged, posted a couple Tweets, including a preview of "Unnatural Categories"
+
+https://twitter.com/ESYudkowsky/status/1304824253015945216
+> Hypothesis: social media has an effect promoting Terrible Straw Arguments to being used by many actual people. One crazy on Side A makes a bad argument.  Side B subtweets with a refutation and that gets a million views.  So people on Side A hear about it as Side A's argument.
+>
+> And the result looks so incredibly surreal. People be going "2 + 3 = 4" and the replies are things like "lol but 4 is a prime number you moron". The entire conversation has been implicitly selected to sound insane to the other side.
+
+
+> Who would have thought getting @ESYudkowsky's robot cult to stop trying to trick me into cutting my dick off (independently of the empirical facts determining whether or not I should cut my dick off) would involve so much math?? OK, I guess the math part isn't surprising, but—
+https://twitter.com/zackmdavis/status/1304838346695348224
+
+
+https://twitter.com/zackmdavis/status/1304838486810193921
+> Or, "You're not standing in defense of truth if you insist on a symbol like '2' or '+', brought explicitly into question, being used with some particular meaning." (I'm still very angry at you! This shouldn't be hard to clear up in public!) 1/2
+>
+> If not the object-level application on Twitter, at least the abstract philosophy-of-language issue on Less Wrong?! Please!?! I've been working on a more detailed explanation that should be ready within a few weeks. 2/2
+
  * something in my boiled over, and I eventually ended up staying up late writing an angry email
  * this ruins my chances for being a "neutral" bridge between the Vassarites and the Caliphate, but that's OK
  * mostly reproduce below (with a few redactions for either brevity or compliance with privacy norms, but I'm not going to clarify which)