memoir: pt. 3 red team edits
[Ultimately_Untrue_Thought.git] / content / drafts / if-clarity-seems-like-death-to-them.md
index b91b021..544a6d7 100644 (file)
@@ -41,7 +41,7 @@ When I asked Ben for specific examples of MIRI or CfAR leaders behaving badly, h
 
 This seemed to me like the sort of thing where a particularly principled (naïve?) person might say, "That's _lying for political reasons!_ That's _contrary to the moral law!_" and most ordinary grown-ups would say, "Why are you so upset about this? That sort of strategic phrasing in press releases is just how the world works."
 
-I thought explaining the Blight to an ordinary grown-up was going to need either lots of specific examples that were way more egregious than this (and more egregious than the examples in Sarah Constantin's ["EA Has a Lying Problem"](https://srconstantin.github.io/2017/01/17/ea-has-a-lying-problem.html) or Ben's ["Effective Altruism Is Self-Recommending"](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/)), or somehow convincing the ordinary grown-up why "just how the world works" isn't good enough, and why we needed one goddamned place in the entire goddamned world with unusually high standards.
+I thought explaining the Blight to an ordinary grown-up was going to need either lots of specific examples that were more egregious than this (and more egregious than the examples in Sarah Constantin's ["EA Has a Lying Problem"](https://srconstantin.github.io/2017/01/17/ea-has-a-lying-problem.html) or Ben's ["Effective Altruism Is Self-Recommending"](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/)), or somehow convincing the ordinary grown-up why "just how the world works" isn't good enough, and why we needed one goddamned place in the entire goddamned world with unusually high standards.
 
 The schism introduced new pressures on my social life. On 20 April 2019, I told Michael that I still wanted to be friends with people on both sides of the factional schism. Michael said that we should unambiguously regard Yudkowsky and CfAR president (and my personal friend of ten years) Anna Salamon as criminals or enemy combatants who could claim no rights in regard to me or him.
 
@@ -63,7 +63,7 @@ I may have subconsciously pulled off an interesting political maneuver. In my fi
 
 > If we can't even get a public consensus from our _de facto_ leadership on something _so basic_ as "concepts need to carve reality at the joints in order to make probabilistic predictions about reality", then, in my view, there's _no point in pretending to have a rationalist community_, and I need to leave and go find something else to do (perhaps whatever Michael's newest scheme turns out to be). I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here?[^my-price-for-joining]
 
-[^my-price-for-joining]: The Sequences post referenced here, ["Your Price for Joining"](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining), argues that the sort of people who become "rationalists" are too prone to "take their ball and go home" rather than tolerating imperfections in a collective endeavor. To combat this, Yudkowsky proposes a norm:
+[^my-price-for-joining]: The Sequences post referenced here, ["Your Price for Joining"](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining), argues that rationalists are too prone to "take their ball and go home" rather than tolerating imperfections in a collective endeavor. To combat this, Yudkowsky proposes a norm:
 
     > If the issue isn't worth your personally fixing by however much effort it takes, and it doesn't arise from outright bad faith, it's not worth refusing to contribute your efforts to a cause you deem worthwhile.
 
@@ -81,7 +81,7 @@ The two-year-old son of Mike and "Meredith" was reportedly saying the next day t
 
 And as it happened, on 7 May 2019, Kelsey wrote [a Facebook comment displaying evidence of understanding my thesis](/images/piper-spending_social_capital_on_talking_about_trans_issues.png).
 
-These two datapoints led me to a psychological hypothesis: when people see someone of some value wavering between their coalition and a rival coalition, they're motivated to offer a few concessions to keep the wavering person on their side. Kelsey could afford (_cf._ [Upton Sinclair](https://www.goodreads.com/quotes/21810-it-is-difficult-to-get-a-man-to-understand-something)) to not understand the thing about sex being a natural category when it was just me freaking out alone, but "got it" almost as soon as I could credibly threaten to _walk_ (defect to a coalition of people she dislikes). Maybe my "closing thoughts" email had a similar effect on Yudkowsky, assuming he otherwise wouldn't have spontaneously tweeted something about the univariate fallacy two weeks later? This probably wouldn't work if you repeated it, or tried to do it consciously?
+These two datapoints led me to a psychological hypothesis: when people see someone of some value wavering between their coalition and a rival coalition, they're intuitively motivated to offer a few concessions to keep the wavering person on their side. Kelsey could afford to [speak as if she didn't understand the thing about sex being a natural category](/2023/Jul/a-hill-of-validity-in-defense-of-meaning/#people-who-would-get-surgery-to-have-the-ideal-female-body) when it was just me freaking out alone, but visibly got it almost as soon as I could credibly threaten to _walk_ (defect to a coalition of people she dislikes). Maybe my "closing thoughts" email had a similar effect on Yudkowsky, assuming he otherwise wouldn't have spontaneously tweeted something about the univariate fallacy two weeks later? This probably wouldn't work if you repeated it, or tried to do it consciously?
 
 ----
 
@@ -97,7 +97,7 @@ I asked my boss to temporarily assign me some easier tasks that I could make ste
 
 My intent of a break from the religious war didn't take. I met with Anna on the UC Berkeley campus and read her excerpts from Ben's and Jessica's emails. (She had not provided a comment on "... Boundaries?" despite my requests, including in the form of two paper postcards that I stayed up until 2 _a.m._ on 14 April 2019 writing; spamming people with hysterical and somewhat demanding postcards felt more distinctive than my usual habit of spamming people with hysterical and somewhat demanding emails.) While we (my posse) were aghast at Yudkowsky's behavior, Anna was aghast at ours: reaching out to try to have a conversation with Yudkowsky, then concluding that he was a fraud because we weren't satisfied with the outcome was like hiding soldiers in an ambulance, introducing a threat into a context where he had a right to be safe.
 
-I complained that I had believed our own [marketing](https://www.lesswrong.com/posts/aFEsqd6ofwnkNqaXo/go-forth-and-create-the-art) [material](https://www.lesswrong.com/posts/jP583FwKepjiWbeoQ/epistle-to-the-new-york-less-wrongians) about the "rationalists" remaking the world by wielding a hidden Bayesian structure of Science and Reason that applies [outside the laboratory](https://www.lesswrong.com/posts/N2pENnTPB75sfc9kb/outside-the-laboratory). Was that all a lie? Were we not trying to do the thing anymore? Anna was dismissive: she thought that the idea I had gotten about "the thing" was never actually part of the original vision. She kept repeating that she had tried to warn me that public reason didn't work, and I didn't listen. (Back in the late 'aughts, she had often recommended Paul Graham's essay ["What You Can't Say"](http://paulgraham.com/say.html) to people, summarizing Graham's moral that you should figure out the things you can't say in your culture and then not say them, in order to avoid getting drawn into pointless conflicts.)
+I complained that I had believed our own [marketing](https://www.lesswrong.com/posts/aFEsqd6ofwnkNqaXo/go-forth-and-create-the-art) [material](https://www.lesswrong.com/posts/jP583FwKepjiWbeoQ/epistle-to-the-new-york-less-wrongians) about the "rationalists" remaking the world by wielding a hidden Bayesian structure of Science and Reason that applies [outside the laboratory](https://www.lesswrong.com/posts/N2pENnTPB75sfc9kb/outside-the-laboratory). Was that all a lie? Were we not trying to do the thing anymore? Anna was dismissive: she thought that the idea I had gotten about "the thing" was never actually part of the original vision. She kept repeating that she had tried to warn me, and I didn't listen. (Back in the late 'aughts, she had often recommended Paul Graham's essay ["What You Can't Say"](http://paulgraham.com/say.html) to people, summarizing Graham's moral that you should figure out the things you can't say in your culture and then not say them, in order to avoid getting drawn into pointless conflicts.)
 
 It was true that she had tried to warn me for years, and (not yet having gotten over [my teenage ideological fever dream](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/#antisexism)), I hadn't known how to listen. But this seemed fundamentally unresponsive to how _I_ kept repeating that I only expected consensus on the basic philosophy-of-language stuff (not my object-level special interest). Why was it so unrealistic to imagine that the smart people could [enforce standards](https://srconstantin.github.io/2018/12/24/contrite-strategies.html) in our own tiny little bubble of the world?
 
@@ -111,7 +111,7 @@ I added:
 
 Anna said she didn't want to receive [cheerful price](https://www.lesswrong.com/posts/MzKKi7niyEqkBPnyu/your-cheerful-price) offers from me anymore; previously, she had regarded my occasional custom of recklessly throwing money at friends to get what I wanted as good-faith libertarianism between consenting adults, but now she was afraid that if she accepted, it would be portrayed in some future Ben Hoffman essay as an instance of her _using_ me. She agreed that someone could have gotten the ideals I had gotten out of those posts, but there was also evidence from that time pointing the other way (_e.g._, ["Politics Is the Mind-Killer"](https://www.lesswrong.com/posts/9weLK2AJ9JEt2Tt8f/politics-is-the-mind-killer)) and it shouldn't be surprising if people steered clear of controversy.
 
-I replied: but when forming the original let's-be-apolitical vision in 2008, we did not anticipate that whether I should cut my dick off would _become_ a political issue. That was new evidence about whether the original vision was wise! I wasn't particularly trying to do politics with my idiosyncratic special interest; I was trying to think seriously about the most important thing in my life and only do the minimum amount of politics necessary to protect my ability to think. If 2019-era "rationalists" were going to commit a trivial epistemology mistake that interfered with my ability to think seriously about the most important thing in my life, and they couldn't correct the mistake even after it was pointed out, then the "rationalists" were worse than useless to me. This probably didn't matter causally (I wasn't an AI researcher, therefore I didn't matter), but it might matter timelessly (if I were part of [a reference class that included AI researchers](/2017/Jan/from-what-ive-tasted-of-desire/)).
+I replied: but when forming the original let's-be-apolitical vision in 2008, we did not anticipate that whether I should cut my dick off would _become_ a political issue. That was new evidence about whether the original vision was wise! I wasn't particularly trying to do politics with my idiosyncratic special interest; I was trying to think seriously about the most important thing in my life and only do the minimum amount of politics necessary to protect my ability to think. If 2019-era "rationalists" were going to commit an epistemology mistake that interfered with my ability to think seriously about the most important thing in my life, and they couldn't correct the mistake even after it was pointed out, then the "rationalists" were worse than useless to me. This probably didn't matter causally (I wasn't an AI researcher, therefore I didn't matter), but it might matter timelessly (if I were part of [a reference class that included AI researchers](/2017/Jan/from-what-ive-tasted-of-desire/)).
 
 Fundamentally, I was skeptical that you _could_ do consistently high-grade reasoning as a group without committing heresy, because of the mechanism that Yudkowsky had described in ["Entangled Truths, Contagious Lies"](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies) and ["Dark Side Epistemology"](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology): the need to lie about lying and cover up cover-ups propagates recursively. Anna was unusually skillful at thinking things without saying them; I thought people facing similar speech restrictions generally just get worse at thinking (plausibly[^plausibly] including Yudkowsky), and the problem gets worse as the group effort scales. (It's less risky to recommend ["What You Can't Say"](http://www.paulgraham.com/say.html) to your housemates than to put it on your 501(c)(3) organization's canonical reading list.) You can't optimize your group's culture for not-talking-about-atheism without also optimizing against understanding [Occam's razor](https://www.lesswrong.com/posts/f4txACqDWithRi7hs/occam-s-razor); you can't optimize for not questioning gender self-identity without also optimizing against understanding the [37 ways that words can be wrong](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong).
 
@@ -161,7 +161,7 @@ I got into a scuffle with Ruby Bloom on his post on ["Causal Reality _vs_. Socia
 
 [^collaborative-truth-seeking]: [No one ever seems to be able to explain to me what this phrase means.](https://www.lesswrong.com/posts/uvqd3YiBcrPxXzxQM/what-does-the-word-collaborative-mean-in-the-phrase)
 
-(My previous interaction with Ruby had been my challenge to "... Not Man for the Categories" appearing on the _Less Wrong_ FAQ. Maybe he couldn't let me "win" again so quickly?)
+(My previous interaction with Ruby had been my challenge to "... Not Man for the Categories" appearing on the _Less Wrong_ FAQ. Maybe he couldn't let me win again so quickly?)
 
 I emailed the coordination group about the thread, on the grounds that gauging the psychology of the mod team was relevant to upcoming [Voice _vs._ Exit](https://en.wikipedia.org/wiki/Exit,_Voice,_and_Loyalty) choices. Meanwhile on _Less Wrong_, Ruby kept doubling down:
 
@@ -171,7 +171,7 @@ I emailed the coordination group about the thread, on the grounds that gauging t
 >
 > Even if you wish to express that someone is wrong, I think this is done more effectively if one simultaneously continues to implicitly express "I think there is still some prior that you are correct and I curious to hear your thoughts", or failing that "You are very clearly wrong here yet I still respect you as a thinker who is worth my time to discourse with." [...] There's an icky thing here I feel like for there to be productive and healthy discussion you have to act as though at least one of the above statements is true, even if it isn't.
 
-"Wow, he's really overtly arguing that people should lie to him to protect his feelings," Ben commented via email. I would later complain to Anna (Subject: "uh, guys???", 20 July 2019) that Ruby's profile said he was one of two people to have volunteered for CfAR on three continents. If this was the level of performance we could expect from veteran CfAR participants, what was CfAR _for_?
+"Wow, he's really overtly arguing that people should lie to him to protect his feelings," Ben commented via email. I would later complain to Anna that Ruby's profile said he was one of two people to have volunteered for CfAR on three continents. If this was the level of performance we could expect from veteran CfAR participants, what was CfAR _for_?
 
 [I replied to Ruby that](https://www.lesswrong.com/posts/xqAnKW46FqzPLnGmH/causal-reality-vs-social-reality?commentId=v3zh3KhKNTdMXWkJH) you could just directly respond to your interlocutor's arguments. Whether you respect them as a thinker is off-topic. "You said X, but this is wrong because of Y" isn't a personal attack!
 
@@ -307,7 +307,7 @@ In August 2019's ["Schelling Categories, and Simple Membership Tests"](https://w
 
 In September 2019's ["Heads I Win, Tails?—Never Heard of Her; Or, Selective Reporting and the Tragedy of the Green Rationalists"](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting), I presented a toy mathematical model of how censorship distorts group beliefs. I was surprised by how well-received it was (high karma, Curated within a few days, later included in the Best-of-2019 collection), especially given that it was explicitly about politics (albeit at a meta level, of course). Ben and Jessica had discouraged me from bothering when I sent them a draft. (Jessica said that it was obvious even to 10-year-olds that partisan politics distorts impressions by filtering evidence. "[D]o you think we could get a ten-year-old to explain it to Eliezer Yudkowsky?" I asked.)
 
-In October 2019's ["Algorithms of Deception!"](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception), I exhibited some toy Python code modeling different kinds of deception. A function that faithfully passes observations it sees as input to another function, lets the second function constructing a well-calibrated probability distribution. But if the first function outright fabricates evidence, or selectively omits some evidence, or gerrymanders the categories by which it interprets its observations as evidence, the second function comes up with a worse (less accurate) probability distribution.
+In October 2019's ["Algorithms of Deception!"](https://www.lesswrong.com/posts/fmA2GJwZzYtkrAKYJ/algorithms-of-deception), I exhibited some toy Python code modeling different kinds of deception. A function that faithfully passes observations it sees as input to another function, lets the second function constructing a well-calibrated probability distribution. But if the first function outright fabricates evidence, or selectively omits some evidence, or gerrymanders the categories by which it interprets its observations as evidence, the second function comes up with a worse probability distribution.
 
 Also in October 2019, in ["Maybe Lying Doesn't Exist"](https://www.lesswrong.com/posts/bSmgPNS6MTJsunTzS/maybe-lying-doesn-t-exist), I replied to Scott Alexander's ["Against Lie Inflation"](https://slatestarcodex.com/2019/07/16/against-lie-inflation/), which was itself a generalized rebuke of Jessica's "The AI Timelines Scam". Scott thought Jessica was wrong to use language like "lie", "scam", _&c._ to describe someone being (purportedly) motivatedly wrong, but not necessarily consciously lying.
 
@@ -327,7 +327,7 @@ I continued to note signs of contemporary Yudkowsky not being the same author wh
 
 > I am actively hostile to neoreaction and the alt-right, routinely block such people from commenting on my Twitter feed, and make it clear that I do not welcome support from those quarters. Anyone insinuating otherwise is uninformed, or deceptive.
 
-[I pointed out that](https://twitter.com/zackmdavis/status/1164259164819845120) the people who smear him as a right-wing Bad Guy do so in order to extract these kinds of statements of political alignment as concessions; his own timeless decision theory would seem to recommend ignoring them rather than paying even this small [Danegeld](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/).
+[I argued that](https://twitter.com/zackmdavis/status/1164259164819845120) the people who smear him as a right-wing Bad Guy do so in order to extract these kinds of statements of political alignment as concessions; his own timeless decision theory would seem to recommend ignoring them rather than paying even this small [Danegeld](/2018/Jan/dont-negotiate-with-terrorist-memeplexes/).
 
 When I emailed the posse about it begging for Likes (Subject: "can't leave well enough alone"), Jessica said she didn't get my point. If people are falsely accusing you of something (in this case, of being a right-wing Bad Guy), isn't it helpful to point out that the accusation is actually false? It seemed like I was advocating for self-censorship on the grounds that speaking up helps the false accusers. But it also helps bystanders (by correcting the misapprehension), and hurts the false accusers (by demonstrating to bystanders that the accusers are making things up). By [linking to](https://twitter.com/zackmdavis/status/1164259289575251968) ["Kolmogorov Complicity and the Parable of Lightning"](http://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/) in my replies, I seemed to be insinuating that Yudkowsky was under some sort of duress, but this wasn't spelled out: if Yudkowsky would face social punishment for advancing right-wing opinions, did that mean he was under such duress that saying anything at all would be helping the oppressors?
 
@@ -387,7 +387,7 @@ But ... "I thought X seemed Y to me"[^pleonasm] and "X is Y" do not mean the sam
 
 [^pleonasm]: The pleonasm here ("to me" being redundant with "I thought") is especially galling coming from someone who's usually a good writer!
 
-It might seem like a little thing of no significance—requiring ["I" statements](https://en.wikipedia.org/wiki/I-message) is commonplace in therapy groups and corporate sensitivity training—but this little thing coming from Eliezer Yudkowsky setting guidelines for an explicitly "rationalist" space made a pattern click. If everyone is forced to only make narcissistic claims about their map ("_I_ think", "_I_ feel"), and not make claims about the territory (which could be construed to call other people's maps into question and thereby threaten them, because [disagreement is disrespect](https://www.overcomingbias.com/p/disagreement-ishtml)), that's great for reducing social conflict, but it's not great for the kind of collective information processing that accomplishes cognitive work,[^i-statements] like good literary criticism. A rationalist space needs to be able to talk about the territory.
+It might seem like a little thing of no significance—requiring ["I" statements](https://en.wikipedia.org/wiki/I-message) is commonplace in therapy groups and corporate sensitivity training—but this little thing coming from Eliezer Yudkowsky setting guidelines for an explicitly "rationalist" space made a pattern click. If everyone is forced to only make claims about their map ("_I_ think", "_I_ feel"), and not make claims about the territory (which could be construed to call other people's maps into question and thereby threaten them, because [disagreement is disrespect](https://www.overcomingbias.com/p/disagreement-ishtml)), that's great for reducing social conflict, but it's not great for the kind of collective information processing that accomplishes cognitive work,[^i-statements] like good literary criticism. A rationalist space needs to be able to talk about the territory.
 
 [^i-statements]: At best, "I" statements make sense in a context where everyone's speech is considered part of the "official record". Wrapping controversial claims in "I think" removes the need for opponents to immediately object for fear that the claim will be accepted onto the shared map.
 
@@ -449,18 +449,23 @@ Ben replied that it didn't seem like it was clear to me that I was a victim of s
 
 I said I would bite that bullet: yes! Yes, I was trying to figure out whether I was being fair to my abusers, and it was an important question to get right! "Other people's lack of standards harmed me, therefore I don't need to hold myself to standards in my response because I have [extenuating circumstances](https://www.lesswrong.com/posts/XYrcTJFJoYKX2DxNL/extenuating-circumstances)" would be a lame excuse.
 
-This seemed correlated with the recurring stalemated disagreement within our coordination group, where Michael/Ben/Jessica would say, "Fraud, if the word ever meant anything", and while I agreed that they were pointing to an important pattern of false representations optimized to move resources, I was still sympathetic to the Caliphate-defender's reply that this usage of "fraud" was motte-and-baileying between different senses of _fraud_. (Most people would say that the things we were alleging MIRI and CfAR had done wrong were qualitatively different from the things Enron and Bernie Madoff had done wrong.) I wanted to do _more work_ to formulate a more precise theory of the psychology of deception to describe exactly how things were messed up a way that wouldn't be susceptible to the motte-and-bailey charge.
+This seemed correlated with the recurring stalemated disagreement within our coordination group, where Michael/Ben/Jessica would say, "Fraud, if the word ever meant anything", and while I agreed that they were pointing to an important pattern of false representations optimized to move resources, I was still sympathetic to the Caliphate-defender's reply that this usage was [motte-and-baileying](https://slatestarcodex.com/2014/11/03/all-in-all-another-brick-in-the-motte/) between different senses of _fraud_. (Most people would say that the things we were alleging MIRI and CfAR had done wrong were qualitatively different from the things Enron and Bernie Madoff had done wrong.) I wanted to do more work to formulate a more precise theory of the psychology of deception to describe exactly how things were messed up a way that wouldn't be susceptible to the motte-and-bailey charge.
 
 Looking back four years later, I still feel that way—but my desire for nuance itself demands nuance.
 
 [TODO— FTX and nuance epilogue—
- * On the one hand, I think I'm right to worry about the "jump to evaluation" failure mode, where you substitute a compressed hostile description
+On the one hand, I think I'm right to worry that our posse's discourse was prone to a "jump to evaluation" failure mode, 
  * If Gloria does a crime and lies about it and you call her a fraud, people are going to correctly notice that your description failed to match reality; you're obscuring what's actually bad about it
- * On the other hand, I want to give the posse's worldview credit
- * In April 2019, Ben tried to describe the Blight to me, saying, "People are systematically conflating corruption, accumulation of dominance, and theft, with getting things done"
- * ordinary grown-up EAs would describe this as uncharitable, rude, &c.
- * But look at the FTX blowup. This was, actually, one of the greatest financial frauds of our time, and it was made possible by EA: Lewis's book explains that early Alameda recruited from movement EAs, https://thezvi.wordpress.com/2023/10/24/book-review-going-infinite/
- * Ordinary grown-ups say, "How could we have known?", but this is much less surprising on Ben's view of what EA is. (And doing good as a charity is even harder than running a crypto exchange, where the job you're doing for stakeholders is more legible; if a health intervention doesn't owrk)
+ * my mentioning my CfAR donation to Said actually belongs here
+]
+
+On the other hand, I want to give the posse's worldview massive credit for seeing things that everyone else in "rationalist" Berkeley prefers not to see. Trying to describe the Blight to me in April 2019, Ben wrote, "People are systematically conflating corruption, accumulation of dominance, and theft, with getting things done." I imagine an ordinary EA grown-up looking at this text and shaking their head at how hyperbolically uncharitable Ben was being. Dominance, corruption, theft? Where was his evidence for these sweeping attacks on these smart, hard-working people trying to make the world a better place?
+
+But look at [the implosion of the FTX cryptocurrency exchange](https://en.wikipedia.org/wiki/Bankruptcy_of_FTX). This was one of the largest financial frauds of our time, and it was made possible by EA. In _Going Infinite_, Michael Lewis's book on FTX mastermind Sam Bankman-Fried, Lewis describes Bankman-Fried's "access to a pool of willing effective altruists" as the secret weapon of FTX predecessor Alameda Research: Wall Street firms powered by ordinary greed would have trouble trusting employees with easily-stolen cryptocurrency, but ideologically-driven EAs could be trusted to be working for the cause. Lewis describes Alameda employees seeking to prevent Bankman-Fried from deploying a trading bot with access to $170 million for fear of losing all that money "that might otherwise go to effective altruism".
+
+[TODO—
+ * as Zvi notes in his review of _Going Infinite_, https://thezvi.wordpress.com/2023/10/24/book-review-going-infinite/
+ * tie into specific cites in Ben's EA-critical writing
 ]
 
 -------
@@ -515,11 +520,11 @@ This provided me with [an affordance](https://www.lesswrong.com/posts/qXwmMkEBLL
 
 [^defensive]: Criticism is "defensive" in the sense of trying to _prevent_ new beliefs from being added to our shared map; a critic of an idea "wins" when the idea is not accepted (such that the set of accepted beliefs remains at the _status quo ante_).
 
-More significantly, in reaction to Yudkowsky's ["Meta-Honesty: Firming Up Honesty Around Its Edge Cases"](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases), I published ["Firming Up Not-Lying Around Its Edge-Cases Is Less Broadly Useful Than One Might Initially Think"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly),[^not-lying-title] explaining why merely refraining from making false statements is an unproductively narrow sense of "honesty", because the ambiguity of natural language makes it easy to deceive people in practice without technically lying.
+More significantly, in reaction to Yudkowsky's ["Meta-Honesty: Firming Up Honesty Around Its Edge Cases"](https://www.lesswrong.com/posts/xdwbX9pFEr7Pomaxv/meta-honesty-firming-up-honesty-around-its-edge-cases), I published ["Firming Up Not-Lying Around Its Edge-Cases Is Less Broadly Useful Than One Might Initially Think"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly),[^not-lying-title] explaining why I thought "Meta-Honesty" was relying on an unproductively narrow sense of "honesty", because the ambiguity of natural language makes it easy to deceive people in practice without technically lying.
 
 [^not-lying-title]: The ungainly title was "softened" from an earlier draft following feedback from the posse; I had originally written "... Surprisingly Useless".
 
-I thought this one cut to the heart of the shocking behavior that we had seen from Yudkowsky lately. (Less shocking as the months rolled on, and I told myself to let the story end.) The "hill of meaning in defense of validity" affair had been been driven by Yudkowsky's pathological obsession with not-technically-lying, on two levels: he had proclaimed that asking for new pronouns "Is. Not. Lying." (as if _that_ were the matter that anyone cared about—as if conservatives and gender-critical feminists should just pack up and go home after it had been demonstrated that trans people aren't _lying_), and he had seen no interest in clarifying his position on the philosophy of language, because he wasn't lying when he said that preferred pronouns weren't lies (as if _that_ were the matter that my posse cared about—as if I should keep honoring him as my Caliph after it had been demonstrated that he hadn't _lied_). But his Sequences had [articulated a higher standard](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument) than merely not-lying. If he didn't remember, I could at least hope to remind everyone else.
+I thought this one cut to the heart of the shocking behavior that we had seen from Yudkowsky lately. (Less shocking as the months rolled on, and I told myself to let the story end.) The "hill of meaning in defense of validity" affair had been been driven by Yudkowsky's pathological obsession with not-technically-lying, on two levels: he had proclaimed that asking for new pronouns "Is. Not. Lying." (as if _that_ were the matter that anyone cared about—as if conservatives and gender-critical feminists would just pack up and go home after it had been demonstrated that trans people aren't _lying_), and he had seen no interest in clarifying his position on the philosophy of language, because he wasn't lying when he said that preferred pronouns weren't lies (as if _that_ were the matter that my posse cared about—as if I should keep honoring him as my caliph after it had been demonstrated that he hadn't lied). But his Sequences had [articulated a higher standard](https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument) than merely not-lying. If he didn't remember, I could at least hope to remind everyone else.
 
 I also wrote a little post, ["Free Speech and Triskadekaphobic Calculators"](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to), arguing that it should be easier to have a rationality/alignment community that just does systematically correct reasoning, rather than a politically-savvy community that does systematically correct reasoning except when that would taint AI safety with political drama, analogously to how it's easier to build a calculator that just does correct arithmetic, than a calculator that does correct arithmetic except that it never displays the result 13. In order to build a "[triskadekaphobic](https://en.wikipedia.org/wiki/Triskaidekaphobia) calculator", you would need to "solve arithmetic" anyway, and the resulting product would be limited not only in its ability to correctly compute `6 + 7`, but also the infinite family of calculations that included 13 as an intermediate result: if you can't count on `(6 + 7) + 1` being the same as `6 + (7 + 1)`, you lose the associativity of addition.
 
@@ -588,7 +593,7 @@ I pointed out that what sex people are is more relevant to human social life tha
 
 I was skeptical of the claim that no one was "really" being kept ignorant. If you're sufficiently clever and careful and you remember how language worked when Airstrip One was still Britain, then you can still think, internally, and express yourself as best you can in Newspeak. But a culture in which Newspeak is mandatory, and all of Oceania's best philosophers have clever arguments for why Newspeak doesn't distort people's beliefs doesn't seem like a culture that could solve AI alignment.
 
-I linked to Zvi Mowshowitz's post about how [the claim that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) gets used an excuse to silence people trying to point out the thing: "'Everybody knows' our kind of trans women are sampled from the male multivariate distribution rather than the female multivariate distribution, why are you being a jerk and pointing this out?" But I didn't think that everyone knew.[^survey-whether-everyone-knows] I thought the people who sort-of knew were being intimidated into doublethinking around it.
+I linked to Zvi Mowshowitz's post about how [the claim that "everybody knows" something](https://thezvi.wordpress.com/2019/07/02/everybody-knows/) gets used an excuse to silence people trying to point out the thing: "'Everybody knows' our kind of trans women are sampled from (part of) the male multivariate trait distribution rather than the female multivariate trait distribution, why are you being a jerk and pointing this out?" But I didn't think that everyone knew.[^survey-whether-everyone-knows] I thought the people who sort-of knew were being intimidated into doublethinking around it.
 
 [^survey-whether-everyone-knows]: On this point, it may be instructive to note that a 2023 survey [found that only 60% of the UK public knew that "trans women" were born male](https://www.telegraph.co.uk/news/2023/08/06/third-of-britons-dont-know-trans-women-born-male/).
 
@@ -629,9 +634,9 @@ In January 2020, Michael told me that he had changed his mind about gender and t
 
 [^reasons-not-to-carve]: I had identified three classes of reasons not to carve reality at the joints: [coordination (wanting everyone to use the same definitions)](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests), wireheading (making the map look good, at the expense of it failing to reflect the territory), and war (sabotaging someone else's map to make them do what you want). This would fall under "coordination" insofar as Michael's proposal was motivated by the need to use the same categories as everyone else. (Although you could also make a case for "war" insofar as the civil-rights model winning entailed that adherents of the TERF or medical models must lose.)
 
-According to Michael, while "trans women are real women" was a lie (in the sense that he agreed that me and Jessica and Ziz were not part of the natural cluster of biological females), it was _also_ the case that "trans women are not real women" was a lie (in the sense that the "creepy men" and "crazy men" stories were wrong). "Trans women are women" could be true in the sense that truth is about processes that create true maps, such that we can choose the concepts that allow discourse and information-flow. If the "creepy men" and "crazy men" stories are a cause of silencing, then—under present conditions—we had to chose the "protected class" story in order for people like Ziz to not be silenced.
+According to Michael, while "trans women are real women" was a lie (in the sense that he agreed that me and Jessica and Ziz were not part of the natural cluster of biological females), it was _also_ the case that "trans women are not real women" was a lie (in the sense that the "creepy men" and "crazy men" stories were wrong). "Trans women are women" could be true in the sense that truth is about processes that create true maps, such that we can choose the concepts that allow discourse and information-flow. If the "creepy men" and "crazy men" stories are a cause of silencing, then—under present conditions—we had to choose the "protected class" story in order for people like Ziz to not be silenced.
 
-My response (more vehemently when thinking on it a few hours later) was that this was a _garbage bullshit_ appeal to consequences. If I wasn't going to let Ray Arnold get away with "we are better at seeking truth when people feel Safe", I shouldn't let Michael get away with "we are better at seeking truth when people aren't oppressed". Maybe the wider world was ontology-constrained to those three choices, but I was aspiring to higher nuance in my writing, and it seemed to be working pretty well.
+My response (more vehemently when thinking on it a few hours later) was that this was a _garbage bullshit_ appeal to consequences. If I wasn't going to let Ray Arnold get away with "we are better at seeking truth when people feel safe", I shouldn't let Michael get away with "we are better at seeking truth when people aren't oppressed". Maybe the wider world was ontology-constrained to those three choices, but I was aspiring to higher nuance in my writing, and it seemed to be working pretty well.
 
 "Thanks for being principled," he replied. (He had a few more sentences about the process _vs._ conclusion point being important to his revised-for-politics philosophy of language, but we didn't finish the debate.)
 
@@ -639,9 +644,11 @@ My response (more vehemently when thinking on it a few hours later) was that thi
 
 On 10 February 2020, Scott Alexander published ["Autogenderphilia Is Common and Not Especially Related to Transgender"](https://slatestarcodex.com/2020/02/10/autogenderphilia-is-common-and-not-especially-related-to-transgender/), an analysis of the results of the autogynephilia/autoandrophilia questions on the recent _Slate Star Codex_ survey.
 
-I appreciated the gesture of getting real data, but I was deeply unimpressed with Alexander's analysis for reasons that I found difficult to write up in a timely manner. Three and a half years later, I eventually got around to [polishing my draft and throwing it up as a standalone post](/2023/Nov/reply-to-scott-alexander-on-autogenderphilia/).
+I appreciated the endeavor of getting real data, but I was deeply unimpressed with Alexander's analysis for reasons that I found difficult to write up in a timely manner. Three and a half years later, I eventually got around to [polishing my draft and throwing it up as a standalone post](/2023/Nov/reply-to-scott-alexander-on-autogenderphilia/).
+
+Based on eyeballing the survey data, Alexander proposes "if you identify as a gender, and you're attracted to that gender, it's a natural leap to be attracted to yourself being that gender" as a "very boring" theory.
 
-Briefly, based on eyeballing the survey data, Alexander proposes "if you identify as a gender, and you're attracted to that gender, it's a natural leap to be attracted to yourself being that gender" as a "very boring" theory, but on my worldview, a hypothesis that puts "gay people (cis and trans)" in the antecedent is not boring and takes on a big complexity penalty: I don't think the group of gay men _and_ lesbians _and_ straight males with female gender identities _and_ straight females with male gender identities have much in common with each other, except sociologically (being "queer"), and by being human.
+I can see how it looks like a natural leap if you're verbally reasoning about "gender", but on my worldview, a hypothesis that puts "gay people (cis and trans)" in the antecedent is not boring and takes on a big complexity penalty, because that group is heterogenous with respect to the underlying mechanisms of sexuality. I already don't have much use for "if you are a sex, and you're attracted to that sex" as a category of analytical interest, because I think gay men and lesbians are different things that need to be studied separately. Given that, "if you identify as a gender, and you're attracted to that gender" (with respect to "gender", not sex) comes off even worse: it's grouping together lesbians, and gay men, and heterosexual males with a female gender identity, and heterosexual females with a male gender identity. What causal mechanism could that correspond to?
 
 (I do like the [hypernym](https://en.wikipedia.org/wiki/Hyponymy_and_hypernymy) _autogenderphilia_.)
 
@@ -659,17 +666,19 @@ Having considered all this, here's what I think I can say: I spent a number of h
 
 Previously, I had already thought it was nuts that trans ideology was exerting influence on the rearing of gender-non-conforming children—that is, children who are far outside the typical norm of behavior for their sex: very tomboyish girls and very effeminate boys.
 
-Under recent historical conditions in the West, these kids were mostly "pre-gay" rather than trans. (The stereotype about lesbians being masculine and gay men being feminine is, like most stereotypes, basically true: sex-atypical childhood behavior between gay and straight adults [has been meta-analyzed at](/papers/bailey-zucker-childhood_sex-typed_behavior_and_sexual_orientation.pdf) [Cohen's _d_](/2019/Sep/does-general-intelligence-deflate-standardized-effect-sizes-of-cognitive-sex-differences/) ≈ 1.31 standard deviations for men and _d_ ≈ 0.96 for women.) A majority of children diagnosed with gender dysphoria [ended up growing out of it by puberty](/papers/steensma_et_al-factors_associated_with_desistence_and_persistence.pdf). In the culture of the current year, it seemed likely that a lot of those kids would instead get affirmed into a cross-sex identity at a young age, even though most of them would have otherwise (under [a "watchful waiting" protocol](/papers/de_vries-cohen-kettenis-clinical_management_of_gender_dysphoria_in_children.pdf)) grown up to be ordinary gay men and lesbians.
+Under recent historical conditions in the West, these kids were mostly "pre-gay" rather than trans. (The stereotype about lesbians being masculine and gay men being feminine is, like most stereotypes, basically true: sex-atypical childhood behavior between gay and straight adults [has been meta-analyzed at](/papers/bailey-zucker-childhood_sex-typed_behavior_and_sexual_orientation.pdf) [Cohen's _d_](/2019/Sep/does-general-intelligence-deflate-standardized-effect-sizes-of-cognitive-sex-differences/) ≈ 1.31 standard deviations for men and _d_ ≈ 0.96 for women.) A solid majority of children diagnosed with gender dysphoria [ended up growing out of it by puberty](/papers/steensma_et_al-factors_associated_with_desistence_and_persistence.pdf). In the culture of the current year, it seemed likely that a lot of those kids would instead get affirmed into a cross-sex identity at a young age, even though most of them would have otherwise (under [a "watchful waiting" protocol](/papers/de_vries-cohen-kettenis-clinical_management_of_gender_dysphoria_in_children.pdf)) grown up to be ordinary gay men and lesbians.
 
-What made this shift in norms crazy, in my view, was not just that transitioning younger children is a dubious treatment decision, but that it's a dubious treatment decision that was being made on the basis of the obvious falsehood that "trans" was one thing: the cultural phenomenon of "trans kids" was being used to legitimize trans _adults_, even though a supermajority of trans adults were in the late-onset/AGP taxon and therefore had never resembled these HSTS-taxon kids. That is: pre-gay kids in our Society are being sterilized in order to affirm the narcissistic delusions of guys like me.
+What made this shift in norms crazy, in my view, was not just that transitioning younger children is a dubious treatment decision, but that it's a dubious treatment decision that was being made on the basis of the obvious falsehood that "trans" was one thing: the cultural phenomenon of "trans kids" was being used to legitimize trans _adults_, even though a supermajority of trans adults were in the late-onset/AGP taxon and therefore had never resembled these HSTS-taxon kids. That is: pre-gay kids in our Society are being sterilized in order to affirm the identity narratives of guys like me.
 
 That much was obvious to anyone who's had their Blanchardian enlightenment, and wouldn't have been worth the effort of writing a special private Document about. The disturbing hypothesis that occured to me in early 2020 was that, in the culture of the current year, affirmation of a cross-sex identity might happen to kids _who weren't even HSTS-taxon at all_.
 
-Very small children who are just learning what words mean say a lot of things that aren't true (I'm a grown-up; I'm a cat; I'm a dragon), and grownups tend to play along in the moment as a fantasy game, but they don't _coordinate to make that the permanent new social reality_. Ten years ago, if an otherwise ordinary three-year-old boy had occasionally claimed to be a girl, I think his nice smart liberal unschooling caretakers would treat it about the same way as when the kid claims to be a cat. (I'm going with the MtF case without too much loss of generality; I don't think the egregore is quite as eager to transition females at this age, but the dynamics are broadly similar.)
+Very small children who are just learning what words mean say a lot of things that aren't true (I'm a grown-up; I'm a cat; I'm a dragon), and grownups tend to play along in the moment as a fantasy game, but they don't _coordinate to make that the permanent new social reality_. 
+
+But if the grown-ups have been trained to believe that "trans kids know who they are"—if they're emotionally eager at the prospect of having a transgender child, or fearful of the damage they might do by not affirming—they might selectively attend to confirming evidence that the child "is trans", selectively ignore contrary evidence that the kid "is cis", and end up reinforcing a cross-sex identity that would not have existed if not for their belief in it—a belief that the same people raising the same child wouldn't have held ten years ago. ([A September 2013 article in _The Atlantic_](https://archive.is/FJNII) by the father of a child with sex-atypical interests was titled "My Son Wears Dresses; Get Over It", not "My Daughter Is Trans; Get Over It".)
 
-But if the grown-ups have been trained to believe that "trans kids know who they are"—if they're emotionally eager at the prospect of having a transgender child, or fearful of the damage they might do by not affirming—they might selectively attend to confirming evidence that the child "is trans", selectively ignore contrary evidence that the kid "is cis", and end up reinforcing a cross-sex identity that would not have existed if not for their belief in it.
+Crucially, if innate gender identity isn't a feature of toddler psychology, _the child has no way to know anything is "wrong."_ If none of the grown-ups can say, "You're a boy because boys are the ones with penises" (because that's not what people are supposed to believe in the current year), how is the child supposed to figure that out independently? [Toddlers are not very sexually dimorphic](/2019/Jan/the-dialectic/), but sex differences in play style and social behavior tend to emerge within a few years. There were no cars in the environment of evolutionary adaptedness, and yet [the effect size of the sex difference in preference for toy vehicles is a massive _d_ ≈ 2.44](/papers/davis-hines-how_large_are_gender_differences_in_toy_preferences.pdf), about one and a half times the size of the sex difference in adult height.
 
-Crucially, if innate gender identity isn't a feature of toddler psychology, _the child has no way to know anything is "wrong."_ If none of the grown-ups can say, "You're a boy because boys are the ones with penises" (because that's not what people are supposed to believe in the current year), how is the child supposed to figure that out independently? [Toddlers are not very sexually dimorphic](/2019/Jan/the-dialectic/), but sex differences in play style and social behavior tend to emerge within a few years. (There were no cars in the environment of evolutionary adaptedness, and yet [the effect size of the sex difference in preference for toy vehicles is a massive _d_ ≈ 2.44](/papers/davis-hines-how_large_are_gender_differences_in_toy_preferences.pdf), about one and a half times the size of the sex difference in adult height.)
+(I'm going with the MtF case without too much loss of generality; I don't think the egregore is quite as eager to transition females at this age, but the dynamics are broadly similar.)
 
 What happens when the kid develops a self-identity as "a girl", only to find out, potentially years later, that she noticeably doesn't fit in with the (cis) girls on the [many occasions that no one has explicitly spelled out in advance](/2019/Dec/more-schelling/) where people are using "gender" (perceived sex) to make a prediction or decision?
 
@@ -689,11 +698,11 @@ Notably, von Osten didn't accept Pfungst's explanation, continuing to believe th
 
 It's hard to blame him, really. He had spent more time with Hans than anyone else. Hans observably _could_ stomp out the correct answers to questions. Absent an irrational prejudice against the idea that a horse could learn arithmetic, why should he trust Pfungst's nitpicky experiments over the plain facts of his own intimately lived experience? But what was in question wasn't the observations of Hans's performance, only the interpretation of what those observations implied about Hans's psychology. As Pfungst put it: "that was looked for in the animal which should have been sought in the man."
 
-Similarly, in the case of a reputedly transgender three year old, a skeptical family friend isn't questioning the observations that the child what the child was reported to have said, only the interpretation of what those observations imply about the child's psychology. From the family's perspective, the evidence is clear: the child claimed to be a girl on many occasions over a period of months, and expressed sadness about being a boy. Absent an irrational prejudice against the idea that a child could be transgender, what could make them doubt the obvious interpretation of the plain facts of their own intimately lived experience?
+Similarly, in the case of a reputedly transgender three year old, a skeptical family friend isn't questioning the observations of what the child was reported to have said, only the interpretation of what those observations imply about the child's psychology. From the family's perspective, the evidence is clear: the child claimed to be a girl on many occasions over a period of months, and expressed sadness about being a boy. Absent an irrational prejudice against the idea that a child could be transgender, what could make them doubt the obvious interpretation of the plain facts of their own intimately lived experience?
 
 From the skeptical family friend's perspective, there are a number of anomalies that cast serious doubt on what the family thinks is the obvious interpretation.
 
-(Or so I'm imagining how this might go, hypothetically; the following anecdotes might be fictional—)
+(Or so I'm imagining how this might go, hypothetically. The following anecdotes are merely illustrative, and may or may not reflect real events.)
 
 For one thing, the child's information environment does not seem to have provided instruction on some of the relevant facts. Six months before the child's social transition went down, another friend had reportedly explained to the child that "Some people don't have penises." (Apparently, grown-ups in Berkeley in the current year don't see the need to be any more specific.) But if no one in the child's life has been willing to clarify that girls and women, specifically, are the ones that don't have penises, and that boys and men are the ones that do, that makes it more plausible that the child's subsequent statements on the matter reflect mere confusion rather than a deep-set need.
 
@@ -747,7 +756,7 @@ A two-dimensional political map tells you which areas of the Earth's surface are
 
 But the trick only works to the extent that the category is a regular, non-squiggly region of configuration space: if you know that egg-shaped objects tend to be blue, and you see a black-and-white photo of an egg-shaped object, you can get close to picking out its color on a color wheel. But if egg-shaped objects tend to blue _or_ green _or_ red _or_ gray, you wouldn't know where to point to on the color wheel.
 
-The analogous algorithm applied to national borders on a political map would be to observe the longitude of a place, use that to guess what country the place is in, and then use the country to guess the latitude—which isn't typically what people do with maps. Category "boundaries" and national borders might both be illustrated similarly in a two-dimensional diagram, but philosophically, they're different entities. The fact that Scott Alexander was appealing to national borders to explain why gerrymandered categories were allegedly okay, demonstrated that he didn't understand this.
+The analogous algorithm applied to national borders on a political map would be to observe the longitude of a place, use that to guess what country the place is in, and then use the country to guess the latitude—which isn't typically what people do with maps. Category "boundaries" and national borders might both be illustrated similarly in a two-dimensional diagram, but philosophically, they're different entities. The fact that Scott Alexander was appealing to national borders to explain why gerrymandered categories were allegedly okay, suggested that he didn't understand this.
 
 I still had some deeper philosophical problems to resolve, though. If squiggly categories were less useful for inference, why would someone want a squiggly category boundary? Someone who said, "Ah, but I assign higher utility to doing it this way" had to be messing with you. Where would such a utility function come from? Intuitively, it had to be precisely _because_ squiggly boundaries were less useful for inference; the only reason you would realistically want to do that would be to commit fraud, to pass off pyrite as gold by redefining the word "gold".