memoir tap
[Ultimately_Untrue_Thought.git] / notes / a-hill-email-review.md
index 344816b..eb30304 100644 (file)
@@ -35,8 +35,11 @@ Email timeline—
 20 Feb: impulsive email to Scott (subject: a howl of despair which is nameless)
 20 Feb: cold outreach to Ben Landau-Taylor
 21 Feb: telling Marcus, I'm out of cards: we created a monster
-
-
+22 Feb: "RIP Culture War" thread
+22 Feb: Michael offers advice; I forward with Scott; Michael calls it a destructive move
+25 Feb: first draft of defending against "alt-right" categorization
+27 Feb: more support from the gang
+27-28 Feb: on private universes
 
 
 
@@ -53,9 +56,7 @@ Email timeline—
 to Sarah—
 > If we have this entire posse, I feel bad/guilty/ashamed about focusing too much on my special interest except insofar as it's actually a proxy for "has Eliezer and/or everyone else [lost the plot](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/), and if so, how do we get it back?"
 
-> There have been times during the last few weeks where it's felt like my mind has shut down with the only thought, "What the hell am I _doing_? This is _absurd_. Why am I running around picking fights about the philosophy of language—and worse, with me arguing for the _Bad_ Guys' position? I don't want to be one of the Bad Guys. Maybe I'm wrong and should stop making a fool out of myself. After all, using Aumann-like reasoning, in a dispute of 'Zack M. Davis and Michael Vassar vs. _everyone fucking else_', wouldn't I want to bet on 'everyone else'? Obviously."
-
-> Except that I was raised to believe that you're supposed to concede arguments on the basis of encountering a superior counterargument that makes you change your mind. And I can't actually point to such a counterargument. "Maybe I'm making a fool out of myself by picking fights with all these high-status people" is not a counterargument. When I look at the world, it looks like [Scott](http://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) and [Eliezer](https://twitter.com/ESYudkowsky/status/1067183500216811521) and [Kelsey](https://theunitofcaring.tumblr.com/post/171986501376/your-post-on-definition-of-gender-and-woman-and) and [Robby Bensinger](https://www.facebook.com/robbensinger/posts/10158073223040447?comment_id=10158073685825447&reply_comment_id=10158074093570447&comment_tracking=%7B%22tn%22%3A%22R2%22%7D) seem to think that some variation on ["I can define a word any way I want"]() is sufficient to end debates on transgender identity.
+>  When I look at the world, it looks like [Scott](http://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) and [Eliezer](https://twitter.com/ESYudkowsky/status/1067183500216811521) and [Kelsey](https://theunitofcaring.tumblr.com/post/171986501376/your-post-on-definition-of-gender-and-woman-and) and [Robby Bensinger](https://www.facebook.com/robbensinger/posts/10158073223040447?comment_id=10158073685825447&reply_comment_id=10158074093570447&comment_tracking=%7B%22tn%22%3A%22R2%22%7D) seem to think that some variation on ["I can define a word any way I want"]() is sufficient to end debates on transgender identity.
 
 > And ... I want to be nice to my trans friends, too, but that can't possibly be the definitive end-of-conversation correct argument. Not _really_. Not if you're being serious.
 
@@ -84,9 +85,9 @@ The Craft Is Not The Community, (https://srconstantin.wordpress.com/2017/08/08/t
 
 Anyway, meanwhile, other conversations were happening. 
 
-Anna told me that my "You have to pass my litmus test or I lose all respect for you as a rationalist" attitude was psychologically coercive. I agreed—I was even willing to go up to "violent"—in the sense that it's [trying to apply social incentives towards an outcome rather than merely exchanging information](http://zackmdavis.net/blog/2017/03/an-intuition-on-the-bayes-structural-justification-for-free-speech-norms/). But sometimes you need to use violence in defense of self or property, even if violence is generally bad. If we think of the "rationalist" label as intellectual property, maybe it's property worth defending, and if so, then "I can define a word any way I want" isn't obviously a terrible time to start shooting at the bandits? What makes my "... or I lose all respect for you as a rationalist" moves worthy of your mild reproach, but "You're not allowed to call this obviously biologically-female person a woman, or I lose all respect for you as not-an-asshole" merely a puzzling sociological phenomenon that might be adaptive in some not-yet-understood way? Isn't the violence-structure basically the same? Is there any room in civilization for self-defense?
 
-When I told Michael about this, he said that I was ethically or 'legally' in the right here, and the rationalist equivalent of a lawyer mattered more for my claims than the equivalent of a scientist, and that Ben Hoffman (who I had already shared the thread with Scott with) would be helpful in solidifying my claims to IP defense. I said that I didn't _feel_ like I'm in the right, even if I can't point to a superior counterargument that I want to yield to, just because I'm getting fatigued from all the social-aggression I've been doing. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)
+
+
 
 Michael—
 > Ben once told me that conversation with me works like this. I try to say things that are literally true and people bend over backwards to pretend to agree but to think that I am being metaphorical.
@@ -189,3 +190,64 @@ And like ... I don't know, these motherfuckers talk a good game about "charity",
 
 I'm still pretty horrified that the sticking point in discussions seems to have been not the AGP etiology itself (which is what I was focusing on in 2016/2017), but the category-boundaries-are-arbitrary "insight." So it's not just that we failed to break the irrationalist trans ideology: we actually invented something arguably worse! (Ordinary trans activists at least try to make (confused) truth claims; we invented a fully general counteragument against truth claims that's all the more dangerous thanks to the virtue of a very narrow kind of technical correctness.)
 
+> point out to him your sympathies regarding his mental breakdown under soft political persecution and silencing, make it clear that you are not requesting that he now or at any time in the future do anything in public regarding gender issues, and ask him to remember that you have recently been mentally incarcerated more than under similar political pressure (applied in the name of the mental health needs of non-specific people many of whom are in the same natural category as yourself) that he is totally forgiven for participating in it, but that you would like to discuss the shared aspect of your circumstances  face to face, and maybe both consider not posting anything online for a couple weeks.
+
+> That was a fairly destructive move to pull without consulting me, but OK, you played it and I will run with it.
+
+(Notwithstanding how it's bad that I've been leaning on you for social proof way too much, I've been writing with the assumption that the author of the Sequences still cares about the common interest of many causes. I can see the "MIRI exists, that was all the raising-the-sanity-waterline project turned out to be good for; I don't have any teaching duties besides my not-explicitly-lying Wizard's Oath" CDT logic, but ... ugh, really? I can't be the one to suggest it.)
+
+
+
+You write:
+
+    Your annual reminder that Slate Star Codex is not and never was alt-right, every real stat shows as much, and the primary promoters of this lie are sociopaths who get off on torturing incredibly nice targets like Scott A.
+
+Suppose the one were to reply: "Using language in a way you dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (Scott Alexander's explicit advocacy of a white ethnostate?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret. You're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning. Now, maybe as a matter of policy, you want to make a case for language like 'alt-right' being used a certain way. Well, that's a separate debate then. But you're not making a stand for Truth in doing so, and your opponents aren't tricking anyone or trying to."
+
+How would you begin to respond to this? That's not a rhetorical question: I'm actually curious.
+
+My model of Sequences-era 2009!Eliezer says, "This is an attempt to sneak in connotations by performing a categorization and trying to avoid the burden of having to justify it with an appeal-to-arbitrariness conversation-halter. Go read 'A Human's Guide to Words,' and if you've already read it, then you're being incredibly intellectually dishonest and not worth my time to interact with."
+
+But I have no idea what 2019!Eliezer says.
+
+You wrote to me on 28 November:
+
+    The notion of a lie is as sancrosanct as the notion of a truth, and you do not get to say 'lie' when somebody is doing something that you think might tempt somebody to add on a lie as an additional act. [...] 'Lying' is for per se direct falsehoods.
+
+What direct falsehood is being asserted by Scott's detractors? I don't think anyone is claiming that, say, Scott identifies as alt-right (not even privately), any more than anyone is claiming that trans women have two X chromosomes. Sneer Club has been pretty explicit in their criticism (examples: 1 2) that the Culture War thread harbors racists (&c.) and possibly that Scott himself is a secret racist, with respect to a definition of racism that includes the belief that there are genetically-mediated population differences in the distribution of socially-relevant traits and that this probably has decision-relevant consequences should be discussable somewhere.
+
+And this is just correct: e.g., "The Atomic Bomb Considered As Hungarian High School Science Fair Project" favorably cites Cochran et al.'s genetic theory of Ashkenazi achievement as "really compelling." Scott is almost certainly "guilty" of the category-membership that the speech against him is meant to convey—it's just that Sneer Club got to choose the category. The correct response to the existence of a machine-learning classifer that returns positive on both Scott Alexander and Richard Spencer is not that the classifier is "lying" (what would that even mean?), but that the classifier is not very useful for understanding Scott Alexander's effects on the world.
+
+Of course, Scott is great and we should defend him from the bastards trying to ruin his reputation, and it's plausible that the most politically convenient way to do that is to pound the table and call them lying sociopaths rather than engaging with the substance of their claims, much as how someone being tried under an unjust law might dishonestly plead "Not guilty" to save their own skin rather than tell the whole truth and hope for jury nullification.
+
+But political convenience comes at a dire cost to our common interest! There's a proverb you once failed to Google, which runs something like, "Once someone is known to be a liar, you might as well listen to the whistling of the wind."
+
+Similarly, once someone is known to vary the epistemic standards of their public statements for political convenience (even if their private, unshared thoughts continue to be consistently wise)—if they say categorizations can be lies when that happens to help their friends, but seemingly deny the possibility of categorizations being lies when that happens to make them look good ...
+
+Well, you're still somewhat better off listening to them than the whistling of the wind, because the wind in various possible worlds is presumably uncorrelated with most of the things you want to know about, whereas clever arguers who don't tell explicit lies are very constrained in how much they can mislead you. But it seems plausible that you might as well listen to any other arbitrary smart person with a blue check and 20K followers. I remain,
+
+> >
+>
+> If the statement "Pronouns aren't lies" has the same type of misapprehension-forming impact on the listener as "Scott Alexander is a racist" or "Slate Star Codex is an alt-right blog" then
+
+Wait! That's not the analogy I'm trying to make!
+
+What I'm trying to say is, whether "You're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning" makes sense as a response to "X isn't a Y" shouldn't depend on the specific values of X and Y.
+
+Your behavior the other month made it look like you think that "You're not standing in defense of truth if ..." is a valid response when, say, X = "Caitlyn Jenner" and Y = "woman."
+
+I'm saying that whether or not it's a valid response, we should, as a matter of local validity, apply the same standard when X = "Scott Alexander" and Y = "racist."
+
+The preceding three paragraphs are glossing over some details, and I totally understand if you want to disagree with the exact way I've formulated them! (Like, maybe you think it's inappropriate that I'm focusing on category-membership even though your explicit statement was about pronouns. It's important to notice that! We may be living in different mental universes with respect to how Gricean implicature works!)
+
+But ... I'm not claiming that Eliezer's statement that "Pronouns aren't lies" has the same type of misapprehension-forming impact on the listener as Sneer Club's statement that "Scott Alexander is a racist." That's just not what the analogy was trying to do!
+
+
+But like, does anyone understand what the fuck could possibly be going on in Eliezer's head? I've spent thousands of words with lots of direct links and quotes to his own writings from ten years ago trying to explain that there's a problem where people who call themselves "rationalists" are somehow very intent on playing clever definition-hacking mind games to make it artificially expensive to express the idea that humans cannot change sex (given current technology), and that I think he could fix the problem because people might listen to him when they don't listen to me. I agree that trans issues aren't important, but I also think that if you're doing systematically correct reasoning, you should get the right answer even when the issue isn't important.
+
+I think I've been pretty explicit! And today Eliezer is chastising me and Ben for not having enough empathy to realize that people live in different mental universes. And like—I agree that people live in different mental universes! But—that seems bizarrely nonresponsive to the thousands of words I wrote explaining the problem! You see it, right?! What is there left for me to say?
+
+Michael—
+> I think that if Zack is having difficulties it would be ideal if we could move this ahead without him. Needless to say, he doesn't need to feel any responsibility and has done all that could be asked of him and more to cause this project to survive unanticipated difficulties.  Right now, I don't think there's much help he can offer except for periodic pushes, like the current one, for the rest of us to keep at it. 
+
+