long confrontation 2: still in December 2018 emails
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
index 63c4bf3..e7d8c00 100644 (file)
@@ -142,36 +142,50 @@ I was physically shaking. I remember going downstairs to confide in a senior eng
 
 It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232), and that, because I cared very much about correcting what I claim are confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time, and that, if he liked the post, he might consider Tweeting a link.
 
+[TODO (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)")]
+
 The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
 
-Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ on of your posts? Who _does_ that?) To this, I again refer to [the reasons justifying 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons).
+Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ on of your posts? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that it was a way to signal that I _really really didn't want to be ignored_.
 
+[TODO: and cc'd Michael and Anna as character references]
 
-I wanted some way to signal that I _really really didn't want to be ignored_.
+[TODO: I did successfully interest Michael, who chimed in—Michael called me up and we talked about how the "rationalists" were over]
 
-(A nobody like me 
+[TODO: as with earlier cheerful price offer, I can't confirm or deny whether Yudkowsky replied or whether he accepted the cheerful price offer]
 
-[and cc'd Michael and Anna as character references]
+[TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder? https://twitter.com/ESYudkowsky/status/1068071036732694529 ]
 
-[TODO: Michael called me up and we talked about how the "rationalists" were over]
+Greedy or not, I wasn't satisfied. On 1 December, I wrote to Scott Alexander, asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
 
-[TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder? https://twitter.com/ESYudkowsky/status/1068071036732694529 ]
+The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to [draw your category boundaries such that](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary) things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes) of short words on the simplest and most wide-rangingly useful categories.
+
+It's true that the reason _I_ was continuing to freak out about this to the extent of sending you him this obnoxious email telling him what to write (seriously, what kind of asshole does that?!) has to with transgender stuff, but that's not the reason _Scott_ should care. Rather, it's like [his parable about whether thunder or lightning comes first](http://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/): there aren't many direct non-rationalizable-around consequences of the sacred dogmas that thunder comes before lightning or that biological sex somehow isn't real; the problem is that the need to _defend_ the sacred dogma _destroys everyone's ability to think_. If our vaunted rationality techniques result in me having to spend dozens of hours patiently explaining why I don't think that I'm a woman and that [the person in this photograph](https://daniellemuscato.startlogic.com/uploads/3/4/9/3/34938114/2249042_orig.jpg) isn't a woman, either (where "isn't a woman" is a convenient rhetorical shorthand for a much longer statement about [naïve Bayes models](https://www.lesswrong.com/posts/gDWvLicHhcMfGmwaK/conditional-independence-and-naive-bayes) and [high-dimensional configuration spaces](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace) and [defensible Schelling points for social norms](https://www.lesswrong.com/posts/Kbm6QnJv9dgWsPHQP/schelling-fences-on-slippery-slopes)), then our techniques are _worse than useless_. If Galileo ever muttered "And yet it moves", there's a long and nuanced conversation you could have about the consequences of using the word "moves" in Galileo's preferred sense or some other sense that happens to result in the theory needing more epicycles. It may not have been obvious in 2014, but in retrospect, _maybe_ it was a _bad_ idea to build a [memetic superweapon](https://archive.is/VEeqX) that says the number of epicycles _doesn't matter_.
+
+And the reason to write this is a desperate email plea to Scott Alexander when I could be working on my own blog, was that I was afraid that marketing is a more powerful force than argument. Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't [win the talent lottery](http://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) but think they see a flaw in the Zeitgeist, the winning move is "persuade Scott Alexander".
+
+So, what do you say, Scott? Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we don't. If you don't want to cite my creepy blog about my creepy fetish, that's fine. I like getting credit, but the important thing is that this "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming that!—it's just that utilitarianism implies that the social property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needs to _die_. You alone can kill it.
 
-[TODO: email Scott 1 December (cc Anna Jonah Sarah Michael) "is there any chance of getting an explicit and loud clarification and/or partial-retraction of "The Categories Were Made for Man"?"—writing to him because marketing is a more powerful force than argument;
+... Scott didn't get it.
 
-> Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't win the talent lottery but think they see a flaw in the Zeitgeist, the winning move is "persuade Scott Alexander".
-> So, what do you say, Scott? Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we don't.
-> "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming that!—it's just that utilitarianism implies that the social property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needs to die. You alone can kill it. My model of you assigns more than 20% probability that you will.
+[TODO: paraphrase remaining interaction with Scott, or not worth the space?
 
 > I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
 
 helping Norton live in the real world
+
+If any concrete negative consequence of taking gender self-identity categories (e.g., more sexual assaults) is going to be waved away with "Oh, that's a mere policy decision that can be dealt with on some basis other than gender, and therefore doesn't count as an objection to the new definition of gender categories", then I guess I can't argue with that. But I wish I knew what happened to my wallet.
+
+Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious. 
 ]
 
+[TODO: connecting with Aurora 8 December, maybe not important]
+
 [TODO: re Ben's involvement—I shared Scott thread with Ben and Katie; Michael said "could you share this with Ben?  I think he is ready to try & help." on 17 December
 19 December
 > talk more with Ben Hoffman, he will be more helpful in solidifying your claims about IP defense etc. You are ethically or 'legally' in the right here, and the rationalist equivalent of a lawyer matters more for your claims than the equivalent of a scientist.]
-[TOOD: Sarah's involvement: I cc'd her on the 1 December Scott thread, and 16 December draft to Michael]
+[TOOD: Sarah's involvement: I cc'd her on the 1 December Scott thread, and Sarah chimed in support in that thread, and 16 December draft to Michael]
+
 
 To Anna—
 > I agree that "You have to pass my litmus test or I lose all respect for you as a rationalist" is psychologically coercive (I'm even willing to say "violent") in the sense that it's trying to apply social incentives towards an outcome rather than merely exchanging information. But sometimes you need to use violence in defense of self or property, even if violence is generally bad.
@@ -180,6 +194,7 @@ To Anna—
 
 > What makes my "... or I lose all respect for you as a rationalist" moves worthy of your mild reproach, but "You're not allowed to call this obviously biologically-female person a woman, or I lose all respect for you as not-an-asshole" merely a puzzling sociological phenomenon that might be adaptive in some not-yet-understood way? Isn't the violence-structure basically the same? Is there any room in civilization for self-defense?
 
+
 commentary to Michael—
 > I don't feel like I'm in the right, even if I can't point to a superior counterargument that I want to yield to, just because I'm getting fatigued from all the social-aggression I've been doing. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)