long confrontation 1: begging Alexander December 2018
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
index 9d70c3a..cc8fd3f 100644 (file)
@@ -68,7 +68,9 @@ So, now having a Twitter account, I was browsing Twitter in the bedroom at the r
 
 Some of the replies tried explain the problem—and Yudkowsky kept doubling down:
 
-[TODO: '(chromosomes?)' comment]
+> Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
+
+and
 
 > You're mistaken about what the word means to you, I demonstrate thus:
 https://en.wikipedia.org/wiki/XX_male_syndrome
@@ -136,16 +138,56 @@ Writing out this criticism now, the situation doesn't feel _confusing_, anymore.
 
 Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
 
-I was physically shaking. I remember going downstairs to confide in a senior engineer about the situation. I had to do _something_. But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help 
+I was physically shaking. I remember going downstairs to confide in a senior engineer about the situation. But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help. (And I hadn't intended to talk about gender on that account yet, although that seemed less important given the present crisis.)
+
+It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232), and that, because I cared very much about correcting what I claim are confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time, and that, if he liked the post, he might consider Tweeting a link.
+
+[TODO (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)")]
+
+The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
+
+Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ on of your posts? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that it was a way to signal that I _really really didn't want to be ignored_.
+
+[TODO: and cc'd Michael and Anna as character references]
+
+[TODO: I did successfully interest Michael, who chimed in—Michael called me up and we talked about how the "rationalists" were over]
+
+[TODO: as with earlier cheerful price offer, I can't confirm or deny whether Yudkowsky replied or whether he accepted the cheerful price offer]
+
+[TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder? https://twitter.com/ESYudkowsky/status/1068071036732694529 ]
+
+Greedy or not, I wasn't satisfied. On 1 December, I wrote to Scott Alexander, asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
+
+The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to draw your category boundaries such that things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget]() of short words on the simplest and most wide-rangingly useful categories
+
+[TODO: email Scott 1 December (cc Anna Jonah Sarah Michael) "is there any chance of getting an explicit and loud clarification and/or partial-retraction of "The Categories Were Made for Man"?"—writing to him because marketing is a more powerful force than argument;
+
+> Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't win the talent lottery but think they see a flaw in the Zeitgeist, the winning move is "persuade Scott Alexander".
+> So, what do you say, Scott? Back in 2010, the rationalist community had a shared understanding that the function of language is to describe reality. Now, we don't.
+> "No, the Emperor isn't naked—oh, well, we're not claiming that he's wearing any garments—it would be pretty weird if we were claiming that!—it's just that utilitarianism implies that the social property of clothedness should be defined this way because to do otherwise would be really mean to people who don't have anything to wear" gaslighting maneuver needs to die. You alone can kill it. My model of you assigns more than 20% probability that you will.
+
+> I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
+
+helping Norton live in the real world
+]
 
+[TODO: re Ben's involvement—I shared Scott thread with Ben and Katie; Michael said "could you share this with Ben?  I think he is ready to try & help." on 17 December
+19 December
+> talk more with Ben Hoffman, he will be more helpful in solidifying your claims about IP defense etc. You are ethically or 'legally' in the right here, and the rationalist equivalent of a lawyer matters more for your claims than the equivalent of a scientist.]
+[TOOD: Sarah's involvement: I cc'd her on the 1 December Scott thread, and 16 December draft to Michael]
 
+To Anna—
+> I agree that "You have to pass my litmus test or I lose all respect for you as a rationalist" is psychologically coercive (I'm even willing to say "violent") in the sense that it's trying to apply social incentives towards an outcome rather than merely exchanging information. But sometimes you need to use violence in defense of self or property, even if violence is generally bad.
 
+> If we think of the "rationalist" label as intellectual property, maybe it's property worth defending, and if so, then "I can define a word any way I want" isn't obviously a terrible time to start shooting at the bandits.
 
-[TODO: I had his email address, and I didn't think I had the right to demand his attention, so I threw in another $1000 cheerful price (and cc'd Michael and "Erin Burr") just to read it—]
+> What makes my "... or I lose all respect for you as a rationalist" moves worthy of your mild reproach, but "You're not allowed to call this obviously biologically-female person a woman, or I lose all respect for you as not-an-asshole" merely a puzzling sociological phenomenon that might be adaptive in some not-yet-understood way? Isn't the violence-structure basically the same? Is there any room in civilization for self-defense?
 
-[TODO: Michael called me up and we talked about how the "rationalists" were over]
+commentary to Michael—
+> I don't feel like I'm in the right, even if I can't point to a superior counterargument that I want to yield to, just because I'm getting fatigued from all the social-aggression I've been doing. (If someone tries to take your property and you shoot at them, you could be said to be the "aggressor" in the sense that you fired the first shot, even if you hope that the courts will uphold your property claim later.)
 
-[TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder?]
+to Sarah—
+> If we have this entire posse, I feel bad/guilty/ashamed about focusing too much on my special interest except insofar as it's actually a proxy for "has Eliezer and/or everyone else lost the plot, and if so, how do we get it back?"
 
 [TODO: getting support from Michael + Ben + Sarah, harrassing Scott and Eliezer]