long confrontation 1: begging Alexander December 2018
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
index a84b68b..cc8fd3f 100644 (file)
@@ -68,7 +68,9 @@ So, now having a Twitter account, I was browsing Twitter in the bedroom at the r
 
 Some of the replies tried explain the problem—and Yudkowsky kept doubling down:
 
-[TODO: '(chromosomes?)' comment, parent of https://twitter.com/EnyeWord/status/1068983389716385792 ]
+> Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
+
+and
 
 > You're mistaken about what the word means to you, I demonstrate thus:
 https://en.wikipedia.org/wiki/XX_male_syndrome
@@ -136,14 +138,28 @@ Writing out this criticism now, the situation doesn't feel _confusing_, anymore.
 
 Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
 
-I was physically shaking. I remember going downstairs to confide in a senior engineer about the situation. I had to do _something_. But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help.
+I was physically shaking. I remember going downstairs to confide in a senior engineer about the situation. But if Yudkowsky was _already_ stonewalling his Twitter followers, entering the thread myself didn't seem likely to help. (And I hadn't intended to talk about gender on that account yet, although that seemed less important given the present crisis.)
+
+It seemed better to try to clear this up in private. I still had Yudkowsky's email address. I felt bad bidding for his attention over my gender thing _again_—but I had to do _something_. Hands trembling, I sent him an email asking him to read my ["The Categories Were Made for Man to Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), suggesting that it may qualify as an answer to his question about ["a page [he] could read to find a non-confused exclamation of how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232), and that, because I cared very much about correcting what I claim are confusions in my rationalist subculture, that I would be happy to pay up to $1000 for his time, and that, if he liked the post, he might consider Tweeting a link.
+
+[TODO (Subject: "another offer, $1000 to read a ~6500 word blog post about  (was: Re: Happy Price offer for a 2 hour conversation)")]
+
+The monetary offer, admittedly, was awkward: I included another paragraph clarifying that any payment was only to get his attention, and not _quid quo pro_ advertising, and that if he didn't trust his brain circuitry not to be corrupted by money, then he might want to reject the offer on those grounds and only read the post if he expected it to be genuinely interesting.
 
-[TODO: I had his email address, and I didn't think I had the right to demand his attention, so I threw in another $1000 cheerful price (and cc'd Michael and "Erin Burr") just to read it—]
+Again, I realize this must seem weird and cultish to any normal people reading this. (Paying some blogger you follow one grand just to _read_ on of your posts? Who _does_ that?) To this, I again refer to [the reasons justifying my 2016 cheerful price offer](/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/#cheerful-price-reasons)—and that it was a way to signal that I _really really didn't want to be ignored_.
 
-[TODO: Michael called me up and we talked about how the "rationalists" were over]
+[TODO: and cc'd Michael and Anna as character references]
+
+[TODO: I did successfully interest Michael, who chimed in—Michael called me up and we talked about how the "rationalists" were over]
+
+[TODO: as with earlier cheerful price offer, I can't confirm or deny whether Yudkowsky replied or whether he accepted the cheerful price offer]
 
 [TODO: "not ontologically confused" concession. You might think that should be the end of the matter—but this little "not ontologically confused" at the bottom of the thread was much less visible and loud than the bold, arrogant top-level pronouncement insinuating that GCs are philosophically confused. Was I greedy to want something louder? https://twitter.com/ESYudkowsky/status/1068071036732694529 ]
 
+Greedy or not, I wasn't satisfied. On 1 December, I wrote to Scott Alexander, asking if there was any chance of an _explicit_ and _loud_ clarification or partial-retraction of ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (Subject: "super-presumptuous mail about categorization and the influence graph"). _Forget_ my boring whining about the autogynephilia/two-types thing, I said—that's a complicated empirical claim, and _not_ the key issue.
+
+The _issue_ is that category boundaries are not arbitrary (if you care about intelligence being useful): you want to draw your category boundaries such that things in the same category are similar in the respects that you care about predicting/controlling, and you want to spend your [information-theoretically limited budget]() of short words on the simplest and most wide-rangingly useful categories
+
 [TODO: email Scott 1 December (cc Anna Jonah Sarah Michael) "is there any chance of getting an explicit and loud clarification and/or partial-retraction of "The Categories Were Made for Man"?"—writing to him because marketing is a more powerful force than argument;
 
 > Rather than good arguments propagating through the population of so-called "rationalists" no matter where they arise, what actually happens is that people like Eliezer and you rise to power on the strength of good arguments and entertaining writing (but mostly the latter), and then everyone else sort-of absorbs most of their worldview (plus noise and [conformity with the local environment](https://thezvi.wordpress.com/2017/08/12/what-is-rationalist-berkleys-community-culture/)). So for people who didn't win the talent lottery but think they see a flaw in the Zeitgeist, the winning move is "persuade Scott Alexander".