nibble at "Challenges"
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Tue, 1 Feb 2022 20:09:18 +0000 (12:09 -0800)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Tue, 1 Feb 2022 20:09:18 +0000 (12:09 -0800)
content/drafts/challenges-to-yudkowskys-pronoun-reform-proposal.md

index fbab5f5..51ccc51 100644 (file)
@@ -467,7 +467,7 @@ Yudkowsky's conception of a "rational" argument—at least, Yudkowsky's concepti
 
 I remember this being pretty shocking to read back in 'aught-seven. What an alien mindset! But it's _correct_. You can't rationally argue "for" a chosen conclusion, because only the process you use to _decide what to argue for_ can be your real reason.
 
-This is a shockingly high standard for anyone to aspire to live up to—but what made the Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
+This is a shockingly high standard for anyone to aspire to live up to—but what made Yudkowsky's Sequences so life-changingly valuable, was that they articulated the _existence_ of such a standard. For that, I will always be grateful.
 
 ... which is why it's so _bizarre_ that the Yudkowsky of the current year acts like he's never heard of it! If your _actual_ bottom line is that it is sometimes personally prudent and not community-harmful to post your agreement with Stalin, then sure, you can _totally_ find something you agree with to write on the lines above! Probably something that "exhibits generally rationalist principles", even! It's just that any rationalist who sees the game you're playing is going to correctly identify you as a partisan hack on this topic and take that into account when deciding whether they can trust you on other topics.
 
@@ -489,6 +489,8 @@ Counterarguments aren't completely causally _inert_: if you can make an extremel
 
 Even if one were to agree with this description of Yudkowsky's behavior, it doesn't immediately follow that Yudkowsky is making the wrong decision. Again, "bad faith" is meant as a literal description, not a contentless attack—maybe there are some circumstances in which engaging some amount of bad faith is the right thing to do, given the constraints one faces. For example, when talking to people on Twitter with a very different ideological background from me, I sometimes anticipate that if my interlocutor knew what I was actually thinking, they wouldn't want to talk to me, so I take care to word my replies in a way that makes it look like I'm more ideologically aligned with them than I actually am. (For example, I [never say "assigned female/male at birth" in my own voice on my own platform](/2019/Sep/terminology-proposal-developmental-sex/), but I'll do it in an effort to speak my interlocutor's language.) I think of this as the _minimal_ amount of strategic bad faith needed to keep the conversation going, to get my interlocutor to evaluate my argument on its own merits, rather than rejecting it for coming from an ideological enemy. In cases such as these, I'm willing to defend my behavior as acceptable—there _is_ a sense in which I'm being deceptive by optimizing my language choice to make my interlocutor make bad guesses about my ideological alignment, but I'm comfortable with that amount and scope of deception because I don't think my interlocutor _should_ be paying attention to my personal alignment.
 
+[TODO: the term is "concern trolling"; speak of trying to correct a distortion]
+
 That is, my bad faith Twitter gambit of deceiving people about my ideological alignment in the hopes of improving the discussion seems like something that makes our collective beliefs about the topic-being-argued-about _more_ accurate. (And the topic-being-argued-about is presumably of greater collective interest than which "side" I personally happen to be on.)
 
 In contrast, Yudkowsky's bad faith gambit is the exact reverse: he's making the discussion worse in the hopes of correcting people's beliefs about his own ideological alignment. (He's not a right-wing Bad Guy, but people would tar him as a right-wing Bad Guy if he ever said anything negative about trans people.) This doesn't improve our collective beliefs about the topic-being-argued about; it's a _pure_ ass-covering move.
@@ -510,9 +512,12 @@ But if you actually _cared_ about not deceiving your readers, you would want to
 
 ... and, I had been planning to save the Whole Dumb Story about my alienation from Yudkowsky's so-called "rationalists" for a _different_ multi-thousand-word blog post, because _this_ multi-thousand-word blog post was supposed to be narrowly scoped to _just_ exhaustively replying to Yudkowsky's February 2021 Facebook post about pronoun conventions. But in order to explain the problems with "people do _know_ they're living in a half-Stalinist environment" and "people are better off at the end of that", I may need to _briefly_ recap some of the history leading to the present discussion, which explains why _I_ didn't know and _I'm_ not better off, with the understanding that it's only a summary and I might still need to tell the long version in a separate post, if it's still necessary relative to everything else I need to get around to writing.
 
-[I _never_ expected to end up arguing about the mintuiae of pronoun conventions; I wanted to talk about the real issues]
+I _never_ expected to end up arguing about something so _trivial_ as the minutiae of pronoun conventions (which no one would care about if historical contingencies of the evolution of the English language hadn't made them a Schelling point and typographical attack surface for things people do care about). The conversation only ended up here after a series of derailings. At the start, I was _trying_ to say something substantive about the psychology of straight men who wish they were women.
+
+You see, back in the 'aughts when Yudkowsky was writing his Sequences, he occasionally said some things about sex differences that I often found offensive at the time, but which ended up being hugely influential on me, especially in the context of my ideological affinity towards feminism and my secret lifelong-since-puberty erotic fantasy about being magically transformed into a woman. I wrote about this at length in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/)].
+
+In particular, in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions) (and its precursor in a [2004 Extropians mailing list post](https://archive.is/En6qW)), Yudkowsky explains 
 
-[It all started back in the 'aughts, when the occasional things about sex differences that cropped up in the Sequences (especially "Changing Emotions" and the Extropians mailing list pre) turned out to be useful for understanding what was going on with my gender thing; I wrote about this in a previous post, ["Sexual Dimorphism in Yudkowsky's Sequences, in Relation to my Gender Problems"](/2021/May/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems/).]
 
 [But that was all about me—I assumed "trans" was a different thing. My first clue that I might not be living in that world came from—Eliezer Yudkowsky, with the "at least 20% of the ones with penises are actually women" thing]
 
@@ -530,6 +535,8 @@ But if you actually _cared_ about not deceiving your readers, you would want to
 
 [I can win concessions, like "On the Argumentative Form", but I don't want concessions; I want to _actually get the goddamned right answer_]
 
+[our beliefs about dolphins are downstream of Scott's political incentives]
+
 -------
 
 [Why does this matter? It would be dishonest for me to claim that this is _directly_ relevant to xrisk, because that's not my real bottom line]