check in
[Ultimately_Untrue_Thought.git] / content / drafts / challenges-to-yudkowskys-pronoun-reform-proposal.md
index b7a510c..c2d7a6e 100644 (file)
@@ -141,14 +141,9 @@ _The Amazing World of Gumball_ is rated [TV-Y7](https://rating-system.fandom.com
 
 Posed that way, one would imagine not—but if Yudkowsky _does_ get the joke, then I don't think he can simultaneously _honestly_ claim to "not know what it feels like from the inside to feel like a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." In order to get the joke in real time, your brain has to quickly make a multi-step logical inference that depends on the idea that pronouns imply sex. (The turtle is a "her" [iff](https://en.wikipedia.org/wiki/If_and_only_if) female, not-female implies not-pregnant, so if the turtle is pregnant, it must be a "her".) This would seem, pretty straightforwardly, to be a sense in which "a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." I'm really not sure how else I'm supposed to interpret those words!
 
-Perhaps it's not justified to question Yudkowsky's "I do not know what it feels like [...]" self-report based on generalizations about English speakers in general? Maybe his mind works differently, but dint of unusual neurodiversity or training in LambdaMOO? But if so, one would perhaps expect some evidence of this in his publicly observable writing?
+Perhaps it's not justified to question Yudkowsky's "I do not know what it feels like [...]" self-report based on generalizations about English speakers in general? Maybe his mind works differently, but dint of unusual neurodiversity or training in LambdaMOO? But if so, one would perhaps expect some evidence of this in his publicly observable writing? But some potential _counter_-evidence appears in Yudkowsky's 2001 _Creating Friendly AI: The Analysis and Design of Benevolent Goal Architectures_, the text "If a human really hates someone, she" is followed by [footnote 16](https://web.archive.org/web/20070615130139/http://singinst.org/upload/CFAI.html#foot-15): "I flip a coin to determine whether a given human is male or female." Note, "_is_ male or female", not "which pronoun to use." The text would seem to reflect the common understanding that _she_ and _he_ do imply sex specifically (and not some other thing, like being named Oliver), even if flipping a coin (and drawing attention to having done so) reflects annoyance that English requires a choice.
 
-
-
-
-In Yudkowsky's 2001 _Creating Friendly AI: The Analysis and Design of Benevolent Goal Architectures_, the text "If a human really hates someone, she" is followed by [footnote 16](https://web.archive.org/web/20070615130139/http://singinst.org/upload/CFAI.html#foot-15): "I flip a coin to determine whether a given human is male or female." Note, "_is_ male or female", not "which pronoun to use." The text would seem to reflect the common understanding that _she_ and _he_ do imply sex specifically (and not some other thing, like being named Oliver), even if flipping a coin (and drawing attention to having done so) reflects annoyance that English requires a choice.
-
-Yudkowsky continues:
+In the Facebook comments, Yudkowsky continues:
 
 > My current policy stance is that anybody who does feel that way needs to get some perspective about how it can be less firmly attached in other people's heads; and how their feelings don't get to control everybody's language protocol or accuse non-protocol users of lying; especially when different people with firm attachments have _different_ firm attachments and we can't make them all be protocol.