post-confrontation poke at memoir
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 014bdfc..c1f84ab 100644 (file)
@@ -1080,3 +1080,32 @@ And I'm still really confused, because I still feel like everything I'm saying h
 In a functioning rationalist community, there should never be any occasion in which "appeal to Eliezer Yudkowsky's personal authority" seems like a good strategy: the way this is supposed to work is that I should just make my arguments with the understanding that good arguments will be accepted and bad arguments will be rejected. But I've been trying that, and it's mostly not working. On any other topic, I probably would have just given up and accepted the social consensus by now: "Sure, OK, whatever, trans women are women by definition; who am I to think I've seen into the Bayes-structure?" I still think this from time to time, and feel really guilty about arguing for the Bad Guys (because in my native Blue Tribe culture, only Bad people want to talk about sexual dimorphism). But then I can't stop seeing the Bayes-structure that says that biological sex continues to be a predictively-useful concept even when it's ideologically unfashionable—and I've got Something to Protect. What am I supposed to do?
 
 I agree that this is the only reason you should care.
+
+> People probably change their mind more often than they explicitly concede arguments, which is fine because intellectual progress is more important than people who were wrong performing submission.
+> If your interlocutor is making progress arguing against your claim X, just say, "Oh, X is a strawman, no one actually believes X; therefore I'm not wrong and you haven't won" (and then don't argue for X in the future now that you know you can't get away with it).
+https://twitter.com/zackmdavis/status/1088459797962215429
+
+
+
+My 28 November 2018 text to Michael—
+> I just sent an email to Eliezer ccing you and Anna; if you think it might help inject sanity in into the world, maybe your endorsement would help insofar as Eliezer Aumman-updates [_sic_] with you?
+> hope all is well
+> just a thread reply to Eliezer that says "I trust Zack's rationality and think you should pay attention to what he has to say" (if and only if you actually believe that to be true, obviously)?
+
+
+(don't know how to summarize the part with Ian—)
+I remember going downstairs to impulsively confide in a senior engineer, an older bald guy who exuded masculinity, who you could tell by his entire manner and being was not infected by the Berkeley mind-virus, no matter how loyally he voted Democrat—not just about the immediate impetus of this Twitter thread, but this whole _thing_ of the past couple years where my entire social circle just suddenly decided that guys like me could be women by means of saying so. He was sympathetic.
+
+
+[TODO: paraphrase remaining interaction with Scott, or not worth the space?
+
+> I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
+
+helping Norton live in the real world
+
+Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious 
+]
+
+[TODO: connecting with Aurora 8 December, maybe not important]
+
+What do think submitting to social pressure looks like, if it's not exactly this thing (carefully choosing your public statements to make sure no one confuses you with the Designated Ideological Bad Guy)?!? The credible threat of being labeled an Ideological Bad Guy is _the mechanism_ the "Good" Guys use to retard potentially-ideologically-inconvenient areas of inquiry.