check in
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index b98a6e0..a68dafd 100644 (file)
@@ -432,79 +432,49 @@ Dawkins and Dennett have joined the intellectual gender-ID skeptics; shame that
 
 Really, self-respecting trans people who care about logical consistency should abhor Scott and Eliezer's opinions—you should want people to use the right pronouns _because_ of your gender soul or _because_ your transition actually worked, not because categories are flexible and pronouns shouldn't imply gender
 
+[Tweet said "I've never persuaded anyone to go trans" in light of his track record; is like thinking it's personally prudent and not community-harmful to bash Democrats and praise Republicans. If any possible good thing about Democrats is something you mention that "the other side" would say.  Even if you can truthfully say "I've never _told_ anyone to _vote_ Republican", you shouldn't be surprised if people regard you as a Republican shill ; the "30% of the ones with penises" proclamation sort of was encouraging it, really!]
 
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
 
 
-; my life is better because I don't trust Eliezer Yudkowsky to tell me the truth.
-
-(I guess I [can't say I wasn't warned](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science).)
-
-------
-
-If Yudkowsky is obviously playing dumb (consciously or not) and his comments can't be taken seriously, what's _actually_ going on here?
-
-When smart people act dumb, it's usually wisest to assume that their behavior is _optimized_ stupidity—apparent "stupidity" that that achieves a goal through some other channel than their words straightforwardly reflecting the truth. Someone who was _actually_ stupid wouldn't be able to generate text with the specific balance of insight and selective stupidity fine-tuned to reach a gender-politically convenient conclusion without explicitly invoking any gender-political reasoning.
-
-Fortunately, Yudkowsky is honest enough to give us a clue in the form of [a disclaimer comment](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421833274228):
-
-> It unfortunately occurs to me that I must, in cases like these, disclaim that—to the extent there existed sensible opposing arguments against what I have just said—people might be reluctant to speak them in public, in the present social atmosphere. [...]
->
-> This is a filter affecting your evidence; it has not to my own knowledge filtered out a giant valid counterargument that invalidates this whole post. I would have kept silent in that case, for to speak then would have been dishonest.
->
-> Personally, I'm used to operating without the cognitive support of a civilization in controversial domains, and have some confidence in my own ability to independently invent everything important that would be on the other side of the filter and check it myself before speaking. So you know, from having read this, that I checked all the speakable and unspeakable arguments I had thought of, and concluded that this speakable argument would be good on net to publish, as would not be the case if I knew of a stronger but unspeakable counterargument in favor of Gendered Pronouns For Everyone and Asking To Leave The System Is Lying.
->
-> But the existence of a wide social filter like that should be kept in mind; to whatever quantitative extent you don't trust your ability plus my ability to think of valid counterarguments that might exist, as a Bayesian you should proportionally update in the direction of the unknown arguments you speculate might have been filtered out.
-
-So, the explanation of [the problem of political censorship filtering evidence](https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting) here is great, but the part where Yudkowsky claims "confidence in [his] own ability to independently invent everything important that would be on the other side of the filter" is just _laughable_. My point that _she_ and _he_ have existing meanings that you can't just ignore by fiat given that the existing meanings are exactly what motivate people to ask for new pronouns is _really obvious_.
-
-It would actually be _less_ embarassing for Yudkowsky if he were outright lying about having tried to think of counterarguments. The original post isn't _that_ bad if you assume that Yudkowsky was writing off the cuff, that he clearly just _didn't put any effort whatsoever_ into thinking about why someone might disagree. If he _did_ put in the effort—enough that he felt comfortable bragging about his ability to see the other side of the argument—and _still_ ended up proclaiming his "simplest and best protocol" without even so much as mentioning any of its incredibly obvious costs (like expecting a rape victim to testify about what her rapist did to her with "her" penis) ... that's just _pathetic_. If Yudkowsky's ability to explore the space of arguments is _that_ bad, why would you trust his opinion about _anything_?
-
-But perhaps I'm not appreciating exactly what stringent constraints he's operating under? The filtered-evidence disclaimer comment mentions "speakable and unspeakable arguments", and judges that the speakable argument in the original post was "good _on net_ to publish" (emphasis mine). Maybe Yudkowsky doesn't see himself as being obligated to publically consider downsides of the "simplest and best protocol" proposed in the post, if he considers the _main_ thesis of the post to have simply been the "speakable" pronouns-shouldn't-denote-sex argument. 
-
-
-
-> A clearer example of a forbidden counterargument would be something like e.g. imagine if there was a pair of experimental studies somehow proving that (a) everybody claiming to experience gender dysphoria was lying, and that (b) they then got more favorable treatment from the rest of society. We wouldn't be able to talk about that. No such study exists to the best of my own knowledge, and in this case we might well hear about it from the other side to whom this is the exact opposite of unspeakable; but that would be an example.
-
-[again, [Yudkowsky's pathological fixation on avoiding "lying"](https://www.lesswrong.com/posts/MN4NRkMw7ggt9587K/firming-up-not-lying-around-its-edge-cases-is-less-broadly) is a distraction from anything that anyone actually cares about. Certainly, I don't believe (a) as stated. But something substantively _similar_ to (a), that self-reports are biased by social desirability and we can't take "gender identity" literally seems _overwhelmingly_ likely to be true, and I have a study to support it— /papers/blanchard-clemmensen-steiner-social_desirability_response_set_and_systematic_distortion.pdf . This should not seem implausible to someone who co-blogged with Robin Hanson for three years! As for (b), I don't think they get more favorable treatment from the rest of Society uniformly, but there absolutely _is_ an ideological subculture that encourages transition.
+https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
+> I'm curious about how much you think these opinions have been arrived at independently by yourself, Paul, and the rest of the OpenPhil complex?
 
-Can we talk about _that_? (Which is the stuff I actually care about, not pronouns)
+If he's worried about Carl being corrupted by OpenPhil; it make sense for me to worry about him being corrupted by Glowfic cluster
 
-https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159424960909228
+https://www.lesswrong.com/posts/sCCdCLPN9E3YvdZhj/shulman-and-yudkowsky-on-ai-progress
+> If you mean that say Mike Blume starts getting paid $20m/yr base salary
+Weirdly specific that Mike (random member of your robot cult) is getting namedropped
 
-> now that we have a truth-bearing sentence, we can admit of the possibility of using our human superpower of language to *debate* whether this sentence is indeed true or false [...] Trying to pack all of that into the pronouns you'd have to use in step 1 is the wrong place to pack it.
+example of hero-worship, David Pearce writes—
+https://www.facebook.com/algekalipso/posts/4769054639853322?comment_id=4770408506384602
+> recursively cloning Scott Alexander—with promising allelic variations - and hothousing the “products” could create a community of super-Scotts with even greater intellectual firepower
 
-It's a hollow stalling tactic to say "Don't pack this into pronouns; let's use nouns to talk about the real issues, when you _motherfuckers_ have _no intention whatsoever_ of actually using the human superpower of language to debate the real issues! (Again, if it helps think of the formality distinction—advocating for collapsing the tu/usted distinction is one thing; but if you demand that someone calls you usted _and_ refuse to let them talk with nouns about whether they respect you, that's abusive
+https://twitter.com/ESYudkowsky/status/1434906470248636419
 
-I was going to write a different multi-thousand word blog post, but I'm sick of Eliezer Yudkowsky fucking with me for years
+> Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
 
-All of my heretical opinions are just _his_ opinions from the 'aughts; did he actually change his mind, or just he just think he can get away with pretending he didn't say it
+Okay, I get that it was meant as humorous exaggeration. But I think it still has the effect of discouraging people from criticizing Scott or Eliezer because they're the leaders of the caliphate. I spent three and a half years of my life explaining in exhaustive, exhaustive detail, with math, how Scott was wrong about something, no one serious actually disagrees, and Eliezer is still using his social power to boost Scott's right-about-everything (!!) reputation. That seems really unfair, in a way that isn't dulled by "it was just a joke."
 
-nearest unblocked strategy 
+It's totally understandable to not want to get involved in a political scuffle because xrisk reduction is astronomically more important! But I don't see any plausible case that metaphorically sucking Scott's dick in public reduces xrisk. It would be so easy to just not engage in this kind of cartel behavior!
 
-4 levels of intellectual conversation https://rationalconspiracy.com/2017/01/03/four-layers-of-intellectual-conversation/
+An analogy: racist jokes are also just jokes. Alice says, "What's the difference between a black dad and a boomerang? A boomerang comes back." Bob says, "That's super racist! Tons of African-American fathers are devoted parents!!" Alice says, "Chill out, it was just a joke." In a way, Alice is right. It was just a joke; no sane person could think that Alice was literally claiming that all black men are deadbeat dads. But, the joke only makes sense in the first place in context of a culture where the black-father-abandonment stereotype is operative. If you thought the stereotype was false, or if you were worried about it being a self-fulfilling prophecy, you would find it tempting to be a humorless scold and get angry at the joke-teller.
 
-If we can't talk about that, then your rationality community is a _fraud_. If there's anything at all to your rationality stuff https://www.lesswrong.com/posts/LqjKP255fPRY7aMzw/practical-advice-backed-by-deep-theories it should be _useful_ high-stakes pratical decisions that your community members need to make, like _whether or not to cut my dick off_. If we can't talk about the information I need to make an informed decision about that, then your rationalists are worse than useless. (Worse, because false claims to authority are more misleading than dead air.) You _motherfuckers_ need to rebrand, or disband, or be destroyed
+Similarly, the "Caliphate" humor only makes sense in the first place in the context of a celebrity culture where deferring to Scott and Eliezer is expected behavior. (In a way that deferring to Julia Galef or John S. Wentworth is not expected behavior, even if Galef and Wentworth also have a track record as good thinkers.) I think this culture is bad. Nullius in verba.
 
-I know none of this matters (If any professional alignment researchers wasting time reading this instead of figuring out how to save the world, get back to work!!), but one would have thought that the _general_ skills of correct argument would matter for saving the world.
-a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
-It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
 
-If you don't actually believe in the [common interest of many causes](https://www.lesswrong.com/posts/4PPE6D635iBcGPGRy/rationality-common-interest-of-many-causes) anymore, you could _say_ that—rebrand your thing as a more narrowly-scoped existential-risk-reduction cult, rather than falsely claiming to be about modeling-and-optimizing the world
 
-"We might well hear about it from the other side" is an interesting phrasing—almost admitting that you're a wholly owned subsidary of the Blue Tribe]
+Respect needs to be updateable. No one can think fast enough to think all their own thoughts. I have a draft explaining the dolphins thing, about why Nate's distaste for paraphyly is wrong. In Nate's own account, he "suspect[s] that ['[...] Not Man for the Categories'] played a causal role in [...] starting the thread out on fish." Okay, where did Scott get it from, then? I don't have access to his thoughts, but I think he pulled it out of his ass because it was politically convenient for him. I suspect that if you asked him in 2012 whether dolphins are fish, he would have said, "No, they're mammals" like any other educated adult. Can you imagine "... Not Man for the Categories" being as popular as it is in our world if it just cut off after section III? Me neither.
 
-> it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do *know* they're living in a half-Stalinist environment
+I think it's a problem for our collective epistemology that Scott has the power to sneeze his mistakes onto everyone else—that our 2021 beliefs about dolphins (literally, dolphins in particular!) is causally downstream of Scott's political incentives in 2014, even if Scott wasn't consciously lying and Nate wasn't thinking about gender politics. I think this is the problem that Eliezer identified as dark side epistemology: people invent fake epistemology lessons to force a conclusion that they can't get on the merits, and the fake lessons can spread, even if the meme-recipients aren't trying to force anything themselves. I would have expected people with cultural power to be interested in correcting the problem once it was pointed out.
 
-["Everybody knows" https://thezvi.wordpress.com/2019/07/02/everybody-knows/ ]
+And the thing where David Xu interprets criticism of Eliezer as me going "full post-rat"?! https://twitter.com/davidxu90/status/1435106339550740482
 
-> I don't see what the alternative is besides getting shot, or utter silence about everything Stalin has expressed an opinion on including "2 + 2 = 4" because if that logically counterfactually were wrong you would not be able to express an opposing opinion.
+https://twitter.com/esyudkowsky/status/1374161729073020937
 
-[Summarize "A Rational Argument" https://www.lesswrong.com/posts/9f5EXt8KNNxTAihtZ/a-rational-argument
-You could imagine the campaign manager saying the same thing—"I don't see what the alternative is".]
+> Also: Having some things you say "no comment" to, is not at *all* the same phenomenon as being an organization that issues Pronouncements.  There are a *lot* of good reasons to have "no comments" about things.  Anybody who tells you otherwise has no life experience, or is lying.
 
-[Agreeing with Stalin that 2+2=4 is fine; the problem is a sustained pattern of _selectively_ bring up pro-Party points while ignoring anti-Party facts that would otherwise be relevant to the topic of interest, including stonewalling commenters who try to point out relevance]
-[Tweet said "I've never persuaded anyone to go trans" in light of his track record; is like thinking it's personally prudent and not community-harmful to bash Democrats and praise Republicans. If any possible good thing about Democrats is something you mention that "the other side" would say.  Even if you can truthfully say "I've never _told_ anyone to _vote_ Republican", you shouldn't be surprised if people regard you as a Republican shill ; the "30% of the ones with penises" proclamation sort of was encouraging it, really!]
+"Speak out in order to make it clear how not alt-right you are; nothing wrong with that because I'm not lying" is being inconsistent about whether signaling and mood-affiliation matters—it's trying to socially profit by signaling pro-Stalin-ness, while simultaneously denying that anyone could object (because you didn't lie—pivoting to a worldview where only literal meanings matter and signals aren't real). Can I sketch this out mathematically?
 
-https://www.facebook.com/yudkowsky/posts/10154110278349228
-> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
-> ==DOES ALL OF THE HAPPY DANCE FOREVER==