check in
[Ultimately_Untrue_Thought.git] / content / drafts / a-hill-of-validity-in-defense-of-meaning.md
index d628a3e..f532b9e 100644 (file)
@@ -183,7 +183,64 @@ It worked once, right?
 (Picture me playing Hermione Granger in a post-Singularity [holonovel](https://memory-alpha.fandom.com/wiki/Holo-novel_program) adaptation of _Harry Potter and the Methods of Rationality_ (Emma Watson having charged me [the standard licensing fee](/2019/Dec/comp/) to use a copy of her body for the occasion): "[We can do anything if we](https://www.hpmor.com/chapter/30) exert arbitrarily large amounts of [interpretive labor](https://acesounderglass.com/2015/06/09/interpretive-labor/)!")
 
 
-
 > An extreme case in point of "handwringing about the Overton Window in fact constituted the Overton Window's implementation"
 OK, now apply that to your Kolomogorov cowardice
-https://twitter.com/ESYudkowsky/status/1373004525481598978
\ No newline at end of file
+https://twitter.com/ESYudkowsky/status/1373004525481598978
+
+The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2021 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity or hurt feelings as costs), also [can't get heliocentrism right in 1633](https://en.wikipedia.org/wiki/Galileo_affair) [_for the same reason_](https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to)—and I really doubt it can get AI alignment theory right in 2041.
+
+Or at least—even if there are things we can't talk about in public for consequentialist reasons and there's nothing to be done about it, you would hope that the censorship wouldn't distort our beliefs about the things we _can_ talk about—like, say, the role of Bayesian reasoning in the philosophy of language. Yudkowsky had written about the [dark side epistemology](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology) of [contagious lies](https://www.lesswrong.com/posts/wyyfFfaRar2jEdeQK/entangled-truths-contagious-lies): trying to protect a false belief doesn't just mean being wrong about that one thing, it also gives you, on the object level, an incentive to be wrong about anything that would _imply_ the falsity of the protected belief—and, on the meta level, an incentive to be wrong _about epistemology itself_, about how "implying" and "falsity" work.
+
+
+https://www.lesswrong.com/posts/ASpGaS3HGEQCbJbjS/eliezer-s-sequences-and-mainstream-academia?commentId=6GD86zE5ucqigErXX
+> The actual real-world consequences of a post like this when people actually read it are what bothers me, and it does feel frustrating because those consequences seem very predictable
+(!!)
+
+http://www.hpmor.com/chapter/47
+https://www.hpmor.com/chapter/97
+> one technique was to look at what _ended up_ happening, assume it was the _intended_ result, and ask who benefited.
+
+
+> At least, I have a MASSIVE home territory advantage because I can appeal to Eliezer's writings from 10 years ago, and ppl can't say "Eliezer who? He's probably a bad man"
+
+> Makes sense... just don't be shocked if the next frontier is grudging concessions that get compartmentalized
+
+> Stopping reading your Tweets is the correct move for them IF you construe them as only optimizing for their personal hedonics
+https://twitter.com/zackmdavis/status/1224433237679722500
+
+> I aspire to make sure my departures from perfection aren't noticeable to others, so this tweet is very validating.
+https://twitter.com/ESYudkowsky/status/1384671335146692608
+
+"assuming that it was a 'he'"—people treating pronouns as synonymous with sex
+https://www.youtube.com/watch?v=mxZBrbVqZnU
+
+I realize it wasn't personal—no one _consciously_ thinking "I'm going to trick autogynpehilic men into cutting their dicks off", but
+
+the most recent pronoun update
+https://www.facebook.com/yudkowsky/posts/10159421750419228
+
+> I would not know how to write a different viewpoint as a sympathetic character.
+[...]
+> I do not know what it feels like from the inside to feel like a pronoun is attached to something in your head much more firmly than "doesn't look like an Oliver" is attached to something in your head.
+
+like the time I snuck a copy of _Men Trapped in Men's Bodies: Narratives of Autogynephilic Transsexualism_ into the [MIRI](https://intelligence.org/) office library. (It seemed like something Harry Potter-Evans-Verres would do—and ominously, I noticed, not like something Hermione Granger would do.)
+
+* the moment in October 2016 when I switched sides http://zackmdavis.net/blog/2016/10/late-onset/ http://zackmdavis.net/blog/2017/03/brand-rust/
+https://www.lesswrong.com/posts/jNAAZ9XNyt82CXosr/mirrors-and-paintings
+
+> The absolute inadequacy of every single institution in the civilization of magical Britain is what happened! You cannot comprehend it, boy! I cannot comprehend it! It has to be seen and even then it cannot be believed! 
+http://www.hpmor.com/chapter/108
+
+EGS??
+
+(If the world were smaller, you'd never give different people the same name; if our memories were larger, we'd give everyone a UUID.)
+
+* papal infallability / Eliezer Yudkowsky facts
+https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts?commentId=Aq9eWJmK6Liivn8ND
+Never go in against Eliezer Yudkowsky when anything is on the line.
+https://en.wikipedia.org/wiki/Chuck_Norris_facts
+
+how they would actually think about the problem in dath ilan
+
+https://www.reddit.com/r/TheMotte/comments/myr3n7/culture_war_roundup_for_the_week_of_april_26_2021/gw0nhqv/?context=3
+> At some point you realize that your free bazaar of ideas has produced a core (or multiple cores). It is a chamber: semi-permeable, still receptive to external ideas and open to critique, but increasingly more connected on the inside.