check in
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 49b7bf4..1b35c10 100644 (file)
@@ -151,6 +151,10 @@ http://www.hpmor.com/chapter/47
 https://www.hpmor.com/chapter/97
 > one technique was to look at what _ended up_ happening, assume it was the _intended_ result, and ask who benefited.
 
+> This about dath ilani, they are trained in a theory of social deception that says that people can arrange reasons, excuses, for anything, and so at the end of it all you look at what happened and try to build an explanation around that alone.
+https://www.glowfic.com/replies/1820866#reply-1820866
+
+
 
 > At least, I have a MASSIVE home territory advantage because I can appeal to Eliezer's writings from 10 years ago, and ppl can't say "Eliezer who? He's probably a bad man"
 
@@ -237,9 +241,6 @@ I'm worried about the failure mode where bright young minds [lured in](http://be
 
 (Times have changed! BBL is locally quasi-mainstream after Ozy engaged)
 
-[Scott got a lot of pushback just for including the blog that I showed him in a links post
-https://slatestarcodex.com/2016/11/01/links-1116-site-unseen/
-https://slatestarscratchpad.tumblr.com/post/152736458066/hey-scott-im-a-bit-of-a-fan-of-yours-and-i]
 
 It's weird that he thinks telling the truth is politically impossible, because the specific truths I'm focused on are things he _already said_, that anyone could just look up. I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather (a reader points out) the egregore has no reason to care about the past; if you get tagged as an enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009
 
@@ -671,12 +672,13 @@ https://twitter.com/ESYudkowsky/status/1501218503990431745
 
 playing on a different chessboard—I would be fine with it if he didn't shit on my chessboard. But my shitting on his chessboard
 
-I could forgive him for taking a shit on d4 of my chessboard ("at least 20% of the ones with penises are actually women"). I could even forgive him for subsequently taking a shit on e4 of my chessboard ("") as long as he wiped the shit off afterwards ([TODO linky-quotey clarification]), even though, really, I would have expected someone so smart to take a hint after the incident on d4.
+I could forgive him for taking a shit on d4 of my chessboard ("at least 20% of the ones with penises are actually women"). I could even forgive him for subsequently taking a shit on e4 of my chessboard ([TODO linky-quotey not standing in defense of truth]) as long as he wiped most of the shit off afterwards ([TODO linky-quotey clarification]), even though, really, I would have expected someone so smart to take a hint after the incident on d4. But if he's _then_ going to take a shit on c3 of my chessboard ([TODO linkey-quotey normative meaning of 'he']) ... at _that_ point, it's hard for me to consider him as neutrally playing on a different chessboard, rather than actively trying to shit on mine; the turd on c3 is a pretty big likelihood ratio in favor of the latter hypothesis.
+
 
 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
 
-> Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is - aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences - committed not to Eliezer's insights but to exaggerated versions of his blind spots.
+> Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
 
 > The people who aren't doing that mostly aren't participating in the LessWrong identity, but while factions like that are hostile to the confused people who behave as though they're part of a community trying to become less wrong, such factions are also parasitic on such people, claiming credit for their intellectual contributions. When such participation is fully extinguished, the group begins to decay, having nothing distinctive to offer, unless it has become too big to fail, in which case it's just another component of one political faction or another.
 
@@ -786,51 +788,27 @@ https://twitter.com/satisfiesvalues/status/1524475059695505409
 flu virus that cures Borderer culture
 https://twitter.com/Kenku_Allaryi/status/1524646257976877057
 
-Zvi claims the condescension is important information, which is why it's such a betrayal when he uses the condesension to score points
-https://www.lesswrong.com/posts/ax695frGJEzGxFBK4/biology-inspired-agi-timelines-the-trick-that-never-works?commentId=HB3BL3Sa6MxSszqdq
-
 Anna thinks that committees can't do anything worthwhile; for endeavors requiring a lot of coordination, it's useful for leaders to have slack to make decisions without having to justify themselves to a mob. Anna endorses Straussianism: writing for the few is different from writing for the many, and that some of Ben's stuff may have veered too far towards loading negative affect on EA leaders; I and my model of Michael have reservations about the extent to which \"writing for the few\" could also be described as \"colluding to deceive the rest of the world\
 
-[TODO: at first I made some pushback comments on other people's posts; e.g., Robby's thread on 7 Feburary
-Then it blossomed into an extended tantrum on my own wall—
-31 posts total between—"some of you may have noticed" Sat 11 Feb, and promising to quite Facebook for a week 0844 15 Feburary
-
-my terrible date with Anna T. was actually on 12 February—that explains why I remember being so distracted!
-
-Tue Feb 14 2017 10:52:04
-So my theory is Anna would not be reacting as vehemently had you not recently asked her out
-And that she is trying to play a signaling game to salvage her status in the community by distancing herself from you"
-"See?  See everyone?  I rejected him!  Don't burn me at the stake too!
-
-
 an irony: in my psychosis, I was scared that the world was far less legible than I had imagined, but that _wasn't_ why my ordeal's and Devi's were so traumatic _at all_: the psych ward is _very much_ governed by legible rules, rules that I had no control over
 
+[initial fan mail to Bailey on 7 January, followup to include blog link on 11 February; initial fan mail to Blanchard 10 August]
 
 I had some self-awareness that I was going off the rails—
 > She had a delusional mental breakdown; you're a little bit manic; I'm in the Avatar state. https://www.facebook.com/zmdavis/posts/10154813104220199
 
-sent Anna T. Oops / Ooops / Cooperate 6x messages on Thu 16 Feb at around 1530 ...
-
-
-Ziz: Vassar was talking about you recently approvingly, having read your facebook wall. Something about a war between being able to think and gaslighting.
-Like he named you as one of three fronts the war is playing out on. Jack also seemed to agree. \"Sarah vs Ben, Rob vs Ben Todd, Zack Davis vs the world  Thu Feb 16 2017 16:06:42 GMT-0800
-
-I remember being afraid that the thing that happened to Eliezer and then Scott was going to happen to me, and that it would be bad; I told Ben, "I don't think I want to be the Avatar yet" Thu Feb 16 2017 15:51:32
-
-to Ben: "I'm so sorry; I want to be part of the coalition but I'm so confused; and the fact that I was confused made me say Defect a bunch of time" Fri Feb 17 2017 14:23:53
-
 to Ben: "I thought I got a message from Michael Vassar saying that the main coalitions were you, and Sarah Constantine, and Zack Davis vs. the world" Fri Feb 17 2017 14:30:55 GMT-0800
 
 scared that Orion was going to kill me
 
 to Ben: You can use police cars as Ubers???? Fri Feb 17 2017 15:19:59 GMT-0800
 
-/2017/Mar/fresh-princess/
-/2017/Jun/memoirs-of-my-recent-madness-part-i-the-unanswerable-words/
-
 ]
 
 You gave me hot chocolate last night, right? I was worried that you were subconsciously poisoning me; not on purpose, but because there are just a lot of contaminants in cities; things that taste sweet to children but are actually poisonous; but, Anna said that most events are normal; I don't remember that note"
+Mon Apr 10 08:51:03 PDT 2017
+
+Michael's "Congratulations on not going back to work at the carpet store!" was a reference to Rick & Morty "Mortynight Run" which aired in August 2015, but I hadn't seen it yet
 
 winning Hamilton tickets at $2200
 
@@ -954,30 +932,39 @@ the Extropians post _explicitly_ says "may be a common sexual fantasy"
 
 ------
 
-Dath ilan has a concept of "the Light"—the vector in policyspace perpendicular outwards from the Pareto curve, in which everyone's interests coincide.
+If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
+
+> "too many people think it's unvirtuous to shut up and listen to me" I wish I had never written about LDT and just told people to vote for reasons they understand when they're older [TODO full direct quote]
+https://twitter.com/ESYudkowsky/status/1509944888376188929
 
+Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I calim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
-In dath ilan they talk about the Light—the policy vector that everyone can agree on
+To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, the Sequences tell of how Yudkowsky once [TODO: linky] wrote to Judea Pearl to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
 
+[TODO But crucially, "Defer to subject-matter experts" seems like a _different_ moral than "Too many people think it's unvirtuous to shut up and listen Judea Pearl."]
 
-------
+If Yudkowsky is frustrated that people don't defer to him enough _now_, he should remember the only reason he has _any_ people who defer to him _at all_ is _because_ he used to be such a good explainer who actually argued for things.
 
-It's as if the guy has just completely given up on the idea that public speech is useful, or that anyone besides he and his flunkies is capable of thought.
+[TODO: if he had never spoken of TDT, why _should_ they trust him about voting?!]
 
-> "too many people think it's unvirtuous to shut up and listen to me" I wish I had never written about LDT and just told people to vote for reasons they understand when they're older
-https://twitter.com/ESYudkowsky/status/1509944888376188929
+[TODO That trust is a _finite resource_. Zvi Mowshowitz  claims the condescension is important information, which is why it's such a betrayal when he uses the condesension to score points
+https://www.lesswrong.com/posts/ax695frGJEzGxFBK4/biology-inspired-agi-timelines-the-trick-that-never-works?commentId=HB3BL3Sa6MxSszqdq ]
 
-Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! This is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
+------
 
-To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you! For example, the Sequences tell of how Yudkowsky once wrote about [TODO: linky] writing to Judea Pearl to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but 
+Lightwavers on Twitter (who Yudkowsky knew from /r/rational) dissed Charles Murray on Twitter
 
+https://nostalgebraist.tumblr.com/post/686455476984119296/eliezer-yudkowsky-seems-really-depressed-these
 
+> So now my definitely-not-Kelthorkarni have weird mental inhibitions against actually listening to me, even when I clearly do know much better than they do.  In retrospect I think I was guarding against entirely the wrong failure modes.  The problem is not that they're too conformist, it's that they don't understand how to be defiant without diving heedlessly into the seas of entropy.  It's plausible I should've just gone full Kelthorkarnen
+https://www.glowfic.com/replies/1614129#reply-1614129
 
+I was pleading to him in his capacity as rationality leader, not AGI alignment leader; I know I have no business talking about the latter
 
-If he's frustrated that people won't listen _now_, he should remember the only reason he has _any_ people who defer to him _at all_ is because he used to be such a good explainer who actually argued for things.
+(As an aside, it's actually kind of _hilarious_ how far Yudkowsky's "rationalist" movement has succeeded at winning status and mindshare in a Society whose [_de facto_ state religion](https://slatestarcodex.com/2019/07/08/gay-rites-are-civil-rites/) is [founded on eliminating "discrimination."](https://richardhanania.substack.com/p/woke-institutions-is-just-civil-rights) Did—did anyone besides me "get the joke"? I would have expected _Yudkowsky_ to get the joke, but I guess not??)
 
-That trust is a _finite resource_.
+[TODO: misrepresentation of the Light: Dath ilan has a concept of "the Light"—the vector in policyspace perpendicular outwards from the Pareto curve, in which everyone's interests coincide.]
 
-------
+"You're allowed to talk to me," he said at the Independence Day party
 
-Lightwavers on Twitter (who Yudkowsky knew as ) dissed 
\ No newline at end of file
+MIRI made a point of prosecuting Tyler Altman rather than participating (even if it was embarrassing to be embezzled from) because of game theory, but it sees folding to social-justice bullies as inevitable