check in
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 5487f8e..1352406 100644 (file)
@@ -1,4 +1,5 @@
 with internet available—
+_ Gallileo "And yet it moves"
 _ Discord logs before Austin retreat
 _ examples of snarky comments about "the rationalists" 
 _ screenshot Rob's Facebook comment which I link
@@ -8,12 +9,11 @@ _ weirdly hostile comments on "... Boundaries?"
 
 
 far editing tier—
+_ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
-_ it's worth an extra two sentences to explain context of Robert Stadler comparison better
 _ I'm sure Eliezer Yudkowsky could think of some relevant differences
 _ clarify why Michael thought Scott was "gaslighting" me, include "beeseech bowels of Christ"
-_ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ address the "maybe it's good to be called names" point from "Hill" thread
 _ explain "court ruling" earlier
 _ 2019 Discord discourse with Alicorner
@@ -550,6 +550,7 @@ I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378
 
 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
+https://www.lesswrong.com/posts/PG8i7ZiqLxthACaBi/do-fandoms-need-awfulness
 
 > Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
 
@@ -561,7 +562,7 @@ Scott Aaronson on the Times's hit piece of Scott Alexander—
 https://scottaaronson.blog/?p=5310
 > The trouble with the NYT piece is not that it makes any false statements, but just that it constantly insinuates nefarious beliefs and motives, via strategic word choices and omission of relevant facts that change the emotional coloration of the facts that it does present.
 
-contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard, you don't take it lying down
+contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard (supposedly for the benefit of people with your sexuality), you don't take it lying down
 
 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
 
@@ -720,7 +721,7 @@ https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-
 > If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
 
 the Extropians post _explicitly_ says "may be a common sexual fantasy"
-> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after  the Singularity.  I would not be surprised to find that it took three  subjective centuries before anyone had grown far enough to attempt a gender switch.
+> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after the Singularity.  I would not be surprised to find that it took three subjective centuries before anyone had grown far enough to attempt a gender switch.
 
 ------
 
@@ -736,7 +737,7 @@ If you listen to the sorts of things the guy says lately, it looks like he's jus
 >
 > [...too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it.  I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
 
-Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I calim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
+Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
 To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, [the Sequences tell of how Yudkowsky once wrote to Judea Pearl](https://www.lesswrong.com/posts/tKa9Lebyebf6a7P2o/the-rhythm-of-disagreement) to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
 
@@ -789,8 +790,6 @@ So, because
 
 -----
 
-Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
-
 a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
 
 It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
@@ -838,7 +837,7 @@ and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as
 
 > It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
 
-like a crazy ex-girlfriend (I have no underlying issues to address; I'm certifiably cute, and adorably obsessed)
+like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
 
 But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
 
@@ -1151,3 +1150,85 @@ https://www.lesswrong.com/posts/cyzXoCv7nagDWCMNS/you-re-calling-who-a-cult-lead
 I'm totally still doing this
 
 > it's that it's hard to get that innocence back, once you even start thinking about whether you're _independent_ of someone
+
+
+If Scott's willing to link to A. Marinos, maybe he'd link to my memoir, too? https://astralcodexten.substack.com/p/open-thread-242
+My reaction to Marinos is probably similar to a lot of people's reaction to me: geez, putting in so much effort to correct Scott's mistake is lame, what a loser, who cares
+
+https://twitter.com/esyudkowsky/status/1164332124712738821
+> I unfortunately have had a policy for over a decade of not putting numbers on a few things, one of which is AGI timelines and one of which is *non-relative* doom probabilities.  Among the reasons is that my estimates of those have been extremely unstable.
+
+
+
+--------
+
+23 June 2020: people are STILL citing "Categories Were Made", TWICE when people on the subreddit asked "What is Slate Star Codex"?
+https://www.reddit.com/r/slatestarcodex/comments/hef5es/hi_what_was_slate_star_codex/fvqv9av/
+https://www.reddit.com/r/slatestarcodex/comments/hef5es/hi_what_was_slate_star_codex/fvr47v1/
+> But the blog wasn't always on that 'side', either. Scott wrote one of the best analyses/defenses of trans identity and nonbiological definition of gender that I've ever read, and which ultimately convinced me.
+Yet again someone citing "Categories Were Made" as influential: https://old.reddit.com/r/TheMotte/comments/he96rm/star_slate_codex_deleted_because_of_nyt_article/fvr7h7w/
+
+people are STILL citing this shit! (14 Nov): https://twitter.com/Baltimoron87/status/1327730282703835137
+
+Even the enemies respect that post!
+https://twitter.com/KirinDave/status/1275647936194654208
+
+And using it for defense.
+
+Two mentions in https://www.reddit.com/r/slatestarcodex/comments/hhy2yc/what_would_you_put_in_the_essential_ssc_collection/
+
+Another "Made for Man" cite: https://www.reddit.com/r/TheMotte/comments/hhtwxi/culture_war_roundup_for_the_week_of_june_29_2020/fwwxycr/
+
+More damage control: https://www.reddit.com/r/slatestarcodex/comments/hpohy5/what_are_some_of_scotts_posts_that_challenge_the/fxsu8p0/
+(Comment was deleted. Was I over the line in commenting at all, or just because of the "transparently political reasons" side-swipe? The fact that it got ~18 points suggests the readership was OK with it, even if the moderators weren't)
+
+People are still citing it! https://twitter.com/churrundo/status/1283578666425806851
+
+Another new cite: https://twitter.com/FollowSamir/status/1289168867831373825
+
+Another new cite: https://applieddivinitystudies.com/2020/09/05/rationality-winning/
+
+Another new cite: https://www.reddit.com/r/slatestarcodex/comments/kdxbyd/this_blog_is_incredible/gg04f8c/ "My personal favorites among these are [ ], [... Not Man for the Categories], 10, and 2 in that order."
+
+Another new cite: https://twitter.com/rbaron321/status/1361841879445364739
+
+31 December
+"SSC also helped me understand trans issues" https://www.reddit.com/r/SneerClub/comments/kng0q4/mixed_feelings_on_scott_alexander/
+
+Still citing it (22 Mar 21): https://twitter.com/Cererean/status/1374130529667268609
+
+Still citing it (2 May 21)!!: https://eukaryotewritesblog.com/2021/05/02/theres-no-such-thing-as-a-tree/
+
+Still citing it (20 October 21): https://www.reddit.com/r/TheMotte/comments/qagtqk/culture_war_roundup_for_the_week_of_october_18/hhdiyd1/
+
+Still citing it (21 October 21): https://www.reddit.com/r/slatestarcodex/comments/qcrhc4/can_someone_provide_an_overview_ofintroduction_to/hhkf6kk/
+
+Still citing it (15 July 21) in a way that suggests it's ratsphere canon: https://twitter.com/NLRG_/status/1415754203293757445
+
+Still citing it (14 November 21): https://twitter.com/captain_mrs/status/1459846336845697028
+
+Still citing it (December 21 podcast): https://www.thebayesianconspiracy.com/2021/12/152-frame-control-with-aella/
+
+Still citing it (2 February 22): https://astralcodexten.substack.com/p/why-do-i-suck/comment/4838964
+
+Still citing it (22 March 22): https://twitter.com/postpostpostr/status/1506480317351272450
+
+Still citing it (25 March 22): https://www.reddit.com/r/TheMotte/comments/tj525b/culture_war_roundup_for_the_week_of_march_21_2022/i22z367/
+
+Still citing it (13 May 22): https://forum.effectivealtruism.org/posts/FkFTXKeFxwcGiBTwk/against-longtermist-as-an-identity
+
+Still citing it, in Eliezerfic Discord (18 Jul 22): https://discord.com/channels/936151692041400361/954750671280807968/998638253588631613
+
+Still citing it (31 Jul 22): https://www.reddit.com/r/slatestarcodex/comments/wbqtg3/rationality_irl/
+
+Still citing it (19 Sep 22): https://twitter.com/ingalala/status/1568391691064729603
+
+------
+
+If you _have_ intent-to-inform and occasionally end up using your megaphone to say false things (out of sloppiness or motivated reasoning in the passion of the moment), it's actually not that big of a deal, as long as you're willing to acknowledge corrections. (It helps if you have critics who personally hate your guts and therefore have a motive to catch you making errors, and a discerning audience who will only reward the critics for finding real errors and not fake errors.) In the long run, the errors cancel out.
+
+If you _don't_ have intent-to-inform, but make sure to never, ever say false things (because you know that "lying" is wrong, and think that as long as you haven't "lied", you're in the clear), but you don't feel like you have an obligation to acknowledge criticisms (for example, because you think you and your flunkies are the only real people in the world, and anyone who doesn't want to become one of your flunkies can be disdained as a "post-rat"), that's potentially a much worse situation, because the errors don't cancel.
+
+----
+
+comment on pseudo-lies post in which he says its OK for me to comment even though