check in
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 910dd78..1352406 100644 (file)
@@ -1,6 +1,7 @@
 with internet available—
-_ examples of snarky comments about "the rationalists" 
+_ Gallileo "And yet it moves"
 _ Discord logs before Austin retreat
+_ examples of snarky comments about "the rationalists" 
 _ screenshot Rob's Facebook comment which I link
 _ 13th century word meanings
 _ compile Categories references from the Dolphin War Twitter thread
@@ -8,17 +9,16 @@ _ weirdly hostile comments on "... Boundaries?"
 
 
 far editing tier—
+_ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
 _ I'm sure Eliezer Yudkowsky could think of some relevant differences
 _ clarify why Michael thought Scott was "gaslighting" me, include "beeseech bowels of Christ"
-_ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ address the "maybe it's good to be called names" point from "Hill" thread
 _ explain "court ruling" earlier
 _ 2019 Discord discourse with Alicorner
 _ edit discussion of "anti-trans" side given that I later emphasize that "sides" shouldn't be a thing
 _ first appearance of "Caliphate"
-_ the right way to explain how I'm respecting Yudkowsky's privacy
 _ explain the adversarial pressure on privacy norms
 _ first EY contact was asking for public clarification or "I am being silenced" (so Glomarizing over "unsatisfying response" or no response isn't leaking anything Yudkowksy cares about)
 _ Nov. 2018 continues thread from Oct. 2016 conversation
@@ -26,7 +26,7 @@ _ better explanation of posse formation
 _ maybe quote Michael's Nov 2018 texts?
 _ clarify sequence of outreach attempts
 _ clarify existence of a shadow posse member
-_ mention Nov. 2018 conversation with Ian somehow
+_ mention Nov. 2018 conversation with Ian somehow; backref on bidding for attention again; subject line from Happy Price 2016
 _ Said on Yudkowsky's retreat to Facebook being bad for him
 _ explain first use of "rationalist"
 _ explain first use of Center for Applied Rationality
@@ -252,7 +252,7 @@ https://archive.is/7Wolo
 > the massive correlation between exposure to Yudkowsky's writings and being a trans woman (can't bother to do the calculations but the connection is absurdly strong)
 Namespace's point about the two EYs
 
-[stonewalling](https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters)
+
 
 The level above "Many-worlds is obviously correct, stop being stupid" is "Racial IQ differences are obviously real; stop being stupid"
 
@@ -293,8 +293,6 @@ I'm worried about the failure mode where bright young minds [lured in](http://be
 
 It's weird that he thinks telling the truth is politically impossible, because the specific truths I'm focused on are things he _already said_, that anyone could just look up. I guess the point is that the egregore doesn't have the logical or reading comprehension for that?—or rather (a reader points out) the egregore has no reason to care about the past; if you get tagged as an enemy, your past statements will get dug up as evidence of foul present intent, but if you're doing good enough of playing the part today, no one cares what you said in 2009
 
-Somni gets it! https://somnilogical.tumblr.com/post/189782657699/legally-blind
-
 E.Y. thinks postrats are emitting "epistemic smog", but the fact that Eigenrobot can retweet my Murray review makes me respect him more than E.Y. https://twitter.com/eigenrobot/status/1397383979720839175
 
 The robot cult is "only" "trying" to trick me into cutting my dick off in the sense that a paperclip maximizer is trying to kill us: an instrumental rather than a terminal value.
@@ -420,15 +418,30 @@ back in 'aught-nine, Anna commented that no one in our circle was that old, as i
 
 > I suspect Scott is calling the wrong side monastic, though - we basically believe it can be done by lay people, he doesn't. I'll be pleasantly surprised if he gets the sides right, though.
 
-• at least Sabbatai Zevi had an excuse: his choices were to convert to Islam or be impaled https://en.wikipedia.org/wiki/Sabbatai_Zevi#Conversion_to_Islam
+
 
 Really, self-respecting trans people who care about logical consistency should abhor Scott and Eliezer's opinions—you should want people to use the right pronouns _because_ of your gender soul or _because_ your transition actually worked, not because categories are flexible and pronouns shouldn't imply gender
 
-> Because it was you, I tried to read this when it came out.  But you do not know how to come to a point, because you are too horrified by the thought that a reader might disagree with you if you don't write even more first; so then I started skimming, and then I gave up.
-https://twitter.com/ESYudkowsky/status/1435605868758765568
 
-https://twitter.com/ESYudkowsky/status/1435605868758765568
-> Because it was you, I tried to read this when it came out.  But you do not know how to come to a point, because you are too horrified by the thought that a reader might disagree with you if you don't write even more first; so then I started skimming, and then I gave up.
+
+
+
+> Because it was you, I tried to read this when it came out. But
+
+
+Yudkowsky complains—not entirely without justification—that I ["do not know how to come to a point, because [I am] too horrified by the thought that a reader might disagree with [me] if [I] don't write even more first."](https://twitter.com/ESYudkowsky/status/1435605868758765568)
+
+But I wasn't always this way. It's an adaptive response to years of trolling. The reason I write even more to get out ahead of the objections I can forsee, is because I've been _at this for six years_. I tried being concise _first_.
+
+You want concise? Meghan Murphy got it down to four words (which could have been three): "Men aren't women tho."
+
+
+
+
+
+
+
+
 
 > If you think you can win a battle about 2 + 3 = 5, then it can feel like victory or self-justification to write a huge long article hammering on that; but it doesn't feel as good to engage with how the Other does not think they are arguing 2 + 3 = 6, they're talking about 2 * 3.
 https://twitter.com/ESYudkowsky/status/1435618825198731270
@@ -537,6 +550,7 @@ I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378
 
 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
+https://www.lesswrong.com/posts/PG8i7ZiqLxthACaBi/do-fandoms-need-awfulness
 
 > Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
 
@@ -548,7 +562,7 @@ Scott Aaronson on the Times's hit piece of Scott Alexander—
 https://scottaaronson.blog/?p=5310
 > The trouble with the NYT piece is not that it makes any false statements, but just that it constantly insinuates nefarious beliefs and motives, via strategic word choices and omission of relevant facts that change the emotional coloration of the facts that it does present.
 
-contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard, you don't take it lying down
+contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard (supposedly for the benefit of people with your sexuality), you don't take it lying down
 
 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
 
@@ -694,7 +708,9 @@ And I just, basically think the alien and the AI and the normal person have the
 
 ----
 
-Habryka's PalmCone memo mentions there being people whose top priority is to influence you—that's totally what I was doing to Scott and Eliezer
+https://forum.effectivealtruism.org/posts/c5DgfRyWgS2Sjgzmt/on-funding-trust-relationships-and-scaling-our-community
+> there will be someone in the world whose full-time job and top-priority it is to figure out how to write a proposal, or give you a pitch at a party, or write a blogpost, or strike up a conversation, that will cause you to give them money, or power, or status. For many months, they will sit down many days a week and ask themselves the question "how can I write this grant proposal in a way that person X will approve of" or "how can I impress these people at organization Y so that I can get a job there?", and they will write long Google Docs to their colleagues about their models and theories of you, and spend dozens of hours thinking specifically about how to get you to do what they want, while drawing up flowcharts that will include your name, your preferences, and your interests.
+not totally unlike what I was doing to Scott and Eliezer
 
 https://www.abc.net.au/news/2014-07-16/melbourne-teenage-mathlete-wins-gold-for-the-second-time-/5602226?nw=0&r=Image
 https://postchimpblog.wordpress.com/2020/03/05/alexs-guide-to-transitioning/
@@ -705,18 +721,23 @@ https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-
 > If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
 
 the Extropians post _explicitly_ says "may be a common sexual fantasy"
-> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after  the Singularity.  I would not be surprised to find that it took three  subjective centuries before anyone had grown far enough to attempt a gender switch.
+> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after the Singularity.  I would not be surprised to find that it took three subjective centuries before anyone had grown far enough to attempt a gender switch.
 
 ------
 
-If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
 
+https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
+> I'm not sure that human beings realistically _can_ trust and think at the same time.
+
+
+
+If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
 
 > [Though yes, I do worry](https://twitter.com/ESYudkowsky/status/1509944234136129536) that other mortals would be more vulnerable to someone coming up and talking loudly about LDT.  I attach my usual cautions about everything supposed to be just formalizing common sense and not depart from common sense except in the hands of a master, but...
 >
 > [...too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it.  I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
 
-Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I calim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
+Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
 To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, [the Sequences tell of how Yudkowsky once wrote to Judea Pearl](https://www.lesswrong.com/posts/tKa9Lebyebf6a7P2o/the-rhythm-of-disagreement) to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
 
@@ -769,8 +790,6 @@ So, because
 
 -----
 
-Yudkowsky [sometimes](https://www.lesswrong.com/posts/K2c3dkKErsqFd28Dh/prices-or-bindings) [quotes](https://twitter.com/ESYudkowsky/status/1456002060084600832) _Calvin and Hobbes_: "I don't know which is worse, that everyone has his price, or that the price is always so low."
-
 a rationality community that can't think about _practical_ issues that affect our day to day lives, but can get existential risk stuff right, is like asking for self-driving car software that can drive red cars but not blue cars
 
 It's a _problem_ if public intellectuals in the current year need to pretend to be dumber than seven-year-olds in 2016
@@ -818,7 +837,7 @@ and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as
 
 > It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
 
-like a crazy ex-girlfriend (I have no underlying issues to address; I'm certifiably cute, and adorably obsessed)
+like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
 
 But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
 
@@ -850,15 +869,9 @@ At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically
 
 Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
 
-[TODO: relevance of multivariate—
-
-(And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
-
 https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
 https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
 
-]
-
 [TODO: sentences about studies showing that HRT doesn't erase male advantage
 https://twitter.com/FondOfBeetles/status/1368176581965930501
 ]
@@ -1106,3 +1119,116 @@ https://www.facebook.com/yudkowsky/posts/10154690145854228
 
 lack of trust as a reason nothing works: https://danluu.com/nothing-works/ shouldn't the rats trust each other?
 
+
+https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way
+> I think there will not be a _proper_ Art until _many_ people have progressed to the point of remaking the Art in their own image, and then radioed back to describe their paths.
+
+
+
+
+
+
+
+[TODO:
+
+https://twitter.com/ESYudkowsky/status/1404697716689489921
+> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
+
+If you think it "sometimes personally prudent and not community-harmful" to got out of your way to say positive things about Republican candidates and never, ever say positive things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
+
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
+
+https://twitter.com/ESYudkowsky/status/1404821285276774403
+> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
+]
+
+
+https://www.lesswrong.com/posts/cyzXoCv7nagDWCMNS/you-re-calling-who-a-cult-leader#35n
+> In fact, I would say that by far the most cultish-looking behavior on Hacker News is people trying to show off how willing they are to disagree with Paul Graham
+I'm totally still doing this
+
+> it's that it's hard to get that innocence back, once you even start thinking about whether you're _independent_ of someone
+
+
+If Scott's willing to link to A. Marinos, maybe he'd link to my memoir, too? https://astralcodexten.substack.com/p/open-thread-242
+My reaction to Marinos is probably similar to a lot of people's reaction to me: geez, putting in so much effort to correct Scott's mistake is lame, what a loser, who cares
+
+https://twitter.com/esyudkowsky/status/1164332124712738821
+> I unfortunately have had a policy for over a decade of not putting numbers on a few things, one of which is AGI timelines and one of which is *non-relative* doom probabilities.  Among the reasons is that my estimates of those have been extremely unstable.
+
+
+
+--------
+
+23 June 2020: people are STILL citing "Categories Were Made", TWICE when people on the subreddit asked "What is Slate Star Codex"?
+https://www.reddit.com/r/slatestarcodex/comments/hef5es/hi_what_was_slate_star_codex/fvqv9av/
+https://www.reddit.com/r/slatestarcodex/comments/hef5es/hi_what_was_slate_star_codex/fvr47v1/
+> But the blog wasn't always on that 'side', either. Scott wrote one of the best analyses/defenses of trans identity and nonbiological definition of gender that I've ever read, and which ultimately convinced me.
+Yet again someone citing "Categories Were Made" as influential: https://old.reddit.com/r/TheMotte/comments/he96rm/star_slate_codex_deleted_because_of_nyt_article/fvr7h7w/
+
+people are STILL citing this shit! (14 Nov): https://twitter.com/Baltimoron87/status/1327730282703835137
+
+Even the enemies respect that post!
+https://twitter.com/KirinDave/status/1275647936194654208
+
+And using it for defense.
+
+Two mentions in https://www.reddit.com/r/slatestarcodex/comments/hhy2yc/what_would_you_put_in_the_essential_ssc_collection/
+
+Another "Made for Man" cite: https://www.reddit.com/r/TheMotte/comments/hhtwxi/culture_war_roundup_for_the_week_of_june_29_2020/fwwxycr/
+
+More damage control: https://www.reddit.com/r/slatestarcodex/comments/hpohy5/what_are_some_of_scotts_posts_that_challenge_the/fxsu8p0/
+(Comment was deleted. Was I over the line in commenting at all, or just because of the "transparently political reasons" side-swipe? The fact that it got ~18 points suggests the readership was OK with it, even if the moderators weren't)
+
+People are still citing it! https://twitter.com/churrundo/status/1283578666425806851
+
+Another new cite: https://twitter.com/FollowSamir/status/1289168867831373825
+
+Another new cite: https://applieddivinitystudies.com/2020/09/05/rationality-winning/
+
+Another new cite: https://www.reddit.com/r/slatestarcodex/comments/kdxbyd/this_blog_is_incredible/gg04f8c/ "My personal favorites among these are [ ], [... Not Man for the Categories], 10, and 2 in that order."
+
+Another new cite: https://twitter.com/rbaron321/status/1361841879445364739
+
+31 December
+"SSC also helped me understand trans issues" https://www.reddit.com/r/SneerClub/comments/kng0q4/mixed_feelings_on_scott_alexander/
+
+Still citing it (22 Mar 21): https://twitter.com/Cererean/status/1374130529667268609
+
+Still citing it (2 May 21)!!: https://eukaryotewritesblog.com/2021/05/02/theres-no-such-thing-as-a-tree/
+
+Still citing it (20 October 21): https://www.reddit.com/r/TheMotte/comments/qagtqk/culture_war_roundup_for_the_week_of_october_18/hhdiyd1/
+
+Still citing it (21 October 21): https://www.reddit.com/r/slatestarcodex/comments/qcrhc4/can_someone_provide_an_overview_ofintroduction_to/hhkf6kk/
+
+Still citing it (15 July 21) in a way that suggests it's ratsphere canon: https://twitter.com/NLRG_/status/1415754203293757445
+
+Still citing it (14 November 21): https://twitter.com/captain_mrs/status/1459846336845697028
+
+Still citing it (December 21 podcast): https://www.thebayesianconspiracy.com/2021/12/152-frame-control-with-aella/
+
+Still citing it (2 February 22): https://astralcodexten.substack.com/p/why-do-i-suck/comment/4838964
+
+Still citing it (22 March 22): https://twitter.com/postpostpostr/status/1506480317351272450
+
+Still citing it (25 March 22): https://www.reddit.com/r/TheMotte/comments/tj525b/culture_war_roundup_for_the_week_of_march_21_2022/i22z367/
+
+Still citing it (13 May 22): https://forum.effectivealtruism.org/posts/FkFTXKeFxwcGiBTwk/against-longtermist-as-an-identity
+
+Still citing it, in Eliezerfic Discord (18 Jul 22): https://discord.com/channels/936151692041400361/954750671280807968/998638253588631613
+
+Still citing it (31 Jul 22): https://www.reddit.com/r/slatestarcodex/comments/wbqtg3/rationality_irl/
+
+Still citing it (19 Sep 22): https://twitter.com/ingalala/status/1568391691064729603
+
+------
+
+If you _have_ intent-to-inform and occasionally end up using your megaphone to say false things (out of sloppiness or motivated reasoning in the passion of the moment), it's actually not that big of a deal, as long as you're willing to acknowledge corrections. (It helps if you have critics who personally hate your guts and therefore have a motive to catch you making errors, and a discerning audience who will only reward the critics for finding real errors and not fake errors.) In the long run, the errors cancel out.
+
+If you _don't_ have intent-to-inform, but make sure to never, ever say false things (because you know that "lying" is wrong, and think that as long as you haven't "lied", you're in the clear), but you don't feel like you have an obligation to acknowledge criticisms (for example, because you think you and your flunkies are the only real people in the world, and anyone who doesn't want to become one of your flunkies can be disdained as a "post-rat"), that's potentially a much worse situation, because the errors don't cancel.
+
+----
+
+comment on pseudo-lies post in which he says its OK for me to comment even though