check in
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 554a8d7..22b9429 100644 (file)
@@ -9,11 +9,11 @@ _ weirdly hostile comments on "... Boundaries?"
 
 
 far editing tier—
+_ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
 _ I'm sure Eliezer Yudkowsky could think of some relevant differences
 _ clarify why Michael thought Scott was "gaslighting" me, include "beeseech bowels of Christ"
-_ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ address the "maybe it's good to be called names" point from "Hill" thread
 _ explain "court ruling" earlier
 _ 2019 Discord discourse with Alicorner
@@ -550,6 +550,7 @@ I feel I've outlived myself https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4166378
 
 Ben on Discursive Warfare and Faction Formation: https://docs.google.com/document/d/1dou43_aX_h1lP7-wqU_5jJq62PuhotQaybe5H2HUmWc/edit
 > What's not wrong on purpose is persuasive but does not become a factional identity. What becomes a factional identity is wrong on purpose.
+https://www.lesswrong.com/posts/PG8i7ZiqLxthACaBi/do-fandoms-need-awfulness
 
 > Applying this to LessWrong: Plenty of people read the Sequences, improved their self-models and epistemic standards, and went on to do interesting things not particularly identified with LessWrong. Also, people formed an identity around Eliezer, the Sequences, and MIRI, which means that the community clustered around LessWrong is—aside from a few very confused people who until recently still thought it was about applying the lessons of the Sequences—committed not to Eliezer's insights but to exaggerated versions of his blind spots.
 
@@ -720,7 +721,7 @@ https://www.lesswrong.com/posts/j9Q8bRmwCgXRYAgcJ/miri-announces-new-death-with-
 > If those people went around lying to others and paternalistically deceiving them—well, mostly, I don't think they'll have really been the types to live inside reality themselves. But even imagining the contrary, good luck suddenly unwinding all those deceptions and getting other people to live inside reality with you, to coordinate on whatever suddenly needs to be done when hope appears, after you drove them outside reality before that point. Why should they believe anything you say?
 
 the Extropians post _explicitly_ says "may be a common sexual fantasy"
-> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after  the Singularity.  I would not be surprised to find that it took three  subjective centuries before anyone had grown far enough to attempt a gender switch.
+> So spending a week as a member of the opposite sex may be a common sexual fantasy, but I wouldn't count on being able to do this six seconds after the Singularity.  I would not be surprised to find that it took three subjective centuries before anyone had grown far enough to attempt a gender switch.
 
 ------
 
@@ -736,7 +737,7 @@ If you listen to the sorts of things the guy says lately, it looks like he's jus
 >
 > [...too many people think](https://twitter.com/ESYudkowsky/status/1509944888376188929) it's unvirtuous to shut up and listen to me, and they might fall for it.  I'd wish that I'd never spoken on the topic, and just told them to vote in elections for reasons they'd understand when they're older.  That said, enjoy your $1 in Ultimatum games.
 
-Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I calim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
+Notwithstanding that there are reasons for him to be traumatized over how some people have misinterpreted timeless decision theory—what a _profoundly_ anti-intellectual statement! I claim that this is just not something you would ever say if you cared about having a rationality community that could process arguments and correct errors, rather than a robot cult to suck you off.
 
 To be clear, there _is_ such a thing as legitimately trusting an authority who knows better than you. For example, [the Sequences tell of how Yudkowsky once wrote to Judea Pearl](https://www.lesswrong.com/posts/tKa9Lebyebf6a7P2o/the-rhythm-of-disagreement) to correct an apparent error in _Causality: Models, Reasoning, and Inference_. Pearl agreed that there was an error, but said that Yudkowsky's proposed correction was also wrong, and provided the real correction. Yudkowsky didn't understand the real correction, but trusted that Pearl was right, because Pearl was the authority who had invented the subject matter—it didn't seem likely that he would get it wrong _again_ after the original error had been brought to his attention.
 
@@ -838,7 +839,7 @@ and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as
 
 > It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
 
-like a crazy ex-girlfriend (I have no underlying issues to address; I'm certifiably cute, and adorably obsessed)
+like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
 
 But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732