memoir: pokes, community college guidance counselor anecdote
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index eccac28..33badda 100644 (file)
@@ -1,47 +1,48 @@
-waypoints—
-✓ Jessica help with "Unnatural Categories"
-✓ wireheading his fiction subreddit
-✓ discrediting to the community
-- let's recap
-- people-I-usually-respect footnote
-- Yudkowsky is trying to be a religious leader
-
-sections—
-_ existential risk interlude; social justice game theory; I could forgive him
-_ September 2020 Category War victory
-_ prelude to pronouns post
-_ the dolphin war
-_ Michael Vassar and the Theory of Optimal Gossip
-_ Sasha disaster 
+battle stations—
+✓ outline NYT defense/prelude to pronouns
+✓ flesh out prelude to pronouns I
+- flush out prelude to pronouns II
+_ outlining existential stakes and social justice FDT
+- outlining Dolphin War II
+_ flesh out existential stakes and social justice FDT
+_ flesh out Dolphin War II
 
 
+dedicated day?—
+_ Michael Vassar and the Theory of Optimal Gossip
+_ psychiatric disaster 
 
 With internet available—
-_ university library
-_ Aaron Terrell and Corina Cohn
-_ Eddie Izzard
-_ rational-ist/physics-ist analogy (and link to Yudkowsky Tweet where I think I got this from)
-_ "linking to K-complicity in my replies", link the specific reply
-_ Wentworth on mutual information being on the right track?
-_ "20% of the ones with penises" someone in the comments saying, "It is a woman's body", and Yudkowsky saying "duly corrected"
+✓ record of Yudkowsky citing TDT as part of decision to prosecute Emerson?
+✓ Scott vs. Ben on Drowning
+✓ Ray and D. Xu's comments on "The Incentives"
+✓ comments on "Self-Consciousness wants to make"
+✓ tussle with Ruby on "Causal vs. Social Reality"
+_ did my archive.is spree include https://twitter.com/ESYudkowsky/status/1435618825198731270 and https://twitter.com/ESYudkowsky/status/1356812143849394176?
+_ link to Kay Brown's summary of the "Social Desirability Response Set" paper, and footnote paper link and my brief methodology explanation
+_ "Alexander once joked"—include the year
+_ availability heuristic
+_ one more significant figure in reporting 2011 Less Wrong male %, to match 2020
+_ something to support Metz being a pro for decades
 _ "not taking into account considerations" → rephrase to quote "God's dictionary"
-_ except when it's net bad to have concluded Y: https://www.greaterwrong.com/posts/BgEG9RZBtQMLGuqm7/[Error%20communicating%20with%20LW2%20server]/comment/LgLx6AD94c2odFxs4
+_ Aaron Terrell and Corina Cohn
+_ more examples of Yudkowsky's arrogance (MIRI dialogues, knew how to say anything at all)
 _ my history of sniping in Yudkowsky's mentions
-_ comments on "Self-Consciousness wants to make"
-_ Scott vs. Ben on Drowning Children
-_ Ray and D. Xu's comments on "The Incentives"
 _ my comment about having changed my mind about "A Fable of Science and Politics"
 _ more Yudkowsky Facebook comment screenshots
 _ that neuroscience paper backing the two-types
-_ compile Categories references from the Dolphin War Twitter thread
-_ tussle with Ruby on "Causal vs. Social Reality"
 _ examples of snarky comments about "the rationalists" 
 _ 13th century word meanings
 _ weirdly hostile comments on "... Boundaries?"
-_ more examples of Yudkowsky's arrogance
+_ Anna's claim that Scott was a target specifically because he was good, my counterclaim that payment can't be impunity
 
 
 far editing tier—
+_ footnote previous race-IQ baiting on "why do I keep bringing this up"
+_ mention my "trembling hand" history with secrets, not just that I don't like it
+_ https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekaphobic-calculators-a-reply-to as part of December 2019 blogging streak
+_ It's not clear anyone he usually respects was making this mistake; it seems likely that the original thread was subtweeting Eric Weinstein, who was not making this mistake
+_ "I Wish You Well" as breakup song
 _ the function of privacy norms is to protect you from people who want to selectively reveal information to hurt you, so it makes sense that I'm particularly careful about Yudkowsky's privacy and not Scott's, because I totally am trying to hurt Yudkowsky (this also protects me from the charge that by granting more privacy to Yudkowsky than Scott, I'm implying that Yudkowsky said something more incriminating; the difference in treatment is about _me_ and my expectations, rather than what they may or may not have said when I tried emailing them); I want it to be clear that I'm attacking him but not betraying him
 _ pull "agreeing with Stalin" quote earlier in ms. to argue that Yudkowsky apparently doesn't disagree with my "deliberately ambiguous"
 _ is the title of pt. 4 OK? (agreeing with Stalin _is_ correct when Stalin is right; the problem is that Stalin isn't right about gender)
@@ -56,6 +57,7 @@ _ elaborate on why I'm not leaking sensitive bits, by explaining what can be inf
 _ footnote on "no one would even consider" 
 _ post-Christmas conversation should do a better job of capturing the war, that Jessica thinks Scott is Bad for being a psychiatrist
 _ conversation with Scott should include the point where I'm trying to do AI theory
+_ consistent-ize reference to Somni getting it in pt. 4, with mention of protest in pt. 3
 _ Anna "everyone knows" we don't have free speech 2 Mar 2019, self-centeredness about which global goods matter
 _ footnote to explain why I always include the year with the month even though it could be inferred from context
 _ make sure to quote Yudkowsky's LW moderation policy before calling back to it
@@ -81,8 +83,6 @@ _ first EY contact was asking for public clarification or "I am being silenced"
 _ Nov. 2018 continues thread from Oct. 2016 conversation
 _ better explanation of posse formation
 _ maybe quote Michael's Nov 2018 texts?
-_ clarify sequence of outreach attempts
-_ clarify existence of a shadow posse member
 _ mention Nov. 2018 conversation with Ian somehow; backref on bidding for attention again; subject line from Happy Price 2016
 _ Said on Yudkowsky's retreat to Facebook being bad for him
 _ erasing agency of Michael's friends, construed as a pawn
@@ -92,6 +92,16 @@ _ explain why I'm not being charitable in 2018 thread analysis, that at the time
 _ better summary of Littman
 _ explain Rob
 _ edit the child transition section in a way that Kay Brown would be OK with, have a few sentences about Clever Hans before the wrap-up
+_ ask Jessica where Scott clarified his position on antipsychotics?
+_ I should respond to Ziz's charges that my criticism of concept-policing was a form of concept-policing
+_ why doesn't he apply his anti-optimism to his gender statements?!
+_ notice the symmetry where _both_ E and I want to partition the discussion with "That's a policy question" ... I just think it's unfair to partition after "words don't have intrinsic defn's" rather than 37 ways
+_ contract-drafting em, SSC blogroll is most of my traffic
+_ "Common Interest of Many Causes" and "Kolmogorov Complicity" offer directly contradictory strategies
+_ Vassar's about-face on gender
+_ risk of people bouncing off progressivism
+_ an AGP teen boy could at least consent to transition, and make plans based on knowing what the thing is (you'd actually want to go through a little bit of male puberty)
+_ figure out full timeline of which of my Less Wrong posts to mention
 
 
 terms to explain on first mention—
@@ -110,9 +120,10 @@ _ Anna
 _ secret posse member
 _ Katie (pseudonym choice)
 _ Alicorn: about privacy, and for Melkor Glowfic reference link
-_ someone from Alicorner #drama as a hostile prereader (Swimmer?)
+_ hostile prereader (April, J. Beshir, Swimmer, someone else from Alicorner #drama)
 _ maybe Kelsey (very briefly, just about her name)?
 _ maybe SK (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
+_ maybe Big Yud (ask #drama about the politics/ettiquitte)
 
 marketing—
 _ Twitter
@@ -145,7 +156,6 @@ cross-referenced with my dayjob schedule implies ... finished draft ms. on 15 De
 
 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
 
-https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
@@ -226,22 +236,11 @@ I'm not optimistic about the problem being fixable, either. Our robot cult _alre
 
 ----
 
-Because of the particular historical moment in which we live, we end up facing pressure from progressives, because—whatever our _object-level_ beliefs about (say) [sex, race, and class differences](/2020/Apr/book-review-human-diversity/)—and however much many of us would prefer not to talk about them—on the _meta_ level, our creed requires us to admit _it's an empirical question_, not a moral one—and that [empirical questions have no privileged reason to admit convenient answers](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
-
-I view this conflict as entirely incidental, something that [would happen in some form in any place and time](https://www.lesswrong.com/posts/cKrgy7hLdszkse2pq/archimedes-s-chronophone), rather than having to do with American politics or "the left" in particular. In a Christian theocracy, our analogues would get in trouble for beliefs about evolution; in the old Soviet Union, our analogues would get in trouble for [thinking about market economics](https://slatestarcodex.com/2014/09/24/book-review-red-plenty/) (as a [positive technical discipline](https://en.wikipedia.org/wiki/Fundamental_theorems_of_welfare_economics#Proof_of_the_first_fundamental_theorem) adjacent to game theory, not yoked to a particular normative agenda).
-
-Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful what they say in public. (I am not smart.)
-
 
 (which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/):
 
-
-
 Becuase of the conflict, and because all the prominent high-status people are running a Kolmogorov Option strategy, and because we happen to have to a _wildly_ disproportionate number of _people like me_ around, I think being "pro-trans" ended up being part of the community's "shield" against external political pressure, of the sort that perked up after [the February 2021 _New York Times_ hit piece about Alexander's blog](https://archive.is/0Ghdl). (The _magnitude_ of heat brought on by the recent _Times_ piece and its aftermath was new, but the underlying dynamics had been present for years.)
 
-Jacob Falkovich notes, ["The two demographics most over-represented in the SlateStarCodex readership according to the surveys are transgender people and Ph.D. holders."](https://twitter.com/yashkaf/status/1275524303430262790) [Aaronson notes (in commentary on the _Times_ article)](https://www.scottaaronson.com/blog/?p=5310) "the rationalist community's legendary openness to alternative gender identities and sexualities" as something that would have "complicated the picture" of our portrayal as anti-feminist.
-
-Even the _haters_ grudgingly give Alexander credit for "... Not Man for the Categories": ["I strongly disagree that one good article about accepting transness means you get to walk away from writing that is somewhat white supremacist and quite fascist without at least awknowledging you were wrong."](https://archive.is/SlJo1)
 
 Given these political realities, you'd think that I _should_ be sympathetic to the Kolmogorov Option argument, which makes a lot of sense. _Of course_ all the high-status people with a public-facing mission (like building a movement to prevent the coming robot apocalypse) are going to be motivatedly dumb about trans stuff in public: look at all the damage [the _other_ Harry Potter author did to her legacy](https://en.wikipedia.org/wiki/Politics_of_J._K._Rowling#Transgender_people).
 
@@ -739,6 +738,7 @@ the Extropians post _explicitly_ says "may be a common sexual fantasy"
 https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
 > I'm not sure that human beings realistically _can_ trust and think at the same time.
 
+https://www.lesswrong.com/posts/t6Fe2PsEwb3HhcBEr/the-litany-against-gurus
 
 
 If you listen to the sorts of things the guy says lately, it looks like he's just completely given up on the idea that public speech could possibly be useful, or that anyone besides he and his flunkies is capable of thought. For example:
@@ -847,8 +847,6 @@ and Keltham tells Carissa (null action pg 39) to keep the Light alive as long as
 
 > It, it—the fe—it, flame—flames. Flames—on the side of my face. Breathing—breathl—heaving breaths, heaving—
 
-like a crazy ex-girlfriend (["I have no underlying issues to address / I'm certifiably cute, and adorably obsessed"](https://www.youtube.com/watch?v=UMHz6FiRzS8))
-
 But he is willing to go to bat for killing babies, but not for "Biological Sex is Actually Real Even If That Hurts Your Feelings" https://mobile.twitter.com/AuronMacintyre/status/1547562974927134732
 
 https://extropians.weidai.com/extropians.3Q97/4361.html
@@ -1097,9 +1095,8 @@ I have a _seflish_ interest in people making and sharing accurate probabilistic
 
 when I was near death from that salivary stone, I mumbled something to my father about "our people"
 
-If the world is ending either way, wouldn't it be more dignified for him to die _without_ Stalin's dick in his mouth?
 
-[Is this the hill he wants to die on? The pronouns post mentions "while you can still get away with disclaimers", referring to sanction from the outside world, as if he won't receive any sanction from his people, because he owns us. That's wrong. Yudkowsky as a person doesn't own me; the Sequences-algorithm does
+
 
 https://www.facebook.com/yudkowsky/posts/pfbid0331sBqRLBrDBM2Se5sf94JurGRTCjhbmrYnKcR4zHSSgghFALLKCdsG6aFbVF9dy9l?comment_id=10159421833274228&reply_comment_id=10159421901809228
 > I don't think it *should* preclude my posting on topics like these, which is something I get the impression Zack disagrees with me about. I think that in a half-Kolmogorov-Option environment where people like Zack haven't actually been shot and you can get away with attaching explicit disclaimers like this one, it is sometimes personally prudent and not community-harmful to post your agreement with Stalin about things you actually agree with Stalin about, in ways that exhibit generally rationalist principles, especially because people do *know* they're living in a half-Stalinist environment, even though it hugely bugs Zack that the exact degree of Stalinism and filtration can't be explicitly laid out the way they would be in the meta-Bayesian Should Universe... or something. I think people are better off at the end of that.
@@ -1121,7 +1118,6 @@ Maybe he was following the same sucking-off-Stalin algorithm internally the whol
 
 http://benjaminrosshoffman.com/honesty-and-perjury/
 
-
 origins of the strawberry example
 https://www.facebook.com/yudkowsky/posts/10155625884574228
 https://www.facebook.com/yudkowsky/posts/10154690145854228
@@ -1129,27 +1125,9 @@ https://www.facebook.com/yudkowsky/posts/10154690145854228
 
 lack of trust as a reason nothing works: https://danluu.com/nothing-works/ shouldn't the rats trust each other?
 
-
 https://www.greaterwrong.com/posts/FBgozHEv7J72NCEPB/my-way
 > I think there will not be a _proper_ Art until _many_ people have progressed to the point of remaking the Art in their own image, and then radioed back to describe their paths.
 
-
-
-[TODO:
-
-https://twitter.com/ESYudkowsky/status/1404697716689489921
-> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
-
-If you think it "sometimes personally prudent and not community-harmful" to got out of your way to say positive things about Republican candidates and never, ever say positive things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
-
-https://www.facebook.com/yudkowsky/posts/10154110278349228
-> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
-> ==DOES ALL OF THE HAPPY DANCE FOREVER==
-
-https://twitter.com/ESYudkowsky/status/1404821285276774403
-> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
-]
-
 https://www.lesswrong.com/posts/cyzXoCv7nagDWCMNS/you-re-calling-who-a-cult-leader#35n
 > In fact, I would say that by far the most cultish-looking behavior on Hacker News is people trying to show off how willing they are to disagree with Paul Graham
 I'm totally still doing this
@@ -1359,6 +1337,8 @@ commenting policy—
 > The censorship policy of the Reign of Terror is not part of the content of the post itself and may not be debated on the post. If you think Censorship!! is a terrible idea and invalidates discussion, feel free not to read the comments section.
 > The Internet is full of things to read that will not make you angry. If it seems like you choose to spend a lot of time reading things that will give you a chance to be angry and push down others so you can be above them, you're not an interesting plant to have in my garden and you will be weeded. I don't consider it fun to get angry at such people, and I will choose to read something else instead.
 
+I tried arguing against ideas _first!_
+
 I do wonder how much of his verbal report is shaped by pedagogy (& not having high-quality critics). People are very bad at imagining how alien aliens would be! "Don't try to hallucinate value there; just, don't" is simpler than working out exactly how far to push cosmopolitanism
 
 
@@ -1510,17 +1490,12 @@ Alicorn writes (re Kelsey's anorexia): "man it must be so weird to have a delusi
 what's really weird is having a delusion, knowing it's a delusion, and _everyone else_ insists your delusion is true
 ... and I'm not allowed to say that without drawing on my diplomacy budget, which puts a permanent distance between me and the group
 
-(If you are silent about your pain, _they'll kill you and say you enjoyed it_.)
-
 4 levels of intellectual conversation https://rationalconspiracy.com/2017/01/03/four-layers-of-intellectual-conversation/
 
 If we _actually had_ magical sex change technology of the kind described in ["Changing Emotions"](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions), no one would even consider clever philosophy arguments about how to redefine words: people who wanted to change sex would just do it, and everyone else would use the corresponding language, not as a favor, but because it straightforwardly described reality.
 
-
 Scott said it sounded like I wasn't a 100% category absolutist, and that I would be willing to let a few tiny things through, and that our real difference is that he thought this gender thing was tiny enough to ignore, and I didn't. I thought his self-report of "tiny enough to ignore" was blatantly false: I predicted that his brain notices when trans women don't pass, and that this affected his probabilistic anticipations about them, decisions towards them, _&c._, and that when he finds out that a passing trans women is trans, then also affects his probabilistic anticipations, _&c._ This could be consistent with "tiny enough to ignore" if you draw the category boundaries of "tiny" and "ignore" the right way in order to force the sentence to come out "true" ... but you see the problem. If I took what Scott said in "... Not Man for the Categories" literally, I could make _any_ sentence true by driving a truck through the noncentral fallacy.
 
-https://twitter.com/ESYudkowsky/status/1362514650089156608
-> Hypothesis:  People to whom self-awareness and introspection come naturally, put way too much moral exculpatory weight on "But what if they don't know they're lying?"  They don't know a lot of their internals!  And don't want to know!  That's just how they roll.
 
 Steve Sailer retweeted me today criticizing Lee Jussim https://twitter.com/zackmdavis/status/1160662220511932416
 
@@ -1528,44 +1503,6 @@ I'm a natural true believer in Yudkowskian ideology https://balioc.tumblr.com/po
 
 Yudkowsky's assessment of Moldbug: "Politics mindkilled him; he cannot separate the normative and the descriptive." https://www.lesswrong.com/posts/6qPextf9KyWLFJ53j/why-is-mencius-moldbug-so-popular-on-less-wrong-answer-he-s?commentId=TcLhiMk8BTp4vN3Zs#TcLhiMk8BTp4vN3Zs
 
------
-
-I just got off the phone with my mother. I told her that I wouldn't be able to visit her this weekend because I had a terrible week and I'm going to need to do dayjob work on Sunday to catch up with how behind I am.
-
-She told me that she believes in angels, that she prays to God for me at night, that the angels are like God's helpers, like how Santa has elves
-
-(My family is ethnically Jewish—you know, like everyone else—but my mother's personal brand of spirituality is very vague; these particular sentences felt unusually Christian-themed given that she identifies as a Jewish Buddhist, but not out of character.)
-
-I told her not to bother with the prayers, unless it helps her sleep.
-
-As I was wrapping up the call, I mentioned that the reason it was a bad week was because I got into a fight about dolphins.
-
-"Dolphins?" she asked, incredulously.
-
-"They're not fish, right?" I asked.
-
-"No, of course not," she said. "They're mammals. Dolphins take care of their young. Dolphins can communicate with each other; they're intelligent."
-
-Thanks, Mom. I'm so lucky to have a mother that's _less retarded than the leadership of the Machine Intelligence Research Institute_.
-
-------
-
-[TODO: Yudkowsky wireheading his fiction subreddit
-
-https://www.reddit.com/r/rational/comments/dvkv41/meta_reducing_negativity_on_rrational/
-https://www.reddit.com/r/rational/comments/dvkv41/meta_reducing_negativity_on_rrational/f7fs88l/
-13 November 2019
-
-The recent thing that was most helpful in making my memoir seem like just a challenging writing project, rather than treason/heresy, was actually Eliezer 
-
-doing more destroying-language-for-the-sake-of-politeness but in a non-Culture-War context:
-
-comment: https://www.reddit.com/r/rational/comments/dvkv41/meta_reducing_negativity_on_rrational/f7fs88l/
-> On discussion threads for a work's particular chapter, people may debate the well-executedness of some particular feature of that work's particular chapter. Comments saying that nobody should enjoy this whole work are still verboten. Replies here should still follow the etiquette of saying "Mileage varied: I thought character X seemed stupid to me" rather than saying "No, character X was actually quite stupid."
-
-
-]
-
 ----
 
 2019 comments to "Wilhelm"—
@@ -1602,7 +1539,7 @@ Greg Egan's "Closer" (1992) predicted language models, and seemed wild at the ti
 
 The text of _Inadequate Equilibria_ is more modest than his rhetorical marketing blunder
 
-and the BOTZ ETF I bought in 2020 has a -27.57% unrealized loss! awesome!!
+and the BOTZ ETF I bought in 2020 has a 27.57% unrealized loss! awesome!!
 
 Katie also asked "MTF?" when I told her about the Sasha disaster!!
 
@@ -1614,6 +1551,149 @@ http://zackmdavis.net/blog/2012/11/egoism-as-defense-against-a-life-of-unending-
 
 I assume starting a detransition market would be not-OK
 
-Oh, this was also on 18 February 2021 (same day as my comment about SneerClub); maybe the conjunction of the two made me more salient
-https://twitter.com/zackmdavis/status/1362555980232282113
-> Oh, maybe it's relevant to note that those posts were specifically part of my 21-month rage–grief campaign of being furious at Eliezer all day every day for lying-by-implicature about the philosophy of language? But, I don't want to seem petty by pointing that out! I'm over it!
+-----
+
+FYI, I think this turned out significantly harsher on you than my January 2022 emails made it sound, thus occasioning this additional email.
+
+I'm planning on publishing the drafts linked below on [dates].
+
+ * "Blanchard's Dangerous Idea and the Plight of the Lucid Crossdreamer" (18K words)
+ * "A Hill of Validity in Defense of Meaning" (46K words)
+ * "Agreeing with Stalin in Ways That Exhibit Generally Rationalist Principles" (19K words)
+ * **"Why I Don't Trust Eliezer Yudkowsky's Intellectual Honesty"** (1.5K word summary of the parts of the Whole Dumb Story that are specifically an attack on your reputation)
+
+**If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. End transmission.
+
+[13 November: #drama discussion today (https://discord.com/channels/401181628015050773/458419017602826260/1041586188961714259) makes me feel like I don't want to put a "Why I Don't Trust ..." post, like it would be too cruel]
+
+[no awareness that people like me or Michael or Jessica would consider this a betrayal coming from the author of the Sequences (even if it wouldn't be a betrayal coming from a generic public intellectual)]
+
+----
+
+(If you weren't interested in meeting my standards for intellectual honest before, it's not clear why you would change your mind just because I spent 80,000 words cussing you out to everyone else.)
+
+----
+
+https://www.lesswrong.com/posts/BbM47qBPzdSRruY4z/instead-of-technical-research-more-people-should-focus-on
+
+I hate that my religion is bottlenecked on one guy
+
+https://forum.effectivealtruism.org/posts/fStCX6RXmgxkTBe73/towards-a-weaker-longtermism?commentId=Kga3KGx6WAhkNM3qY
+> I am broadly fine with people devoting 50%, 25% or 75% of themselves to longtermism, in that case, as opposed to tearing themselves apart with guilt and ending up doing nothing much, which seems to be the main alternative. 
+
+https://twitter.com/zackmdavis/status/1405032189708816385
+> Egregore psychology is much easier and more knowable than individual human psychology, for the same reason macroscopic matter is more predictable than individual particles. But trying to tell people what the egregore is doing doesn't work because they don't believe in egregores!!
+
+https://glowfic.com/replies/1882395#reply-1882395
+> the stranger from dath ilan never pretended to be anyone's friend after he stopped being their friend.
+Similarly, you should stop pretending to be a rationality teacher if you're going to be corrupted by politics
+
+20 June 2021, "The egregore doesn't care about the past", thematic moments at Valinor
+
+
+You don't want to have a reputation that isn't true; I've screwed up confidentiality before, so I don't want a "good at keeping secrets" reputation; if Yudkowsky doesn't want to live up to the standard of "not being a partisan hack", then ...
+
+Extended analogy between "Scott Alexander is always right" and "Trying to trick me into cutting my dick off"—in neither case would any sane person take it literally, but it's pointing at something important (Scott and EY are trusted intellectual authorities, rats are shameless about transition cheerleading)
+
+Scott's other 2014 work doesn't make the same mistake
+
+"The Most Important Scarce Resource is Legitimacy"
+https://vitalik.ca/general/2021/03/23/legitimacy.html
+
+"English is fragile"
+
+https://twitter.com/ESYudkowsky/status/1590460598869168128
+> I now see even foom-y equations as missing the point. 
+(!)
+
+----
+
+dialogue with a pre-reader on "Challenges"—
+
+> More to the point, there's a kind of anthropic futility in these paragraphs, anyone who needs to read them to understand won't read them, so they shouldn't exist.
+
+I think I'm trying to humiliate the people who are pretending not to understand in front of the people who do understand, and I think that humiliation benefits from proof-of-work? Is that ... not true??
+
+> No, because it makes you look clueless rather than them look clueless.
+
+-----
+
+compare EY and SBF
+
+Scott Aaronson on the Times's hit piece of Scott Alexander—
+https://scottaaronson.blog/?p=5310
+> The trouble with the NYT piece is not that it makes any false statements, but just that it constantly _insinuates_ nefarious beliefs and motives, via strategic word choices and omission of relevant facts that change the emotional coloration of the facts that it _does_ present.
+
+https://graymirror.substack.com/p/the-journalist-rationalist-showdown
+
+https://twitter.com/jstn/status/1591088015941963776
+> 2023 is going to be the most 2005 it's been in years
+
+-------
+
+re the FTX debacle, Yudkowsky retweets Katja:
+
+https://twitter.com/KatjaGrace/status/1590974800318861313
+> So I'd advocate for instead taking really seriously when someone seems to be saying that they think it's worth setting aside integrity etc for some greater good
+
+I'm tempted to leave a message in #drama asking if people are ready to generalize this to Kolmogorov complicity (people _very explicitly_ setting aside integrity &c. for the greater good of not being unpopular with progressives). It's so appropriate!! But it doesn't seem like a good use of my diplomacy budget relative to finishing the memoir—the intelligent social web is predictably going to round it off to "Zack redirecting everything into being about his hobbyhorse again, ignore". For the same reason, I was right to hold back my snarky comment about Yudkowsky's appeal to integrity in "Death With Dignity": the universal response would have been, "read the room." Commenting here would be bad along the same dimension, albeit not as extreme.
+
+------
+
+effects on my social life—calculating what I'm allowed to say; making sure I contribute non-hobbyhorse value to offset my hobbyhorse interruptions
+
+----
+
+https://forum.effectivealtruism.org/posts/FKJ8yiF3KjFhAuivt/impco-don-t-injure-yourself-by-returning-ftxff-money-for
+when that happens, in EA, I often do suspect that nobody else will dare to speak the contrary viewpoint, if not me.
+
+Michael, June 2019
+> If clarity seems like death to them and like life to us, and we don't know this, IMHO that's an unpromising basis for friendship
+
+------
+
+Piper and Yudkowsky on privacy norms—
+
+https://twitter.com/KelseyTuoc/status/1591996891734376449
+> if such promises were made, they should be kept, but in practice in the present day, they often aren't made, and if you haven't explicitly promised a source confidentiality and then learn of something deeply unethical from them you should absolutely whistleblow.
+
+https://twitter.com/ESYudkowsky/status/1592002777429180416
+> I don't think I'd go for "haven't explicitly promised" here but rather "if you're pretty sure there was no such informal understanding on which basis you were granted that access and information".
+
+------
+
+14 November conversation, he put a checkmark emoji on my explanation of why giving up on persuading people via methods that discriminate true or false amounts to giving up on the concept of intellectual honesty and choosing instead to become a propaganda AI, which made me feel much less ragey https://discord.com/channels/401181628015050773/458419017602826260/1041836374556426350
+
+The problem isn't just the smugness and condescension; it's the smugness and condescension when he's in the wrong and betraying the principles he laid out in the Sequences and knows it; I don't want to be lumped in with anti-arrogance that's not sensitive to whether the arrogance is in the right
+
+My obsession must look as pathetic from the outside as Scott Aaronson's—why doesn't he laugh it off, who cares what SneerClub thinks?—but in my case, the difference is that I was betrayed
+
+-----
+
+dath ilan on advertising (https://www.glowfic.com/replies/1589520#reply-1589520)—
+> So, in practice, an ad might look like a picture of the product, with a brief description of what the product does better that tries to sound very factual and quantitative so it doesn't set off suspicions.  Plus a much more glowing quote from a Very Serious Person who's high enough up to have a famous reputation for impartiality, where the Very Serious Person either got paid a small amount for their time to try that product, or donated some time that a nonprofit auctioned for much larger amounts; and the Very Serious Person ended up actually impressed with the product, and willing to stake some of their reputation on recommending it in the name of the social surplus they expect to be thereby produced.
+
+
+I wrote a Python script to replace links to _Slate Star Codex_ with archive links: http://unremediatedgender.space/source?p=Ultimately_Untrue_Thought.git;a=commitdiff;h=21731ba6f1191f1e8f9#patch23
+
+John Wentworth—
+> I chose the "train a shoulder advisor" framing specifically to keep my/Eliezer's models separate from the participants' own models.
+https://www.greaterwrong.com/posts/Afdohjyt6gESu4ANf/most-people-start-with-the-same-few-bad-ideas#comment-zL728sQssPtXM3QD9
+
+https://twitter.com/ESYudkowsky/status/1355712437006204932
+> A "Physics-ist" is trying to engage in a more special human activity, hopefully productively, where they *think* about light in order to use it better.
+
+Wentworth on my confusion about going with the sqaured-error criterion in "Unnatural Categories"—
+> I think you were on the right track with mutual information. They key insight here is not an insight about what metric to use, it's an insight about the structure of the world and our information about the world. [...]  If we care more about the rough wall-height than about brick-parity, that’s because the rough wall-height is more relevant to the other things which we care about in the world. And that, in turn, is because the rough wall-height is more relevant to more things in general. Information about brick-parity just doesn’t propagate very far in the causal graph of the world; it's quickly wiped out by noise in other variables. Rough wall-height propagates further.
+
+not interested in litigating "lying" vs. "rationalizing" vs. "misleading-by-implicature"; you can be _culpable_ for causing people to be misled in a way that isn't that sensitive to what exactly was going on in your head
+
+-----
+
+https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc312SMvoCrNep4smg41S3G874saF2ZRSQl?comment_id=10159410429909228&reply_comment_id=10159410748194228
+
+> Zack, and many others, I think you have a vulnerability where you care way too much about the reasons that bullies give for bullying you, and the bullies detect that and exploit it.
+
+
+
+> Everyone. (Including organizers of science fiction conventions.) Has a problem of "We need to figure out how to exclude evil bullies." We also have an inevitable Kolmogorov Option issue but that should not be confused with the inevitable Evil Bullies issue, even if bullies attack through Kolmogorov Option issues.