check in (incl. memoir—tap at December 2019 blogging spree)
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index d8df44f..3f1e8b7 100644 (file)
@@ -1,31 +1,85 @@
-smaller TODO blocks—
-✓ previous AI milestones [pt. 4]
-✓ short timelines and politics [pt. 4]
-_ "victories" weren't comforting [pt. 3]
-_ vaccine joke [pt. 4]
-_ Scott linked to Kay Brown [pt. 2]
-_ posted to /r/gendercritical [pt. 2]
-_ the Death With Dignity era [pt. 4]
-_ social justice and defying threats [pt. 4]
-_ "If Clarity" recap intro [pt. 3]
-_ "Agreeing with Stalin" recap intro [pt. 4]
-
+marked TODO blocks—
+✓ Boston [pt. 6]
+✓ Jessica's experience at MIRI and CfAR [pt. 6]
+✓ pandemic starts [pt. 4]
+✓ autogenderphilia (in-line section) [pt. 4]
+✓ last email and not bothering him [pt. 6]
+✓ the Death With Dignity era [pt. 6]
+✓ New York [pt. 6]
+✓ scuffle on "Yes Requires the Possibility" [pt. 4]
+✓ "Unnatural Categories Are Optimized for Deception" [pt. 4]
+✓ Eliezerfic fight: will-to-Truth vs. will-to-happiness [pt. 6]
+✓ Eliezerfic fight: Ayn Rand and children's morals [pt. 6]
+✓ AI timelines scam [pt. 4]
+
+- regrets, wasted time, conclusion [pt. 6]
+
+- "Lesswrong.com is dead to me" [pt. 4]
+_ secret thread with Ruby [pt. 4]
+_ progress towards discussing the real thing [pt. 4]
+_ epistemic defense meeting [pt. 4]
+
+- December 2019 winter blogging vacation [pt. 4]
+_ plan to reach out to Rick [pt. 4]
+
+_ Eliezerfic fight: Big Yud tests me [pt. 6]
+_ Eliezerfic fight: derail with lintamande [pt. 6]
+_ Eliezerfic fight: knives, and showing myself out [pt. 6]
+
+_ reaction to Ziz [pt. 4]
+_ confronting Olivia [pt. 2]
+_ State of Steven [pt. 4]
+_ Somni [pt. 4]
+_ culture off the rails; my warning points to Vaniver [pt. 4]
+_ complicity and friendship [pt. 4]
+_ out of patience email [pt. 4]
+_ the hill he wants to die on [pt. 6?]
+_ recap of crimes, cont'd [pt. 6]
+_ lead-in to Sept. 2021 Twitter altercation [pt. 6]
 
 bigger blocks—
-_ dath ilan and Eliezerfic fight
-_ reaction to Ziz
 _ Dolphin War finish
 _ Michael Vassar and the Theory of Optimal Gossip
 _ psychiatric disaster 
+_ the story of my Feb. 2017 Facebook crusade [pt. 2]
+_ the story of my Feb./Apr. 2017 recent madness [pt. 2]
+
+not even blocked—
+_ A/a alumna consult? [pt. 2]
+_ "Even our pollution is beneficial" [pt. 6]
+_ Scott Aaronson on the blockchain of science [pt. 6]
+_ Re: on legitimacy and the entrepreneur; or, continuing the attempt to spread my sociopathic awakening onto Scott [pt. 2 somewhere]
+_ running away to Burlingame; Hamilton tickets
+_ include Wilhelm "Gender Czar" conversation? [pt. 2]
+_ "EA" brand ate the "rationalism" brand—even visible in MIRI dialogues
+_ Anna's heel–face turn
+
+it was actually "wander onto the AGI mailing list wanting to build a really big semantic net" (https://www.lesswrong.com/posts/9HGR5qatMGoz4GhKj/above-average-ai-scientists)
 
 With internet available—
-_ historical accuracy of Gallileo
-_ explain the "if the world were at stake" _Sword of Good_ reference better
-_ a poem I wrote in the _Less Wrong_ comments in 2011
+_ comments on "The Legend of the Extortion War"
+_ "pretty productive blogging spree" should be links to minor posts
+_ comment on "Timelines Scam" re "The Two-Party Swindle" 
+_ "they had to know at some level": link to "why we can't take expected values literally"
+_ publication date of "The AI Timelines Scam"
+_ "around plot relevant sentences" ... only revealing, which, specifically?
+_ what was I replying to, re: "why you actually don't want to be a happier but less accurate predictor"?
+_ relevant screenshots for Eliezerfic play-by-play
+_ lc on elves and Sparashki
+_ Nate would later admit that this was a mistake (or ask Jessica where)
+_ Michael Bailey's new AGP in women study
+_ footnote "said that he wishes he'd never published"
+_ replace "Oh man oh jeez" Rick & Morty link
+_ Nevada bona fides
+_ Parfit's Hitchhiker
+_ double-check correctness of Keltham-on-paternalism link
+_ Arbital TDT explanation
+_ find Sequences cite "if you don't know how your AI works, that's bad"
+_ cover reply to my initial conspiracy complaint about dath ilan?
 _ "not hard to find": link to more /r/itsafetish-like anecdotes
+_ compile ancillary KP doctor's notes page and linky
+_ go back and read all the masochism tags: https://www.glowfic.com/replies/search?board_id=&author_id=366&template_id=&character_id=&subj_content=masochism&sort=created_old&condensed=on&commit=Search
 _ stats of SIAI vs. SingInst hits (for ^siai footnote)
-_ Yudkowsky on AlphaGo
-_ larger Extropy quote than "otherwise identical"
 _ quote other Eliezer Yudkowsky facts
 _ footnote about Scott writing six times faster than me
 _ include Eric Weinstein in archive.is spree
@@ -45,6 +99,28 @@ _ Anna's claim that Scott was a target specifically because he was good, my coun
 _ Yudkowsky's LW moderation policy
 
 far editing tier—
+_ clarify Sarah dropping out of the coordination group
+_ somewhere in dath ilan discussion: putting a wrapper on graphic porn is fine, de-listing Wikipedia articles is not
+_ maybe current-year LW would be better if more marginal cases _had_ bounced off because of e.g. sexism
+_ footnote to explain that when I'm summarizing a long Discord conversation to taste, I might move things around into "logical" time rather than "real time"; e.g. Yudkowsky's "powerfully relevant" and "but Superman" comments were actually one right after the other; and, e.g., I'm filling in more details that didn't make it into the chat, like innate kung fu
+_ re "EY is a fraud": it's a _conditional_ that he can modus tollens if he wants
+_ NRx point about HBD being more than IQ, ties in with how I think the focus on IQ is distasteful, but I have political incentives to bring it up
+_ "arguing for a duty to self-censorship"—contrast to my "closing thoughts" email
+_ explain Amelia Davis Ford ref
+_ New York NRx conversation, flesh out "mostly guys"; I was acknowleding diversity as unrealistic and hypocritical; he outright doesn't believe in "people" as opposed to men/women
+_ fold in observations from "trapped priors—at home"
+_ earlier reference the children's books?! "And the Methods of Pre-Rationality"
+_ "Do not ask for additional services" doxxable? revise?
+_ Yudkowsky's "Is someone trolling?" comment as counterevidence to narcissim
+_ "typographical attack surface" isn't clear
+_ voting reputation section is weak, needs revision
+_ edit "still published under a pseudonym" remark in "A Hill"
+_ incoprorate "downvote Eliezer in their head" remark from Jessica's memoir 
+_ explain the "if the world were at stake" Sword of Good reference better
+_ D. also acknowledged AGP
+_ "no one else would have spoken" should have been a call-to-action to read more widely
+_ explain who Kay Brown is
+_ "Great Common Task" is probably capitalized
 _ mention Will MacAskill's gimped "longtermism" somehow
 _ re-read a DALL-E explanation and decide if I think it's less scary now
 _ Scott Aaronson on the blockchain of science https://scottaaronson.blog/?p=6821
@@ -54,15 +130,14 @@ _ https://www.lesswrong.com/posts/yaCwW8nPQeJknbCgf/free-speech-and-triskaidekap
 _ It's not clear anyone he usually respects was making this mistake; it seems likely that the original thread was subtweeting Eric Weinstein, who was not making this mistake
 _ "I Wish You Well" as breakup song
 _ the function of privacy norms is to protect you from people who want to selectively reveal information to hurt you, so it makes sense that I'm particularly careful about Yudkowsky's privacy and not Scott's, because I totally am trying to hurt Yudkowsky (this also protects me from the charge that by granting more privacy to Yudkowsky than Scott, I'm implying that Yudkowsky said something more incriminating; the difference in treatment is about _me_ and my expectations, rather than what they may or may not have said when I tried emailing them); I want it to be clear that I'm attacking him but not betraying him
+_ acknowledge that 
 _ pull "agreeing with Stalin" quote earlier in ms. to argue that Yudkowsky apparently doesn't disagree with my "deliberately ambiguous"
 _ is the title of pt. 4 OK? (agreeing with Stalin _is_ correct when Stalin is right; the problem is that Stalin isn't right about gender)
 _ illustrate "student dysphoria is worse" with anecdote about leaving physics class and going to the counselor to see if I could graduate earlier?
-_ as an author and a critic, I expect to lose status when my critics make good points, and expect to gain status when my criticism makes good points; communism analogy: you wouldn't expect credibly helpful work to be unpaid; and I have to make this kind of analysis even he didn't _say_ "I'm a communist"
 _ hate for secrecy probably correlates with autogynephilia blogging
 _ mention Said rigor check somewhere, nervousness about Michael's gang being a mini-egregore
 _ at some point, speculate on causes of brain damage
 _ the "reducing negativity" post does obliquely hint at the regression point being general ("Let's say that the true level of negativity"), does that seriously undermine my thesis, or does it only merit a footnote?
-_ worth footnoting the "some sort of communist" joke?
 _ elaborate on why I'm not leaking sensitive bits, by explaining what can be inferred by what was and wasn't said in public
 _ footnote on "no one would even consider" 
 _ post-Christmas conversation should do a better job of capturing the war, that Jessica thinks Scott is Bad for being a psychiatrist
@@ -109,18 +184,40 @@ _ notice the symmetry where _both_ E and I want to partition the discussion with
 _ contract-drafting em, SSC blogroll is most of my traffic
 _ "Common Interest of Many Causes" and "Kolmogorov Complicity" offer directly contradictory strategies
 _ Vassar's about-face on gender
+_ better introduction of S.K.
 _ risk of people bouncing off progressivism
 _ an AGP teen boy could at least consent to transition, and make plans based on knowing what the thing is (you'd actually want to go through a little bit of male puberty)
+_ better explanation of Scott's jailbreaking accusation against Vassar
+_ archive.is karma history for Jessica's post
+_ "tossed in a bucket" is ignoring advice from Sept. 2022 clarification to be clear about the type distinction
+_ explicitly explain "Hill of Validity" title inversion
 _ figure out full timeline of which of my Less Wrong posts to mention
 _ update "80,000 words" refs with the near-final wordcount
-
+_ the "outright bad faith" clause in "Your Price for Joining"
+_ less afraid of hurting O.
+_ secret posse member pointing out that it worked better because it was Oli
+_ update "karma at press time"
+_ better explain "lie inflation" ambiguity
+_ Facing Reality
+_ backlink condemning Emperor Norton Conspiracy
+_ backlink AGP in women post (time permitting) in pt. 2 "don't think it's the same thing"
+_ backlink "I've decided to drop the pseudonym" to pen name drop post
+_ backlink (/2022/TODO/blanchards-dangerous-idea-and-the-plight-of-the-lucid-crossdreamer/)
+_ backlink "I again refer to" Happy Price
+_ backlink "(again) whether he accepted the Cheerful Price"
+_ backlink "alter the beacon"
+_ backlink only seen an escort once before (#confided-to-wilhelm)
+_ backlink Yudkowsky's implicit political concession
 
 terms to explain on first mention—
+_ Civilization (context of dath ilan)
+_ Valinor (probably don't name it, actually)
 _ "Caliphate"
 _ "rationalist"
 _ Center for Applied Rationality
 _ MIRI
 _ "egregore"
+_ eliezera
 
 
 people to consult before publishing, for feedback or right of objection—
@@ -134,8 +231,13 @@ _ secret posse member
 _ Katie (pseudonym choice)
 _ Alicorn: about privacy, and for Melkor Glowfic reference link
 _ hostile prereader (April, J. Beshir, Swimmer, someone else from Alicorner #drama)
-_ Kelsey (briefly)
+_ Kelsey
+_ NRx Twitter bro
 _ maybe SK (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
+_ Megan (that poem could easily be about some other entomologist named Megan) ... I'm probably going to cut that §, though
+_ David Xu? (Is it OK to name him in his LW account?)
+_ afford various medical procedures
+_ Buck? (get the story about Michael being escorted from events)
 
 marketing—
 _ Twitter
@@ -877,8 +979,6 @@ subject: "nothing left to lose; or, the end of my rope"
 Anna thinks trust and integrity is an important resource
 https://www.lesswrong.com/posts/mmHctwkKjpvaQdC3c/what-should-you-change-in-response-to-an-emergency-and-ai
 
-The HEXACO personality model considers "honesty" and "humility" a single factor
-
 (You might group things together _on the grounds_ of their similarly positive consequences—that's what words like _good_ do—but that's distinct from choosing _the categorization itself_ because of its consequences.)
 
 —and would be unforgivable if it weren't so _inexplicable_.
@@ -1594,19 +1694,11 @@ https://www.lesswrong.com/posts/BbM47qBPzdSRruY4z/instead-of-technical-research-
 
 I hate that my religion is bottlenecked on one guy
 
-https://forum.effectivealtruism.org/posts/fStCX6RXmgxkTBe73/towards-a-weaker-longtermism?commentId=Kga3KGx6WAhkNM3qY
-> I am broadly fine with people devoting 50%, 25% or 75% of themselves to longtermism, in that case, as opposed to tearing themselves apart with guilt and ending up doing nothing much, which seems to be the main alternative. 
-
 https://twitter.com/zackmdavis/status/1405032189708816385
 > Egregore psychology is much easier and more knowable than individual human psychology, for the same reason macroscopic matter is more predictable than individual particles. But trying to tell people what the egregore is doing doesn't work because they don't believe in egregores!!
 
-https://glowfic.com/replies/1882395#reply-1882395
-> the stranger from dath ilan never pretended to be anyone's friend after he stopped being their friend.
-Similarly, you should stop pretending to be a rationality teacher if you're going to be corrupted by politics
-
 20 June 2021, "The egregore doesn't care about the past", thematic moments at Valinor
 
-
 You don't want to have a reputation that isn't true; I've screwed up confidentiality before, so I don't want a "good at keeping secrets" reputation; if Yudkowsky doesn't want to live up to the standard of "not being a partisan hack", then ...
 
 Extended analogy between "Scott Alexander is always right" and "Trying to trick me into cutting my dick off"—in neither case would any sane person take it literally, but it's pointing at something important (Scott and EY are trusted intellectual authorities, rats are shameless about transition cheerleading)
@@ -1771,8 +1863,6 @@ What's the difference? Are there _generalizable reasons_ why fraud isn't worth i
 
 What is "It would be OK in dath ilan, but it's not OK on Earth" even supposed to _mean_, if it's not just, "It's OK for people who genetically resemble Eliezer Yudkowsky to deceive the world as long as they have a clever story for why it's all for the greater good, but it's not OK for you, because you're genetically inferior to him"?
 
-(I was fine with the arrogance in the Sequences, when it seemed like a harmless stylistic affectation during some really valuable lessons, but if "Eliezer Yudkowsky is smarter than you" now just _is the lesson_, it seems like a very different lesson)
-
 https://discord.com/channels/936151692041400361/1022006828718104617/1047374488645402684
 
 A. J. Vermillion seems to be complaining that by not uncritically taking the author assertions at face value, I'm breaking the rules of the literary-criticism game—that if the narrator _says_ Civilization was designed to be trustworthy, I have no license to doubt that is "actually" is.
@@ -1861,10 +1951,6 @@ The standard I'm appealing to is, "It's intellectually dishonest to make argumen
 
 ----
 
-https://discord.com/channels/936151692041400361/1022006828718104617/1054235592961048609
-> rather than, as is more often the case in dath ilan stories, a depiction of a better institution you could build if people were eliezera
-
-(eliezera racial supremacy _is_ the lesson)
 
 Fool! There is no Equilibrium
 
@@ -1963,7 +2049,211 @@ ordered additional copies of MTiMB 14 September 2016 and 19 December 2016
 > We passed word to the Fake Conspiracy section of Exception Handling, and they've spent the last few hours quickly planting evidence consistent with how Civilization should look if the Sparashki are real.  The notion being that their apparent fictional status and licensing is just a cover, so Sparashki can walk around if they have to and just get compliments on their incredible cosplay.  Since this event is medium-secret, the CEO of Yattel's Less Expensive Tunneling Machines has been photographed by surprise through a window, looking like a Sparashki, to explain why conspiracy-theoretic research is suddenly focusing there and turning up the evidence we've planted."
 https://glowfic.com/replies/1860952#reply-1860952
 
-
 the generic experience is that the future is more capable but less aligned, and we basically expect this to continue
 people from the past would envy our refrigeration, vaccines, infinite food, &c., but that doesn't mean they would regard our value-drifted-with-respect-to-them culture as superior
 paperclipping is just that turned up to 11 (well, 10¹¹)
+
+Bostrom's apology for an old email—who is this written for?? Why get ahead, when you could just not comment?
+
+[TODO:
+
+https://twitter.com/ESYudkowsky/status/1404697716689489921
+> I have never in my own life tried to persuade anyone to go trans (or not go trans)—I don't imagine myself to understand others that much.
+
+If you think it "sometimes personally prudent and not community-harmful" to go out of your way to say positive things about Republican candidates and never, ever say positive things about Democratic candidates (because you "don't see what the alternative is besides getting shot"), you can see why people might regard you as a _Republican shill_—even if all the things you said were true, and even if you never told any specific individual, "You should vote Republican."
+
+https://www.facebook.com/yudkowsky/posts/10154110278349228
+> Just checked my filtered messages on Facebook and saw, "Your post last night was kind of the final thing I needed to realize that I'm a girl."
+> ==DOES ALL OF THE HAPPY DANCE FOREVER==
+
+https://twitter.com/ESYudkowsky/status/1404821285276774403
+> It is not trans-specific. When people tell me I helped them, I mostly believe them and am happy.
+]
+
+the rats were supposed to be an alternative to academic orthodoxy (such that we could just jump to the correct decision theory without the political fighting needing to dethrone CDT), but we're still under the authority of the egregore
+
+(from October 2016 email to Scott)
+This is not an advanced rationalist skill! This is the "distinguishing fantasy from reality" skill! People will quote your "Categories Were Made for the Man" in defense of the idea that someone can be biologically male, think of themselves as a boy, be thought of by others as a boy, and yet still actually have been a girl at the time by virtue of deciding to transition years later. I've been told that "Gender is a floating tag which has one substantial consequence, which is comfort of the people being addressed"!
+
+https://www.glowfic.com/replies/1612937#reply-1612937
+> Citizens can't control processes they can't see.  For that clever-reason it was then illegal for any of the Nine Legislators to meet with each other, or speak with any Representative, except as a matter of public record.
+
+November 5, 2019
+11/5/19, 2:09 AM
+Ziz
+Ziz
+To your memory, am I under any confidentiality agreements with you? Or did we mutually release each other from the only one that one time?
+November 5, 2019
+11/5/19, 9:24 AM
+You sent
+you are not under any confidentiality agreements with me
+
+https://www.glowfic.com/replies/1764946#reply-1764946
+> This is Keltham desperately pretending not to be at all starstruck, because he was not previously way into the Merrin fandom but even he has heard of the Ordinary Merrin Conspiracy, wherein Merrin has some weird psychological hangup about believing she is a totally normal and ordinary person or even something of a struggling low achiever, and everybody in Civilization is coordinating to pretend around her that ordinary normal people totally get their weird Exception Handling training scenarios televised to a million watchers on a weekly basis.
+
+> It makes her - simultaneously an ultra-high-achieving role model who's much more famous than you are, and also, somebody who's committing this very large cognitive error where you know better than her about it.  Which is not usually something you can say about a major public figure, you would not usually expect to be in a position where you would ever know about a cognitive error a public figure was committing, because they'd already have advisors much much smarter than you.  But if you screw Merrin, you're not, like, just some strictly vastly inferior being that she's allowed into her cuddleroom.  There is at least one topic you could totally win an argument with her about, as judged by impartial judges: namely, is she in fact a fairly ordinary person really.  But you must never ever mention it in front of her.
+
+for normal people, when your favorite author gets worse, you just shrug and accept it and enjoy the classics, but when your favorite author is also the Pope of your religion and also in several Discord servers with you, you end up wasting a lot of time scrutinizing their emoji-reacts
+
+For the unfamiliar: the [doctrine here](https://medium.com/@cassiebrighter/please-write-trans-women-as-two-words-487f153444fb) is that "trans" is an adjective indicating a type of woman. 
+
+I write the space everywhere because that's the dominant usage ([since 2011](https://books.google.com/ngrams/graph?content=transman%2Ctrans+man%2Ctranswoman%2Ctrans+woman&year_start=2000&year_end=2022), according to Google ngrams). I don't want to turn off potential readers by failing a simple shibboleth test; I want those readers to be turned off by my actual ideas.
+
+(_I_ don't censor my comment sections of people whom it "looks like it would be unhedonic to spend time interacting with".)
+
+-----
+
+ * Yudkowsky is _on the record_ [claiming that](https://www.facebook.com/yudkowsky/posts/10154078468809228) "for people roughly similar to the Bay Area / European mix", he is "over 50% probability at this point that at least 20% of the ones with penises are actually women". What ... does that mean? What is the _truth condition_ of the word 'woman' in that sentence? This can't be the claim that 20% of males would benefit from a gender transition, and in that sense _become_ "transsexual women"; the claim stated in the post is that members of this group are _already_ "actually women", "female-minds-in-male-bodies". How does Yudkowsky reconcile this claim with the perponderance of male-typical rather than female-typical behavior in this group (_e.g._, in gynephilic sexual orientation, or [in vocational interests](/2020/Nov/survey-data-on-cis-and-trans-women-among-haskell-programmers/))? On the other hand, if Yudkowsky changed his mind and no longer believes that 20% of Bay Area males of European descent have female brains, can he state that for the public record? _Reply!_
+ * Yudkowsky is _on the record_ [claiming that](https://www.facebook.com/yudkowsky/posts/10159421750419228?comment_id=10159421986539228&reply_comment_id=10159423713134228) he "do[es] not know what it feels like from the inside to feel like a pronoun is attached to something in your head much more firmly than 'doesn't look like an Oliver' is attached to something in your head." As I explained in "Challenges to Yudkowsky's Pronoun Reform Proposal", [quoting examples from Yudkowsky's published writing in which he treated sex and pronouns as synonymous just as one would expect a native American English speaker born in 1979 to do](/2022/Mar/challenges-to-yudkowskys-pronoun-reform-proposal/#look-like-an-oliver), this self-report is not plausible. The claim may not have been a "lie" _in the sense_ of Yudkowsky consciously harboring deliberative intent to deceive at the time he typed that sentence, but it _is_ a "lie" in the sense that the claim is _false_ and Yudkowsky _knows_ it's false (although its falsehood may not have been salient in the moment of typing the sentence). If Yudkowsky expects people to believe that he never lies, perhaps he could correct this accidental lie after it's been pointed out? _Reply!_
+
+-----
+
+> Well, YES.  Paying taxes to the organization that runs ICE, or voting for whichever politician runs against Trump, or trading with a doctor benefiting from an occupational licensing regime; these acts would all be great evils if you weren't trapped.
+https://twitter.com/ESYudkowsky/status/1216788984367419392
+
+https://twitter.com/jd_pressman/status/1617257360933945344
+> And that the current discourse of "don't advance capabilities, don't think about SOTA, stop thinking, pursue orthogonal directions" is basically about maximizing confusion, minimizing the probability you have any chance of pulling alignment out of the distribution of AI ideas.
+
+https://www.glowfic.com/replies/1897710#reply-1897710
+> a dath ilani tragedy isn't about the triumph of Evil over Good.  It's about the triumph of erroneous reasoning and ill-coordination over everyone
+
+https://www.glowfic.com/replies/1735044#reply-1735044
+> my suspicion is that not many sadists in dath ilan know what they are and Civilization tries to prevent us from finding out, because dath ilan does not have masochists.
+
+https://www.truthdig.com/dig/nick-bostrom-longtermism-and-the-eternal-return-of-eugenics/
+
+https://graymirror.substack.com/p/the-boomer-map
+> The lower class _wants_ an upper class it can genuinely look up to. The feeling that Harvard has gone insane is like realizing that Mom and Dad are both on heroin.
+
+25 January 2022: I hesitated for a long time before leaving a comment about Cicero on the Alexander/Yudkowsky dialogue, shows I'm still culty (calculating whether I'm allowed to speak on a post he coauthored; I linked "EA should blurt")
+
+J.D.P. on rationalism's failure
+https://extropian.net/notice/ARvZ3pimn8JQIe4yGG
+
+Friend of the blog Ninety-Three—
+> It's like admiring a society that solves crime by having secret police shoot all bad people in the head. What the fuck!? I suddenly have empathy for the experience of seeing your cult defiled. If I got Isekaied onto dath ilan I would _become a terrorist_.
+
+(Terrorism wouldn't work)
+
+Sep 27 text to "Chaya"—
+In theory, the bad influence could go both ways: first, successful playdate, then I mention to A. afterwards (not before) that C. is actually a boy and I think it's crazy everyone is pretending otherwise (which remark is out of their censorship jurisdiction); then if C. wants a repeat with new friend (far from guaranteed, but plausible), it's not your fault if A. leaks information of her own will ...
+
+
+https://www.lesswrong.com/posts/3nDR23ksSQJ98WNDm/developmental-stages-of-gpts?commentId=wqaCY4hQQTuqqJ7Ma  28 July 2020
+> I'd love to know of a non-zero integer number of plans that could possibly, possibly, possibly work for not dying to a GPT-style near-term AGI.
+
+calculating whether I was "net positive"—I don't know what can be said about the relationship between quantum randomness and macroscopic outcomes, but it seems plausible that there are Everett branches where I died from that salivary stone in 2008
+
+From "My Way"—
+
+> far enough that the art she learned from others fails her, so that she must remake her shattered art in her own image and in the image of her own task. And then tell the rest of us about it.
+
+> But what I'm finding is not just _the_ Way, the thing that lies at the center of the labyrinth; it is also _my_ Way, the path that I would take to come closer to the center, from whatever place I started out.
+
+> I think there will not be a _proper_ Art until _many_ people have progressed to the point of remaking the Art in their own image, and then radioed back to describe their paths.
+
+
+depression-based forecasting in conversation with Carl
+> seems more ... optimistic, Kurzweilian?... to suppose that the tech gets used correctly the way a sane person would hope it would be used
+
+I like this sentence (from "The Matrix Is a System")—
+> If someone is a force on your epistemics towards the false, robustly to initial conditions and not as a fluke, that person is hostile.
+
+An analogy between my grievance against Yudkowsky and Duncan's grievance against me: I think Yudkowsky is obligated to search for and present "anti-trans" arguments in conjunction with searching for and presenting "pro-trans" arguments. Duncan (I'm wildly guessing??) thinks I'm obligated to search for and present "pro-Duncan" and addition to "anti-Duncan" arguments?? A key disanalogy: Yudkowsky is _afraid_ to post "anti-trans" content; I'm not afraid to post pro-Duncan content; I just think agreements are less interesting than disagreements. To prove the disanalogy, maybe I should write a "Things I Liked About 'Basics of Rationalist Discourse'" post as a peace offering??
+
+"Let's not talk to Eliezer." "He's sad and confusing" Commentary reference??
+
+https://equilibriabook.com/molochs-toolbox/
+
+> All of her fellow employees are vigorously maintaining to anybody outside the hospital itself, should the question arise, that Merrin has always cosplayed as a Sparashki while on duty, in fact nobody's ever seen her out of costume; sure it's a little odd, but lots of people are a little odd.
+>
+> (This is not considered a lie, in that it would be universally understood and expected that no one in this social circumstance would tell the truth.)
+
+I still had Sasha's sleep mask
+
+"Wilhelm" and Steven Kaas aren't Jewish, I think
+
+I agree that Earth is mired in random junk that caught on (like p-values), but ... so are the rats
+
+I'm https://www.lesswrong.com/posts/XvN2QQpKTuEzgkZHY/?commentId=f8Gour23gShoSyg8g at gender and categorization
+
+picking cherries from a cherry tree
+
+http://benjaminrosshoffman.com/honesty-and-perjury/#Intent_to_inform
+
+https://astralcodexten.substack.com/p/trying-again-on-fideism
+> I come back to this example less often, because it could get me in trouble, but when people do formal anonymous surveys of IQ scientists, they find that most of them believe different races have different IQs and that a substantial portion of the difference is genetic. I don’t think most New York Times readers would identify this as the scientific consensus. So either the surveys - which are pretty official and published in peer-reviewed journals - have managed to compellingly misrepresent expert consensus, or the impressions people get from the media have, or "expert consensus" is extremely variable and complicated and can’t be reflected by a single number or position.
+
+https://nickbostrom.com/astronomical/waste
+
+Michael Vassar has _also_ always been a very complicated person who's changed his emphases in ways Yudkowsky dislikes
+
+
+[TODO:
+Is this the hill _he_ wants to die on? If the world is ending either way, wouldn't it be more dignified for him to die _without_ Stalin's dick in his mouth?
+
+> The Kiritsugu shrugged. "When I have no reason left to do anything, I am someone who tells the truth."
+https://www.lesswrong.com/posts/4pov2tL6SEC23wrkq/epilogue-atonement-8-8
+
+ * Maybe not? If "dignity" is a term of art for log-odds of survival, maybe self-censoring to maintain influence over what big state-backed corporations are doing is "dignified" in that sense
+]
+
+The old vision was nine men and a brain in a box in a basement. (He didn't say _men_.)
+
+Subject: "I give up, I think" 28 January 2013
+>  You know, I'm starting to suspect I should just "assume" (choose actions conditional on the hypothesis that) that our species is "already" dead, and we're "mostly" just here because Friendly AI is humanly impossible and we're living in an unFriendly AI's ancestor simulation and/or some form of the anthropic doomsday argument goes through. This, because the only other alternatives I can think of right now are (A) arbitrarily rejecting some part of the "superintelligence is plausible and human values are arbitrary" thesis even though there seem to be extremely strong arguments for it, or (B) embracing a style of thought that caused me an unsustainable amount of emotional distress the other day: specifically, I lost most of a night's sleep being mildly terrified of "near-miss attempted Friendly AIs" that pay attention to humans but aren't actually nice, wondering under what conditions it would be appropriate to commit suicide in advance of being captured by one. Of course, the mere fact that I can't contemplate a hypothesis while remaining emotionally stable shouldn't make it less likely to be true out there in the real world, but in this kind of circumstance, one really must consider the outside view, which insists: "When a human with a history of mental illness invents a seemingly plausible argument in favor of suicide, it is far more likely that they've made a disastrous mistake somewhere, then that committing suicide is actually the right thing to do."
+
+
+[TODO—
+
+The human era wasn't going to last forever. Turing saw it in 1951. ("It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. [...] At some stage therefore we should have to expect the machines to take control[.]") _George Eliot_ [saw it in _1880_](http://www.online-literature.com/george_eliot/theophrastus-such/17/). ("Am I already in the shadow of the coming race? And will the creatures who are to transcend and supercede us be steely organisms, giving off the effluvia of the laboratory and performing with infallible exactness more than everything that we have performed with a slovenly approximativeness and self-defeating inaccuracy?")
+
+ * I've believed since Kurzweil that technology will remake the world sometime in the 21th century; it's just "the machines won't replace us, because we'll be them" doesn't seem credible
+
+list of lethalities
+
+ * I agree that it would be nice if Earth had a plan; it would be nice if people figured out the stuff Yudkowsky did earlier;
+
+Isaac Asimov wrote about robots in his fiction, and even the problem of alignment (in the form of his Three Laws of Robotics), and yet he still portrayed a future Galactic Empire populated by humans, which seems very silly.
+
+/2017/Jan/from-what-ive-tasted-of-desire/
+
+]
+
+> Similarly, a rationalist isn't just somebody who respects the Truth.
+> All too many people respect the Truth.
+> [...]
+> A rationalist is somebody who respects the _processes of finding truth_.
+https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms
+
+> Why is school like a boner?
+> It’s long and hard unless you're Asian.
+
+Robert Heinlein
+> “What are the facts? Again and again and again – what are the facts? Shun wishful thinking, ignore divine revelation, forget what “the stars foretell,” avoid opinion, care not what the neighbors think, never mind the unguessable “verdict of history” – what are the facts, and to how many decimal places? You pilot always into an unknown future; facts are your single clue. Get the facts!”
+https://www.goodreads.com/quotes/38764-what-are-the-facts-again-and-again-and-again
+
+
+      "sender_name": "Zack M. Davis",
+      "timestamp_ms": 
+      "content": "at this point, I actually am just starting to hate trans women by default (the visible kind, not the androphilic early-transitioning kind); the \"indulging a mental illness that makes them want to become women\" model is waaaaay more accurate than the standard story, and the people who actually transition are incentivized/selected for self-delusion, which is really unfair to the people who aren't delusional about it",
+      "type": "Generic"
+    },
+      "sender_name":
+      "timestamp_ms": [Sat Jan 21 10:06:17 PST 2017]
+      "content": "I'm afraid to even think that in the privacy of my own head, but I agree with you that is way more reasonable",
+      "type": "Generic"
+
+"but the ideological environment is such that  a Harvard biologist/psychologist is afraid to notice blatantly obvious things in the privacy of her own thoughts, that's a really scary situation to be in (insofar as we want society's decisionmakers to be able to notice things so that they can make decisions)",
+
+In October 2016, I messaged an alumna of my App Academy class of November 2013 (back when App Academy was still cool and let you sleep on the floor if you wanted), effectively asking to consult her expertise on feminism. "Maybe you don't want people like me in your bathroom for the same reason you're annoyed by men's behavior on trains?"
+
+if [...] wrote her own 10,600 draft Document explaining why she thought [...] is actually a girl, that would be really interesting!—but rather that no one else seemed _interested in having a theory_, as opposed to leaping to institute a social convention that, when challenged, is claimed to have no particular consequences and no particular objective truth conditions, even though it's not clear why there would be moral urgency to implement this convention if it weren't for its consequences.
+
+https://twitter.com/ESYudkowsky/status/1634338145016909824 re "malinformation"
+> If we don't have the concept of an attack performed by selectively reporting true information - or, less pleasantly, an attack on the predictable misinferences of people we think less rational than ourselves - the only socially acceptable counter is to say the info is false.
+
+Blanchard Tweets my blog in Feb and March 2017
+https://twitter.com/BlanchardPhD/status/830580552562524160
+https://twitter.com/BlanchardPhD/status/837846616937750528
\ No newline at end of file