check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 7277b24..d8b0287 100644 (file)
@@ -1,14 +1,14 @@
 marked TODO blocks—
-- social justice and defying threats [pt. 6]
-- Boston [pt. 6]
-- Jessica's experience at MIRI and CfAR [pt. 6]
-_ last email and not bothering him [pt. 6]
-_ autogenderphilia (in-line section) [pt. 4]
-_ New York [pt. 6]
+✓ Boston [pt. 6]
+✓ Jessica's experience at MIRI and CfAR [pt. 6]
+✓ pandemic starts [pt. 4]
+✓ autogenderphilia (in-line section) [pt. 4]
+✓ last email and not bothering him [pt. 6]
+✓ the Death With Dignity era [pt. 6]
+✓ New York [pt. 6]
+✓ scuffle on "Yes Requires the Possibility" [pt. 4]
 _ reaction to Ziz [pt. 4]
 _ "Unnatural Categories Are Optimized for Deception" [pt. 4]
-_ the Death With Dignity era [pt. 6]
-_ scuffle on "Yes Requires the Possibility" [pt. 4]
 _ confronting Olivia [pt. 2]
 _ "Lesswrong.com is dead to me" [pt. 4]
 _ AI timelines scam [pt. 4]
@@ -22,9 +22,8 @@ _ culture off the rails; my warning points to Vaniver [pt. 4]
 _ December 2019 winter blogging vacation [pt. 4]
 _ plan to reach out to Rick [pt. 4]
 _ complicity and friendship [pt. 4]
-_ pandemic starts [pt. 4]
 _ out of patience email [pt. 4]
-_ the hill he wants to die on [pt. 6]
+_ the hill he wants to die on [pt. 6?]
 _ recap of crimes, cont'd [pt. 6]
 _ lead-in to Sept. 2021 Twitter altercation [pt. 6]
 _ regrets, wasted time, conclusion [pt. 6]
@@ -36,7 +35,7 @@ _ Re: on legitimacy and the entrepreneur; or, continuing the attempt to spread m
 _ running away to Burlingame; Hamilton tickets
 _ include Wilhelm "Gender Czar" conversation? [pt. 2]
 _ "EA" brand ate the "rationalism" brand—even visible in MIRI dialogues
-_ Anna's about-face
+_ Anna's heel–face turn
 
 bigger blocks—
 _ dath ilan and Eliezerfic fight
@@ -49,20 +48,15 @@ _ the story of my Feb./Apr. 2017 recent madness [pt. 2]
 it was actually "wander onto the AGI mailing list wanting to build a really big semantic net" (https://www.lesswrong.com/posts/9HGR5qatMGoz4GhKj/above-average-ai-scientists)
 
 With internet available—
-_ standard name/link for 3rd party spoiler effect
-_ kids in cages
-_ "Stop Voting for Nincompoops"
-_ "well, YES" Nash quote-dunk and reply links, and archive.is
-_ archive.is https://somenuanceplease.substack.com/p/actually-i-was-just-crazy-the-whole
-_ screenshot other Facebook comments
-_ nuclear diplomacy Twitter link
+_ Nate would later admit that this was a mistake
+_ Michael Bailey's new AGP in women study
+_ "gene drive" terminology
+_ double-check "All rates" language
 _ footnote "said that he wishes he'd never published"
-_ Astronomical Waste
 _ hate-warp tag
 _ replace "Oh man oh jeez" Rick & Morty link
 _ Nevada bona fides
 _ Parfit's Hitchhiker
-_ Heinlein on "Get the facts!"
 _ double-check correctness of Keltham-on-paternalism link
 _ Arbital TDT explanation
 _ find Sequences cite "if you don't know how your AI works, that's bad"
@@ -90,6 +84,17 @@ _ Anna's claim that Scott was a target specifically because he was good, my coun
 _ Yudkowsky's LW moderation policy
 
 far editing tier—
+_ re "EY is a fraud": it's a _conditional_ that he can modus tollens if he wants
+_ NRx point about HBD being more than IQ, ties in with how I think the focus on IQ is distasteful, but I have political incentives to bring it up
+_ "arguing for a duty to self-censorship"—contrast to my "closing thoughts" email
+_ explain Amelia Davis Ford ref
+_ New York NRx conversation, flesh out "mostly guys"; I was acknowleding diversity as unrealistic and hypocritical; he outright doesn't believe in "people" as opposed to men/women
+_ fold in observations from "trapped priors—at home"
+_ earlier reference the children's books?! "And the Methods of Pre-Rationality"
+_ "Do not ask for additional services" doxxable? revise?
+_ Yudkowsky's "Is someone trolling?" comment as counterevidence to narcissim
+_ "typographical attack surface" isn't clear
+_ voting reputation section is weak, needs revision
 _ edit "still published under a pseudonym" remark in "A Hill"
 _ incoprorate "downvote Eliezer in their head" remark from Jessica's memoir 
 _ explain the "if the world were at stake" Sword of Good reference better
@@ -208,6 +213,7 @@ _ hostile prereader (April, J. Beshir, Swimmer, someone else from Alicorner #dra
 _ Kelsey (briefly)
 _ NRx Twitter bro
 _ maybe SK (briefly about his name)? (the memoir might have the opposite problem (too long) from my hostile-shorthand Twitter snipes)
+_ Megan (that poem could easily be about some other entomologist named Megan)
 
 marketing—
 _ Twitter
@@ -2134,10 +2140,8 @@ An analogy between my grievance against Yudkowsky and Duncan's grievance against
 
 "Let's not talk to Eliezer." "He's sad and confusing" Commentary reference??
 
-
 https://equilibriabook.com/molochs-toolbox/
 
-
 > All of her fellow employees are vigorously maintaining to anybody outside the hospital itself, should the question arise, that Merrin has always cosplayed as a Sparashki while on duty, in fact nobody's ever seen her out of costume; sure it's a little odd, but lots of people are a little odd.
 >
 > (This is not considered a lie, in that it would be universally understood and expected that no one in this social circumstance would tell the truth.)
@@ -2147,3 +2151,61 @@ I still had Sasha's sleep mask
 "Wilhelm" and Steven Kaas aren't Jewish, I think
 
 I agree that Earth is mired in random junk that caught on (like p-values), but ... so are the rats
+
+I'm https://www.lesswrong.com/posts/XvN2QQpKTuEzgkZHY/?commentId=f8Gour23gShoSyg8g at gender and categorization
+
+picking cherries from a cherry tree
+
+http://benjaminrosshoffman.com/honesty-and-perjury/#Intent_to_inform
+
+https://astralcodexten.substack.com/p/trying-again-on-fideism
+> I come back to this example less often, because it could get me in trouble, but when people do formal anonymous surveys of IQ scientists, they find that most of them believe different races have different IQs and that a substantial portion of the difference is genetic. I don’t think most New York Times readers would identify this as the scientific consensus. So either the surveys - which are pretty official and published in peer-reviewed journals - have managed to compellingly misrepresent expert consensus, or the impressions people get from the media have, or "expert consensus" is extremely variable and complicated and can’t be reflected by a single number or position.
+
+https://nickbostrom.com/astronomical/waste
+
+Michael Vassar has _also_ always been a very complicated person who's changed his emphases in ways Yudkowsky dislikes
+
+
+[TODO:
+Is this the hill _he_ wants to die on? If the world is ending either way, wouldn't it be more dignified for him to die _without_ Stalin's dick in his mouth?
+
+> The Kiritsugu shrugged. "When I have no reason left to do anything, I am someone who tells the truth."
+https://www.lesswrong.com/posts/4pov2tL6SEC23wrkq/epilogue-atonement-8-8
+
+ * Maybe not? If "dignity" is a term of art for log-odds of survival, maybe self-censoring to maintain influence over what big state-backed corporations are doing is "dignified" in that sense
+]
+
+The old vision was nine men in a brain in a box in a basement. (He didn't say _men_.)
+
+Subject: "I give up, I think" 28 January 2013
+>  You know, I'm starting to suspect I should just "assume" (choose actions conditional on the hypothesis that) that our species is "already" dead, and we're "mostly" just here because Friendly AI is humanly impossible and we're living in an unFriendly AI's ancestor simulation and/or some form of the anthropic doomsday argument goes through. This, because the only other alternatives I can think of right now are (A) arbitrarily rejecting some part of the "superintelligence is plausible and human values are arbitrary" thesis even though there seem to be extremely strong arguments for it, or (B) embracing a style of thought that caused me an unsustainable amount of emotional distress the other day: specifically, I lost most of a night's sleep being mildly terrified of "near-miss attempted Friendly AIs" that pay attention to humans but aren't actually nice, wondering under what conditions it would be appropriate to commit suicide in advance of being captured by one. Of course, the mere fact that I can't contemplate a hypothesis while remaining emotionally stable shouldn't make it less likely to be true out there in the real world, but in this kind of circumstance, one really must consider the outside view, which insists: "When a human with a history of mental illness invents a seemingly plausible argument in favor of suicide, it is far more likely that they've made a disastrous mistake somewhere, then that committing suicide is actually the right thing to do."
+
+
+[TODO—
+
+The human era wasn't going to last forever. Turing saw it in 1951. ("It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. [...] At some stage therefore we should have to expect the machines to take control[.]") _George Eliot_ [saw it in _1880_](http://www.online-literature.com/george_eliot/theophrastus-such/17/). ("Am I already in the shadow of the coming race? And will the creatures who are to transcend and supercede us be steely organisms, giving off the effluvia of the laboratory and performing with infallible exactness more than everything that we have performed with a slovenly approximativeness and self-defeating inaccuracy?")
+
+ * I've believed since Kurzweil that technology will remake the world sometime in the 21th century; it's just "the machines won't replace us, because we'll be them" doesn't seem credible
+
+list of lethalities
+
+ * I agree that it would be nice if Earth had a plan; it would be nice if people figured out the stuff Yudkowsky did earlier;
+
+Isaac Asimov wrote about robots in his fiction, and even the problem of alignment (in the form of his Three Laws of Robotics), and yet he still portrayed a future Galactic Empire populated by humans, which seems very silly.
+
+/2017/Jan/from-what-ive-tasted-of-desire/
+
+]
+
+> Similarly, a rationalist isn't just somebody who respects the Truth.
+> All too many people respect the Truth.
+> [...]
+> A rationalist is somebody who respects the _processes of finding truth_.
+https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms
+
+> Why is school like a boner?
+> It’s long and hard unless you're Asian.
+
+Robert Heinlein
+> “What are the facts? Again and again and again – what are the facts? Shun wishful thinking, ignore divine revelation, forget what “the stars foretell,” avoid opinion, care not what the neighbors think, never mind the unguessable “verdict of history” – what are the facts, and to how many decimal places? You pilot always into an unknown future; facts are your single clue. Get the facts!”
+https://www.goodreads.com/quotes/38764-what-are-the-facts-again-and-again-and-again
\ No newline at end of file