check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 0331cfe..77510bd 100644 (file)
@@ -4,11 +4,11 @@ marked TODO blocks—
 ✓ pandemic starts [pt. 4]
 ✓ autogenderphilia (in-line section) [pt. 4]
 ✓ last email and not bothering him [pt. 6]
+✓ the Death With Dignity era [pt. 6]
+✓ New York [pt. 6]
 _ scuffle on "Yes Requires the Possibility" [pt. 4]
-_ New York [pt. 6]
 _ reaction to Ziz [pt. 4]
 _ "Unnatural Categories Are Optimized for Deception" [pt. 4]
-_ the Death With Dignity era [pt. 6]
 _ confronting Olivia [pt. 2]
 _ "Lesswrong.com is dead to me" [pt. 4]
 _ AI timelines scam [pt. 4]
@@ -48,6 +48,14 @@ _ the story of my Feb./Apr. 2017 recent madness [pt. 2]
 it was actually "wander onto the AGI mailing list wanting to build a really big semantic net" (https://www.lesswrong.com/posts/9HGR5qatMGoz4GhKj/above-average-ai-scientists)
 
 With internet available—
+_ coveture
+_ find an anti-Asian racist joke for a change
+_ List of Lethalities
+_ new version of "not coming out" also archived?
+_ screenshot my last Facebook comment
+_ atrocious sample-efficiency
+_ date of longtermism EA forum comment
+_ hypernym
 _ Michael Bailey's new AGP in women study
 _ what does "pervue" mean
 _ archive.is https://twitter.com/KirkegaardEmil/status/1425334398484983813
@@ -90,7 +98,11 @@ _ Anna's claim that Scott was a target specifically because he was good, my coun
 _ Yudkowsky's LW moderation policy
 
 far editing tier—
+_ re "EY is a fraud": it's a _conditional_ that he can modus tollens if he wants
+_ NRx point about HBD being more than IQ, ties in with how I think the focus on IQ is distasteful, but I have political incentives to bring it up
+_ "arguing for a duty to self-censorship"—contrast to my "closing thoughts" email
 _ explain Amelia Davis Ford ref
+_ New York NRx conversation, flesh out "mostly guys"; I was acknowleding diversity as unrealistic and hypocritical; he outright doesn't believe in "people" as opposed to men/women
 _ fold in observations from "trapped priors—at home"
 _ earlier reference the children's books?! "And the Methods of Pre-Rationality"
 _ "Do not ask for additional services" doxxable? revise?
@@ -2175,4 +2187,26 @@ Is this the hill _he_ wants to die on? If the world is ending either way, wouldn
 https://www.lesswrong.com/posts/4pov2tL6SEC23wrkq/epilogue-atonement-8-8
 
  * Maybe not? If "dignity" is a term of art for log-odds of survival, maybe self-censoring to maintain influence over what big state-backed corporations are doing is "dignified" in that sense
+]
+
+The old vision was nine men in a brain in a box in a basement. (He didn't say _men_.)
+
+Subject: "I give up, I think" 28 January 2013
+>  You know, I'm starting to suspect I should just "assume" (choose actions conditional on the hypothesis that) that our species is "already" dead, and we're "mostly" just here because Friendly AI is humanly impossible and we're living in an unFriendly AI's ancestor simulation and/or some form of the anthropic doomsday argument goes through. This, because the only other alternatives I can think of right now are (A) arbitrarily rejecting some part of the "superintelligence is plausible and human values are arbitrary" thesis even though there seem to be extremely strong arguments for it, or (B) embracing a style of thought that caused me an unsustainable amount of emotional distress the other day: specifically, I lost most of a night's sleep being mildly terrified of "near-miss attempted Friendly AIs" that pay attention to humans but aren't actually nice, wondering under what conditions it would be appropriate to commit suicide in advance of being captured by one. Of course, the mere fact that I can't contemplate a hypothesis while remaining emotionally stable shouldn't make it less likely to be true out there in the real world, but in this kind of circumstance, one really must consider the outside view, which insists: "When a human with a history of mental illness invents a seemingly plausible argument in favor of suicide, it is far more likely that they've made a disastrous mistake somewhere, then that committing suicide is actually the right thing to do."
+
+
+[TODO—
+
+The human era wasn't going to last forever. Turing saw it in 1951. ("It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. [...] At some stage therefore we should have to expect the machines to take control[.]") _George Eliot_ [saw it in _1880_](http://www.online-literature.com/george_eliot/theophrastus-such/17/). ("Am I already in the shadow of the coming race? And will the creatures who are to transcend and supercede us be steely organisms, giving off the effluvia of the laboratory and performing with infallible exactness more than everything that we have performed with a slovenly approximativeness and self-defeating inaccuracy?")
+
+ * I've believed since Kurzweil that technology will remake the world sometime in the 21th century; it's just "the machines won't replace us, because we'll be them" doesn't seem credible
+
+list of lethalities
+
+ * I agree that it would be nice if Earth had a plan; it would be nice if people figured out the stuff Yudkowsky did earlier;
+
+Isaac Asimov wrote about robots in his fiction, and even the problem of alignment (in the form of his Three Laws of Robotics), and yet he still portrayed a future Galactic Empire populated by humans, which seems very silly.
+
+/2017/Jan/from-what-ive-tasted-of-desire/
+
 ]
\ No newline at end of file