check in
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 802fea1..8ba7a98 100644 (file)
@@ -1,4 +1,5 @@
 dedicated day?—
+_ dath ilan and Eliezerfic fight
 _ Michael Vassar and the Theory of Optimal Gossip
 _ psychiatric disaster 
 
@@ -585,8 +586,6 @@ https://www.lesswrong.com/posts/PG8i7ZiqLxthACaBi/do-fandoms-need-awfulness
 
 https://graymirror.substack.com/p/the-journalist-rationalist-showdown?s=r
 
-contrast to masochism being an infohazard in dath ilan: in real life, when your sexuality is considered an infrohazard (supposedly for the benefit of people with your sexuality), you don't take it lying down
-
 Keltham contradicts himself inside of a single tag! Using the words "shape" and "covert" both times!!
 
 Scott has the power to set narratives, as evidenced by his attack on Michael hijacking Jessica's thread
@@ -1830,3 +1829,79 @@ it's just so weird that, this cult that started out with "People can stand what
 
 "The eleventh virtue is scholarship! Study many sciences and absorb their power as your own ... unless a prediction market says that would make you less happy" just doesn't have the same ring to it, you know?
 "The first virtue is curiosity! A burning itch to know is higher than a solemn vow to pursue truth. But higher than both of those, is trusting your Society's institutions to tell you which kinds of knowledge will make you happy" also does not have the same ring to it, even if you stipulate by authorial fiat that your Society's institutions are super-competent, such that they're probably right about the happiness thing
+
+------
+
+so, I admitted to being a motivated critic (having a social incentive to find fault with dath ilan), but that I nevertheless only meant to report real faults rather than fake faults, and Yudkowsky pointed out that that's not good enough (you also need to be looking for evidence on the other side), and that therefore didn't consider the criticism to be coming from a peer, and challenged me to say things about how the text valorizes truth
+(and I didn't point out that whether or not I'm a "peer"—which I'm clearly not if you're measuring IQ or AI alignment contributions or fiction-writing ability—shouldn't be relevant because https://www.lesswrong.com/posts/5yFRd3cjLpm3Nd6Di/argument-screens-off-authority, because I was eager to be tested and eager to pass the test)
+and I thought I wrote up some OK answers to the query
+(I definitely didn't say, "that's impossible because Big Yud and Linta are lying liars who hate truth")
+but he still wasn't satisifed on grounds of me focusing too much on what the characters said, and not what the universe said, and then when I offered one of those, he still wasn't satisfied (because the characters had already remarked on it)
+and I got the sense that he wanted Original Seeing, and I thought, and I came up with some Original Philosophy that connected the universe of godagreements to some of my communication theory ideas, and I was excited about it
+so I ran with it
+
+[...]
+
+Zack M. Davis — Today at 10:18 PM
+but the Original Philosophy that I was legitimately proud of, wasn't what I was being tested on; it legitimately looks bad in context
+
+--------
+
+OK, so I'm thinking my main takeaways from the Eliezerfic fight is that I need to edit my memoir draft to be both _less_ "aggressive" in terms of expressing anger (which looks bad and _far more importantly_ introduces distortions), and _more_ "aggressive" in terms of calling Yudkowsky intellectually dishonest (while being _extremely clear_ about explaining _exactly_ what standards I think are not being met and why that's important, without being angry about it).
+
+The standard I'm appealing to is, "It's intellectually dishonest to make arguments and refuse to engage with counterarguments on political grounds." I think he's made himself very clear that he doesn't give a sh—
+
+(no, need to avoid angry language)
+
+—that he doesn't consider himself bound by that standard.
+
+----
+
+https://discord.com/channels/936151692041400361/1022006828718104617/1054235592961048609
+> rather than, as is more often the case in dath ilan stories, a depiction of a better institution you could build if people were eliezera
+
+(eliezera racial supremacy _is_ the lesson)
+
+Fool! There is no Equilibrium
+
+and you'd think that people who are so obsessed with prediction markets (whose trustworthiness does not stem from individual traders having unimpeachably perfect cognition) would be able to appreciate the value of the somewhat older social technology of ... debate
+
+> god i feel like writing this all out is explaining something that's always felt weird to me about the whole concept of stories and science fiction stories in particular. *i have been living inside a science fiction story written by eliezer yudkowsky*
+https://twitter.com/QiaochuYuan/status/1542781304621518848
+
+Said Achmiz on Eliezer's degeneration—
+https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=kS4BfYJuZ8ZcwuwfB
+https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=4kLTSanNyhn5H8bHv
+
+Namespace on standing and warrant—
+https://www.lesswrong.com/posts/pC74aJyCRgns6atzu/meta-discussion-from-circling-as-cousin-to-rationality?commentId=c7Xt5AnHwhfgYY67K
+
+I've been playing a Dagny Taggart strategy
+https://twitter.com/zackmdavis/status/1606718513267486721
+
+Michael 19 April 2019—
+> Intellectualism to survive, has to distinguish between having been betrayed and having been defeated. The difference is frequently known as "courage".  It's absence causes people like Aaronson, without ever becoming complicit, to nonetheless transition directly from denial of a crisis to advocacy of "The Kolmagorov Option".  
+
+during the dispute with James, Jonah said it seemed like the future beyond a year wasn't real to me (this also explains my behavior in college)
+
+you can't trust his behavior, even if you can trust his "conscious intent" which conveniently doesn't do anything
+
+https://twitter.com/ben_r_hoffman/status/1608191251991662592
+> Keeping a secret is like casting the killing curse—it might be the best option available in a conflict, but even when it's the least bad option it tears your soul a bit regardless.
+
+https://twitter.com/ESYudkowsky/status/1599889168234336257
+> One of the retrospective less-obvious lessons of the #FTX blowup:  We should have been more worried about the early split in Alameda where half the people left with @Tara_MacAulay to run a less wild trading company.  In retrospect that probably evaporated off everyone sane!
+
+Likewise, we should have been more worried about the Vassar split; in retrospect that probably evaporated off everyone principled
+
+The thing that makes Earth bad is that everyone is lying about everything all the time, and when you challenge them on it, they have some clever rationalization for why it isn't really bad.
+
+https://manifold.markets/Alicorn/will-my-son-successfully-get-a-bath#
+I'm not allowed to say, "Which one?"—it's known that I'm the sort of person who believes that, but I'm not allowed to puncture the shared reality
+
+I said I perceived a nearest-unblocked-strategy pattern, where I'm trying to optimize my goals subject to the constraint of maintaining good diplomatic relations. But Anna points out that if I internalized "good diplomatic relations" as my own goal
+
+Speaking of coordination: you know what's useful for coordination? Principles! Common knowledge!
+
+the post introducing the litany of Gendlin was literally titled "You _Can_ Face Reality"
+https://www.lesswrong.com/posts/HYWhKXRsMAyvRKRYz/you-can-face-reality
\ No newline at end of file