memoir: TODO outlining in 2019 and to close
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index 35d0c91..64b1680 100644 (file)
@@ -1,18 +1,15 @@
-on deck—
-- § about privacy norms, and my secret research project (research report on gout)
-_ finish and polish § on reaching out a fourth time
-_ talk about the 2019 Christmas party
-_ Let's recap
-_ If he's reading this ...
-_ Perhaps if the world were at stake
-_ ¶ about social justice and defying threats
-_ ¶ about body odors
-_ regrets and wasted time
-_ excerpt 2nd "out of patience" email
-
-
 with internet available—
+_ https://www.lesswrong.com/posts/QB9eXzzQWBhq9YuB8/rationalizing-and-sitting-bolt-upright-in-alarm#YQBvyWeKT8eSxPCmz
+_ Ben on "community": http://benjaminrosshoffman.com/on-purpose-alone/
+_ check date of univariate fallacy Tweet and Kelsey Facebook comment
+_ Soares "excited" example
+_ EA Has a Lying Problem
+_ when did I ask Leon about getting easier tasks?
+_ Facebook discussion with Kelsey (from starred email)?: https://www.facebook.com/nd/?julia.galef%2Fposts%2F10104430038893342&comment_id=10104430782029092&aref=1557304488202043&medium=email&mid=5885beb3d8c69G26974e56G5885c34d38f3bGb7&bcode=2.1557308093.AbzpoBOc8mafOpo2G9A&n_m=main%40zackmdavis.net
+_ "had previously written a lot about problems with Effective Altruism": link to all of Ben's posts
+_ Sarah Barellies cover links
 _ "watchful waiting"
+_ Atlantic article on "My Son Wears Dresses" https://archive.is/FJNII
 _ in "especially galling" §: from "Changing Emotions"—"somehow it's always about sex when men are involved"—he even correctly pinpointing AGP in ordinary men (as was obvious back then), just without the part that AGP _is_ "trans"
 _ "look at what ended up happening"—look up whether that exact quote from from http://www.hpmor.com/chapter/47 or https://www.hpmor.com/chapter/97
 _ Discord history with Scott (leading up to 2019 Christmas party, and deferring to Tailcalled on SSC survey question wording)
@@ -27,11 +24,16 @@ _ more examples of Yudkowsky's arrogance
 _ "The Correct Contrarian Cluster" and race/IQ
 _ taqiyya
 _ refusing to give a probability (When Not to Use Probabilities? Shut Up and Do the Impossible?)
+_ retrieve comment on pseudo-lies post in which he says its OK for me to comment even though
+
 
 
 far editing tier—
+_ tie off Anna's plot arc?
+_ quote one more "Hill of Meaning" Tweet emphasizing fact/policy distinction
 _ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ context of his claim to not be taking a stand
+_ clarify "Merlin didn't like Vassar" example about Mike's name
 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
 _ when I'm too close to verbatim-quoting someone's email, actually use a verbatim quote and put it in quotes
@@ -57,6 +59,7 @@ _ explain why I'm not being charitable in 2018 thread analysis, that at the time
 _ January 2019 meeting with Ziz and Gwen
 _ better summary of Littman
 _ explain Rob
+_ edit the child transition section in a way that Kay Brown would be OK with, have a few sentences about Clever Hans before the wrap-up
 
 
 terms to explain on first mention—
@@ -81,7 +84,7 @@ _ maybe SK (briefly about his name)?
 
 things to bring up in consultation emails—
 _ dropping "and Scott" in Jessica's description of attacking narcissim
-_ I think it's OK to copy my friend's language from emails; plagiarism instincts
+_ I think it's OK to copy my friends' language from emails; plagiarism instincts
 
 
 -------
@@ -173,7 +176,12 @@ Because of the particular historical moment in which we live, we end up facing p
 
 I view this conflict as entirely incidental, something that [would happen in some form in any place and time](https://www.lesswrong.com/posts/cKrgy7hLdszkse2pq/archimedes-s-chronophone), rather than having to do with American politics or "the left" in particular. In a Christian theocracy, our analogues would get in trouble for beliefs about evolution; in the old Soviet Union, our analogues would get in trouble for [thinking about market economics](https://slatestarcodex.com/2014/09/24/book-review-red-plenty/) (as a [positive technical discipline](https://en.wikipedia.org/wiki/Fundamental_theorems_of_welfare_economics#Proof_of_the_first_fundamental_theorem) adjacent to game theory, not yoked to a particular normative agenda).
 
-Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful what they say in public. (I am not smart.) Scott Aaronson wrote of [the Kolmogorov Option](https://www.scottaaronson.com/blog/?p=3376) (which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/): serve the cause of Truth by cultivating a bubble that focuses on truths that won't get you in trouble with the local political authorities. This after the Soviet mathematician Andrey Kolmogorov, who _knew better than to pick fights he couldn't win_.
+Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful what they say in public. (I am not smart.)
+
+
+(which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/):
+
+
 
 Becuase of the conflict, and because all the prominent high-status people are running a Kolmogorov Option strategy, and because we happen to have to a _wildly_ disproportionate number of _people like me_ around, I think being "pro-trans" ended up being part of the community's "shield" against external political pressure, of the sort that perked up after [the February 2021 _New York Times_ hit piece about Alexander's blog](https://archive.is/0Ghdl). (The _magnitude_ of heat brought on by the recent _Times_ piece and its aftermath was new, but the underlying dynamics had been present for years.)
 
@@ -810,7 +818,13 @@ The HEXACO personality model considers "honesty" and "humility" a single factor
 
 —and would be unforgivable if it weren't so _inexplicable_.
 
-... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
+... not _actually_ inexplicable. There was, in fact, an obvious explanation: that
+
+
+Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal.
+
+
+But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
 
 At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's 
 
@@ -831,9 +845,11 @@ https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Z
 
 ]
 
-Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
+Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance,
+
+really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
 
-Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
+Because of my hero worship,
 
 
 > People probably change their mind more often than they explicitly concede arguments, which is fine because intellectual progress is more important than people who were wrong performing submission.
@@ -846,17 +862,12 @@ My 28 November 2018 text to Michael—
 > just a thread reply to Eliezer that says "I trust Zack's rationality and think you should pay attention to what he has to say" (if and only if you actually believe that to be true, obviously)?
 
 
-(don't know how to summarize the part with Ian—)
-I remember going downstairs to impulsively confide in a senior engineer, an older bald guy who exuded masculinity, who you could tell by his entire manner and being was not infected by the Berkeley mind-virus, no matter how loyally he voted Democrat—not just about the immediate impetus of this Twitter thread, but this whole _thing_ of the past couple years where my entire social circle just suddenly decided that guys like me could be women by means of saying so. He was sympathetic.
-
-
-[TODO: paraphrase remaining interaction with Scott, or not worth the space?
-
-> I don't have a simple, mistake-theoretic characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I can do is try to objectively predict the consequences of different possible conventions—and of conflicts over possible conventions.
 
 helping Norton live in the real world
 
-Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus."; I don't think _anything_ about "mental health benefits to trans people" is obvious 
+Scott says, "It seems to me pretty obvious that the mental health benefits to trans people are enough to tip the object-level first-pass uilitarian calculus.
+
+"; I don't think _anything_ about "mental health benefits to trans people" is obvious 
 ]
 
 [TODO: connecting with Aurora 8 December, maybe not important]
@@ -882,9 +893,6 @@ The McGongall turning into a cat parody may actually be worth fitting in—McCon
 
 Michael on EA suppressing credible criticism https://twitter.com/HiFromMichaelV/status/1559534045914177538
 
-"epistemic hero"
-https://twitter.com/ESYudkowsky/status/1096769579362115584
-
 zinger from 93—
 > who present "this empirical claim is inconsistent with the basic tenets of my philosophy" as an argument against the _claim_
 
@@ -1175,7 +1183,7 @@ If you _don't_ have intent-to-inform, but make sure to never, ever say false thi
 
 ----
 
-comment on pseudo-lies post in which he says its OK for me to comment even though
+
 
 bitter comments about rationalists—
 https://www.greaterwrong.com/posts/qXwmMkEBLL59NkvYR/the-lesswrong-2018-review-posts-need-at-least-2-nominations/comment/d4RrEizzH85BdCPhE
@@ -1193,6 +1201,9 @@ https://www.lesswrong.com/posts/Ndtb22KYBxpBsagpj/eliezer-yudkowsky-facts?commen
 Never go in against Eliezer Yudkowsky when anything is on the line.
 https://en.wikipedia.org/wiki/Chuck_Norris_facts
 
+"epistemic hero"
+https://twitter.com/ESYudkowsky/status/1096769579362115584
+
 https://twitter.com/ESYudkowsky/status/1434906470248636419
 > Anyways, Scott, this is just the usual division of labor in our caliphate: we're both always right, but you cater to the crowd that wants to hear it from somebody too modest to admit that, and I cater to the crowd that wants somebody out of that closet.
 
@@ -1208,3 +1219,91 @@ It's totally understandable to not want to get involved in a political scuffle b
 An analogy: racist jokes are also just jokes. Alice says, "What's the difference between a black dad and a boomerang? A boomerang comes back." Bob says, "That's super racist! Tons of African-American fathers are devoted parents!!" Alice says, "Chill out, it was just a joke." In a way, Alice is right. It was just a joke; no sane person could think that Alice was literally claiming that all black men are deadbeat dads. But, the joke only makes sense in the first place in context of a culture where the black-father-abandonment stereotype is operative. If you thought the stereotype was false, or if you were worried about it being a self-fulfilling prophecy, you would find it tempting to be a humorless scold and get angry at the joke-teller.
 
 Similarly, the "Caliphate" humor only makes sense in the first place in the context of a celebrity culture where deferring to Scott and Eliezer is expected behavior. (In a way that deferring to Julia Galef or John S. Wentworth is not expected behavior, even if Galef and Wentworth also have a track record as good thinkers.) I think this culture is bad. _Nullius in verba_.
+
+ [TODO: asking Anna to weigh in] (I figured that spamming people with hysterical and somewhat demanding physical postcards was more polite (and funnier) than my recent habit of spamming people with hysterical and somewhat demanding emails.)
+
+https://trevorklee.substack.com/p/the-ftx-future-fund-needs-to-slow
+> changing EA to being a social movement from being one where you expect to give money
+
+when I talked to the Kaiser psychiatrist in January 2021, he said that the drugs that they gave me in 2017 were Zyprexa 5mg and Trazadone 50mg, which actually seems a lot more reasonable in retrospect (Trazadone is on Scott's insomnia list), but it was a lot scarier in the context of not trusting the authorities
+
+I didn't have a simple, [mistake-theoretic](https://slatestarcodex.com/2018/01/24/conflict-vs-mistake/) characterization of the language and social conventions that everyone should use such that anyone who defected from the compromise would be wrong. The best I could do was try to objectively predict the consequences of different possible conventions—and of _conflicts_ over possible conventions.
+
+http://archive.is/SXmol
+>  "don't lie to someone if you wouldn't slash their tires" is actually a paraphrase of Steven Kaas.
+> ... ugh, I forgot that that was from the same Black Belt Bayesian post where one of the examples of bad behavior is from me that time when I aggro'd against Phil Goetz to the point were Michael threatened to get me banned. I was young and grew up in the feminist blogosphere, but as I remarked to Zvi recently, in 2008, we had a way to correct that. (Getting slapped down by Michael's ostracism threat was really painful for me at the time, but in retrospect, it needed to be done.) In the current year, we don't.
+
+
+_Less Wrong_ had recently been rebooted with a new codebase and a new dev/admin team. New-_Less Wrong_ had a system for post to be "Curated". Begging Yudkowsky and Anna to legitimize "... Boundaries?" with a comment hadn't worked, but maybe the mods would  (They did end up curating [a post about mole rats](https://www.lesswrong.com/posts/fDKZZtTMTcGqvHnXd/naked-mole-rats-a-case-study-in-biological-weirdness).)
+
+
+
+
+Yudkowsky did [quote-Tweet Colin Wright on the univariate fallacy](https://twitter.com/ESYudkowsky/status/1124757043997372416)
+
+(which I got to [cite in a _Less Wrong_ post](https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy)
+
+
+"Univariate fallacy" also a concession
+(which I got to cite in  which I cited in "Schelling Categories")
+
+
+
+"Yes Requires the Possibility of No" 19 May https://www.lesswrong.com/posts/WwTPSkNwC89g3Afnd/comment-section-from-05-19-2019
+
+scuffle on LessWrong FAQ 31 May 
+
+"epistemic defense" meeting
+
+[TODO section on factional conflict:
+Michael on Anna as cult leader
+Jessica told me about her time at MIRI (link to Zoe-piggyback and Occupational Infohazards)
+24 Aug: I had told Anna about Michael's "enemy combatants" metaphor, and how I originally misunderstood
+me being regarded as Michael's pawn
+assortment of agendas
+mutualist pattern where Michael by himself isn't very useful for scholarship (he just says a lot of crazy-sounding things and refuses to explain them), but people like Sarah and me can write intelligible things that secretly benefited from much less legible conversations with Michael.
+]
+
+8 Jun: I think I subconsciously did an interesting political thing in appealing to my price for joining
+
+REACH panel
+
+(Subject: "Michael Vassar and the theory of optimal gossip")
+
+
+Since arguing at the object level had failed (["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), ["Reply on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/)), and arguing at the strictly meta level had failed (["... Boundaries?"](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries)), the obvious thing to do next was to jump up to the meta-meta level and tell the story about why the "rationalists" were Dead To Me now, that [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) was not being met. (Just like Ben had suggested in December and in April.)
+
+I found it trouble to make progress on. I felt—constrained. I didn't know how to tell the story without (as I perceived it) escalating personal conflicts or leaking info from private conversations. So instead, I mostly turned to a combination of writing bitter and insulting comments whenever I saw someone praise "the rationalists" collectively, and—more philosophy-of-language blogging!
+
+In August's ["Schelling Categories, and Simple Membership Tests"](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests), I explained a nuance that had only merited a passion mention in "... Boundaries?": sometimes you might want categories for different agents to _coordinate_ on, even at the cost of some statistical "fit." (This was of course generalized from a "pro-trans" argument that had occured to me, [that self-identity is an easy Schelling point when different people disagree about what "gender" they perceive someone as](/2019/Oct/self-identity-is-a-schelling-point/).)
+
+[TODO— more blogging 2019
+
+"Algorithms of Deception!" Oct 2019
+
+"Maybe Lying Doesn't Exist" Oct 2019
+
+I was _furious_ at "Against Lie Inflation"—oh, so _now_ you agree that making language less useful is a problem?! But then I realized Scott actually was being consistent in his own frame: he's counting "everyone is angrier" (because of more frequent lying-accusations) as a cost; but, if everyone _is_ lying, maybe they should be angry!
+
+"Heads I Win" Sep 2019: I was surprised by how well this did (high karma, later included in the best-of-2019 collection); Ben and Jessica had discouraged me from bothering after I 
+
+"Firming Up ..." Dec 2019: combatting Yudkowsky's not-technically-lying shenanigans
+
+]
+
+
+Scott said he liked "monastic rationalism _vs_. lay rationalism" as a frame for the schism Ben was proposing.
+
+(I wish I could use this line)
+I really really want to maintain my friendship with Anna despite the fact that we're de facto political enemies now. (And similarly with, e.g., Kelsey, who is like a sister-in-law to me (because she's Merlin Blume's third parent, and I'm Merlin's crazy racist uncle).)
+
+
+https://twitter.com/esyudkowsky/status/1164332124712738821
+> I unfortunately have had a policy for over a decade of not putting numbers on a few things, one of which is AGI timelines and one of which is *non-relative* doom probabilities.  Among the reasons is that my estimates of those have been extremely unstable.
+
+
+I don't, actually, know how to prevent the world from ending. Probably we were never going to survive. (The cis-human era of Earth-originating intelligent life wasn't going to last forever, and it's hard to exert detailed control over what comes next.) But if we're going to die either way, I think it would be _more dignified_ if Eliezer Yudkowsky were to behave as if he wanted his faithful students to be informed. Since it doesn't look like we're going to get that, I think it's _more dignified_ if his faithful students _know_ that he's not behaving like he wants us to be informed. And so one of my goals in telling you this long story about how I spent (wasted?) the last six years of my life, is to communicate the moral that 
+
+and that this is a _problem_ for the future of humanity, to the extent that there is a future of humanity.
+
+Is that a mean thing to say about someone to whom I owe so much? Probably. But he didn't create me to not say mean things. If it helps—as far as _I_ can tell, I'm only doing what he taught me to do in 2007–9: [carve reality at the joints](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries), [speak the truth even if your voice trembles](https://www.lesswrong.com/posts/pZSpbxPrftSndTdSf/honesty-beyond-internal-truth), and [make an extraordinary effort](https://www.lesswrong.com/posts/GuEsfTpSDSbXFiseH/make-an-extraordinary-effort) when you've got [Something to Protect](https://www.lesswrong.com/posts/SGR4GxFK7KmW7ckCB/something-to-protect).