memoir: TODO outlining in 2019 and to close
[Ultimately_Untrue_Thought.git] / notes / a-hill-of-validity-sections.md
index b07acd1..64b1680 100644 (file)
@@ -1,15 +1,12 @@
-on deck—
-_ Let's recap
-_ If he's reading this ...
-_ Perhaps if the world were at stake
-_ ¶ about social justice and defying threats
-_ ¶ about body odors
-_ regrets and wasted time
-_ talk about the 2019 Christmas party
-_ excerpt 2nd "out of patience" email
-
-
 with internet available—
+_ https://www.lesswrong.com/posts/QB9eXzzQWBhq9YuB8/rationalizing-and-sitting-bolt-upright-in-alarm#YQBvyWeKT8eSxPCmz
+_ Ben on "community": http://benjaminrosshoffman.com/on-purpose-alone/
+_ check date of univariate fallacy Tweet and Kelsey Facebook comment
+_ Soares "excited" example
+_ EA Has a Lying Problem
+_ when did I ask Leon about getting easier tasks?
+_ Facebook discussion with Kelsey (from starred email)?: https://www.facebook.com/nd/?julia.galef%2Fposts%2F10104430038893342&comment_id=10104430782029092&aref=1557304488202043&medium=email&mid=5885beb3d8c69G26974e56G5885c34d38f3bGb7&bcode=2.1557308093.AbzpoBOc8mafOpo2G9A&n_m=main%40zackmdavis.net
+_ "had previously written a lot about problems with Effective Altruism": link to all of Ben's posts
 _ Sarah Barellies cover links
 _ "watchful waiting"
 _ Atlantic article on "My Son Wears Dresses" https://archive.is/FJNII
@@ -30,10 +27,13 @@ _ refusing to give a probability (When Not to Use Probabilities? Shut Up and Do
 _ retrieve comment on pseudo-lies post in which he says its OK for me to comment even though
 
 
+
 far editing tier—
+_ tie off Anna's plot arc?
 _ quote one more "Hill of Meaning" Tweet emphasizing fact/policy distinction
 _ conversation with Ben about physical injuries (this is important because it explains where the "cut my dick off rhetoric" came from)
 _ context of his claim to not be taking a stand
+_ clarify "Merlin didn't like Vassar" example about Mike's name
 _ rephrase "gamete size" discussion to make it clearer that Yudkowsky's proposal also implicitly requires people to be agree about the clustering thing
 _ smoother transition between "deliberately ambiguous" and "was playing dumb"; I'm not being paranoid for attributing political motives to him, because he told us that he's doing it
 _ when I'm too close to verbatim-quoting someone's email, actually use a verbatim quote and put it in quotes
@@ -1232,3 +1232,78 @@ I didn't have a simple, [mistake-theoretic](https://slatestarcodex.com/2018/01/2
 http://archive.is/SXmol
 >  "don't lie to someone if you wouldn't slash their tires" is actually a paraphrase of Steven Kaas.
 > ... ugh, I forgot that that was from the same Black Belt Bayesian post where one of the examples of bad behavior is from me that time when I aggro'd against Phil Goetz to the point were Michael threatened to get me banned. I was young and grew up in the feminist blogosphere, but as I remarked to Zvi recently, in 2008, we had a way to correct that. (Getting slapped down by Michael's ostracism threat was really painful for me at the time, but in retrospect, it needed to be done.) In the current year, we don't.
+
+
+_Less Wrong_ had recently been rebooted with a new codebase and a new dev/admin team. New-_Less Wrong_ had a system for post to be "Curated". Begging Yudkowsky and Anna to legitimize "... Boundaries?" with a comment hadn't worked, but maybe the mods would  (They did end up curating [a post about mole rats](https://www.lesswrong.com/posts/fDKZZtTMTcGqvHnXd/naked-mole-rats-a-case-study-in-biological-weirdness).)
+
+
+
+
+Yudkowsky did [quote-Tweet Colin Wright on the univariate fallacy](https://twitter.com/ESYudkowsky/status/1124757043997372416)
+
+(which I got to [cite in a _Less Wrong_ post](https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy)
+
+
+"Univariate fallacy" also a concession
+(which I got to cite in  which I cited in "Schelling Categories")
+
+
+
+"Yes Requires the Possibility of No" 19 May https://www.lesswrong.com/posts/WwTPSkNwC89g3Afnd/comment-section-from-05-19-2019
+
+scuffle on LessWrong FAQ 31 May 
+
+"epistemic defense" meeting
+
+[TODO section on factional conflict:
+Michael on Anna as cult leader
+Jessica told me about her time at MIRI (link to Zoe-piggyback and Occupational Infohazards)
+24 Aug: I had told Anna about Michael's "enemy combatants" metaphor, and how I originally misunderstood
+me being regarded as Michael's pawn
+assortment of agendas
+mutualist pattern where Michael by himself isn't very useful for scholarship (he just says a lot of crazy-sounding things and refuses to explain them), but people like Sarah and me can write intelligible things that secretly benefited from much less legible conversations with Michael.
+]
+
+8 Jun: I think I subconsciously did an interesting political thing in appealing to my price for joining
+
+REACH panel
+
+(Subject: "Michael Vassar and the theory of optimal gossip")
+
+
+Since arguing at the object level had failed (["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), ["Reply on Adult Human Females"](/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/)), and arguing at the strictly meta level had failed (["... Boundaries?"](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries)), the obvious thing to do next was to jump up to the meta-meta level and tell the story about why the "rationalists" were Dead To Me now, that [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) was not being met. (Just like Ben had suggested in December and in April.)
+
+I found it trouble to make progress on. I felt—constrained. I didn't know how to tell the story without (as I perceived it) escalating personal conflicts or leaking info from private conversations. So instead, I mostly turned to a combination of writing bitter and insulting comments whenever I saw someone praise "the rationalists" collectively, and—more philosophy-of-language blogging!
+
+In August's ["Schelling Categories, and Simple Membership Tests"](https://www.lesswrong.com/posts/edEXi4SpkXfvaX42j/schelling-categories-and-simple-membership-tests), I explained a nuance that had only merited a passion mention in "... Boundaries?": sometimes you might want categories for different agents to _coordinate_ on, even at the cost of some statistical "fit." (This was of course generalized from a "pro-trans" argument that had occured to me, [that self-identity is an easy Schelling point when different people disagree about what "gender" they perceive someone as](/2019/Oct/self-identity-is-a-schelling-point/).)
+
+[TODO— more blogging 2019
+
+"Algorithms of Deception!" Oct 2019
+
+"Maybe Lying Doesn't Exist" Oct 2019
+
+I was _furious_ at "Against Lie Inflation"—oh, so _now_ you agree that making language less useful is a problem?! But then I realized Scott actually was being consistent in his own frame: he's counting "everyone is angrier" (because of more frequent lying-accusations) as a cost; but, if everyone _is_ lying, maybe they should be angry!
+
+"Heads I Win" Sep 2019: I was surprised by how well this did (high karma, later included in the best-of-2019 collection); Ben and Jessica had discouraged me from bothering after I 
+
+"Firming Up ..." Dec 2019: combatting Yudkowsky's not-technically-lying shenanigans
+
+]
+
+
+Scott said he liked "monastic rationalism _vs_. lay rationalism" as a frame for the schism Ben was proposing.
+
+(I wish I could use this line)
+I really really want to maintain my friendship with Anna despite the fact that we're de facto political enemies now. (And similarly with, e.g., Kelsey, who is like a sister-in-law to me (because she's Merlin Blume's third parent, and I'm Merlin's crazy racist uncle).)
+
+
+https://twitter.com/esyudkowsky/status/1164332124712738821
+> I unfortunately have had a policy for over a decade of not putting numbers on a few things, one of which is AGI timelines and one of which is *non-relative* doom probabilities.  Among the reasons is that my estimates of those have been extremely unstable.
+
+
+I don't, actually, know how to prevent the world from ending. Probably we were never going to survive. (The cis-human era of Earth-originating intelligent life wasn't going to last forever, and it's hard to exert detailed control over what comes next.) But if we're going to die either way, I think it would be _more dignified_ if Eliezer Yudkowsky were to behave as if he wanted his faithful students to be informed. Since it doesn't look like we're going to get that, I think it's _more dignified_ if his faithful students _know_ that he's not behaving like he wants us to be informed. And so one of my goals in telling you this long story about how I spent (wasted?) the last six years of my life, is to communicate the moral that 
+
+and that this is a _problem_ for the future of humanity, to the extent that there is a future of humanity.
+
+Is that a mean thing to say about someone to whom I owe so much? Probably. But he didn't create me to not say mean things. If it helps—as far as _I_ can tell, I'm only doing what he taught me to do in 2007–9: [carve reality at the joints](https://www.lesswrong.com/posts/esRZaPXSHgWzyB2NL/where-to-draw-the-boundaries), [speak the truth even if your voice trembles](https://www.lesswrong.com/posts/pZSpbxPrftSndTdSf/honesty-beyond-internal-truth), and [make an extraordinary effort](https://www.lesswrong.com/posts/GuEsfTpSDSbXFiseH/make-an-extraordinary-effort) when you've got [Something to Protect](https://www.lesswrong.com/posts/SGR4GxFK7KmW7ckCB/something-to-protect).