memoir: pokes, community college guidance counselor anecdote
[Ultimately_Untrue_Thought.git] / notes / memoir-sections.md
index 4ab8a07..33badda 100644 (file)
@@ -1,43 +1,36 @@
 battle stations—
 ✓ outline NYT defense/prelude to pronouns
-_ flesh out prelude to pronouns I
-_ flush out prelude to pronouns II
+ flesh out prelude to pronouns I
+- flush out prelude to pronouns II
 _ outlining existential stakes and social justice FDT
-_ outlining Dolphin War II
+- outlining Dolphin War II
 _ flesh out existential stakes and social justice FDT
 _ flesh out Dolphin War II
 
 
 dedicated day?—
 _ Michael Vassar and the Theory of Optimal Gossip
-_ Sasha disaster 
+_ psychiatric disaster 
 
 With internet available—
-_ dolphin thread also referenced Georgia on trees, which also cited "Not Man for the Categories"
-_ commit patch URL for my slate_starchive script
-_ double-check on exact pre-edit wording of Brennan denunciation
-_ Wentworth specifically doesn't want people's John-models to overwrite their own models
-_ footnote Charles Murray's caveats
-_ record of Yudkowsky citing TDT as part of decision to prosecute Emerson?
-_ university library sells borrowing privileges
+✓ record of Yudkowsky citing TDT as part of decision to prosecute Emerson?
+✓ Scott vs. Ben on Drowning
+✓ Ray and D. Xu's comments on "The Incentives"
+✓ comments on "Self-Consciousness wants to make"
+✓ tussle with Ruby on "Causal vs. Social Reality"
+_ did my archive.is spree include https://twitter.com/ESYudkowsky/status/1435618825198731270 and https://twitter.com/ESYudkowsky/status/1356812143849394176?
+_ link to Kay Brown's summary of the "Social Desirability Response Set" paper, and footnote paper link and my brief methodology explanation
+_ "Alexander once joked"—include the year
+_ availability heuristic
+_ one more significant figure in reporting 2011 Less Wrong male %, to match 2020
+_ something to support Metz being a pro for decades
+_ "not taking into account considerations" → rephrase to quote "God's dictionary"
 _ Aaron Terrell and Corina Cohn
-_ Eddie Izzard
 _ more examples of Yudkowsky's arrogance (MIRI dialogues, knew how to say anything at all)
-_ rational-ist/physics-ist analogy (and link to Yudkowsky Tweet where I think I got this from)
-_ "linking to K-complicity in my replies", link the specific reply
-_ Wentworth on mutual information being on the right track?
-_ "20% of the ones with penises" someone in the comments saying, "It is a woman's body", and Yudkowsky saying "duly corrected"
-_ "not taking into account considerations" → rephrase to quote "God's dictionary"
-_ except when it's net bad to have concluded Y: https://www.greaterwrong.com/posts/BgEG9RZBtQMLGuqm7/[Error%20communicating%20with%20LW2%20server]/comment/LgLx6AD94c2odFxs4
 _ my history of sniping in Yudkowsky's mentions
-_ comments on "Self-Consciousness wants to make"
-_ Scott vs. Ben on Drowning Children
-_ Ray and D. Xu's comments on "The Incentives"
 _ my comment about having changed my mind about "A Fable of Science and Politics"
 _ more Yudkowsky Facebook comment screenshots
 _ that neuroscience paper backing the two-types
-_ compile Categories references from the Dolphin War Twitter thread
-_ tussle with Ruby on "Causal vs. Social Reality"
 _ examples of snarky comments about "the rationalists" 
 _ 13th century word meanings
 _ weirdly hostile comments on "... Boundaries?"
@@ -106,7 +99,9 @@ _ notice the symmetry where _both_ E and I want to partition the discussion with
 _ contract-drafting em, SSC blogroll is most of my traffic
 _ "Common Interest of Many Causes" and "Kolmogorov Complicity" offer directly contradictory strategies
 _ Vassar's about-face on gender
-
+_ risk of people bouncing off progressivism
+_ an AGP teen boy could at least consent to transition, and make plans based on knowing what the thing is (you'd actually want to go through a little bit of male puberty)
+_ figure out full timeline of which of my Less Wrong posts to mention
 
 
 terms to explain on first mention—
@@ -161,7 +156,6 @@ cross-referenced with my dayjob schedule implies ... finished draft ms. on 15 De
 
 The thing about our crowd is that we have a lamentably low proportion of women (13.3% cis women in the last community survey) and—I don't know when this happened; it certainly didn't feel like this back in 'aught-nine—an enormous number of trans women relative to population base rates (2.7%, for a cis-to-trans ratio of 4.9!!), the vast majority of whom I expect to be AGP
 
-https://slatestarscratchpad.tumblr.com/post/142995164286/i-was-at-a-slate-star-codex-meetup. "We are solving the gender ratio issue one transition at a time"
 
 [TODO: contrast "... Not Man for the Categories" to "Against Lie Inflation";
 When the topic at hand is how to define "lying", Alexander 
@@ -242,22 +236,11 @@ I'm not optimistic about the problem being fixable, either. Our robot cult _alre
 
 ----
 
-Because of the particular historical moment in which we live, we end up facing pressure from progressives, because—whatever our _object-level_ beliefs about (say) [sex, race, and class differences](/2020/Apr/book-review-human-diversity/)—and however much many of us would prefer not to talk about them—on the _meta_ level, our creed requires us to admit _it's an empirical question_, not a moral one—and that [empirical questions have no privileged reason to admit convenient answers](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
-
-I view this conflict as entirely incidental, something that [would happen in some form in any place and time](https://www.lesswrong.com/posts/cKrgy7hLdszkse2pq/archimedes-s-chronophone), rather than having to do with American politics or "the left" in particular. In a Christian theocracy, our analogues would get in trouble for beliefs about evolution; in the old Soviet Union, our analogues would get in trouble for [thinking about market economics](https://slatestarcodex.com/2014/09/24/book-review-red-plenty/) (as a [positive technical discipline](https://en.wikipedia.org/wiki/Fundamental_theorems_of_welfare_economics#Proof_of_the_first_fundamental_theorem) adjacent to game theory, not yoked to a particular normative agenda).
-
-Incidental or not, the conflict is real, and everyone smart knows it—even if it's not easy to _prove_ that everyone smart knows it, because everyone smart is very careful what they say in public. (I am not smart.)
-
 
 (which Alexander aptly renamed [Kolmorogov complicity](https://slatestarcodex.com/2017/10/23/kolmogorov-complicity-and-the-parable-of-lightning/):
 
-
-
 Becuase of the conflict, and because all the prominent high-status people are running a Kolmogorov Option strategy, and because we happen to have to a _wildly_ disproportionate number of _people like me_ around, I think being "pro-trans" ended up being part of the community's "shield" against external political pressure, of the sort that perked up after [the February 2021 _New York Times_ hit piece about Alexander's blog](https://archive.is/0Ghdl). (The _magnitude_ of heat brought on by the recent _Times_ piece and its aftermath was new, but the underlying dynamics had been present for years.)
 
-Jacob Falkovich noted (on 23 June 2020, just after _Slate Star Codex_ went down), ["The two demographics most over-represented in the SlateStarCodex readership according to the surveys are transgender people and Ph.D. holders."](https://twitter.com/yashkaf/status/1275524303430262790) [Scott Aaronson noted (in commentary on the _Times_ article)](https://www.scottaaronson.com/blog/?p=5310) "the rationalist community's legendary openness to alternative gender identities and sexualities" as something that would have "complicated the picture" of our portrayal as anti-feminist.
-
-Even the _haters_ grudgingly give Alexander credit for "... Not Man for the Categories": ["I strongly disagree that one good article about accepting transness means you get to walk away from writing that is somewhat white supremacist and quite fascist without at least awknowledging you were wrong."](https://archive.is/SlJo1)
 
 Given these political realities, you'd think that I _should_ be sympathetic to the Kolmogorov Option argument, which makes a lot of sense. _Of course_ all the high-status people with a public-facing mission (like building a movement to prevent the coming robot apocalypse) are going to be motivatedly dumb about trans stuff in public: look at all the damage [the _other_ Harry Potter author did to her legacy](https://en.wikipedia.org/wiki/Politics_of_J._K._Rowling#Transgender_people).
 
@@ -1581,6 +1564,10 @@ I'm planning on publishing the drafts linked below on [dates].
 
 **If you want to contest any purported factual inaccuracies or my interpretation of the "no direct references to private conversations" privacy norm, get back to me before [date].** If you have anything else to say for yourself, you can say it in the public comments section. End transmission.
 
+[13 November: #drama discussion today (https://discord.com/channels/401181628015050773/458419017602826260/1041586188961714259) makes me feel like I don't want to put a "Why I Don't Trust ..." post, like it would be too cruel]
+
+[no awareness that people like me or Michael or Jessica would consider this a betrayal coming from the author of the Sequences (even if it wouldn't be a betrayal coming from a generic public intellectual)]
+
 ----
 
 (If you weren't interested in meeting my standards for intellectual honest before, it's not clear why you would change your mind just because I spent 80,000 words cussing you out to everyone else.)
@@ -1659,3 +1646,54 @@ effects on my social life—calculating what I'm allowed to say; making sure I c
 
 https://forum.effectivealtruism.org/posts/FKJ8yiF3KjFhAuivt/impco-don-t-injure-yourself-by-returning-ftxff-money-for
 when that happens, in EA, I often do suspect that nobody else will dare to speak the contrary viewpoint, if not me.
+
+Michael, June 2019
+> If clarity seems like death to them and like life to us, and we don't know this, IMHO that's an unpromising basis for friendship
+
+------
+
+Piper and Yudkowsky on privacy norms—
+
+https://twitter.com/KelseyTuoc/status/1591996891734376449
+> if such promises were made, they should be kept, but in practice in the present day, they often aren't made, and if you haven't explicitly promised a source confidentiality and then learn of something deeply unethical from them you should absolutely whistleblow.
+
+https://twitter.com/ESYudkowsky/status/1592002777429180416
+> I don't think I'd go for "haven't explicitly promised" here but rather "if you're pretty sure there was no such informal understanding on which basis you were granted that access and information".
+
+------
+
+14 November conversation, he put a checkmark emoji on my explanation of why giving up on persuading people via methods that discriminate true or false amounts to giving up on the concept of intellectual honesty and choosing instead to become a propaganda AI, which made me feel much less ragey https://discord.com/channels/401181628015050773/458419017602826260/1041836374556426350
+
+The problem isn't just the smugness and condescension; it's the smugness and condescension when he's in the wrong and betraying the principles he laid out in the Sequences and knows it; I don't want to be lumped in with anti-arrogance that's not sensitive to whether the arrogance is in the right
+
+My obsession must look as pathetic from the outside as Scott Aaronson's—why doesn't he laugh it off, who cares what SneerClub thinks?—but in my case, the difference is that I was betrayed
+
+-----
+
+dath ilan on advertising (https://www.glowfic.com/replies/1589520#reply-1589520)—
+> So, in practice, an ad might look like a picture of the product, with a brief description of what the product does better that tries to sound very factual and quantitative so it doesn't set off suspicions.  Plus a much more glowing quote from a Very Serious Person who's high enough up to have a famous reputation for impartiality, where the Very Serious Person either got paid a small amount for their time to try that product, or donated some time that a nonprofit auctioned for much larger amounts; and the Very Serious Person ended up actually impressed with the product, and willing to stake some of their reputation on recommending it in the name of the social surplus they expect to be thereby produced.
+
+
+I wrote a Python script to replace links to _Slate Star Codex_ with archive links: http://unremediatedgender.space/source?p=Ultimately_Untrue_Thought.git;a=commitdiff;h=21731ba6f1191f1e8f9#patch23
+
+John Wentworth—
+> I chose the "train a shoulder advisor" framing specifically to keep my/Eliezer's models separate from the participants' own models.
+https://www.greaterwrong.com/posts/Afdohjyt6gESu4ANf/most-people-start-with-the-same-few-bad-ideas#comment-zL728sQssPtXM3QD9
+
+https://twitter.com/ESYudkowsky/status/1355712437006204932
+> A "Physics-ist" is trying to engage in a more special human activity, hopefully productively, where they *think* about light in order to use it better.
+
+Wentworth on my confusion about going with the sqaured-error criterion in "Unnatural Categories"—
+> I think you were on the right track with mutual information. They key insight here is not an insight about what metric to use, it's an insight about the structure of the world and our information about the world. [...]  If we care more about the rough wall-height than about brick-parity, that’s because the rough wall-height is more relevant to the other things which we care about in the world. And that, in turn, is because the rough wall-height is more relevant to more things in general. Information about brick-parity just doesn’t propagate very far in the causal graph of the world; it's quickly wiped out by noise in other variables. Rough wall-height propagates further.
+
+not interested in litigating "lying" vs. "rationalizing" vs. "misleading-by-implicature"; you can be _culpable_ for causing people to be misled in a way that isn't that sensitive to what exactly was going on in your head
+
+-----
+
+https://www.facebook.com/yudkowsky/posts/pfbid02ZoAPjap94KgiDg4CNi1GhhhZeQs3TeTc312SMvoCrNep4smg41S3G874saF2ZRSQl?comment_id=10159410429909228&reply_comment_id=10159410748194228
+
+> Zack, and many others, I think you have a vulnerability where you care way too much about the reasons that bullies give for bullying you, and the bullies detect that and exploit it.
+
+
+
+> Everyone. (Including organizers of science fiction conventions.) Has a problem of "We need to figure out how to exclude evil bullies." We also have an inevitable Kolmogorov Option issue but that should not be confused with the inevitable Evil Bullies issue, even if bullies attack through Kolmogorov Option issues.