"Sexual Dimorphism": ELTE and the limits of medicine, lean low scope
[Ultimately_Untrue_Thought.git] / notes / sexual-dimorphism-in-the-sequences-notes.md
index 9073e51..b587d57 100644 (file)
@@ -7,7 +7,7 @@ _(content warning transphobia)_
 _(content warning too much information about weird fetishes)_  
 _(content warning WTF did I just read)_  
 
-(November 2020, [TODO] words)
+(December 2020, [TODO] words)
 
 
 (You can also think of this as psychological context-setting for my philosophy-of-language Sequence's forthcoming two-post conclusion, "Unnatural Categories Are Optimized for Deception" and "Motivation and Political Context for my Philosophy-of-Language Agenda")
@@ -64,7 +64,7 @@ https://www.lesswrong.com/posts/9fpWoXpNv83BAHJdc/the-comedy-of-behaviorism
  * The text of this blog post is not something a woman could have written
  * as a programmer, I have learned to fear dependencies
 * wipe culturally defined values: https://www.greaterwrong.com/posts/BkkwXtaTf5LvbA6HB/moral-error-and-moral-disagreement (this might have to go after Failed-Utopia #4-2)
-
+* detachable
 
 https://www.lesswrong.com/posts/r3NHPD3dLFNk9QE2Y/search-versus-design-1
 https://www.lesswrong.com/posts/JBFHzfPkXHB2XfDGj/evolution-of-modularity
@@ -336,3 +336,47 @@ A culture where there are huge catastrophic consequences for questioning gender
 
 
 The short story ["Failed Utopia #4-2"](https://www.lesswrong.com/posts/ctpkTaqTKbmm6uRgC/failed-utopia-4-2) portrays an almost-aligned superintelligence constructing a happiness-maximizing utopia for humans—except that because [evolution didn't design women and men to be optimal partners for each other](https://www.lesswrong.com/posts/Py3uGnncqXuEfPtQp/interpersonal-entanglement), and the AI is prohibited from editing people's minds, the happiness-maximizing solution ends up splitting up the human species by sex and giving women and men their own _separate_ utopias, complete with artificially-synthesized romantic partners.
+
+
+
+
+(Though I think I'd call myself a transwoman—one word, for the same reason the _verthandi_ in "Failed Utopia #4-2" got their own word. I currently write "trans woman", two words, as a strategic concession to the shibboleth-detectors of my target audience: I don't want to to _prematurely_ scare off progressive-socialized readers on account of mere orthography, when what I actually have to say is already disturbing enough.)
+
+
+Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
+
+But the _reason_ it seemed _at all_ remotely plausible that our little robot cult could be pivotal in creating Utopia forever was _not_ "[Because we're us](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/), the world-saving good guys", but rather _because_ we were going to discover and refine the methods of _systematically correct reasoning_.
+
+If you're doing systematically correct reasoning, you should be able to get the right answer even when the question _doesn't matter_. Obviously, the safety of the world does not _directly_ depend on being able to think clearly about trans issues. Similarly, the safety of a coal mine for humans does not _directly_ depend on [whether it's safe for canaries](https://en.wiktionary.org/wiki/canary_in_a_coal_mine): the dead canaries are just _evidence about_ properties of the mine relevant to human health. (The causal graph is the fork "canary-death ← mine-gas → human-danger" rather than the direct link "canary-death → human-danger".)
+
+The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2020 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity as a cost), also can't get heliocentrism right in 1632 _for the same reason_—and I really doubt it can get AI alignment theory right in 2039.
+
+If the people _marketing themselves_ as the good guys who are going to save the world using systematically correct reasoning are _not actually interested in doing systematically correct reasoning_ (because systematically correct reasoning leads to two or three conclusions that are politically "impossible" to state clearly in public, and no one has the guts to [_not_ shut up and thereby do the politically impossible](https://www.lesswrong.com/posts/nCvvhFBaayaXyuBiD/shut-up-and-do-the-impossible)), that's arguably _worse_ than the situation where "the community" _qua_ community doesn't exist at all.
+
+Someone asked me: "If we randomized half the people at [OpenAI](https://openai.com/) to use trans pronouns one way, and the other half to use it the other way, do you think they would end up with significantly different productivity?"
+
+But the thing I'm objecting to is a lot more fundamental than the specific choice of pronoun convention, which obviously isn't going to be uniquely determined. Turkish doesn't have gender pronouns, and that's fine. Naval ships traditionally take feminine pronouns in English. [Many other languages are much more gendered than English](https://en.wikipedia.org/wiki/Grammatical_gender#Distribution_of_gender_in_the_world's_languages), where pretty much only third-person singular pronouns are at issue. The convention used in one's native language probably _does_ [color one's thinking to some extent](TODO: "Crossing the Line" link), 
+
+The thing I'm objecting to is this culture of _narcissistic Orwellian mind games_ that thinks people have the right to _dictate other people's model of reality_.
+
+[TODO: We want words that map onto the structure of things in the word: if everyone were a hermaphrodite]
+
+[TODO: Anton on "be a lesbian by behavior alone"; contrast to coining "transbian" as a new word: https://andrewsullivan.substack.com/p/where-have-all-the-lesbians-gone-0a7 ]
+
+[TODO: it was a complement! I don't _want_ people to have to doublethink around their perceptions of me, pretend not to notice]
+
+On the question of how this affects the productivity of AI researchers, I think looking at [our standard punching bag of theism](https://www.lesswrong.com/posts/dLL6yzZ3WKn8KaSC3/the-uniquely-awful-example-of-theism) is a very fair comparison. Religious people aren't _stupid_. You can prove theorems about the properties of [Q-learning](https://en.wikipedia.org/wiki/Q-learning) or [Kalman filters](https://en.wikipedia.org/wiki/Kalman_filter) at a world-class level without encountering anything that forces you to question whether Jesus Christ died for our sins.
+
+[TODO: it's actually the same rationality skill of parsimony]
+
+[TODO: ...]
+
+https://www.nickbostrom.com/evolution.pdf
+
+
+
+One man willing to make an extraordinary effort 
+
+You've got to ask yourself one question.
+
+Just _how dumb_ do you think we are? [_Defect!_](/2017/Sep/grim-trigger-or-the-parable-of-the-honest-man-and-the-god-of-marketing/)