"Sexual Dimorphism": category of personal identity, into conclusion
[Ultimately_Untrue_Thought.git] / content / drafts / i-tell-myself-to-let-the-story-end-or-a-hill-of-validity-in-defense-of-meaning.md
index 4ecf83b..dd9f21a 100644 (file)
@@ -18,15 +18,13 @@ I haven't been doing so well for a lot of the last ... um, fifteen-ish months? [
 
 [^breakup]: I'm proud of my choice of breakup songs. My breakup song with institutionalized schooling was Taylor Swift's ["We Are Never Ever Getting Back Together"](https://www.youtube.com/watch?v=WA4iX5D9Z64), a bitter renunciation of an on-again-off-again relationship ("I remember when we broke up / The first time") with a ex who was distant and condescending ("And you, would hide away and find your peace of mind / With some indie record that's much cooler than mine"), thematically reminiscent of my ultimately degree-less string of [bad](http://zackmdavis.net/blog/2012/07/trying-to-buy-a-lamp/) [relationships](http://zackmdavis.net/blog/2012/12/draft-of-a-letter-to-a-former-teacher-which-i-did-not-send-because-doing-so-would-be-a-bad-idea/) [with](http://zackmdavis.net/blog/2012/12/a-philosophy-of-education/) [UC Santa Cruz](https://www.ucsc.edu/) (2006–2007), [Heald College](https://en.wikipedia.org/wiki/Heald_College) (2008), [Diablo Valley College](https://www.dvc.edu/) (2010–2012), and [San Francisco State University](https://www.sfsu.edu/) (2012–2013).
 
-    My breakup song with my should've-been-best-friend-forever "Elmer", also by Taylor Swift, was ["The Story of Us"](https://www.youtube.com/watch?v=nN6VR92V70M), about the pain of not being on speaking terms with someone with someone you thought you were destined to be with, like how I felt when Elmer refused to see me for a year because of status/money tensions ("How I was losing my mind when I saw you here / But you held your pride like you should've held me") that were _another_ incredibly boring and petty story, but one which I don't need to blog about.
-
     The song accompanying the story recounted in this post, Sara Bareilles's ["Gonna Get Over You"](https://genius.com/Sara-bareilles-gonna-get-over-you-lyrics) is about trying to move on from a relationship that was wanted but ... didn't work out.
 
-    The fact that I've invested so much symbolic significance in carefully-chosen songs by female vocalists to mourn relationships with one male friend and two abstract institutional perceived-authorities, and conspicuously _not_ for any relationships with _actual women_, maybe tells you something about how my life has gone.
+    The fact that I've invested so much symbolic significance in carefully-chosen songs by female vocalists to mourn relationships with abstract institutional perceived-authorities, and conspicuously _not_ for any relationships with _actual women_, maybe tells you something about how my life has gone.
 
 But this blog is not about _not_ attacking my friends. This blog is about the truth. For my own sanity, for my own emotional closure, I need to tell the story as best I can. If it's an _incredibly boring and petty_ story about me getting _unreasonably angry_ about philosophy-of-language minutiæ, well, you've been warned. If the story makes me look bad in the reader's eyes (because you think I'm crazy for getting so unreasonably angry about philosophy-of-language minutiæ), then I shall be happy to look bad for _what I actually am_. (If _telling the truth_ about what I've been obsessively preoccupied with all year makes you dislike me, then you probably _should_ dislike me. If you were to approve of me on the basis of _factually inaccurate beliefs_, then the thing of which you approve, wouldn't be _me_.)
 
-So, I've spent basically my entire adult life in this insular little intellectual subculture that was founded in the late 'aughts on an ideal of _systematically correct reasoning_. Starting with the shared canon of knowledge of [cognitive biases](https://www.lesswrong.com/posts/jnZbHi873v9vcpGpZ/what-s-a-bias-again), [reflectivity](https://www.lesswrong.com/posts/TynBiYt6zg42StRbb/my-kind-of-reflection), and [Bayesian probability theory](http://yudkowsky.net/rational/technical/) bequeathed to us by our founder, _we_ were going to make serious [collective](https://www.lesswrong.com/posts/XqmjdBKa4ZaXJtNmf/raising-the-sanity-waterline) [intellectual progress](https://www.lesswrong.com/posts/Nu3wa6npK4Ry66vFp/a-sense-that-more-is-possible) in a way that had [never been done before](https://slatestarcodex.com/2017/04/07/yes-we-have-noticed-the-skulls/)—and [not just out of a duty towards some philosophical ideal of Truth](https://www.lesswrong.com/posts/XqvnWFtRD2keJdwjX/the-useful-idea-of-truth), but as a result of understanding _how intelligence works_—[the reduction of "thought"](https://www.lesswrong.com/posts/p7ftQ6acRkgo6hqHb/dreams-of-ai-design) to [_cognitive algorithms_](https://www.lesswrong.com/posts/HcCpvYLoSFP4iAqSz/rationality-appreciating-cognitive-algorithms). Intelligent systems that construct predictive models of the world around them—that have "true" "beliefs"—can _use_ those models to compute which actions will best achieve their goals.
+So, I've spent basically my entire adult life in this insular little intellectual subculture that was founded in the late 'aughts on an ideal of _systematically correct reasoning_. Starting with the shared canon of knowledge of [cognitive biases](https://www.lesswrong.com/posts/jnZbHi873v9vcpGpZ/what-s-a-bias-again), [reflectivity](https://www.lesswrong.com/posts/TynBiYt6zg42StRbb/my-kind-of-reflection), and [Bayesian probability theory](http://yudkowsky.net/rational/technical/) bequeathed to us by our founder, _we_ were going to make serious [collective](https://www.lesswrong.com/posts/XqmjdBKa4ZaXJtNmf/raising-the-sanity-waterline) [intellectual progress](https://www.lesswrong.com/posts/Nu3wa6npK4Ry66vFp/a-sense-that-more-is-possible) in a way that had [never been done before](http://web.archive.org/web/20200526142416/https://slatestarcodex.com/2017/04/07/yes-we-have-noticed-the-skulls/)—and [not just out of a duty towards some philosophical ideal of Truth](https://www.lesswrong.com/posts/XqvnWFtRD2keJdwjX/the-useful-idea-of-truth), but as a result of understanding _how intelligence works_.
 
 Oh, and there was also [this part about](https://intelligence.org/files/AIPosNegFactor.pdf) how [the entire future of humanity and the universe depended on](https://www.lesswrong.com/posts/GNnHHmm8EzePmKzPk/value-is-fragile) our figuring out how to reflect human values in a recursively self-improving artificial superintelligence. That part's complicated.
 
@@ -40,6 +38,9 @@ So, some backstory about me.
 
 [backstory split off into separate post: "Sexual Dimorphism, Yudkowsky's Sequences, and Me"]
 
+
+"not standing in defense of truth" archive link: http://archive.is/Iy8Lq
+
 [...]
 
 I'm avoiding naming anyone in this post even when linking to their public writings, in order to try to keep the _rhetorical emphasis_ on "true tale of personal heartbreak, coupled with sober analysis of the sociopolitical factors leading thereto" even while I'm ... expressing disappointment with people's performance. This isn't supposed to be character/reputational attack on my friends and (former??) heroes—at least, not more than it needs to be. I just _need to tell the story_.
@@ -58,12 +59,6 @@ So, I think this is a bad argument. But specifically, it's a bad argument for _c
 
 [section: noncentral-fallacy / motte-and-bailey stuff, other posts about making predictions https://www.lesswrong.com/posts/yCWPkLi8wJvewPbEp/the-noncentral-fallacy-the-worst-argument-in-the-world ]
 
-The "national borders" metaphor is particularly galling if—[unlike](https://slatestarcodex.com/2015/01/31/the-parable-of-the-talents/) [Arthur Blair](https://slatestarcodex.com/2013/06/30/the-lottery-of-fascinations/)—you _actually know the math_.
-
-If I have a "blegg" concept for blue egg-shaped objects—uh, this is [our](https://www.lesswrong.com/posts/4FcxgdvdQP45D6Skg/disguised-queries) [standard](https://www.lesswrong.com/posts/yFDKvfN6D87Tf5J9f/neural-categories) [example](https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-algorithm-feels-from-inside), just [roll with it](http://unremediatedgender.space/2018/Feb/blegg-mode/)—what that _means_ is that (at some appropriate level of abstraction) there's a little [Bayesian network](https://www.lesswrong.com/posts/hzuSDMx7pd2uxFc5w/causal-diagrams-and-causal-models) in my head with "blueness" and "eggness" observation nodes hooked up to a central "blegg" category-membership node, such that if I see a black-and-white photograph of an egg-shaped object, I can use the observation of its shape to update my beliefs about its blegg-category-membership, and then use my beliefs about category-membership to update my beliefs about its blueness. This cognitive algorithm is useful if we live in a world where objects that have the appropriate statistical structure—if the joint distribution P(blegg, blueness, eggness) approximately factorizes as P(blegg)·P(blueness|blegg)·P(eggness|blegg).
-
-"Category boundaries" are just a _visual metaphor_ for the math: the set of things I'll classify as a blegg with probability greater than _p_ is conveniently _visualized_ as an area with a boundary in blueness–eggness space. If you _don't understand_ the relevant math and philosophy—or are pretending not to understand only and exactly when it's politically convenient—you might think you can redraw the boundary any way you want, but you can't, because the "boundary" visualization is _derived from_ a statistical model which corresponds to _empirically testable predictions about the real world_. Fucking with category boundaries corresponds to fucking with the model, which corresponds to fucking with your ability to interpret sensory data. The only two reasons you could _possibly_ want to do this would be to wirehead yourself (corrupt your map to make the territory look nicer than it really is, making yourself _feel_ happier at the cost of sabotaging your ability to navigate the real world) or as information warfare (corrupt shared maps to sabotage other agents' ability to navigate the real world, in a way such that you benefit from their confusion).
-
 [section: started a pseudonymous secret blog; one of the things I focused on was the philosophy-of-language thing, because that seemed _really_ nailed down: "...To Make Predictions" was the crowning achievement of my sabbatical, and I was also really proud of "Reply on Adult Human Females" a few months later. And that was going OK, until ...]
 
 [section: hill of meaning in defense of validity, and I _flipped the fuck out_]
@@ -124,10 +119,6 @@ If we _actually had_ the magical perfect sex change technology described in "Cha
 
 [^motherfuckers]: We had an entire Sequence about this! You lying motherfuckers!
 
-If we _actually had_ the magical perfect sex change technology described in "Changing Emotions"—if it cost $200,000, I would take out a bank loan and _do it_, and live happily ever after.
-
-(Though I'd call myself a transwoman—one word, for the same reason the _verthandi_ in "Failed Utopia #4-2" got their own word. I currently write "trans woman", two words, as a strategic concession to the shibboleth-detectors of my target audience:[^two-words] I don't want to to _prematurely_ scare off progressive-socialized readers on account of mere orthography, when what I actually have to say is already disturbing enough.)
-
 [^two-words]: For the unfamiliar: the [doctrine here](https://medium.com/@cassiebrighter/please-write-trans-women-as-two-words-487f153444fb) is that "transwoman" is cissexist, because "trans" is properly an adjective indicating a type of woman.
 
 I definitely don't want to call (say) my friend "Irene" a man. That would be crazy! Because **her transition _actually worked_.** Because it actually worked _on the merits_. _Not_ because I'm _redefining concepts in order to be nice to her_. When I look at her, whatever algorithm my brain _ordinarily_ uses to sort people into "woman"/"man"/"not sure" buckets, returns "woman."