drafting Human Diversity review (Tuesday)
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Wed, 11 Mar 2020 06:33:42 +0000 (23:33 -0700)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Wed, 11 Mar 2020 06:33:42 +0000 (23:33 -0700)
content/drafts/book-review-human-diversity.md
notes/human-diversity-notes.md

index e410160..ba028c4 100644 (file)
@@ -28,7 +28,7 @@ You might think that this is all due to socialization, but then it's hard to exp
 
 [TODO: tie into farmer/forager theory: http://www.overcomingbias.com/2010/10/divide-forager-v-farmer.html ]
 
-Women are better at verbal ability and social cognition, whereas men are better at visuospatial skills. The sexes achieve similar levels of overall performance via somewhat different mental "toolkits." Murray devotes a section to a 2007 result of Johnson and Bouchard, who report that ["_g_ masks the dimensions on which [sex differences in mental abilities] lie"](/papers/johnson-bouchard-sex_differences_in_mental_abilities_g_masks_the_dimensions.pdf): overall levels of mental well-functioning lead to underestimates of the effect sizes of specific mental abilities, which you want to statistically correct for. This result in particular is _super gratifying_ to me personally, because [I independently had a similar idea a few months back](/2019/Sep/does-general-intelligence-deflate-standardized-effect-sizes-of-cognitive-sex-differences/)—it's _super validating_ as an amateur to find that the pros have been thinking along the same track!
+Women are better at verbal ability and social cognition, whereas men are better at visuospatial skills. The sexes achieve similar levels of overall performance via somewhat different mental "toolkits." Murray devotes a section to a 2007 result of Johnson and Bouchard, who report that general intelligence ["masks the dimensions on which [sex differences in mental abilities] lie"](/papers/johnson-bouchard-sex_differences_in_mental_abilities_g_masks_the_dimensions.pdf): overall levels of mental well-functioning lead to underestimates of the effect sizes of specific mental abilities, which you want to statistically correct for. This result in particular is _super gratifying_ to me personally, because [I independently had a very similar idea a few months back](/2019/Sep/does-general-intelligence-deflate-standardized-effect-sizes-of-cognitive-sex-differences/)—it's _super validating_ as an amateur to find that the pros have been thinking along the same track!
 
 The second part of the book is about some ways in which people with different ancestries are different from each other! Obviously, there are no "distinct" "races" (that would be dumb), but it turns out (as found by endeavors such as [Li _et al._ 2008](/papers/li_et_al-worldwide_human_relationships_inferred.pdf)) that when you throw clustering and [dimensionality-reduction](https://en.wikipedia.org/wiki/Dimensionality_reduction) algorithms at SNP data (<em>s</em>ingle <em>n</em>ucleotide <em>p</em>olymorphisms, places in the genome where more than one allele has non-negligible frequency), you get groupings that are a pretty good match to classical or self-identified "races".
 
@@ -84,37 +84,6 @@ We really _shouldn't_. Everyone _should_ perceive a common interest in true beli
 
 (Okay, this story is actually somewhat complicated by the fact that [evolution didn't "figure out" how to build brains](https://www.lesswrong.com/posts/gTNB9CQd5hnbkMxAG/protein-reinforcement-and-dna-consequentialism) that [keep track of probability and utility separately](https://plato.stanford.edu/entries/decision-theory/): my analogues in the environment of evolutionary adaptedness might also have been better off assuming that a rustling in the bush was a tiger, even if it usually wasn't a tiger, because failing to detect actual tigers was so much more costly than erroneously "detecting" an imaginary tiger. But let this pass.)
 
-The problem is that, while any individual should always want true beliefs in order to navigate the world, 
+The problem is that, while any individual should always want true beliefs for _themselves_ in order to navigate the world, you might want _others_ to have false beliefs in order to trick them into _mis_-navigating the world in a way that benefits you. If I'm trying to sell you a used car, then—counterintuitively—I might not _want_ you to have accurate beliefs about the car, if that will reduce the sale price or result in no deal. If our analogues in the environment of evolutionary adaptedness regularly faced structurally similar situations, and if it's expensive to maintain two sets of beliefs (the real map for ourselves, and a fake map for our victims), we might end up with a tendency not just to be lying motherfuckers who decieve others, but also to _self_-decieve in situations where the fitness payoffs of tricking others outweighed those of being clear-sighted ourselves.
 
-
-
-https://meltingasphalt.com/crony-beliefs/
-
-https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting
-
-
-You can't _just_ write a friendly science book for oblivious science nerds about "things we know about some ways in which people are different from each other"—to write and be understood, you have to do some sort of _positioning_ of how your work fits in to [the war](/2020/Feb/if-in-some-smothering-dreams-you-too-could-pace/).
-
-Murray positions his work as a corrective to a "blank slate" orthodoxy that refuses to entertain any possibility of biological influences on group differences. The three parts of the book are pitched not simply as "stuff we know about biologically-mediated group differences" (the oblivious-science-nerd approach I prefer), but as a rebuttal to "Gender Is a Social Construct", "Race Is a Social Construct", and "Class Is a Function of Privilege." At the same time, however, Murray is careful to position his work as _nonthreatening_: "there are no monsters in the closet," he writes, "no dread doors that we must fear opening." The start of the introductions to the sex and race parts of the book do the obligatory historical context-setting of emphasizing that old-timey patriarchy and chattel slavery were Actually Really Bad.
-
-Needless to say (it _should_ be needless to say), I agree that old-timey patriarchy and chattel slavery were Actually Really Bad. However, I feel like Murray's overall positioning strategy is trying to have it both ways: challenging the orthodoxy, while downplaying the possibility of any [unfortunate implications](https://tvtropes.org/pmwiki/pmwiki.php/Main/UnfortunateImplications) of the orthodoxy being false. I think this is sympathetic but [ultimately ineffective](http://zackmdavis.net/blog/2016/08/ineffective-deconversion-pitch/). Clueless [presentist](https://en.wikipedia.org/wiki/Presentism_(literary_and_historical_analysis)) conservatism of the form, "Old-timey patriarchy and white supremacy were Really Bad, but that's over and everything is Fine Now" is unlikely to satisfy readers who _don't_ think everything is Fine Now, and suspect Murray of standing athwart history yelling "Stop!" rather than aspiring to Actual Social Science.
-
-I think we can do better by going meta and analyzing the _functions_ being served by the constraints on our discourse and seeking out clever self-aware strategies for satisfying those functions _without_ [lying about everything](/2017/Jan/im-sick-of-being-lied-to/). We mustn't fear opening the dread meta-door in front of whether there actually _are_ dread doors that we must fear opening.
-
-Murray concludes, "Above all, nothing we learn will threaten human equality properly understood," and quotes Steven Pinker: "Equality is not the empirical claim that all groups of humans are interchangeable; it is the moral principle that individuals should not be judged or constrained by the average properties of their group."
-
-I [_strongly_ agree with](/2017/Dec/theres-a-land-that-i-see-or-the-spirit-of-intervention/) the _moral sentiment_, the underlying [axiology](https://slatestarcodex.com/2017/08/28/contra-askell-on-moral-offsets/) that makes this seem like a good and wise thing to say.
-
-And yet I have been ... trained. Trained to instinctively apply my full powers of analytical rigor and skepticism to even that which is most sacred. Because my true loyalty is to the axiology—[to the process underlying my _current best guess_](http://zackmdavis.net/blog/2017/03/dreaming-of-political-bayescraft/) as to that which is most sacred. If that which was believed to be most sacred turns out to not be entirely coherent ... then we might have some philosophical work to do, to [_reformulate_ the sacred moral ideal in a way that's actually coherent](https://arbital.greaterwrong.com/p/rescue_utility).
-
-"Nothing we learn will threaten _X_ _properly understood_." When you elide the specific assignment _X_ := "human equality", the _form_ of this statement is kind of suspicious, right? Why "properly understood"? It would be weird to say, "Nothing we learn will threaten the homotopy groups of an _n_-sphere _properly understood_."
-
-This kind of [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) seems like the kind of thing you would only invent if you _were_ subconsciously worried about _X_ being threatened by new discoveries, and wanted to protect your ability to backtrack and re-gerrymander your definition of _X_ to protect your existing beliefs.
-
-It gets worse. Intuitively, "The moral principle that individuals should not be judged or constrained by the average properties of their group" seems self-evident—one cries out at the _monstrous injustice_ of the individual being oppressed on the basis of mere stereotypes of what other people who _look_ like them might statistically be like.
-
-I fear my training does not permit me to take the moral principle _literally_ as stated. The problem is _technical_ in nature: something that comes up when you try to understand people on a cognitive-scientific level, the way an AI researcher would understand her creations. (Even while "treat individuals as inviduals" might be a very good _English sentence_ to tell someone if you wanted them to behave ethically and didn't expect them to understand the technical problem I'm explaining.)
-
-When you "treat individuals as individuals", you do so on the basis of evidence about that individual's traits. If you see someone wearing an Emacs tee-shirt, you'll assume they probably use Emacs, and probably make and make use of all sorts of other implicit probabilistic predictions about them, in the sense that you [anticipate](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences) or dis-anticipate different behaviors from them than you would of someone who was _not_ wearing an Emacs tee-shirt, and those anticipations guide your decisions. 
-
-[conditional probability "Emacs shirt" vs. "is female", no principled distinction]
+That's why we're not smart enough to want a discipline of Actual Social Science. The benefits of having a collective understanding of human behavior—a _shared_ map—could be enormous, but beliefs about our own qualities, and those of socially-salient groups to which we belong (_e.g._, sex, race, and class) are _exactly_ those for which we face the largest incentive to decieve and self-decieve. Counterintuively, I might not _want_ you to have accurate beliefs about the value of my friendship, for the same reason that I might not want you to have accurate beliefs about the value of my used car. That makes it a lot harder not just to _get the right answer for the reasons_, but also to _trust_ that your fellow so-called "scholars" are trying to get the right answer, rather than trying to sneak self-serving lies into the shared map in order to fuck you over.
index 8aed3c2..adb6bdb 100644 (file)
@@ -16,6 +16,32 @@ Instead of just getting _the right answer for the right reasons_ (which can conc
 
 
 
+You can't _just_ write a friendly science book for oblivious science nerds about "things we know about some ways in which people are different from each other"—to write and be understood, you have to do some sort of _positioning_ of how your work fits in to [the war](/2020/Feb/if-in-some-smothering-dreams-you-too-could-pace/).
+
+Murray positions his work as a corrective to a "blank slate" orthodoxy that refuses to entertain any possibility of biological influences on group differences. The three parts of the book are pitched not simply as "stuff we know about biologically-mediated group differences" (the oblivious-science-nerd approach I prefer), but as a rebuttal to "Gender Is a Social Construct", "Race Is a Social Construct", and "Class Is a Function of Privilege." At the same time, however, Murray is careful to position his work as _nonthreatening_: "there are no monsters in the closet," he writes, "no dread doors that we must fear opening." The start of the introductions to the sex and race parts of the book do the obligatory historical context-setting of emphasizing that old-timey patriarchy and chattel slavery were Actually Really Bad.
+
+Needless to say (it _should_ be needless to say), I agree that old-timey patriarchy and chattel slavery were Actually Really Bad. However, I feel like Murray's overall positioning strategy is trying to have it both ways: challenging the orthodoxy, while downplaying the possibility of any [unfortunate implications](https://tvtropes.org/pmwiki/pmwiki.php/Main/UnfortunateImplications) of the orthodoxy being false. I think this is sympathetic but [ultimately ineffective](http://zackmdavis.net/blog/2016/08/ineffective-deconversion-pitch/). Clueless [presentist](https://en.wikipedia.org/wiki/Presentism_(literary_and_historical_analysis)) conservatism of the form, "Old-timey patriarchy and white supremacy were Really Bad, but that's over and everything is Fine Now" is unlikely to satisfy readers who _don't_ think everything is Fine Now, and suspect Murray of standing athwart history yelling "Stop!" rather than aspiring to Actual Social Science.
+
+I think we can do better by going meta and analyzing the _functions_ being served by the constraints on our discourse and seeking out clever self-aware strategies for satisfying those functions _without_ [lying about everything](/2017/Jan/im-sick-of-being-lied-to/). We mustn't fear opening the dread meta-door in front of whether there actually _are_ dread doors that we must fear opening.
+
+Murray concludes, "Above all, nothing we learn will threaten human equality properly understood," and quotes Steven Pinker: "Equality is not the empirical claim that all groups of humans are interchangeable; it is the moral principle that individuals should not be judged or constrained by the average properties of their group."
+
+I [_strongly_ agree with](/2017/Dec/theres-a-land-that-i-see-or-the-spirit-of-intervention/) the _moral sentiment_, the underlying [axiology](https://slatestarcodex.com/2017/08/28/contra-askell-on-moral-offsets/) that makes this seem like a good and wise thing to say.
+
+And yet I have been ... trained. Trained to instinctively apply my full powers of analytical rigor and skepticism to even that which is most sacred. Because my true loyalty is to the axiology—[to the process underlying my _current best guess_](http://zackmdavis.net/blog/2017/03/dreaming-of-political-bayescraft/) as to that which is most sacred. If that which was believed to be most sacred turns out to not be entirely coherent ... then we might have some philosophical work to do, to [_reformulate_ the sacred moral ideal in a way that's actually coherent](https://arbital.greaterwrong.com/p/rescue_utility).
+
+"Nothing we learn will threaten _X_ _properly understood_." When you elide the specific assignment _X_ := "human equality", the _form_ of this statement is kind of suspicious, right? Why "properly understood"? It would be weird to say, "Nothing we learn will threaten the homotopy groups of an _n_-sphere _properly understood_."
+
+This kind of [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) seems like the kind of thing you would only invent if you _were_ subconsciously worried about _X_ being threatened by new discoveries, and wanted to protect your ability to backtrack and re-gerrymander your definition of _X_ to protect your existing beliefs.
+
+It gets worse. Intuitively, "The moral principle that individuals should not be judged or constrained by the average properties of their group" seems self-evident—one cries out at the _monstrous injustice_ of the individual being oppressed on the basis of mere stereotypes of what other people who _look_ like them might statistically be like.
+
+I fear my training does not permit me to take the moral principle _literally_ as stated. The problem is _technical_ in nature: something that comes up when you try to understand people on a cognitive-scientific level, the way an AI researcher would understand her creations. (Even while "treat individuals as inviduals" might be a very good _English sentence_ to tell someone if you wanted them to behave ethically and didn't expect them to understand the technical problem I'm explaining.)
+
+When you "treat individuals as individuals", you do so on the basis of evidence about that individual's traits. If you see someone wearing an Emacs tee-shirt, you'll assume they probably use Emacs, and probably make and make use of all sorts of other implicit probabilistic predictions about them, in the sense that you [anticipate](https://www.lesswrong.com/posts/a7n8GdKiAZRX86T5A/making-beliefs-pay-rent-in-anticipated-experiences) or dis-anticipate different behaviors from them than you would of someone who was _not_ wearing an Emacs tee-shirt, and those anticipations guide your decisions. 
+
+[conditional probability "Emacs shirt" vs. "is female", no principled distinction]
+
 
 People who are 
 
@@ -122,8 +148,12 @@ Moldbug's denying the moral worth of IQ: https://archive.is/9Ezk3
 
 defending eugenics: https://www.ncbi.nlm.nih.gov/pubmed/29804244
 
+https://www.lesswrong.com/posts/DoPo4PDjgSySquHX8/heads-i-win-tails-never-heard-of-her-or-selective-reporting
+
+https://meltingasphalt.com/crony-beliefs/
+
 ------
 
 A Book Review
 
-Someone wrote a blog post reviewing a book by some sociologist named Charles Murray. Never heard of him. Anyway, I couldn't get through the whole thing because the reviewer has this really obnoxious writing style that uses way too many italics and exclamation points, but I did notice that he (?) links to _Less Wrong_ a few times (!?), which is something I don't see "in the wild" very often these days, so I thought it couldn't hurt to share the link here in case one of you happens to find it interesting??
+Someone wrote a blog post reviewing a book by some sociologist named Murray. Never heard of him. Anyway, I couldn't get through the whole thing because the reviewer has this _really obnoxious_ writing style that uses way too many italics and exclamation points (as well as occasional weirdly out-of-place cuss words?!), but I did notice that he (?) links to _Less Wrong_ a few times (!), which is something I don't see "in the wild" very often these days, so I thought it couldn't hurt to share the link here in case one of you happens to find it interesting??