poking at Human Diversity review draft
authorM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Thu, 12 Mar 2020 06:57:01 +0000 (23:57 -0700)
committerM. Taylor Saotome-Westlake <ultimatelyuntruethought@gmail.com>
Thu, 12 Mar 2020 06:57:01 +0000 (23:57 -0700)
content/drafts/book-review-human-diversity.md
notes/human-diversity-notes.md

index 4ebdd3a..5f4b387 100644 (file)
@@ -74,9 +74,9 @@ There are also some appendicies at the back of the book! Appendix 1 (reproduced
 
 But that's not why you're reading this. That's not why Murray wrote the book. That's not even why _I'm_ writing this. We should hope—emphasis on the _should_—for a discipline of Actual Social Science, whose practitioners strive to report the truth, the whole truth, and nothing but the truth, with the same passionately dispassionate objectivity they might bring to the study of beetles, or algebraic topology—or that an alien superintelligence might bring to the study of humans.
 
-We do not have a discipline of Actual Social Science. Possibly because we're not smart enough to do it, but perhaps more so because we're not smart enough to _want_ to do it. No one has an incentive to lie about the homotopy groups of an _n_-sphere. (The <em>k</em><sup>th</sup> group is trivial for _k_ < _n_, and isomorphic to ℤ thereafter. _You're welcome._) If you're asking questions about homotopy groups _at all_, you almost certainly care about getting _the right answer for the right reasons_. At most, you might be biased towards believing your own conjectures in the optimistic hope of achieving eternal algebraic-topology fame and glory, like Ruth Lawrence. But nothing about algebraic topology is going to be _morally threatening_ in a way that will leave you fearing that your ideological enemies have siezed control of the publishing-houses to plant lies in the textbooks to fuck with your head, or sobbing that a malicious God created the universe as a place of evil.
+We do not have a discipline of Actual Social Science. Possibly because we're not smart enough to do it, but perhaps more so because we're not smart enough to _want_ to do it. No one has an incentive to lie about the homotopy groups of an _n_-sphere. (The <em>k</em><sup>th</sup> group is trivial for _k_ < _n_, and isomorphic to ℤ thereafter. _You're welcome._) If you're asking questions about homotopy groups _at all_, you almost certainly care about getting _the right answer for the right reasons_. At most, you might be biased towards believing your own conjectures in the optimistic hope of achieving eternal algebraic-topology fame and glory, like Ruth Lawrence. But nothing about algebraic topology is going to be [_morally threatening_](/2019/Jan/interlude-xvi/) in a way that will leave you fearing that your ideological enemies have siezed control of the publishing-houses to plant lies in the textbooks to fuck with your head, or sobbing that a malicious God created the universe as a place of evil.
 
-Okay, maybe that was a bad example; topology in general really is kind of a mindfuck. (Remind me to tell you about the long line, which is like the line of real numbers, except much longer.)
+Okay, maybe that was a bad example; topology in general really is the kind of mindfuck that might be the design of an adversarial agency. (Remind me to tell you about the long line, which is like the line of real numbers, except much longer.)
 
 In any case, as soon as we start to ask questions _about humans_—and far more so _identifiable groups_ of humans—we end up entering the domain of _politics_.
 
@@ -86,18 +86,18 @@ We really _shouldn't_. Everyone _should_ perceive a common interest in true beli
 
 The problem is that, while any individual should always want true beliefs for _themselves_ in order to navigate the world, you might want _others_ to have false beliefs in order to trick them into _mis_-navigating the world in a way that benefits you. If I'm trying to sell you a used car, then—counterintuitively—I might not _want_ you to have accurate beliefs about the car, if that would reduce the sale price or result in no deal. If our analogues in the environment of evolutionary adaptedness regularly faced structurally similar situations, and if it's expensive to maintain two sets of beliefs (the real map for ourselves, and a fake map for our victims), we might end up with a tendency not just to be lying motherfuckers who decieve others, but also to _self_-decieve in situations where the fitness payoffs of tricking others outweighed those of being clear-sighted ourselves.
 
-That's why we're not smart enough to want a discipline of Actual Social Science. The benefits of having a collective understanding of human behavior—a _shared_ map that reflects the territory that we are—could be enormous, but beliefs about our own qualities, and those of socially-salient groups to which we belong (_e.g._, sex, race, and class) are _exactly_ those for which we face the largest incentive to decieve and self-decieve. Counterintuively, I might not _want_ you to have accurate beliefs about the value of my friendship (or the disutility of my animosity), for the same reason that I might not want you to have accurate beliefs about the value of my used car. That makes it a lot harder not just to _get the right answer for the reasons_, but also to _trust_ that your fellow so-called "scholars" are trying to get the right answer, rather than trying to sneak self-aggrandizing lies into the shared map in order to fuck you over. You can't _just_ write a friendly science book for oblivious science nerds about "things we know about some ways in which people are different from each other", because almost no one is that oblivious. (_I'm_ not that oblivious.) To write and be understood, you have to do some sort of _positioning_ of how your work fits in to [the war](/2020/Feb/if-in-some-smothering-dreams-you-too-could-pace/) over the shared map.
+That's why we're not smart enough to want a discipline of Actual Social Science. The benefits of having a collective understanding of human behavior—a _shared_ map that reflects the territory that we are—could be enormous, but beliefs about our own qualities, and those of socially-salient groups to which we belong (_e.g._, sex, race, and class) are _exactly_ those for which we face the largest incentive to decieve and self-decieve. Counterintuively, I might not _want_ you to have accurate beliefs about the value of my friendship (or the disutility of my animosity), for the same reason that I might not want you to have accurate beliefs about the value of my used car. That makes it a lot harder not just to _get the right answer for the reasons_, but also to _trust_ that your fellow so-called "scholars" are trying to get the right answer, rather than trying to sneak self-aggrandizing lies into the shared map in order to fuck you over. You can't _just_ write a friendly science book for oblivious science nerds about "things we know about some ways in which people are different from each other", because almost no one is that oblivious. To write and be understood, you have to do some sort of _positioning_ of how your work fits in to [the war](/2020/Feb/if-in-some-smothering-dreams-you-too-could-pace/) over the shared map.
 
-And so we come to Charles Murray. Murray positions _Human Diversity_ as a corrective to a "blank slate" orthodoxy that refuses to entertain any possibility of biological influences on group differences. The three parts of the book are pitched not simply as "stuff we know about biologically-mediated group differences" (the oblivious-science-nerd approach that I wish I could get away with), but as a rebuttal to "Gender Is a Social Construct", "Race Is a Social Construct", and "Class Is a Function of Privilege." At the same time, however, Murray is careful to position his work as _nonthreatening_: "there are no monsters in the closet," he writes, "no dread doors that we must fear opening." He likewise "state[s] explicitly that [he] reject[s] claims that groups of people, be they sexes or races or classes, can be ranked from superior to inferior [or] that differences among groups have any relevance to human worth or dignity."
+And so we come to Charles Murray. Murray positions _Human Diversity_ as a corrective to a "blank slate" orthodoxy that refuses to entertain any possibility of biological influences on group differences. The three parts of the book are pitched not simply as "stuff we know about biologically-mediated group differences" (the oblivious-science-nerd approach that I would prefer), but as a rebuttal to "Gender Is a Social Construct", "Race Is a Social Construct", and "Class Is a Function of Privilege." At the same time, however, Murray is careful to position his work as _nonthreatening_: "there are no monsters in the closet," he writes, "no dread doors that we must fear opening." He likewise "state[s] explicitly that [he] reject[s] claims that groups of people, be they sexes or races or classes, can be ranked from superior to inferior [or] that differences among groups have any relevance to human worth or dignity."
 
-I think this strategy is sympathetic but [ultimately ineffective](http://zackmdavis.net/blog/2016/08/ineffective-deconversion-pitch/). Murray is trying to have it both ways: challenging the orthodoxy, while denying the possibility of any [unfortunate implications](https://tvtropes.org/pmwiki/pmwiki.php/Main/UnfortunateImplications) of the orthodoxy being false. It's like ... [theistic evolution](https://en.wikipedia.org/wiki/Theistic_evolution): satisfactory as long as you _don't think about it too hard_, but among those with a high [need for cognition](https://en.wikipedia.org/wiki/Need_for_cognition), those who know what it's like to truly believe (as [I once believed](/2017/Dec/theres-a-land-that-i-see-or-the-spirit-of-intervention/)), it's not going to convince anyone who hasn't _already_ broken from the orthodoxy. We mustn't fear opening the dread meta-door in front of whether there actually _are_ dread doors that we must fear opening.
+I think this strategy is sympathetic but [ultimately ineffective](http://zackmdavis.net/blog/2016/08/ineffective-deconversion-pitch/). Murray is trying to have it both ways: challenging the orthodoxy, while denying the possibility of any [unfortunate implications](https://tvtropes.org/pmwiki/pmwiki.php/Main/UnfortunateImplications) of the orthodoxy being false. It's like ... [theistic evolution](https://en.wikipedia.org/wiki/Theistic_evolution): satisfactory as long as you _don't think about it too hard_, but among those with a high [need for cognition](https://en.wikipedia.org/wiki/Need_for_cognition), who know what it's like to truly believe (as [I once believed](/2017/Dec/theres-a-land-that-i-see-or-the-spirit-of-intervention/)), it's not going to convince anyone who hasn't _already_ broken from the orthodoxy.
 
 Murray concludes, "Above all, nothing we learn will threaten human equality properly understood." I [_strongly_ agree with](/2017/Dec/theres-a-land-that-i-see-or-the-spirit-of-intervention/) the _moral sentiment_, the underlying [axiology](https://slatestarcodex.com/2017/08/28/contra-askell-on-moral-offsets/) that makes this seem like a good and wise thing to say.
 
-And yet I have been ... trained. Trained to instinctively apply my full powers of analytical rigor and skepticism [to even that which is most sacred](https://www.lesswrong.com/posts/dHQkDNMhj692ayx78/avoiding-your-belief-s-real-weak-points). Because my true loyalty is to the axiology—[to the process underlying my _current best guess_](http://zackmdavis.net/blog/2017/03/dreaming-of-political-bayescraft/) as to that which is most sacred. If that which was believed to be most sacred turns out to not be entirely coherent ... then we might have some philosophical work to do, to [_reformulate_ the sacred moral ideal in a way that's actually coherent](https://arbital.greaterwrong.com/p/rescue_utility).
+And yet I have been ... trained. Trained to instinctively apply my full powers of analytical rigor and skepticism [to even that which is most sacred](https://www.lesswrong.com/posts/dHQkDNMhj692ayx78/avoiding-your-belief-s-real-weak-points). Because my true loyalty is to the axiology—[to the _process_ underlying my _current best guess_](http://zackmdavis.net/blog/2017/03/dreaming-of-political-bayescraft/) as to that which is most sacred. If that which was believed to be most sacred turns out to not be entirely coherent ... then we might have some philosophical work to do, to [_reformulate_ the sacred moral ideal in a way that's actually coherent](https://arbital.greaterwrong.com/p/rescue_utility).
 
 "Nothing we learn will threaten _X_ _properly understood_." When you elide the specific assignment _X_ := "human equality", the _form_ of this statement is kind of suspicious, right? Why "properly understood"? It would be weird to say, "Nothing we learn will threaten the homotopy groups of an _n_-sphere _properly understood_."
 
-This kind of [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) seems like the kind of thing you would only invent if you _were_ subconsciously worried about _X_ being threatened by new discoveries, and wanted to protect your ability to backtrack and re-gerrymander your definition of _X_ to protect your existing beliefs.
+This kind of [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) seems like the kind of thing you would only invent if you _were_ secretly worried about _X_ being threatened by new discoveries, and wanted to protect your ability to backtrack and re-gerrymander your definition of _X_ to protect what you ([think that you](https://www.lesswrong.com/posts/CqyJzDZWvGhhFJ7dY/belief-in-belief)) currently believe.
 
-If being an oblivious science nerd isn't an option, half-measures won't suffice. I think we can do better by going meta and analyzing the _functions_ being served by the constraints on our discourse and seeking out clever self-aware strategies for satisfying those functions _without_ [lying about everything](/2017/Jan/im-sick-of-being-lied-to/). 
+If being an oblivious science nerd isn't an option, half-measures won't suffice. I think we can do better by going meta and analyzing the _functions_ being served by the constraints on our discourse and seeking out clever self-aware strategies for satisfying those functions _without_ [lying about everything](/2017/Jan/im-sick-of-being-lied-to/). We mustn't fear opening the dread meta-door in front of whether there actually _are_ dread doors that we must fear opening.
index c4a2efe..c7860ca 100644 (file)
@@ -128,6 +128,9 @@ As [Harold Lee points out](https://write.as/harold-lee/seizing-the-means-of-home
 
 > The conflcation of intellectual ability with human worth helps to explain the new upper class's insistence that inequalities of intellectual ability must be the product of environmental disadvantage. Many people with high IQs really do feel sorry for people with low IQs. If the environment is to blame, then those unfortunates can be helped, and that makes people who want to help them feel good. If genes are to blame, it makes people who want to help them feel bad. People prefer feeling good to feeling bad, so they engage in confirmation bias when it comes to the evidence about the causes of human differences.
 
+"it is a matter of ethical principle"
+https://www.cato-unbound.org/2007/11/21/eric-turkheimer/race-iq
+
 https://write.as/harold-lee/seizing-the-means-of-home-production
 
 Moldbug's denying the moral worth of IQ: https://archive.is/9Ezk3
@@ -143,3 +146,4 @@ https://meltingasphalt.com/crony-beliefs/
 A Book Review
 
 Someone wrote a blog post reviewing a book by some sociologist named Murray. Never heard of him. Anyway, I couldn't get through the whole thing because the reviewer has this _really obnoxious_ writing style that uses way too many italics and exclamation points (as well as occasional weirdly out-of-place cuss words?!), but I did notice that he (?) links to _Less Wrong_ a few times (!), which is something I don't see "in the wild" very often these days, so I thought it couldn't hurt to share the link here in case one of you happens to find it interesting??
+