Ai éthique, nous pouvons former ai pour identifier le bien et le mal, et ensuite l’utiliser pour nous enseigner la morale – critiques de portefeuille bitcoin à quartz

Il y a beaucoup de conversations autour de l’importance de faire de la morale de l’IA ou de la programmation de la morale une IA. Par exemple, comment une voiture autonome devrait-elle gérer le terrible choix entre frapper deux personnes différentes sur la route? Ce sont des questions intéressantes, mais elles supposent que nous nous sommes mis d’accord sur un cadre moral clair. Bien que certaines maximes universelles existent dans la plupart des cultures modernes (ne pas assassiner, ne pas voler, ne pas mentir), il n’y a pas de système de moralité “parfait” avec lequel tout le monde est d’accord.

Dans son livre Law’s Empire de 1986, le regretté philosophe et érudit de droit Ronald Dworkin a décrit l’idée de Juge Hercule, un juriste imaginaire, idéalisé, doté de capacités exceptionnelles et surhumaines pour comprendre la loi dans sa forme la plus complète.


Non seulement Juge Hercule comprendre comment appliquer au mieux la loi dans un cas précis, mais il comprend également comment cette application pourrait avoir des implications dans d’autres aspects de la loi et des décisions futures. Selon Dworkin, Juge Hercule incarne le type de compréhension juridique que nous recherchons dans la poursuite de l’étude et de l’application des cadres juridiques.

La présomption que la loi est une extension de principes moraux cohérents, en particulier la justice et l’équité, est inhérente à cette théorie. Par extension, Juge Hercule a la capacité d’appliquer une moralité cohérente de justice et d’équité à toute question dont il est saisi. En d’autres termes, Hercules a le morale parfaite boussole.

Supposons que, parce que la moralité est une dérivation de l’humanité, un morale parfaite le système existe quelque part dans notre conscience. Dérivant cela morale parfaite Le système devrait donc simplement consister à collecter et à analyser des quantités massives de données sur les opinions et les conditions humaines et à produire le résultat correct.

Et si nous pouvions recueillir des données sur ce que tout le monde pense est la bonne chose à faire? Et si nous pouvions suivre ces opinions au fil du temps et de génération en génération? Et si nous pouvions recueillir des données sur ce qui entre dans les décisions morales et leurs résultats? Avec suffisamment d’intrants, nous pourrions utiliser l’IA pour analyser ces ensembles de données massifs – une tâche monumentale, sinon herculéenne – et nous diriger vers un meilleur système de moralité.

Par exemple, l’IA pourrait nous aider à vaincre les préjugés dans notre prise de décision. Les biais existent généralement lorsque nous ne prenons en compte que nos propres considérations. Si nous devions reconnaître les besoins, les besoins et les préoccupations de chaque groupe touché par une décision donnée et agir en conséquence, nous éviterions vraisemblablement de prendre une décision biaisée. Réfléchissez à ce que cela pourrait signifier pour gérer les demandes de prêt hypothécaire ou les décisions d’embauche – ou ce que cela pourrait signifier pour la conception de politiques publiques, comme un système de soins de santé, ou l’adoption de nouvelles lois. Peut-être que l’IA Hercules pourrait même nous aider à nous rapprocher du Juge Hercule et à prendre des décisions juridiques avec le plus haut niveau possible d’équité et de justice.

Pour être juste, parce que cet AI Hercules comptera sur les intrants humains, il sera également sensible aux imperfections humaines. La collecte et l’analyse de données non supervisées pourraient avoir des conséquences inattendues et produire un système de moralité qui représente en réalité le pire de l’humanité. Cependant, cette ligne de pensée tend à traiter l’IA comme un but final. Nous ne pouvons pas compter sur l’IA pour résoudre nos problèmes, mais nous pouvons l’utiliser pour nous aider à les résoudre.

Si nous pouvions utiliser l’intelligence artificielle pour améliorer la moralité, nous pourrions programmer cette sortie de structure morale améliorée dans tous les systèmes d’intelligence artificielle – une machine morale d’intelligence artificielle qui se construit sur elle-même et améliore et prolonge nos capacités morales. En ce sens, nous pourrions même avoir une IA qui surveille les autres IA et l’empêche d’agir de manière immorale.

Bien qu’une théorie de la moralité de l’IA théoriquement parfaite ne soit que théorique, il y a de l’espoir d’utiliser l’IA pour améliorer notre prise de décision morale et notre approche globale des problèmes importants du monde. L’IA pourrait faire une grande différence quand il s’agit de la façon dont la société fait et justifie les décisions. Si nous pouvions brosser un tableau plus clair de la façon dont nos actions affecteraient les gens, allant des décisions quotidiennes aux programmes sociaux ou internationaux de grande envergure, nous pourrions probablement améliorer l’humanité et prendre des décisions mieux enracinées dans la justice et l’équité.