l’éthique des machines et des agents moraux artificiels Bitcoin core télécharger

Il y a eu beaucoup de discussions au cours des derniers mois sur AI étant notre meilleur ou le pire invention jamais. La chance de robots prise en charge et le scénario de science-fiction catastrophique suivant rend la conception éthique et délibérée des machines et des algorithmes non seulement importants, mais nécessaires.

Mais les problèmes ne finissent pas ici Bitcoin sites de portefeuille. L’intégration de principes éthiques dans notre processus de développement de la technologie ne doit pas juste être un moyen d’empêcher l’extinction de la race humaine, mais aussi une façon de comprendre comment utiliser la puissance provenant de cette technologie de manière responsable.

Cet article ne veut pas être un guide pour l’éthique de l’influenza aviaire ou la définition des lignes directrices pour la construction de technologies éthiques. Il est tout simplement un flux de conscience sur les questions et problèmes que j’ai pensé et me demander, et je l’espère, il va stimuler une discussion.


Le premier problème que tout le monde pose en parlant de l’éthique dans l’IA est, bien sûr, sur les données. La plupart des données que nous produisons (si l’on exclut ceux qui viennent de l’observation des phénomènes naturels) sont des créations artificielles de nos esprits et nos actions (par exemple, les cours des actions, activité smartphone, etc.). En tant que tel, les données héritent des mêmes préjugés que nous avons en tant qu’êtres humains.

Tout d’abord, ce qui est un biais cognitif? Le (peut-être controversé) façon dont je regarde est qu’un biais cognitif est un raccourci de notre cerveau qui se traduit par des comportements qui nécessitent moins d’énergie et pensé pour être mis en œuvre comment échange Bitcoin pour de l’argent. Ainsi, un parti pris est une bonne chose pour moi, au moins en principe. La raison pour laquelle il devient une mauvaise chose est que l’environnement extérieur et notre capacité interne de penser ne procèdent pas pari passu. Notre cerveau est piégé dans heuristiques et raccourcis qui aurait pu entraîner en avantages concurrentiels il y a 100 ans, mais est-ce pas en plastique pour adapter rapidement au changement de l’environnement extérieur (je ne parle pas d’un seul cerveau, mais plutôt sur un niveau de l’espèce).

En d’autres termes, l’écart systématique à partir d’une norme de rationalité ou de jugement (c’est ainsi parti pris est défini dans la psychologie) est rien de plus pour moi qu’un simple retard de l’évolution de notre cerveau.

Pourquoi tout cela excursus? Eh bien, parce que je pense que la plupart des embed données de biais vient de nos propres biais cognitifs (au moins pour les données résultant des activités humaines et non naturelles) artistes numériques Bitcoin. Il y a, bien sûr, un autre bloc de biais qui découle de raisons statistiques pures (la valeur attendue est différent du vrai paramètre estimé sous-jacent) Bitcoin etf téléscripteur. Kris Hammond de la science narrative a fusionné ces deux points de vue et identifié au moins cinq partis pris différents en IA. Dans ses mots:

Cependant, regardons le problème sous un angle différent. J’ai été éduqué comme économiste, alors permettez-moi de commencer mon argumentation avec cette déclaration: supposons que nous avons l’ensemble de données parfait valeur ne Bitcoin réel em. Il est non seulement omni-complet mais aussi propre, cohérente et profonde à la fois longitudinalement et parlant temporellement.

Même dans ce cas, nous avons aucune garantie AI ne sera pas apprendre de façon autonome le même biais que nous avons fait. En d’autres termes, la suppression des biais à la main ou par la construction ne sont pas une garantie de ces partis pris de ne pas sortir de nouveau spontanément.

Cette possibilité soulève également une autre (philosophique) question: nous construisons cet argument de l’hypothèse que les préjugés sont mauvais (la plupart du temps). Alors disons que les machines viennent avec un résultat que nous considérons comme biaisées, et donc nous les remettre à zéro et recommencer l’analyse de nouvelles données Bitcoin minière roi. Mais les machines viennent avec un de la même « résultat biaisé ». Serions-nous alors ouvert à accepter que comme vrai et la révision de ce que nous considérons être biaisées?

En d’autres termes, je crois que deux des raisons pour lesquelles encastrement dans la conception de la machine éthique est est extrêmement difficile que i) nous ne savons pas vraiment à l’unanimité ce qu’est l’éthique, et ii) nous devons être ouverts à admettre que nos valeurs ou l’éthique pourrait ne pas être tout à fait raison et que ce que nous considérons être biaisé n’est pas l’exception mais la norme.

L’élaboration d’un (général) AI nous fait penser à ces problèmes et il va changer (si elle n’a pas déjà commencé) notre système de valeurs. Et peut-être, qui sait, nous finirons par apprendre quelque chose de l’éthique de machines.

Eh bien, maintenant, vous pourriez penser que la précédente est une question purement philosophique et que vous ne devriez probablement pas soucier. Mais de l’autre côté de la question est sur la façon dont vous faites confiance à vos algorithmes beaucoup. Permettez-moi de vous donner une autre perspective à la recherche pratique à ce problème.

Supposons que vous êtes un médecin et que vous utilisez l’un des nombreux algorithmes là pour vous aider à diagnostiquer une maladie ou pour vous aider dans un traitement du patient Bitcoin application. Dans le 99,99% du temps, l’ordinateur obtient le droit – et il ne se fatigue jamais, il a analysé des milliards d’enregistrements, il voit les modèles qui ne peuvent pas percevoir un oeil humain, nous savons tous cette histoire, non? Mais si dans le o.o1% restants du cas où votre instinct vous dit quelque chose en face du résultat de la machine et vous finissez par avoir raison? Que faire si vous décidez de suivre les conseils de la machine à cracher au lieu du vôtre et le patient meurt? Qui est responsable dans ce cas?

Mais encore pire: disons que dans ce cas, vous suivez votre intuition (nous savons Gut ne se sent pas bien, mais simplement votre capacité à reconnaître à quelque chose de regard que vous savez être la bonne maladie ou d’un traitement) et vous enregistrez un patient. La prochaine fois (et patient), vous avez un autre conflit avec les résultats de la machine, mais forte de la récente expérience passée (en raison d’une erreur à la main chaude ou un excès de confiance) vous pensez être à droite et décider de ne pas tenir compte ce que le moteur artificiel vous dit. Ensuite, le patient meurt Bitcoin 2016. Qui est maintenant responsable?

a) un scénario où le médecin est humain sans l’aide de la machine Bitcoin taille blockchain. Le paiement est ici que la responsabilité de rester avec lui, il obtient le droit 70% du temps, mais les choses sont très claires et parfois il obtient quelque chose de bien extrêmement difficile (le gars chanceux sur 10.000 patients);

b) un scénario dans lequel une machine décide et obtient le droit 99,99% du temps. Le côté négatif de c’est un malheureux patient sur 10.000 va mourir à cause d’une erreur de la machine et la responsabilité n’est pas affectée à la machine ou l’être humain;

En tant qu’ancien économiste, je me suis formé pour être sans cœur et de la raison en termes de valeurs et de grands nombres attendus (essentiellement utilitariste), donc le scénario b) regarde le seul possible pour moi parce qu’il enregistre le plus grand nombre de personnes. Mais nous savons tous n’est pas aussi simple que cela (et bien sûr ne se sent pas bien pour le gars malchanceux de notre exemple): penser le cas, par exemple, des véhicules autonomes qui perdent des contrôles et doivent décider si tuer le conducteur ou cinq piétons au hasard (le fameux chariot problème). Sur la base des principes que je sauverait les piétons, non? Mais qu’en ces cinq sont des criminels et le conducteur est une femme enceinte? Votre changement de jugement dans ce cas? Et encore une fois, si le véhicule pouvait instantanément utiliser des caméras et des capteurs visuels pour reconnaître les visages des piétons, se connecter à une base de données centrale et les faire correspondre aux dossiers de santé savoir qu’ils ont tous un certain type de maladie en phase terminale? Vous voyez, la ligne est floue …

Le dernier doute qui reste est donc pas simplement de la responsabilité (et le choix entre les résultats purs et les moyens de les atteindre), mais plutôt sur la confiance de l’algorithme (et je sais que pour quelqu’un qui a étudié 12 ans pour devenir médecin pourrait ne pas être facile à renoncer à cela). En fait, adversion algorithme devient un réel problème pour les tâches assistées algorithmes et il semble que les gens veulent avoir un (même si incroyablement faible) degré de contrôle sur les algorithmes (Dietvorst et al, 2015;. 2016).

Si une AI déciderait de la question, il sera sans doute aussi pour le scénario b), mais nous, les humains aimerait trouver un compromis entre ces scénarios parce que nous « éthique » ne se sentent pas de ceux à avoir raison. Nous pouvons reformuler alors cette question sous l’objectif « problème d’alignement », ce qui signifie que les objectifs et les comportements d’IA ont besoin d’être aligné avec les valeurs humaines – une IA a besoin de penser comme un être humain dans certains cas (mais bien sûr, la question ici est comment vous preuve de discrimination? Et quel est l’avantage d’avoir une AI alors? Faisons donc simplement les coller activités humaines traditionnelles).

Le problème d’alignement, en fait, également connu comme « problème roi Midas », naît de l’idée que, peu importe la façon dont nous régler nos algorithmes pour atteindre un objectif spécifique, nous ne sommes pas en mesure de préciser et encadrer ces objectifs assez bien pour éviter que les machines de rechercher des moyens indésirables pour les atteindre. Bien sûr, une solution théoriquement viable serait de laisser la machine maximiser notre véritable objectif, sans le mettre ex-ante, ce qui rend donc l’algorithme lui-même à nous observer et comprendre ce que nous voulons vraiment (comme une espèce et non en tant que personnes, qui pourrait entraîner également la possibilité de s’éteindre en cas de besoin).

« Il y a des complications: les humains sont irrationnels, incohérents, velléitaire, informatiquement limitée et hétérogène, qui tous conspirent pour rendre l’apprentissage des valeurs humaines de comportement humain un difficile (et peut-être pas tout à fait souhaitable) entreprise ».

Ce que la section précédente suggère implicitement que toutes les applications AI sont les mêmes et que les taux d’erreur s’appliquent différemment à différentes industries. Dans cette hypothèse, il pourrait être difficile de tracer une ligne et la conception d’un cadre de responsabilisation qui ne pénalise pas les applications ayant un impact faible (par exemple, un moteur de recommandation) et en même temps ne pas sous-estimer l’impact d’autres applications (par exemple,., les soins de santé ou SVA).

• Nous devons tenons les concepteurs de l’AI en tant que responsable du mauvais fonctionnement et le mauvais résultat (mais il pourrait être difficile parce que généralement les équipes IA peuvent compter des centaines de personnes et cette mesure préventive pourrait décourager beaucoup d’entrer dans le champ);

• Nous devons responsabilise l’organisation exécutant le système (pour moi, il semble le plus raisonnable entre les trois options, mais je ne suis pas sûr au sujet des conséquences de celui-ci. Et puis quelle compagnie devrait être responsable de la chaîne de valeur AI? Le fournisseur finale ? la société qui a construit le système en premier lieu? l’activité de conseil qui a recommandé?).

Il n’y a aucune réponse facile et beaucoup plus est nécessaire pour aborder cette question, mais je crois un bon point de départ a été fournie par Sorelle Friedler et Nicholas Diakopoulos. Ils suggèrent de considérer la responsabilité à travers l’objectif de cinq principes fondamentaux:

• Précision: garbage in, garbage out est susceptible d’être la raison la plus courante pour le manque de précision dans un modèle acheter Bitcoin en Malaisie. Les sources de données et d’erreur doivent alors être identifiés, enregistrés et étalonnés;