Département américain de la Défense: éthique pour l'IA et les véhicules sans pilote

image

L'éthique de l'IA est un sujet brûlant et pertinent de nos jours. Et c'est vrai.

Avec l'âge d'or des systèmes d'IA et leur occurrence très répandue, il y a des craintes raisonnables que ces systèmes informatiques soient simplement jetés dans ce monde sans comprendre les conséquences possibles pour la société.

Il est très préoccupant que les nouveaux systèmes d’intelligence artificielle comportent des préjugés et soient sujets à des actions toxiques en termes d’éthique et de société.

En ce qui concerne l'éthique de l'intelligence artificielle, je soutiens qu'il existe au moins deux aspects (ou règles) principaux:

  1. Le comportement du système d'IA devrait être acceptable pour la société
  2. Les concepteurs de systèmes d'IA et les systèmes eux-mêmes doivent appliquer la règle 1.

Peut-être que l'essence de la première règle est évidente - le sens de l'éthique de l'IA est que le comportement de ces systèmes doit être conforme aux normes éthiques de la société.

Il sera montré ci-dessous que le respect de la première règle est plus compliqué qu'il n'y paraît.

L'importance de la règle 2 est de clarifier que les parties chargées d'assurer le plein respect de l'éthique de l'IA sont composées de personnes qui conçoivent, construisent et distribuent ces systèmes.

Si cela vous semble évident, ne vous précipitez pas pour porter des jugements fondés sur le «bon sens».

Autour des systèmes d'IA, il y a une sorte d'aura, comme s'ils étaient autonomes et capables d'autodétermination. Ainsi, lorsqu'un système d'IA fait quelque chose comme manifester des préjugés raciaux , certains font une erreur logique en disant que l'IA l'a fait, sans blâmer ceux qui ont créé et mis en œuvre ce système.

Certains développeurs et fabricants de ces systèmes préféreraient certainement que vous ne regardiez pas dans leur direction.lorsque le système AI fait quelque chose de mal.

En conséquence, ceux qui portent la vraie responsabilité peuvent faire une grimace surprise et timidement fuir leurs devoirs , en disant que l'IA est à blâmer. Ces personnes se comporteront comme si elles ne faisaient que regarder l'accident de train, même si ce sont elles qui l'ont mis sur les rails et l'ont démarré sans aucun contrôle ni vérification.

Bien sûr, certains défendront leur système qui a fait une erreur. Ils diront qu'ils ont essayé d'empêcher tous les échecs, mais bon sang, il manquait quelque chose . Dans un sens, ces gens vont essayer de se faire «victimes», en se contrastant avec ceux qui ont souffert de l'IA.

Ne vous laissez pas berner par cela.

En fait, ne vous laissez pas berner par cela.

Bref, la deuxième règle est aussi importante que la première.

Sans amener les gens à rendre compte des actions de l'IA créées par eux, nous serons tous assis dans une flaque d'eau.

Je suis sûr que les créateurs s'en sortiront facilement avec leurs promesses liées au développement de leurs nouveaux systèmes d'IA . Ces personnes feront l'éloge de leurs produits, dans l'espoir de leur succès, et elles prétendront également qu'elles n'ont rien à voir avec des applications dont les erreurs éthiques sont tombées sur nous tous. Tout cela encouragera la création de systèmes d'IA sans responsabilité morale.

Un autre domaine dans lequel l'éthique de l'IA peut être particulièrement difficile est l'IA à des fins militaires.

La plupart des gens conviendront que nous devons respecter certaines normes éthiques en matière d'IA lors de la création et de l'utilisation de systèmes de renseignement militaire. Les connaissances et l'expérience que nous acquérons de cette manière peuvent être utilisées pour une utilisation commerciale et industrielle de l'IA.

Le département américain de la Défense a récemment publié un ensemble de principes de l'IA .

Si vous regardez ces principes isolément (ce que je ferai dans cet article), c'est-à-dire sans tenir compte des contextes militaire et défensif, vous pouvez voir qu'ils sont également applicables à tous les systèmes d'IA commerciaux ou industriels.

Je vais vous parler de ces principes, et utiliser mon domaine préféré pour cela - l'émergence de vrais véhicules sans pilote. Cela me permettra d'illustrer dans quelle mesure le dernier ensemble de principes d'éthique de l'IA est applicable (y compris l'utilisation non militaire).

Selon les médias, le Pentagone a publié cette dernière série de normes éthiques en matière d'IA et, citant le lieutenant de l'Air Force Jack Jack Shenhan et directeur du Joint AI Center, a déclaré avec justesse : «L'IA est une technologie puissante en développement et efficace qui transforme rapidement la culture, la société et finalement même la guerre. "La qualité de ces changements dépend de notre approche de l'adoption et de l'utilisation de ces systèmes."

Comme je l'ai dit à plusieurs reprises, l'approche de la société au développement de l'IA déterminera le sort de ce système - s'il fonctionnera pour le bien , ou s'il sera (ou deviendra au fil du temps) un échec aux conséquences déplorables .

Les développeurs et les fabricants de systèmes d'IA doivent être sérieusement mis sous pression.

Pour plus de clarté, je note que les systèmes d'IA ne fonctionneront pas pour le bien simplement par leur nature (il n'y a pas d'axiomes et de prérequis qui pourraient garantir cela).

Afin d'étudier pleinement cette question, nous examinerons mon concept, qui est un schéma à quatre carrés, que j'appelle le schéma des conséquences éthiques de l'IA .

Par convention, nous désignons la partie supérieure de l'axe des abscisses comme «AI pour de bon» et la partie inférieure comme «AI pour mal». De même, nous divisons l'axe des ordonnées, le côté gauche est désigné comme «intentionnellement» et le côté droit est «involontairement».

On obtient ainsi 4 carrés:

  1. Bonne IA - intentionnellement
  2. AI au détriment - intentionnellement
  3. L'IA pour de bon - involontairement
  4. AI au détriment - par inadvertance

Je comprends que certains d'entre vous peuvent être horrifiés de simplifier un problème aussi important en un schéma simple à quatre carrés, mais parfois une perspective globale peut être utile - vous pouvez l'utiliser pour voir une forêt parmi les arbres.

Le premier carré décrit une bonne IA qui a été créée avec de bonnes intentions. Cette IA atteint ses objectifs sans aucune violation de l'éthique, et je crois que ce carré est la norme que tous les systèmes intelligents devraient s'efforcer d'atteindre.

Le deuxième carré est une IA malveillante. Malheureusement, de tels systèmes seront créés et diffusés (par des criminels ou des terroristes), mais j'espère que nous y serons prêts, et les principes de l'éthique de l'IA nous aideront à détecter leur apparence.

Le troisième carré est une chance aléatoire. Il décrit une situation dans laquelle quelqu'un a créé un système intelligent qui s'est soudain avéré être bon. Peut-être que son créateur n'a pas pensé à la direction positive de son développement, mais même si ce n'est qu'une combinaison réussie de circonstances, c'est toujours un succès, car pour nous le résultat est la base.

Le quatrième carré est le plus insidieux, et c'est lui qui provoque le plus d'anxiété (à l'exception du deuxième carré effrayant). En règle générale, les systèmes qui devraient fonctionner pour le bien tombent ici, mais pendant le développement, des qualités négatives s'accumulent en eux qui chevauchent tout le bien.

En général, nous serons entourés de systèmes dans lesquels les bons et les mauvais traits se mélangeront petit à petit. La situation peut être décrite comme suit: les développeurs s'efforceront de créer une bonne IA qui sera utile, mais dans le processus de création d' erreurs involontaires, le système s'accumulera , ce qui entraînera des conséquences néfastes.

Considérez deux questions importantes:

  • Comment pouvons-nous comprendre ou découvrir qu'un système intelligent peut contenir des caractéristiques d'une mauvaise IA?
  • Comment les développeurs peuvent-ils savoir comment créer de tels systèmes afin de détecter les erreurs et d'empêcher l'émergence de systèmes dont le fonctionnement peut entraîner des conséquences négatives?

Réponse: respectez strictement les règles tirées de l'ensemble correct et substantiel de principes d'éthique de l'IA.

En parlant de directives éthiques en matière d'IA, un document publié par le ministère de la Défense contient cinq principes de base, et chacun d'eux exprime des idées importantes auxquelles tous les développeurs et distributeurs d'IA devraient prêter attention, ainsi que tous ceux qui utilisent ou utiliseront ces systèmes.

En général, les directives d'éthique de l'IA sont utiles à toutes les parties intéressées, pas seulement aux développeurs.

La meilleure façon d'apprendre les principes d'un document du ministère de la Défense est de les démontrer par rapport aux systèmes intelligents existants.

Il convient de se pencher sur la question urgente: les principes du code du ministère de la défense sont-ils applicablesdes voitures vraiment sans pilote ? Le cas échéant, comment les utiliser?

Ils sont vraiment applicables, regardons comment ils fonctionnent.

Niveaux de véhicules sans pilote


image

Il est important de clarifier ce que je veux dire lorsque je parle de véhicules entièrement sans pilote avec IA.

Les vrais véhicules sans pilote sont des véhicules dans lesquels l'IA se gère sans aucune assistance humaine.

Ces véhicules sont affectés aux niveaux 4 et 5 , tandis que les voitures qui nécessitent la participation humaine pour la copropriété sont généralement affectées aux niveaux 2 ou 3 . Les voitures dans lesquelles la conduite avec l'aide d'une personne est appelée semi-autonome et contiennent généralement de nombreuses fonctions supplémentaires appelées ADAS (systèmes avancés d'aide à la conduite).

Jusqu'à présent, il n'y a pas de véhicule sans pilote de niveau 5. Aujourd'hui, nous avons mêmenous ne savons pas si cela sera réalisé et combien de temps cela prendra.

Pendant ce temps, des travaux sont en cours dans la zone de niveau 4. Des tests très étroits et sélectifs sont effectués sur les voies publiques, bien qu'il y ait un débat sur l'admissibilité de ces tests (certains pensent que les personnes participant aux tests sur les routes et les autoroutes agissent comme des cobayes, qui peuvent survivre ou mourir à chaque test ) .

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de telles voitures par les masses ne sera pas très différente de la conduite de voitures ordinaires, il n'y a rien de nouveau à en dire dans le contexte de notre sujet (bien que, comme vous le verrez bientôt, les points qui seront pris en considération leur est également applicable).

Dans le cas des voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment - malgré les personnes qui continuent de publier des vidéos sur la façon dont elles s'endorment en conduisant des voitures à 2 ou 3 niveaux, nous devons tous nous rappeler que le conducteur ne peut pas être distrait de la conduite d'une voiture semi-autonome.

Vous êtes responsable des actions de contrôle du niveau 2 ou 3 du véhicule, quel que soit le niveau d'automatisation.

Véhicules sans pilote et éthique de l'IA


Dans les véhicules de niveau 4 et 5, une personne ne participe pas à la gestion, toutes les personnes dans ces véhicules seront des passagers et l'IA conduira. En conséquence, de nombreux systèmes intelligents seront intégrés à ces véhicules de niveau - un fait incontestable.

La question suivante se pose: l'IA qui conduit le véhicule sans pilote se limitera-t-elle à des directives ou des exigences sur l'éthique de l'IA (vous pouvez consulter mon analyse de l'éthique de l'IA pour les véhicules sans pilote à ce lien , ainsi que des conseils pour développer cette éthique ).

Rappelons qu'il n'y a pas de système par défaut qui obligerait l'IA à se conformer aux normes éthiques ou à un contrat moral avec la société.

Les gens eux-mêmes doivent intégrer ces croyances ou principes dans des systèmes intelligents, et les développeurs d'IA doivent le faire explicitement et avec de grands yeux.

Malheureusement, certains agissent dans l'autre sens - ils ferment les yeux ou tombent sous l'influence de l'hypnose, et au lieu des actions ci-dessus, ils semblent fascinés par le prix potentiel que leur projet apportera (ou le prétendu noble objectif).

J'ai averti que certains systèmes d'IA conduiraient à une «noble corruption» de ceux qui les développent. Le résultat sera le suivant - les personnes impliquées dans le développement seront tellement absorbées par le potentiel de l'IA bien intentionnée qu'elles ignoreront, manqueront ou réduiront de manière sélective l'attention aux considérations sur l'éthique de l'IA (voir lien).

Voici cinq points dans l'ensemble.Principes d'éthique de l'IA du Département américain de la Défense :

Premier principe: responsabilité


«Le personnel du Département de la défense effectuera un niveau approprié d'évaluation et d'attention, tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.»

Pour commencer, nous allons extraire de ce libellé la partie qui parle de «Personnel du ministère» et la remplacer par «Tout le personnel». Vous avez obtenu un manuel qui convient à toute organisation travaillant avec l'IA, en particulier commerciale.

Les constructeurs automobiles et les entreprises technologiques travaillant avec des véhicules sans pilote devraient lire attentivement le libellé du principe, en suivant attentivement ses mots.

Je parle de cela, car certains continuent de faire valoir que le drone basé sur l'IA agira de lui-même, et donc il y aura beaucoup de préoccupations quant à qui porteraresponsabilité pour les erreurs de comportement du véhicule pouvant entraîner des blessures ou la mort.

Bref, les gens seront responsables .

Il peut s'agir de personnes qui ont développé un drone basé sur l'IA - un constructeur automobile ou une entreprise technologique.

Comprenez également que je dis constamment que les personnes responsables comprennent à la fois les développeurs et ceux qui déploient ces systèmes d'IA , ce qui signifie que travailler avec ces systèmes et les installer est tout aussi important que de travailler avec des développeurs .

Pourquoi?

Parce que les personnes qui déploient des systèmes intelligents peuvent également commettre des erreurs qui ont des conséquences néfastes.

Par exemple, supposons queune entreprise de covoiturage a acquis une flotte de véhicules sans pilote et les utilise pour les voyages communs de ses clients.

Jusqu'ici tout va bien.

Mais disons que cette entreprise n'est pas en mesure de bien entretenir ces véhicules sans pilote . En raison du manque d'entretien ou de la négligence des instructions, les véhicules sans pilote ne fonctionnent pas. Dans ce cas, nous pourrions trouver à redire au développeur d'origine, mais cela vaut plus la peine de poser des questions à ceux qui ont déployé le système d'IA et n'ont pas fait preuve de diligence et de responsabilité dans leur travail .

Deuxième principe: l'impartialité


«Le ministère prendra des mesures pour minimiser l'apparence de préjugés involontaires dans le fonctionnement des systèmes d'IA.»

Encore une fois, prenez le terme «ministère» dans le libellé et remplacez-le par «développeurs et employés installant des systèmes d'IA». Vous recevrez un principe universel et adapté à tous.

Dans le cas des véhicules sans pilote, on craint que le système d'IA réagisse différemment aux piétons en fonction de leur race , démontrant ainsi subtilement et inexorablement des préjugés raciaux.

Un autre problème est que la flotte de véhicules sans pilote peut amener les voitures à éviter certaines zones. Cela conduira à l'exclusion géographique, ce qui finira par voler les personnes à mobilité réduite.accès gratuit aux véhicules sans pilote.

En conséquence, il y a une forte chance que les véhicules sans pilote à part entière se retrouvent embourbés sous des préjugés d'une forme ou d'une autre, et au lieu de lever la main et de dire que c'est la vie, les développeurs et les utilisateurs devraient s'efforcer de minimiser, d'atténuer ou de réduire tout préjudice de ce type.

Troisième principe: traçabilité


«Les projets du ministère dans le domaine de l'IA seront élaborés et déployés de manière à ce que le personnel concerné ait une bonne compréhension des technologies, des processus de développement et des méthodes opérationnelles applicables au domaine de l'IA, notamment par le biais de méthodes transparentes et vérifiables, de sources de données, ainsi que de la conception et Documentation ".

Supprimez simplement de la formulation toutes les références au ministère ou, si vous le souhaitez, vous pouvez le considérer comme n'importe quel département dans n'importe quelle entreprise ou organisation - cela rendra le principe largement applicable à tout le monde.

Il y a beaucoup de choses inhérentes à ce principe, mais pour être bref, je ne me concentrerai que sur un aspect que vous n'avez peut-être pas remarqué.

La rubrique «sources de données» vise à diffuser l'apprentissage automatique etapprentissage en profondeur .

Lorsque vous travaillez avec la machine / l'apprentissage en profondeur, vous devez généralement collecter un grand ensemble de données, puis utiliser des algorithmes et des modèles spéciaux pour trouver des modèles .

Semblable au paragraphe précédent sur les préjugés cachés, si les données collectées sont initialement biaisées d'une manière ou d'une autre, les modèles mettront potentiellement en évidence ces préjugés. Par conséquent, lorsque le système d'IA fonctionne en temps réel, il traduira ces biais en réalité.

Encore plus effrayant, les développeurs d'IA peuvent ne pas comprendre ce qui se passe, et ceux qui installent et déploient ces systèmes ne seront pas en mesure de le comprendre non plus.

Un drone formé sur le trafic fou et hostile à New York conditionnel pourrait potentiellement prendre le relaisStyle de conduite agressif typique d'un conducteur de New York. Imaginez que vous preniez ce système et l'utilisiez dans les villes américaines où le style de conduite est plus calme et mesuré.

Ce principe indique clairement que les développeurs et le personnel responsable de l'installation et du déploiement doivent faire attention aux sources de données, à la transparence et à l'audit de ces systèmes.

Quatrième principe: fiabilité


«Les projets du ministère dans le domaine de l'IA auront des utilisations clairement définies, et la sécurité, la fiabilité et l'efficacité de ces projets seront testées et vérifiées dans les utilisations décrites tout au long du cycle de vie.»

Suivez les mêmes étapes que dans les paragraphes précédents: supprimez le mot «ministère» et appliquer ce paragraphe comme s'il s'appliquait à toute organisation et à son service.

La plupart (ou peut - être tous) seront d' accord que le succès ou l' échec sans pilote véhicules dépend de leur sécurité , la sécurité , et l' efficacité.

J'espère que ce principe est évident en raison de son applicabilité explicite aux voitures basées sur l'IA.

Cinquième principe: gérabilité


«Le ministère concevra et développera des projets liés à l'intelligence artificielle pour remplir les fonctions prévues, tout en étant en mesure de détecter à l'avance les conséquences involontaires et de les éviter, ainsi que la capacité de désactiver ou de désactiver les systèmes déployés qui présentent un comportement anormal.»

Comme d'habitude, supprimez le mot «ministère» et appliquez ce paragraphe à n'importe quoi.

La première partie de ce principe est à la base de mon sujet de détection et de prévention des conséquences inattendues, en particulier des conséquences indésirables.

C'est assez évident dans le cas des véhicules sans pilote.

Il y a aussi un point subtil concernant les véhicules sans pilote, qui comprend la possibilité de désactiver ou de désactiver le système d'IA déployé, qui a montré un comportement inattendu - il existe de nombreuses options et difficultés, et ce n'est pas simplement en cliquant sur le bouton d'arrêt "rouge" situé à l'extérieur de la voiture ( comme certains le pensent )

Conclusion


Nous nous attendons généralement à ce que le ministère de la Défense ne révèle pas ses cartes.

Dans ce cas, le manuel d'éthique de l'IA ne doit pas être gardé secret. En effet, il est très agréable et louable que le ministère de la Défense ait publié ce document.

En fin de compte, c'est une chose de coller un tigre sur du papier et une autre de le voir dans le monde réel.

Tous les développeurs et le personnel responsable de l'installation et du déploiement doivent étudier attentivement et attentivement ce manuel d'éthique de l'IA, ainsi que des principes éthiques similaires (beaucoup d'entre eux) provenant d'autres sources.



image

À propos d'ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Lisez d'autres articles utiles:


All Articles