Pape: éthique pour l'IA et les véhicules sans pilote

image

Le Pape craint que l'IA puisse nuire aux gens au lieu de devenir un outil qui complétera la société et améliorera sa vie.

Selon le Vatican , un document récemment publié intitulé Rome Call For AI Ethics parle de la direction que l'IA devrait prendre en tant que technologie qui vise à améliorer la société, ainsi qu'à prévenir perspectives de préjudice et de mort pour la société.

Parfois, les scientifiques sont enclins à introduire des innovations sans étudier explicitement les conséquences possibles. Ainsi, il y a de nombreux appels à prêter attention à l'éthique de l'IA à l'ère de la course au développement et à la mise en œuvre de systèmes intelligents (en particulier en ce qui concerne les systèmes basés sur la machine et le deep learning).

Voici une citation clé d'un document publié par le Pape:

«Maintenant, plus que jamais, nous devons garantir les perspectives selon lesquelles l'IA se développera en mettant l'accent non pas sur la technologie, mais sur le bénéfice de l'humanité, de l'environnement, de notre maison commune et de ses habitants, qui sont inextricablement interconnecté

L'Église catholique demande à toutes les personnes impliquées dans la création de l'IA de se souvenir des actions potentielles de ces systèmes. Cela comprend également un appel à prêter attention aux conséquences prévues et potentiellement imprévues.

Certains développeurs d'IA ferment les yeux sur le fait que les actions de leurs développements peuvent provoquer des effets indésirables involontaires.

N'oubliez pas les aspects suivants de la dynamique sociale:

  • Certains ingénieurs et scientifiques pensent que tant que le système d'IA fait au moins ce qu'ils attendaient, toutes les autres conséquences ne sont pas de leur responsabilité, et ils essaient donc de se laver les mains de ces difficultés.
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


Un document publié par l'Église catholique agit comme une sorte de promesse, et toutes les personnes impliquées dans la création de systèmes d'IA seront invitées poliment à signer cette promesse.

En effet, ce document a déjà été signé par plusieurs acteurs, dont IBM et Microsoft.

Que demande ce document aux signataires?

Je vais parler brièvement de certains détails. Celui-ci décrit trois principes de base. Ainsi, le système d'IA devrait:

"... être inclusif pour tous et ne discriminer personne; la gentillesse de la race humaine dans son ensemble et de chaque personne en particulier doit être au cœur de ce système; enfin, ce système doit se souvenir de la structure complexe de notre écosystème et être caractérisé par son attitude envers notre maison commune. Système intelligent "devrait aborder cette question du point de vue le plus rationnel, et son approche devrait inclure l'utilisation de l'IA pour assurer des systèmes alimentaires stables à l'avenir."

Bref:

  1. L'IA ne doit discriminer personne
  2. L'IA ne devrait avoir que de bonnes intentions
  3. L'IA doit prendre soin de la durabilité environnementale

L'aspect à garder à l'esprit est que l'IA ne détermine pas elle-même son avenir, peu importe comment il semble que ces systèmes soient déjà autonomes et créent eux-mêmes leur propre destin.

Tout cela est faux, du moins pour l'instant (il en sera ainsi dans un proche avenir).

En d'autres termes, nous seuls, les humains, créons ces systèmes. Par conséquent, seuls les humains sont responsables de ce que font les systèmes d'IA.

J'en parle parce que c'est un moyen simple de sortir de la situation dans laquelle les ingénieurs et développeurs de l'IA prétendent qu'ils ne sont pas à blâmer pour les erreurs de leur produit.

Vous connaissez probablement la situation lorsque vous contactez l'administration des véhicules automobiles pour renouveler votre permis de conduire et que son système d'information tombe en panne. Dans le même temps, l'agent de gestion ne fait que hausser les épaules et se plaint que tout cela se produit toujours avec l'équipement.

Pour être précis, cela ne dure pas éternellement et pas avec toute la technologie.

Si le système informatique ne fonctionne pas, la faute en est aux personnes qui ont configuré l'ordinateur et n'ont pas pu sauvegarder correctement, et n'ont pas non plus fourni la possibilité d'accéder au système si nécessaire.

Ne tombez pas dans le piège logique, n'êtes pas d'accord avec le fait que les systèmes informatiques (y compris les systèmes d'IA) ont leurs propres opinions, et s'ils deviennent fous, alors ce n'est pas que cela "arrive toujours avec la technologie".

La vérité est que les personnes qui ont développé et mis en œuvre le système informatique portent l'entière responsabilité, car elles n'ont pas pris de mesures suffisantes et n'ont pas accordé suffisamment d'attention à leur travail.

Dans le cas de l'appel du pape François à participer à la discussion des principes éthiques vitaux, il peut sembler que toutes ces thèses sont très simples et ne se prêtent pas à la critique (parce qu'elles sont évidentes comme une déclaration que le ciel est bleu), mais malgré cela, il y a des parties qui nient Offres du Vatican.

Comment?

Premièrement, certains critiques affirment qu'il n'y a aucun aspect obligatoire de cet engagement. Si l'entreprise y souscrit, aucune sanction ne sera appliquée en cas de non-respect des principes de l'engagement. Ainsi, vous pouvez vous abonner sans crainte de responsabilité. Un engagement sans conséquences semble vide pour beaucoup.

Deuxièmement, certains s'inquiètent du fait que c'est l'Église catholique qui a appelé à l'éthique de l'IA. La raison en est que la présence de l'église introduit la religion dans le sujet, bien que certains croient que cela n'a rien à voir avec le sujet.

La question se pose: d'autres religions émettront-elles des appels similaires? Et si oui, lesquels prévaudront? Et que ferons-nous avec un ensemble fragmenté et disparate de déclarations éthiques sur l'IA?

Troisièmement, certains estiment que cette garantie est très souple et trop générale.

Le document ne contient probablement pas de directives de fond qui pourraient être mises en œuvre de manière pratique.

De plus, les développeurs qui souhaitent esquiver leur responsabilité peuvent prétendre avoir mal compris les dispositions générales ou les avoir interprétées différemment de leur intention.

Alors, étant donné la vague de condamnations, devrions-nous nous débarrasser de cet appel du Vatican en faveur de l'algoéthique de l'IA?

En m'éloignant du sujet, je note que l'algoéthique est un nom qui est donné aux questions liées à l'éthique algorithmique. C'est peut-être un bon nom, mais ce n'est pas très sonore et il est peu probable qu'il soit généralement accepté. Le temps nous le dira.

Revenons au sujet - devons-nous prêter attention à cet appel à l'éthique de l'IA ou non?

Oui, nous devons.

Bien que ce document, certes, ne prévoie aucune sanction financière en cas de non-respect des principes, il y a un autre aspect qui est également important à considérer. Les entreprises qui signent cet appel peuvent être tenues pour responsables par le grand public. S'ils ne respectent pas leurs promesses et que l'église l'indique, une mauvaise publicité peut nuire à ces entreprises - cela entraînera une perte d'activité et de réputation dans cette industrie.

Vous pourriez dire que pour avoir violé ces principes une sorte de paiement est implicite, ou supposer qu'il est caché.

Quant à l'apparition de la religion dans un sujet où, semble-t-il, elle ne lui appartient pas, alors comprenez qu'il s'agit d'un tout autre problème. Cette question mérite une discussion et un débat considérables, mais reconnaît également qu'il existe maintenant de nombreux systèmes éthiques et appelle à l'éthique de l'IA à partir d'une grande variété de sources.

En d'autres termes, cet appel n'est pas le premier.

Si vous étudiez attentivement ce document, vous verrez qu'il n'y a aucun résumé lié à la doctrine religieuse. Cela signifie que vous ne pouvez pas le distinguer de tout semblable, exécuté sans aucun contexte religieux.

Enfin, du point de vue de l'imprécision de ce document - oui, vous pourriez facilement conduire un camion Mack à travers de nombreuses échappatoires, mais ceux qui veulent tricher tricheront quand même.

Je suppose que d'autres mesures seront prises dans le domaine de l'IA, et ces étapes compléteront le document du Vatican par des orientations spécifiques qui aideront à combler les lacunes et les omissions.

Il est également possible que quiconque essaie de tricher soit condamné par le monde entier, et les fausses déclarations concernant une prétendue incompréhension du document seront considérées comme des astuces évidentes qui ne sont nécessaires que pour éviter de se conformer aux normes éthiques d'IA raisonnablement formulées et assez évidentes proclamées dans document.

En parlant de la conviction que tout le monde comprend les principes de l'éthique de l'IA, considérons la myriade d'utilisation de l'IA.

Il existe un exemple intéressant dans le domaine de l'IA appliquée liée au thème de l'éthique: faut-il développer et mettre sur la route des véhicules sans pilote conformément à l'appel du Vatican?

Ma réponse est oui, certainement.

En fait, j'exhorte tous les constructeurs automobiles et automobiles à signer ce document.

Dans tous les cas, examinons ce problème et voyons comment cet appel s'applique aux vrais véhicules sans pilote.

Niveaux de véhicules sans pilote


Il est important de clarifier ce que je veux dire lorsque je parle de véhicules entièrement sans pilote avec IA.

Les vrais véhicules sans pilote sont des véhicules dans lesquels l'IA se gère sans aucune assistance humaine.

Ces véhicules sont affectés aux niveaux 4 et 5, tandis que les voitures qui nécessitent la participation humaine pour la copropriété sont généralement affectées aux niveaux 2 ou 3. Les voitures dans lesquelles la conduite avec l'aide d'une personne est appelée semi-autonome et contiennent généralement de nombreuses fonctions supplémentaires appelées ADAS (systèmes avancés d'aide à la conduite).

Jusqu'à présent, il n'y a pas de véhicule sans pilote de niveau 5. Aujourd'hui, nous ne savons même pas si cela peut être réalisé et combien de temps cela prendra.

Pendant ce temps, des travaux sont en cours dans la zone de niveau 4. Des tests très étroits et sélectifs sont effectués sur les voies publiques, bien qu'il y ait un débat sur l'admissibilité de ces tests (certains pensent que les personnes participant aux tests sur les routes et les autoroutes agissent comme des cobayes, qui peuvent survivre ou mourir à chaque test) .

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de telles voitures par les masses ne sera pas très différente de la conduite de voitures ordinaires, il n'y a rien de nouveau à en dire dans le contexte de notre sujet (bien que, comme vous le verrez bientôt, les points qui seront pris en considération leur est également applicable).

Dans le cas des voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment - malgré les personnes qui continuent de publier des vidéos sur la façon dont elles s'endorment en conduisant des voitures à 2 ou 3 niveaux, nous devons tous nous rappeler que le conducteur ne peut pas être distrait de la conduite d'une voiture semi-autonome.

Vous êtes responsable des actions de contrôle du niveau 2 ou 3 du véhicule, quel que soit le niveau d'automatisation.

Véhicules sans pilote et éthique de l'IA


Dans les véhicules de niveau 4 et 5, une personne ne participe pas à la gestion, toutes les personnes dans ces véhicules seront des passagers et l'IA conduira.

À première vue, vous pouvez supposer qu'il n'est pas nécessaire de prendre en compte les problèmes d'éthique de l'IA.

Un véhicule sans pilote est un véhicule qui peut vous transporter sans chauffeur.

Vous pourriez penser qu'il n'y a rien de tel et qu'il n'y a pas de considérations éthiques dans la façon dont le pilote AI gère le contrôle.

Désolé, mais ceux qui croient que tout cela n'a rien à voir avec l'éthique de l'IA doivent frapper à la tête ou verser de l'eau froide sur ces personnes (je suis contre la violence, ce n'est qu'une métaphore).

Il y a beaucoup de considérations liées à l'éthique de l'IA (vous pouvez lire mon avis surce lien , un article sur les aspects mondiaux de l'éthique de l'IA se trouve ici , et un article sur le potentiel des conseils d'experts dans ce domaine est ici ).

Jetons un bref coup d'œil à chacun des six principes de base énoncés dans l'appel romain à l'éthique de l'IA.

Je m'efforcerai de garder cet article concis et, par conséquent, je proposerai des liens vers mes autres publications, qui contiennent des informations plus détaillées sur les sujets importants suivants:

Principe 1: «Transparence: les systèmes d'IA doivent être intrinsèquement explicables»


Vous montez dans une voiture sans pilote, et il refuse d'aller où vous l'avez dit.

De nos jours, la plupart des systèmes de conduite sans pilote sont développés sans aucune explication concernant leur comportement.

La raison du refus peut être, par exemple, une tornade ou une demande qui ne peut pas être exécutée (par exemple, il n'y a pas de routes praticables à proximité).

Cependant, sans XAI (l'abréviation pour AI, qui fonctionne avec des explications), vous ne comprendrez pas ce qui se passe (plus à ce sujet ici).

Principe 2: «Inclusivité: les besoins de tous doivent être pris en compte afin que les bénéfices soient les mêmes pour tous et que les meilleures conditions d'expression et de développement soient offertes à tous»


Certains craignent que les véhicules sans pilote ne soient disponibles que pour les riches et n'apporteront aucun avantage au reste de la population (voir Lien ici).

Qu'obtenons-nous - la mobilité pour tous ou pour quelques-uns?

Principe 3: «Responsabilité: ceux qui développent et mettent en œuvre des systèmes d'IA doivent agir avec responsabilité et leur travail doit être transparent»


Que fera l'IA dans une situation où elle devra choisir de frapper un enfant qui s'est enfui sur la route ou de s'écraser sur un arbre, ce qui nuira aux passagers?

Ce dilemme est également connu comme le problème du chariot (voir lien). Beaucoup exigent des constructeurs automobiles et des entreprises de technologie de véhicules sans pilote qu'ils soient transparents sur la façon dont leurs systèmes prennent des décisions en faveur de la vie ou de la mort.

Principe 4: «Impartialité: construire des systèmes d'IA et agir sans préjudice, garantissant ainsi la justice et la dignité humaine»


Supposons qu'une voiture à commande automatique réponde aux piétons en fonction de leurs caractéristiques de course.

Ou supposons qu'une flotte de véhicules sans pilote apprenne à éviter de conduire dans certaines zones, ce qui privera les résidents du libre accès aux voitures qui n'ont pas besoin de chauffeur.

Les préjugés associés à l'apprentissage automatique et aux systèmes d'apprentissage profond sont une préoccupation majeure

Principe 5: «Fiabilité: les systèmes d'IA doivent fonctionner de manière fiable»


Vous conduisez une voiture avec contrôle automatique, et il se déplace soudainement sur le côté de la route et s'arrête. Pourquoi? Vous n'avez peut-être pas la moindre idée.

L'IA a peut-être atteint les limites de sa portée.

Ou peut-être que le système d'IA s'est écrasé, une erreur s'est produite, ou quelque chose comme ça.

Principe 6: «Sécurité et confidentialité: les systèmes d'IA doivent fonctionner en toute sécurité et respecter la confidentialité des utilisateurs»


Vous montez dans un véhicule sans pilote après vous être amusé dans les bars.

Il s'avère que cette machine a des caméras non seulement à l'extérieur mais aussi à l'intérieur.

En fait, les caméras dans la cabine sont nécessaires pour attraper les passagers qui dessineront des graffitis ou gâcheront l'intérieur de la voiture.

Dans tous les cas, toutes ces caméras vous prennent tout le temps pendant que vous conduisez dans une voiture sans pilote, et vos phrases incohérentes apparaîtront également sur cette vidéo, car vous êtes dans une stupeur ivre.

À qui appartient cette vidéo et que peut-il en faire?

Le propriétaire d'une voiture sans pilote devrait-il vous fournir une vidéo et y a-t-il quelque chose qui l'empêche de télécharger cette vidéo sur Internet?

De nombreux problèmes de confidentialité doivent encore être résolus.

Du point de vue de la sécurité, il existe de nombreuses options de piratage pour les systèmes de conduite intelligents.

Imaginez un attaquant qui peut pirater une voiture de drone IA. Il peut prendre le contrôle, ou au moins commander une voiture pour vous emmener à l'endroit où les ravisseurs vous attendent.

Il existe de nombreux scénarios effrayants associés à des failles de sécurité dans les systèmes de véhicules sans pilote ou dans leurs systèmes cloud. Et les constructeurs automobiles, ainsi que les entreprises technologiques, sont tenus d'utiliser les systèmes de protection et les précautions nécessaires.

Conclusion


Si vous comparez cet appel à l'éthique de l'IA avec beaucoup d'autres, vous constaterez qu'ils ont beaucoup en commun.

La critique, qui prétend qu'en fin de compte nous aurons une multitude incommensurable de tels appels, est quelque peu vraie, mais on peut supposer que couvrir absolument tous les principes fondamentaux ne fera pas non plus de mal.

Cette situation commence à devenir un peu déroutante, et les fabricants d'IA utiliseront l'excuse que puisqu'il n'y a pas une seule norme acceptée, ils attendront qu'un tel document apparaisse.

Cela ressemble à une excuse raisonnable, mais je ne l'achèterai pas.

Tous les fabricants qui disent qu'ils vont attendre que la version mondialement acceptée, compilée par un gros tireur, soit approuvée, en fait, ils sont prêts à reporter l'adoption de tout code d'éthique de l'IA, et leurs attentes peuvent être les mêmes. comme attendre Godot.

Je vous exhorte à choisir tout manuel sur l'éthique de l'IA, dans lequel il y a quelque chose d'important, et qui est suggéré par une source faisant autorité, et à poursuivre la mise en œuvre de cette éthique.

Mieux tôt que tard.



image

À propos d'ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Lisez d'autres articles utiles:


All Articles