Tenter d'utiliser l'IA dans un détecteur de mensonge ne fait qu'exacerber le problème de la reconnaissance des fraudes

Une étude détaillée des tentatives d'utilisation de l'intelligence artificielle dans la reconnaissance du mensonge




Avant que le polygraphe rende le verdict «coupable», Emmanuel Mervilus travaillait pour une entreprise d'huile végétale dans le port de Newark, New Jersey. Il gagnait 12 $ / heure en transportant des boîtes, mais ce n'était pas suffisant pour vivre. Son frère et sa sœur étaient trop jeunes pour travailler et sa mère a mené une bataille coûteuse contre le cancer. Cependant, le patron du port a déclaré qu'il était le prochain à passer à un poste technique auquel il avait promis de payer 25 $ / heure.

Mervilus attendait toujours sa promotion lorsque le 19 octobre 2006, lui et son ami se sont arrêtés pour un repas au Dunkin 'Donuts, situé dans la ville voisine d'Elizabeth, New Jersey. Quelques minutes plus tard, alors qu'ils marchaient dans la rue, deux policiers se sont approchés d'eux et les ont accusés d'avoir volé un homme qui avait été menacé avec un couteau il y a quelques minutes près de la gare.

Une victime de loin a identifié Mervilus et son ami. Dans une tentative désespérée de prouver son innocence, Mervilus a suggéré de passer un test polygraphique. La police a accepté, mais peu de temps avant ce test, la mère de Mervilus est décédée. Lorsque la police l'a connecté à l'appareil, il était confus et inquiet. Il a échoué à ce test, a demandé la possibilité de le passer à nouveau et a été refusé.

Après le plaidoyer d'innocence de Mervilus, l'affaire a été renvoyée devant le tribunal. Le lieutenant de test a déclaré au tribunal que l'appareil est un "indicateur de vérité" fiable. Il a dit qu'il n'avait jamais vu dans sa carrière que "quelqu'un montrait des signes de fraude, et ensuite il s'est avéré qu'il disait la vérité." Le jury a déclaré Mervilus coupable - ce qui, comme il s'est avéré à la cour d'appel, s'est produit en raison d'une confiance excessive dans le polygraphe. Le juge lui a accordé 11 ans de prison.

La croyance que la tromperie peut être reconnue en analysant les caractéristiques du corps humain est profondément enracinée dans la vie moderne. Malgré de nombreuses recherches remettant en question la fiabilité du polygraphe, plus de 2,5 millions de contrôles sont effectués aux États-Unis chaque année, et l'industrie du polygraphe est estimée à 2 milliards de dollars. Les agences du gouvernement fédéral américain, dont le ministère de la Justice, le ministère de la Défense et la CIA, utilisent cet appareil évaluation des candidats au travail. Un rapport du ministère de la Justice de 2007 indique que plus des trois quarts des commissariats de police et des bureaux du shérif utilisent des détecteurs de mensonges pour recruter du personnel.

Cependant, ces appareils sont encore trop lents et maladroits pour être utilisés aux frontières, dans les aéroports ou dans de grands groupes de personnes. En conséquence, une nouvelle génération de détecteurs de mensonge basés sur l'IA a vu le jour au cours de la dernière décennie. Leurs partisans affirment qu'ils travaillent à la fois plus rapidement et plus précisément que les polygraphes.

En fait, la justification psychologique de ces nouveaux systèmes d'IA est encore plus précaire que les études qui sous-tendent le polygraphe. Les preuves que les résultats qu'elles produisent peuvent être fiables sont rares. Cependant, leur brillance externe, donnée par l'utilisation de l'IA, conduit à l'apparition de ces systèmes dans des endroits où le polygraphe n'a pas pu pénétrer plus tôt: à la frontière, aux entretiens, aux procédures d'évaluation de la solvabilité et d'enquête sur la fraude à l'assurance. Les entreprises et les gouvernements commencent à compter sur eux lorsqu'ils prennent des décisions concernant la fiabilité des clients, des employés, des citoyens, des immigrants et des touristes internationaux. Mais que se passe-t-il si un mensonge est un morceau trop compliqué pour être détecté de manière fiable par une machine, quelle que soit la complexité des algorithmes?

* * *

Les inquisiteurs de la Chine ancienne ont mis du riz dans la bouche de leurs suspects pour voir si de la salive en avait été libérée. " Roman actes ", une anthologie d'histoires moralisatrices médiévales, raconte l'histoire d'un soldat qui a ordonné à son commis de mesurer le pouls de sa femme, afin de déterminer s'il lui était fidèle.



Après que les États-Unis se soient impliqués dans la Première Guerre mondiale, William Marston, un chercheur de Harvard, a été le premier à utiliser des appareils de mesure de la pression artérielle pour tenter de détecter la fraude. Quelques années plus tard, inspiré par le travail de Marston, John Augustus Larson, un policier qui a récemment obtenu son doctorat en physiologie de l'Université de Californie à Berkeley, a mis au point une machine appelée `` cardio-pneumo psychographer '', qui fournissait des données continues sur la tension artérielle, la fréquence du pouls et la vitesse du sujet. respiration. Larson a soutenu que ces témoignages trahissaient bien mieux la tromperie qu'une seule pression.

Initialement, Larson a utilisé la voiture pour enquêter sur le vol dans un dortoir pour femmes à Berkeley, et pendant un an, il a été utilisé à San Francisco pour condamner un homme accusé d'avoir tué un prêtre. Dans les années 1930, l'un des protégés de Larson vendait déjà des versions portables de l'appareil aux services de police à travers le pays, ajoutant un capteur de réaction cutanée galvanique - plus le sujet transpirait, mieux la peau conduisait le courant. Dans les années 1970, des millions de travailleurs du secteur privé étaient régulièrement testés par des polygraphes selon les directives de leurs employeurs.

La plupart des polygraphes modernes utilisent le même schéma de base que Larson a suggéré: l'enquêteur pose plusieurs questions pour mesurer l'état physiologique normal du sujet, en regardant comment la machine traduit ces mesures en lignes ondulées sur papier ou écran. L'enquêteur recherche ensuite des hausses soudaines ou des baisses de ces niveaux lorsque le sujet répond à des questions liées à des crimes ou à des sentiments.

Cependant, les physiologistes et les neuroscientifiques ont critiqué le polygraphe presque au moment même où Larson a découvert son invention au public. Si certains menteurs peuvent éprouver un changement dans la fréquence cardiaque ou la pression artérielle, il y a très peu de preuves que ces changements sont systématiquement corrélés à la tromperie. De nombreuses personnes innocentes commencent à devenir nerveuses pendant les interrogatoires et les menteurs expérimentés peuvent supprimer ou provoquer des changements dans leur corps qui leur permettent de tromper le test. Un polygraphe peut également être trompé en se mordant la langue , en marchant sur un œillet ou en pensant aux peurs les plus terribles. Il y a toujours un risque que l'appareil reçoive des témoignages contradictoires même dans les conditions contrôlées d'une expérience de laboratoire, et dans la vraie vie, ils sont encore moins fiables: puisque les criminels qui ont triché au test n'admettent presque jamais leur culpabilité à la police, et des suspects innocents donnent souvent de faux témoignages, à défaut tests, il est impossible de dire dans quelle mesure ces machines ont réellement fonctionné.


L'inventeur américain Leonard Keeler (1903-1949), protégé de l'inventeur du polygraphe John Larson, a testé Bruno Hauptmann, qui a été arrêté, inculpé et exécuté pour l'enlèvement de Charles August Lindberg Jr. Hauptman jusqu'à la fin de sa vie a déclaré son innocence.

En raison de ces limitations, les tests polygraphiques n'ont pas été acceptés par la plupart des tribunaux américains pendant longtemps, à moins que les deux parties ne conviennent de les joindre à l'affaire. La loi fédérale interdit aux entreprises privées de tester les polygraphes des employés depuis 1988 (à l'exception des travaux particulièrement sensibles tels que les gardes armés ou les distributeurs de drogues, ainsi que des soupçons de vol ou de fraude). L'American Psychological Association prévient que «la plupart des psychologues ont tendance à croire qu'il y a trop peu de preuves de la capacité d'un polygraphe à localiser un mensonge». Dans un rapport de 2003 de l'Académie nationale des sciences, à la suite d'une étude gouvernementale sur cette question, une conclusion a été tirée qui est rapidement devenue largement connue: une machine identifie les menteurs "beaucoup plus souvent que par hasard, mais bien pire que parfaitement".L'auteur principal du rapport à ce moment-là a déclaré que "la sécurité nationale est une chose trop importante à donner à un instrument aussi grossier".

Mais peut-être que cet outil peut être rendu moins impoli. Une promesse similaire est faite par un nombre croissant d'entreprises qui tentent avec enthousiasme de vendre la technologie de reconnaissance du mensonge aux gouvernements et aux organisations commerciales. Ils soutiennent que, peut-être, certains schémas complexes de traits de comportement peuvent indiquer qu'une personne ment, beaucoup plus fiable qu'un simple pouls ou une pression artérielle élevée. Et peut-être qu'un algorithme sophistiqué peut reconnaître ces modèles.

De 1969 à 1981, le tueur en série, surnommé le Yorkshire Ripper, a chassé des filles dans le nord de l'Angleterre, en a tué au moins 13 et a tenté d'en tuer au moins sept autres. La police l'a interrogé et libéré neuf fois pendant qu'il continuait son voyage sanglant. Sa dernière victime était Jacqueline Hill, une étudiante de 20 ans de l'Université de Leeds, qui a été tuée en novembre 1980. Quelques mois plus tard, la police l'a finalement surpris en train de se préparer à tuer une prostituée à Sheffield.

Lorsque Janet Rothwell est arrivée à l'Université de Leeds à l'automne 1980, elle vivait dans un dortoir dans la pièce à côté de celui dans lequel vivait Hill. Killing Hill lui faisait peur.

"Elle est montée dans le bus à la bibliothèque de l'université à peu près en même temps que moi", a déclaré Rothwell, "et a été tuée après être descendue du bus." Rothwell a découvert plus tard combien de temps il a fallu pour capturer le tueur. «Je pensais, se souvient-elle, que l'ordinateur pouvait-il trouver des anomalies de comportement pour informer la police?»

En conséquence, Rothwell a fait des études supérieures à l'Université de Manchester Metropolitan (UMM) à la fin des années 90. Elle y a rencontré Zuhair Bandar, un conférencier britannique d'origine irakienne qui travaillait au Département d'informatique. Peu avant cela, Bandar a eu une idée - après qu'une agence de publicité lui ait demandé de créer un appareil rudimentaire pour mesurer l'intérêt des clients pour les produits qu'ils voient à l'écran.


Une photo prise par le FBI d'une femme subissant un test polygraphique

«Ils voulaient distribuer un appareil portable aux consommateurs», a déclaré Bandar, «afin que lorsque le consommateur aime quelque chose, il appuie sur 1, sinon, sur 2. Je pense - pourquoi faut-il fabriquer de tels appareils s'ils ont déjà des expressions sur le visage? » Bandar a suggéré que Rothwell reste à l'UMM après avoir obtenu son diplôme afin de travailler sur son doctorat, l'aidant à développer un logiciel capable d'analyser les visages afin d'extraire des informations. Ils ont décidé que la tricherie n'était pas plus difficile à reconnaître que la joie ou la colère. Chacune de ces émotions devrait créer une sorte d '«incohérence» - des schémas comportementaux, verbaux ou non verbaux, que l'ordinateur peut reconnaître.

Rothwell a formé le réseau neuronal au début des années 2000 pour suivre des activités telles que cligner des yeux ou rougir, puis a envoyé des dizaines de vidéos à l'ordinateur, où les gens ont répondu à la même série de questions honnêtement et malhonnêtement. Pour déterminer les caractéristiques communes des menteurs, l'ordinateur a étudié les détails du mouvement des personnes, leurs relations et les relations entre ces relations, en dégageant une sorte de «théorie» qui serait trop difficile à exprimer dans un langage normal. Après avoir étudié de cette manière, le système pourrait utiliser les connaissances acquises pour classer de nouveaux sujets dans les catégories «vrai» et «trompeur» en analysant les changements image par image des expressions de leurs visages.

Une étude de 2006 a examiné la faisabilité de ce système, appelé le « haut-parleur silencieux"(Silent Talker), pour reconnaître un mensonge dans les réponses du sujet du test. Elle n'a pas pu atteindre une précision de plus de 80% - ni au moment où Rothwell a travaillé avec elle, ni plus tard, lorsque l'équipe de recherche a essayé de l'améliorer. De plus, Rothwell m'a dit que le système en général cessé de fonctionner normalement si le sujet portait des lunettes, notant que «les conditions d'éclairage étaient les mêmes, et toutes les interrogations étaient liées à des vols de scènes». Mais Rothwell rappelle que même aux tout premiers stades du projet Bandar «était passionné par l'idée de sortir un produit commercial»; Une fois, elle et un autre collègue lui ont fourni une vidéo montrant une femme soupçonnée de tromper son mari et lui ont demandé de conduire la vidéo via Silent Talker pour analyse - tout comme dans le livre "Roman Acts".

Rothwell avait des doutes à ce sujet. «Il était clair pour moi que si un tel logiciel fonctionnait, il pourrait en principe être utilisé au détriment», a-t-elle déclaré. "Je ne pense pas qu'un système puisse atteindre une précision de 100%, et si le système se trompe, il peut avoir des conséquences catastrophiques pour les relations et les situations de la vie." En 2006, elle a quitté l'université, a étudié l'audiologiste, a obtenu un emploi dans un hôpital de l'île de Jersey, où elle vit encore aujourd'hui.

En 2003, l'UMM a publié un communiqué de presse faisant la promotion de la technologie en tant que nouvelle invention qui remplacera le polygraphe. "J'ai été choqué", a déclaré Rothwell, "il m'a semblé trop tôt pour en parler."

Le gouvernement américain a tenté à plusieurs reprises de s'attaquer à la technologie de reconnaissance du mensonge au cours des premières années après le 11 septembre.; Le Département américain de la sécurité intérieure (DHS), le Département américain de la défense (DoD) et la National Science Foundation des États-Unis ont dépensé des millions de dollars pour chaque étude. Ces agences ont financé la création d'une machine AVATAR à l'Université de l'Arizona. AVATAR, qui a analysé les expressions faciales, le langage corporel et la voix des gens, en leur attribuant des «points de confiance», a été testé dans les aéroports. En Israël, le DHS a aidé au démarrage de l'argent WeCU [«nous vous voyons» ou «nous vous voyons» / env. trad.], qui vendait une machine pour évaluer les gens, capable, selon un article de 2010 du magazine Fast Company, de «provoquer des réactions physiologiques chez les gens qui cachent quelque chose». Aujourd'hui, cette entreprise a déjà fait faillite.

Bandar s'est efforcé de mettre la technologie sur le marché. Avec ses deux étudiants, Jim O'Shea et Keely Crocket, il a transformé son Silent Talker en une entreprise et a commencé à rechercher des clients pour sa technologie de profilage psychologique, à la fois parmi les postes de police et les entreprises privées. Silent Talker a été l'un des premiers détecteurs de mensonge basés sur l'IA à entrer sur le marché. Selon la société, l'année dernière, la technologie "créée sur la base de Silent Talker" a été utilisée dans le cadre de l'initiative iBorderCtrl, financée par l'Union européenne, dans laquelle ce système a été testé sur des volontaires aux frontières de la Grèce, de la Hongrie et de la Lettonie. Bandar dit que la société négocie actuellement la vente de technologie aux cabinets d'avocats, banques, compagnies d'assurance, sur la possibilité d'utiliser ces tests lors des entretiens et de vérifier la fraude.

Bandar et O'Shea au fil des ans ont adapté l'algorithme de base pour une utilisation dans différentes versions. Ils ont essayé d'en faire la publicité auprès des commissariats de police de Manchester et de Liverpool. "Nous communiquons de manière informelle avec des personnes occupant une position très élevée", a déclaré la société au magazine The Engineer British en 2003, notant qu'elle tentait de "tester la technologie lors de véritables interviews". D'après un rapport publié par O'Shea sur son site Web en 2013, il s'ensuit que Silent Talker «peut être utilisé pour protéger nos soldats dans des opérations étrangères contre des attaques internes» (c'est-à-dire des attaques menées par des soldats afghans en uniforme contre d'anciens alliés).

L'équipe a également publié des résultats expérimentaux démontrant comment Silent Talker peut être utilisé pour reconnaître non seulement des motifs cachés, mais aussi une compréhension de quelque chose. Dans une étude de 2012, qui a d'abord montré comment fonctionne Silent Talker «sur le terrain», l'équipe, en collaboration avec une institution médicale non gouvernementale tanzanienne, a enregistré les expressions faciales de 80 femmes qui ont reçu une formation en ligne sur le traitement du sida et l'utilisation du préservatif. L'idée était de déterminer si les patients comprennent comment ils seront traités - comme cela a été écrit dans les notes de l'étude, «évaluer la compréhension des participants tout en leur fournissant des informations reste un sujet de préoccupation». Lorsque l'équipe a fait une comparaison croisée des scores de l'IA de la façon dont les femmes comprenaient le matériel avec les points obtenus pour les courts examens, ils ont trouvécette IA a prédit avec une précision de 80% quels sujets réussiraient l'examen et lesquels échoueraient.

Silent Talker a été inclus dans l'initiative iBorderCtrl grâce à l'expérience tanzanienne. En 2015, Athos Antoniades, l'un des organisateurs du consortium naissant, a envoyé un courriel à O'Shea pour lui demander si l'équipe Silent Talker souhaitait rejoindre le groupe d'entreprises et les forces de police qui envoient des demandes de subventions de l'UE. L'augmentation constante du trafic sur les routes a surchargé les garde-frontières de l'Union européenne, ce qui a permis à l'Union d'offrir 4,5 millions d'euros à toute organisation capable «d'organiser un passage des frontières plus efficace et plus sûr, contribuant à la prévention de la criminalité et du terrorisme». Antoniades pensait que Silent Talker pouvait jouer un rôle clé à cet égard.

Lorsque le projet a annoncé des tests publics en octobre 2018, la Commission européenne a immédiatement commencé à promouvoir activement la «success story» de «l'approche unique» du système pour détecter la fraude, expliquant qu'elle «analyse les micro-gestes des voyageurs pour dire laquelle des personnes interrogées dit des mensonges» . L'algorithme formé à Manchester visait à «assurer un franchissement des frontières plus efficace et plus sûr» et «à contribuer à la prévention du crime et du terrorisme».

O'Shea m'a dit que l'algorithme principal du programme peut être utilisé dans de nombreuses autres conditions - dans la publicité, avant de payer une assurance, lors de l'embauche, dans l'évaluation des employés. Il était difficile pour moi de partager sa croyance sincère en la sagesse de cet algorithme, mais pendant que nous parlions au téléphone avec lui, Silent Talker était déjà utilisé pour un examen volontaire de ceux qui souhaitaient entrer dans l'Union européenne; La société a lancé ce projet en tant qu'entreprise commerciale en janvier 2019. J'ai donc décidé d'aller à Manchester pour tout voir moi-même.

* * *

Les bureaux de Silent Talker sont situés à environ un kilomètre et demi d'UMM, où O'Shea travaille maintenant en tant que maître de conférences. Il a assumé les responsabilités quotidiennes du développement technologique. L'entreprise est située dans un minuscule centre de bureaux situé dans un quartier résidentiel, à côté d'un kebab et en face du terrain de football. Dans le centre de bureaux, le bureau Silent Talker se compose d'une seule pièce avec plusieurs ordinateurs, de bureaux avec des porte-documents et expliquant des affiches des années 2000 qui expliquent comment cette technologie fonctionne.

Quand je suis allé les voir en septembre, j'ai parlé avec O'Shea et Bandar dans la salle de réunion. O'Shea avait l'air sévère, mais un peu ébouriffé, était chauve, à l'exception de quelques touffes de cheveux et d'une barbe dans le style de Van Dyck. Il a commencé la conversation en exigeant que nous ne touchions pas au projet iBorderCtrl, et a ensuite qualifié ses critiques de mal informés. Il a décrit les capacités de la plateforme d'IA du système verbeux et orné, citant parfois le pionnier de l'informatique Alan Turing ou le philosophe du langage John Searle.

"Les voitures et les gens ont leurs propres spéculations - les croyances, les désirs et les aspirations associés aux objets et à la situation dans le monde", a-t-il déclaré, défendant la dépendance du système à l'égard de l'algorithme. "Par conséquent, le développement d'applications complexes nécessite la prise en compte des idées et des intentions des deux parties."

O'Shea a fait la démonstration du système, lui permettant d'analyser une vidéo avec une personne répondant à des questions pour savoir s'il avait volé 50 $ dans la boîte. Le programme a imposé un rectangle jaune sur le visage de la personne et deux petits rectangles sur ses yeux. Quand il a parlé, le pointeur dans le coin de l'écran est passé du vert au rouge lorsque ses réponses étaient fausses, puis est revenu à la position orange médiane lorsqu'il s'est tu. À la fin de l'entrevue, le programme a publié un graphique montrant la distribution de la probabilité de fraude au fil du temps. Théoriquement, le graphique montre où il a commencé et a fini par mentir.

O'Shea dit que leur système peut fonctionner sur un ordinateur portable ordinaire, et les utilisateurs paient 10 $ par minute pour la vidéo analysée. O'Shea m'a dit que le logiciel pré-traite la vidéo localement, envoie des données cryptées au serveur, où elles sont analysées plus en détail, puis renvoie les résultats: l'utilisateur voit un graphique de la probabilité de fraude superposé à la vidéo.

Selon O'Shea, le système surveille environ 40 «canaux» physiques sur le corps du sujet - de la vitesse de clignotement à l'angle de tête. Chaque nouvelle personne est comparée à une «théorie» de la tromperie, développée sur la base de la visualisation des données de formation, qui comprend des enregistrements de menteurs et de personnes qui disent la vérité. En mesurant les expressions faciales et les changements de posture plusieurs fois par seconde, le système recherche des modèles dans ces mouvements qui coïncident avec ceux communs à tous les menteurs à partir des données d'entraînement. Ce ne sont pas des motifs aussi simples que de regarder le plafond ou de pencher la tête vers la gauche. Cela ressemble plus à des modèles de lois, des relations à multiples facettes entre différents mouvements qui sont trop complexes pour être suivies par une personne est une tâche typique de l'apprentissage automatique.

La tâche de l'IA est de déterminer quels modèles de mouvement peuvent être associés à la tromperie. «Les psychologues parlent souvent de la nécessité d'un modèle de fonctionnement du système», m'a expliqué O'Shea. «Mais nous n'avons pas de modèle de travail et nous n'en avons pas besoin.» Nous donnons à l'IA la possibilité de résoudre le problème. " Cependant, il dit également que les preuves scientifiques sur la psychologie de la tromperie confirment la signification des «canaux» sur le visage. Dans un article de 2018 décrivant Silent Talker, ses créateurs affirment que leur logiciel «suppose que certains états de conscience associés au comportement du trompeur contrôleront, pendant la tromperie, le comportement non verbal de la personne interrogée». Des exemples d'un tel comportement comprennent le «chargement cognitif», l'énergie mentale supplémentaire qui est censée être dépensée pour des mensonges et le «plaisir de la tromperie», le plaisir qu'une personne aurait reçu,mentir avec succès.


Paul Ekman, dont la théorie des «microexpressions» est très controversée, a conseillé de nombreuses agences du gouvernement américain.

Cependant, Ewaut Meyer, professeur de psychologie à l'Université de Maastricht aux Pays-Bas, dit que la base théorique des affirmations sur l'universalité de tels comportements peut au mieux être qualifiée de précaire. L'idée qu'une personne peut détecter des signes caractéristiques de comportement vient du travail de Paul Ekman, un psychologue américain qui, dans les années 1980, a avancé la fameuse théorie des «microexpressions», des mouvements involontaires des muscles faciaux trop petits pour être contrôlés. Grâce aux recherches, Ekman est devenu l'auteur et le prototype le plus vendu de la folle émission de télévision «Lie to Me». Il a conseillé de nombreuses agences gouvernementales américaines, dont DHS et DARPA. Sous prétexte de sécurité nationale, il garde les données de recherche secrètes. Pour cette raison, il y a un débat constant sur la question de savoir si ces micro-expressions ont un sens.

Le Silent Talker AI suit divers mouvements des muscles faciaux, pas seulement les micro-expressions Ekman. «Nous avons démonté ces indices de haut niveau, composé notre ensemble de gestes microscopiques et formé l'IA à les recombiner en motifs caractéristiques significatifs», nous a écrit un représentant de l'entreprise. O'Shea dit que cela permet au système de détecter les comportements liés à la supercherie même lorsque le sujet regarde simplement autour ou change de position lorsqu'il est assis sur une chaise.

«Tout dépend de la question de savoir si vous avez une question technologique ou psychologique», explique Meyer, avertissant que O'Shea et son équipe peuvent s'être tournés vers la technologie à la recherche de réponses à des questions psychologiques concernant la nature de la tromperie. «L'IA peut être meilleure que les gens pour détecter les expressions faciales, mais même si c'est le cas, cela ne signifie pas que l'on peut en tirer des conclusions sur le mensonge d'une personne. Le mensonge est une construction psychologique. » Il n'y a pas de consensus non seulement sur la question de savoir quelles expressions sont associées à un mensonge, ajoute Meyer: il n'y a pas de consensus sur l'existence de telles expressions. La société a écrit dans un e-mail que cette critique "n'a rien à voir" avec Silent Talker, et que "les statistiques utilisées ne sont pas adaptées à ce cas".


L’émission télévisée «Lie to Me» était notamment basée sur la théorie des micro-expressions d’Ekman.

En outre, Meyer souligne que l'algorithme sera toujours inutile aux frontières ou dans les entretiens s'il n'est pas formé sur le même ensemble de données diversifié qu'il évaluera en réalité. Des études suggèrent que les algorithmes de reconnaissance faciale reconnaissent les minorités raciales pire s'ils sont formés sur le visage des blancs - O'Shea lui-même le reconnaît. Un représentant de Silent Talker nous a écrit: «Nous avons fait beaucoup d'expérimentation avec un échantillon plus petit. Leur nombre atteint des centaines. Certains d'entre eux sont liés à la recherche scientifique et seront publiés, d'autres - commerciaux et confidentiels. »

Cependant, toutes les études publiées confirmant l'exactitude de Silent Talker sont basées sur de petits ensembles de données uniformes. Dans le travail de 2018, par exemple, seulement 32 personnes ont été utilisées pour la formation, parmi lesquelles il y avait deux fois plus d'hommes que de femmes, et seulement 10 d'entre eux étaient des Asiatiques ou des Arabes, et il n'y avait pas du tout de Noirs ou d'Hispaniques. Et bien que le programme ait des «paramètres» pour analyser les hommes et les femmes, O'Shea a dit qu'il n'était pas sûr si elle avait besoin de paramètres pour la race ou l'âge.

* * *

À la suite de l'annonce par le pilote de l'initiative iBorderCtrl, les militants et les politiciens ont dénoncé le programme comme une tentative sans précédent de porter la surveillance universelle au niveau d'Orwell. Sophia Int Weld, membre néerlandaise du Parlement européen et leader des démocrates de centre-gauche 69, a déclaré dans une lettre à la Commission européenne que le système Silent Talker pouvait violer les «droits fondamentaux de nombreux voyageurs traversant la frontière» et que des organisations telles que Privacy International l'ont condamné comme « s'inscrit dans une tendance plus large à utiliser des systèmes automatiques opaques et souvent inadéquats pour juger, évaluer et classer les gens. » Le consortium iBorderCtrl ne s'attendait manifestement pas à rencontrer une telle résistance: si initialement la Commission européenne a déclaré que iBorderCtrl "développera un système pour accélérer les passages frontaliers", dit maintenant le représentantque le programme était un projet de recherche purement théorique. Antoniades en 2018 a déclaré au journal néerlandais que le système de reconnaissance des mensonges `` ne pourrait pas être créé à la fin '', mais pour l'instant, Silent Talker continue à annoncer sa présence sur l'initiative iBorderCtrl sur son site Web.

Silent Talker est la "nouvelle version de l'ancienne fraude", a déclaré Vera Wilde, un universitaire américain et activiste de la vie privée basé à Berlin, qui a aidé à lancer une campagne contre iBorderCtrl. "Dans un sens, c'est la même fraude, mais en utilisant un fondement scientifique encore pire." Lors de la vérification sur un polygraphe, l'enquêteur surveille les événements physiologiques qui seraient corrélés au mensonge; dans le cas de l'IA, l'enquêteur permet à l'ordinateur de détecter lui-même la corrélation. «Quand O'Shea parle de son manque de théorie, il se trompe», dit-elle. "Il a une théorie, tout simplement mauvaise."

Mais peu importe à quel point des gens comme Wilde critiquent cette idée, le rêve d'un détecteur de mensonge idéal ne veut pas mourir - surtout quand il est embelli par l'IA. Après que le département américain de la Sécurité intérieure a dépensé des millions de dollars pour rechercher des mensonges dans les universités dans les années 2000, il a essayé de créer sa propre version de la technologie qui analyse le comportement. Son système, appelé Future Attribute Screening Technology (FAST) [la technologie du futur pour suivre les propriétés caractéristiques], vise à trouver les tendances criminelles d'une personne en fonction des mouvements de ses yeux et de son corps (dans une version antérieure de la technologie, le sujet devait se tenir sur le contrôleur Wii Balance Boardpour suivre les changements de posture). Trois chercheurs qui ont parlé en secret de projets secrets disent que le programme n'a jamais décollé - il y avait trop de contradictions au sein du département quant à l'opportunité d'utiliser la microexpression d'Ekman comme base de l'analyse. En 2011, le programme a été interrompu.

Malgré l'échec de FAST, le DHS ne se désintéresse pas des technologies de reconnaissance des mensonges. L'année dernière, elle a signé un contrat de 110 000 $ avec une entreprise de recrutement pour former ses employés à «reconnaître les mensonges et les réactions» grâce à «l'analyse comportementale». D'autres ministères et départements continuent de soutenir des solutions basées sur l'IA. Le laboratoire de recherche militaire (ARL) a un contrat avec l'Université Rutgers pour créer un programme d'intelligence artificielle pour reconnaître les mensonges dans le jeu de salon Mafia, qui fait partie d'un projet global pour créer «quelque chose comme Google Glass qui peut nous avertir de quelques pickpockets sur marché bondé », a écrit Purush Iyer, chef de projet chez ARL. La société israélienne Nemesysco, qui vend des logiciels d'analyse vocale utilisant l'IA, m'a ditque sa technologie est utilisée par la police de New York et les shérifs du Midwest pour interroger les suspects, ainsi que par les agences de recouvrement pour mesurer les émotions des débiteurs lors des appels téléphoniques.

Cependant, l'avenir immédiat et potentiellement dangereux des détecteurs de mensonge IA semble être leur usage privé. Les politiciens soutenant des initiatives telles que iBorderCtrl doivent finalement répondre aux électeurs, et la plupart des détecteurs de mensonges basés sur l'IA peuvent être interdits d'utilisation devant les tribunaux pour les mêmes motifs qu'un polygraphe. Mais les sociétés privées ont moins de restrictions sur l'utilisation de cette technologie pour évaluer les candidats et les clients potentiels. Silent Talker est l'une des nombreuses sociétés qui prétendent avoir un moyen plus objectif de reconnaître les comportements anormaux ou trompeurs, offrant aux clients une méthode «d'analyse des risques» qui va au-delà de la notation de crédit et du profilage des médias sociaux.

Le Neuro-ID du Montana procède à une analyse de l'IA des mouvements de la souris et des touches du clavier pour aider les banques et les compagnies d'assurance à évaluer le risque de fraude en attribuant des «points de crédibilité» de 1 à 100 aux demandeurs de prêt. Dans la vidéo, la société m'a montré , le client remplit une demande de prêt en ligne et passe du temps à remplir un champ concernant le revenu d'une famille, tout en déplaçant la souris - et tout cela le système prend en compte pour calculer le score de fiabilité. Le système est basé sur des études menées par les scientifiques fondateurs de la société, affirmant qu'ils montraient une corrélation entre les mouvements de la souris et les explosions émotionnelles. Ils ont décrit que "une tentative de triche peut augmenter la distance normalisée du mouvement de la souris, réduire la vitesse du mouvement, augmenter le temps de réponse et conduire à une augmentation du nombre de clics".Cependant, selon les tests internes de l'entreprise elle-même, il est clair que leur logiciel produit trop de résultats faussement positifs: dans une étude dans laquelle Neuro-ID a traité 20000 demandes sur le site Web de la boutique en ligne, moins de la moitié des candidats ayant reçu les notes les plus basses (jusqu'à 10) , se sont avérés être des escrocs, et seulement 10% des personnes ayant obtenu des notes de 20 à 30 étaient associées au risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."que leur logiciel produit trop de résultats faussement positifs: dans une étude dans laquelle Neuro-ID a traité 20000 demandes sur le site Web de la boutique en ligne, moins de la moitié des candidats qui ont reçu les notes les plus basses (jusqu'à 10) se sont révélés être des escrocs, et seulement 10% les personnes ayant des notes de 20 à 30 étaient à risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."que leur logiciel produit trop de résultats faussement positifs: dans une étude dans laquelle Neuro-ID a traité 20000 demandes sur le site Web de la boutique en ligne, moins de la moitié des candidats qui ont reçu les notes les plus basses (jusqu'à 10) se sont révélés être des escrocs, et seulement 10% les personnes ayant des notes de 20 à 30 étaient à risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."dans lequel Neuro-ID a traité 20000 demandes sur le site Web de la boutique en ligne, moins de la moitié des candidats ayant reçu les notes les plus basses (jusqu'à 10) se sont révélés être des escrocs, et seulement 10% des personnes ayant reçu des notes de 20 à 30 étaient associées au risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."dans lequel Neuro-ID a traité 20000 demandes sur le site Web de la boutique en ligne, moins de la moitié des candidats ayant reçu les notes les plus basses (jusqu'à 10) se sont révélés être des escrocs, et seulement 10% des personnes ayant reçu des notes de 20 à 30 étaient associées au risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."des scores de 20 à 30 étaient associés au risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."des scores de 20 à 30 étaient associés au risque de fraude. La société reconnaît que le logiciel note comme demandeurs d'emploi suspects qui peuvent être innocents, et permet d'utiliser ces informations à sa discrétion. Un représentant de l'entreprise m'a dit qu '«il n'y a pas d'analyse comportementale précise à 100%. "Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs.""Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs.""Nous vous recommandons d'utiliser ces résultats conjointement avec d'autres informations sur les candidats pour prendre de meilleures décisions et attraper plus efficacement les fraudeurs."

La start-up de l'Utah, Converus, vend un logiciel appelé EyeDetect, qui mesure la contraction des pupilles pendant les entretiens pour détecter la charge cognitive. Comme Silent Talker, cet outil fonctionne sur l'hypothèse que mentir nécessite plus d'efforts que la vérité. Selon un article de Wired de 2018, les commissariats de police de Salt Lake City et de Columbus, en Géorgie, ont utilisé EyeDetect pour évaluer les candidats. Converus a également déclaré à Wired que McDonald's, Best Western, Sheraton, IHOP et FedEx utilisaient ses logiciels au Panama et au Guatemala d'une manière qui serait illégale aux États-Unis.

La société m'a fourni une déclaration citant plusieurs études démontrant que le programme a atteint une précision de 85% dans l'identification des menteurs et de ceux qui disent la vérité dans des échantillons allant jusqu'à 150 personnes. Le président de la société, Todd Mikelsen, a déclaré que l'algorithme de l'entreprise avait été formé au cours de centaines de milliers d'entretiens. Cependant, Charles Honts, professeur de psychologie à l'Université de l'Idaho à Boise, qui siège au conseil consultatif de l'entreprise, affirme que ces résultats ne prouvent pas que EyeDetect peut être invoqué lors d'une interview. «Je trouve le système EyeDetect très intéressant, mais je ne l’utilise pas moi-même», me dit-il. "Je pense qu'elle a encore une petite base de données, et les données proviennent, pour la plupart, d'un laboratoire." Jusqu'à ce que la base soit agrandie et que d'autres personnes reproduisent les résultats, je m'abstiendrai de l'utiliser dans des conditions réelles. »

Des chercheurs de l'Université d'Arizona qui ont développé AVATAR ont fondé Discern Science, une société privée, pour faire la publicité de leur propre technologie de reconnaissance des mensonges. Lancé l'année dernière, Discern vend une machine de 1,8 mètre de haut similaire à l'AVATAR d'origine. Selon un article du Financial Times, la société «a organisé une joint-venture avec un partenaire de l'industrie aéronautique» pour livrer ces appareils aux aéroports. Le système mesure les mouvements des muscles faciaux et la présence de stress dans la voix afin de «collecter discrètement des informations sur une personne à distance d'une conversation normale», comme écrit dans les supports publicitaires. Discern, comme Silent Talker et Converus, assure que la technologie peut reconnaître de manière fiable environ 85% des menteurs, mais ses résultats n'ont pas été vérifiés de manière indépendante. Au moins l'un des canaux de réception d'informations utilisés par l'appareil,a été reconnu à plusieurs reprises comme peu fiable. Honts a également noté que l'analyse du mouvement des muscles faciaux "n'a pratiquement aucune preuve" - ​​il a dit que "les tentatives de reproduire les résultats de l'expérience avaient trop d'échecs."

Répondant à des questions sur le contexte scientifique de la machine de l'entreprise, la chercheuse de Discern Judy Burgun a souligné que le système fournit simplement une évaluation, et non des conclusions précises sur la vérité et les mensonges. Des systèmes tels que AVATAR et Silent Talker, selon elle, «ne peuvent pas mesurer la fraude directement» et «toute personne qui annonce un détecteur de mensonge sans ambiguïté est un charlatan». Mais en même temps, dans les documents marketing, Discern présente son outil comme un détecteur de mensonge fiable: le site Web dit qu'il "peut aider à révéler des plans secrets" et que "il a été scientifiquement prouvé que ses algorithmes reconnaissent la fraude plus rapidement et plus fiable que toutes les alternatives" .

La Cour d'appel a annulé la peine d'Emmanuel Mervilus en 2011, le libérant de prison et ordonnant un réexamen de l'affaire; il a purgé plus de trois ans de prison. Lors du deuxième procès en 2013, le jury n'a discuté de l'affaire que 40 minutes avant de l'acquitter. Sans le polygraphe et sans une croyance ferme en sa précision, il n'aurait jamais pu entrer dans le dock. Mervilus a condamné les policiers qui l'ont arrêté et interrogé, affirmant qu'ils ont violé son droit de conduire des procédures judiciaires, en utilisant un test polygraphique pour leur condamnation, dont ils connaissaient les défauts.

Et même si l'utilisation généralisée de Silent Talker et de systèmes similaires n'entraîne pas une augmentation du nombre de condamnations d'innocents, comme ce fut le cas avec Mervilus, il peut encore créer un nouveau type d'obstacle qui oblige les gens à subir une «évaluation de fiabilité» chaque fois qu'ils veulent louer une voiture ou prendre un prêt.

«Au tribunal, vous devez fournir des preuves matérielles, telles que des cheveux ou du sang», explique Wilde. «Mais vous avez également le droit de garder le silence et de ne pas témoigner contre vous-même.» Mervilus a décidé de passer un test polygraphique, suggérant que, comme un test ADN, il démontrerait son innocence. Et bien que l'appareil ne fonctionne pas correctement, ce n'est pas la voiture qui l'a envoyé en prison. Tout dépend de la conviction du jury que les résultats des tests sont plus fiables que les faits de la cause.

L'hypothèse sous-jacente à la reconnaissance des mensonges par l'IA est que les mensonges peuvent être vus avec les bons outils. Les psychologues ne sont toujours pas convaincus de l'exactitude de cette déclaration, mais jusqu'à présent, une simple foi en son exactitude peut suffire à rejeter des candidats valables pour un travail ou un crédit, et pour empêcher des innocents de traverser la frontière de l'État. La promesse d'ouvrir une fenêtre sur l'âme des autres est trop tentante pour être niée, même si personne n'est sûr que cette fenêtre est propre.

«C'est comme une promesse de lire dans les esprits», explique Wilde. "Évidemment, c'est absurde, mais ils vendent exactement cela."

All Articles