Der Versuch, KI in einem Lügendetektor zu verwenden, verschärft nur das Problem der Betrugserkennung

Eine detaillierte Studie über Versuche, künstliche Intelligenz bei der Lügenerkennung einzusetzen




Bevor der Polygraph das Urteil „schuldig“ erließ, arbeitete Emmanuel Mervilus für eine Pflanzenölfirma im Hafen von Newark, New Jersey. Er verdiente 12 Dollar pro Stunde mit Kisten, aber das war nicht genug für seinen Lebensunterhalt. Sein Bruder und seine Schwester waren zu jung, um zu arbeiten, und seine Mutter führte einen teuren Kampf gegen Krebs. Der Chef im Hafen sagte jedoch, dass er als nächster in der Schlange stehe, um auf eine technische Position aufzurüsten, bei der ihm versprochen wurde, 25 USD / Stunde zu zahlen.

Mervilus wartete immer noch auf seine Beförderung, als er und ein Freund am 19. Oktober 2006 im Dunkin 'Donuts in der nahe gelegenen Stadt Elizabeth, New Jersey, eine Mahlzeit einnahmen. Einige Minuten später, als sie die Straße entlang gingen, kamen zwei Polizisten auf sie zu und beschuldigten sie, einen Mann ausgeraubt zu haben, der vor einigen Minuten in der Nähe des Bahnhofs mit einem Messer bedroht worden war.

Ein Opfer aus der Ferne identifizierte Mervilus und seinen Freund. In einem verzweifelten Versuch, seine Unschuld zu beweisen, bot Mervilus an, einen Polygraphentest zu machen. Die Polizei stimmte zu, aber kurz vor diesem Test starb Mervilus 'Mutter. Als die Polizei ihn an den Apparat anschloss, war er verwirrt und besorgt. Er hat diesen Test nicht bestanden, um die Möglichkeit gebeten, ihn erneut zu bestehen, und wurde abgelehnt.

Nach Mervilus 'Unschuldsbekundung wurde der Fall vor Gericht gebracht. Der Testleutnant sagte vor Gericht, dass das Gerät ein zuverlässiger "Indikator für die Wahrheit" sei. Er sagte, dass er in seiner Karriere nie gesehen habe, dass "jemand Anzeichen von Betrug zeigte, und dann stellte sich heraus, dass er die Wahrheit sagte." Die Jury befand Mervilus für schuldig - was, wie sich am Berufungsgericht herausstellte, auf übermäßiges Vertrauen in den Polygraphen zurückzuführen war. Der Richter verurteilte ihn zu 11 Jahren Gefängnis.

Der Glaube, dass Täuschung durch Analyse der Eigenschaften des menschlichen Körpers erkannt werden kann, ist tief im modernen Leben verwurzelt. Trotz vieler Studien, die Zweifel an der Zuverlässigkeit des Polygraphen aufkommen lassen, werden in den USA jedes Jahr mehr als 2,5 Millionen Inspektionen durchgeführt, und die Polygraphenindustrie wird auf 2 Milliarden US-Dollar geschätzt. US-Bundesbehörden, darunter das Justizministerium, das Verteidigungsministerium und die CIA, verwenden dieses Gerät für Einschätzung der Kandidaten für die Arbeit. Einem Bericht des Justizministeriums von 2007 zufolge verwenden mehr als drei Viertel der Polizeistationen und Sheriff-Büros Lügendetektoren, um Personal zu rekrutieren.

Diese Geräte sind jedoch immer noch zu langsam und ungeschickt, um an Grenzen, auf Flughäfen oder in großen Personengruppen eingesetzt zu werden. Infolgedessen ist im letzten Jahrzehnt eine neue Generation von Lügendetektoren auf AI-Basis entstanden. Ihre Unterstützer behaupten, dass sie sowohl schneller als auch genauer arbeiten als Polygraphen.

Tatsächlich ist die psychologische Rechtfertigung für diese neuen KI-Systeme noch prekärer als die Studien, die dem Polygraphen zugrunde liegen. Es gibt kaum Beweise dafür, dass den von ihnen erzielten Ergebnissen vertraut werden kann. Ihr durch die Verwendung von KI gegebener äußerer Glanz führt jedoch dazu, dass diese Systeme an Orten auftreten, an denen der Polygraph nicht früher eindringen konnte: an der Grenze, bei Interviews, bei Verfahren zur Beurteilung der Kreditwürdigkeit und zur Untersuchung von Versicherungsbetrug. Unternehmen und Regierungen verlassen sich auf sie, wenn sie Entscheidungen über die Zuverlässigkeit von Kunden, Mitarbeitern, Bürgern, Einwanderern und internationalen Touristen treffen. Aber was ist, wenn eine Lüge zu kompliziert ist, um von einer Maschine zuverlässig erkannt zu werden, egal wie fortschrittlich die Algorithmen sind?

* * *

Inquisitoren im alten China steckten ihren Verdächtigen Reis in den Mund, um zu sehen, ob Speichel von ihnen freigesetzt wurde. " Roman Acts ", eine Sammlung mittelalterlicher moralistischer Geschichten, erzählt die Geschichte eines Soldaten, der seinem Angestellten befahl, den Puls seiner Frau zu messen, um festzustellen, ob er ihm treu geblieben ist.



Nachdem die Vereinigten Staaten in den Ersten Weltkrieg verwickelt waren, war William Marston, ein Harvard-Forscher, der erste, der Blutdruckmessgeräte einsetzte, um Betrug aufzudecken. Einige Jahre später entwickelte John Augustus Larson, ein Polizist, der kürzlich an der University of California in Berkeley in Physiologie promoviert hatte, inspiriert von der Arbeit von Marston, eine Maschine namens "Cardio-Pneumo-Psychograph", die kontinuierliche Daten zu Blutdruck, Pulsfrequenz und Geschwindigkeit des Patienten lieferte. Atmung. Larson argumentierte, dass diese Zeugnisse Täuschung weitaus besser verraten als nur einen Druck.

Zunächst benutzte Larson das Auto, um den Diebstahl in einem Frauenschlafsaal in Berkeley zu untersuchen, und ein Jahr lang wurde er in San Francisco benutzt, um einen Mann zu verurteilen, der beschuldigt wird, einen Priester getötet zu haben. In den 1930er Jahren verkaufte einer von Larsons Schützlingen bereits tragbare Versionen des Geräts an Polizeibehörden im ganzen Land und fügte einen galvanischen Hautreaktionssensor hinzu - je mehr das Subjekt schwitzte, desto besser leitete die Haut den Strom. In den 1970er Jahren wurden Millionen von Arbeitnehmern des privaten Sektors regelmäßig von Polygraphen auf Anweisung ihrer Arbeitgeber getestet.

Die meisten modernen Polygraphen verwenden dasselbe Grundschema, das Larson vorgeschlagen hat: Der Ermittler stellt mehrere Fragen, um den normalen physiologischen Zustand des Subjekts zu messen, und beobachtet, wie die Maschine diese Messungen in wellenförmige Linien auf Papier oder Bildschirm übersetzt. Der Ermittler sucht dann nach plötzlichen Spannungsspitzen oder -abfällen in diesen Bereichen, wenn das Subjekt Fragen zu Verbrechen oder Gefühlen beantwortet.

Physiologen und Neurowissenschaftler haben den Polygraphen jedoch fast von dem Moment an kritisiert, als Larson seine Erfindung der Öffentlichkeit entdeckte. Wenn bei einigen Lügnern eine Änderung der Herzfrequenz oder des Blutdrucks auftritt, gibt es nur sehr wenige Hinweise darauf, dass solche Änderungen konsistent mit Täuschung korrelieren. Viele unschuldige Menschen werden während des Verhörs nervös, und erfahrene Lügner können Veränderungen in ihrem Körper unterdrücken oder verursachen , die es ihnen ermöglichen, den Test zu täuschen. Ein Polygraph kann auch getäuscht werden, indem er sich auf die Zunge beißt , auf eine Nelke tritt oder über die schrecklichsten Ängste nachdenkt. Es besteht immer das Risiko, dass das Gerät auch unter den kontrollierten Bedingungen eines Laborexperiments widersprüchliche Aussagen erhält, und im wirklichen Leben sind sie sogar noch weniger zuverlässig: Da Kriminelle, die den Test betrogen haben, ihre Schuld fast nie der Polizei eingestehen und unschuldige Verdächtige häufig falsche Aussagen machen und versagen Bei Tests ist es unmöglich zu sagen, wie gut diese Maschinen tatsächlich abschnitten.


Der amerikanische Erfinder Leonard Keeler (1903-1949), Schützling des Polygraphen-Erfinders John Larson, testete Bruno Hauptmann, der wegen Entführung von Charles August Lindberg Jr. verhaftet, angeklagt und hingerichtet wurde. Hauptman erklärte bis zum Ende seines Lebens seine Unschuld.

Aufgrund dieser Einschränkungen wurden Polygraphentests in den meisten amerikanischen Gerichten lange Zeit nicht akzeptiert, es sei denn, beide Parteien waren sich einig, sie dem Fall beizufügen. Das Bundesgesetz verbietet privaten Unternehmen seit 1988 das Testen von Polygraphen von Arbeitnehmern (mit Ausnahme besonders sensibler Arbeiten wie bewaffneter Wachen oder Drogendistributoren sowie des Verdachts auf Diebstahl oder Betrug). Die American Psychological Association warnt davor, dass "die meisten Psychologen glauben, dass es zu wenig Beweise für die Fähigkeit eines Polygraphen gibt, eine Lüge zu lokalisieren". In einem Bericht der Nationalen Akademie der Wissenschaften aus dem Jahr 2003 wurde nach einer Regierungsstudie zu diesem Thema eine Schlussfolgerung gezogen, die bald allgemein bekannt wurde: Eine Maschine identifiziert Lügner "viel häufiger als zufällig, aber viel schlimmer als perfekt".Der Hauptautor des Berichts sagte zu diesem Zeitpunkt, dass "die nationale Sicherheit zu wichtig ist, um einem solch groben Instrument etwas zu geben".

Aber vielleicht kann dieses Tool weniger unhöflich gemacht werden. Ein ähnliches Versprechen wird von einer wachsenden Anzahl von Unternehmen gegeben, die begeistert versuchen, Lügenerkennungstechnologie sowohl an Regierungen als auch an kommerzielle Organisationen zu verkaufen. Sie argumentieren, dass möglicherweise bestimmte komplexe Muster von Verhaltensmerkmalen erkennen lassen, dass eine Person lügt, viel zuverlässiger als nur ein gesprungener Puls oder Blutdruck. Und vielleicht kann ein ausgeklügelter Algorithmus diese Muster erkennen.

Von 1969 bis 1981 jagte der Serienmörder mit dem Spitznamen Yorkshire Ripper Mädchen in Nordengland, tötete mindestens 13 von ihnen und versuchte, mindestens sieben weitere zu töten. Die Polizei verhörte ihn und ließ ihn neun Mal frei, während er seine blutige Reise fortsetzte. Sein letztes Opfer war Jacqueline Hill, eine 20-jährige Studentin an der Leeds University, die im November 1980 getötet wurde. Einige Monate später wurde er schließlich von der Polizei erwischt, als er sich darauf vorbereitete, eine Prostituierte in Sheffield zu töten.

Als Janet Rothwell im Herbst 1980 an der Leeds University ankam, lebte sie in einem Schlafsaal in dem Raum neben dem, in dem Hill lebte. Hill zu töten machte ihr Angst.

"Sie stieg ungefähr zur gleichen Zeit wie ich in den Bus der Universitätsbibliothek", sagte Rothwell, "und wurde getötet, nachdem sie aus dem Bus gestiegen war." Rothwell fand später heraus, wie lange es dauerte, den Mörder zu fangen. "Ich dachte", erinnerte sie sich, "könnte der Computer Verhaltensunterschiede feststellen, um die Polizei zu informieren?"

Infolgedessen besuchte Rothwell Ende der 90er Jahre die Graduiertenschule der University of Manchester Metropolitan (UMM). Dort lernte sie Zuhair Bandar kennen, einen britischen Dozenten irakischer Abstammung, der am Institut für Informatik arbeitete. Kurz zuvor hatte Bandar eine Idee - nachdem ihn eine Werbefirma gebeten hatte, ein rudimentäres Gerät zu entwickeln, um das Interesse der Kunden an den Produkten zu messen, die sie auf dem Bildschirm sehen.


Ein vom FBI aufgenommenes Foto einer Frau, die sich einem Polygraphentest unterzieht.

„Sie wollten den Verbrauchern ein tragbares Gerät aushändigen“, sagte Bandar. „Wenn der Verbraucher etwas mochte, drückte er 1 und wenn nicht 2. Ich dachte - warum sollten solche Geräte hergestellt werden, wenn sie bereits Gesichtsausdrücke haben? “ Bandar schlug vor, dass Rothwell nach Erhalt seines Diploms bei UMM bleiben sollte, um an seiner Promotion zu arbeiten, und ihm dabei half, eine Software zu entwickeln, mit der Gesichter analysiert werden können, um Informationen zu extrahieren. Sie entschieden, dass Betrug nicht schwieriger zu erkennen war als Freude oder Wut. Jede dieser Emotionen sollte eine Art „Inkonsistenz“ erzeugen - verbale oder nonverbale Verhaltensmuster, die der Computer erkennen kann.

Rothwell trainierte das neuronale Netzwerk in den frühen 2000er Jahren, um Aktivitäten wie Blinken oder Erröten zu verfolgen, und fütterte dann den Computer mit Dutzenden von Videos, in denen die Leute die gleichen Fragen ehrlich und unehrlich beantworteten. Um die gemeinsamen Merkmale von Lügnern zu bestimmen, untersuchte der Computer die Details der Bewegung von Personen, ihre Beziehungen und die Beziehungen zwischen diesen Beziehungen und gab eine Art „Theorie“ heraus, die in normaler Sprache zu schwer auszudrücken wäre. Nachdem das System auf diese Weise studiert hatte, konnte es das erworbene Wissen nutzen, um neue Subjekte in die Kategorien „wahr“ und „Betrüger“ einzuteilen, indem es Frame-für-Frame-Änderungen in den Gesichtsausdrücken analysierte.

Eine Studie aus dem Jahr 2006 untersuchte die Machbarkeit dieses Systems, das als " Silent Speaker" bezeichnet wird"(Silent Talker), um eine Lüge in den Antworten der Testperson zu erkennen. Sie konnte keine Genauigkeit von mehr als 80% erreichen - weder zu der Zeit, als Rothwell mit ihr zusammenarbeitete, noch später, als das Forschungsteam versuchte, sie zu verbessern. Außerdem sagte mir Rothwell, dass das System im Allgemeinen hörte auf, normal zu arbeiten, wenn das Subjekt eine Brille trug, und stellte fest, dass „die Lichtverhältnisse gleich waren und alle Verhöre mit inszeniertem Diebstahl zusammenhängen“. Rothwell erinnert sich jedoch, dass Bandar bereits in den frühen Phasen des Projekts „die Idee hatte, ein kommerzielles Produkt herauszubringen“; Einmal stellten sie und eine andere Kollegin ihr ein Video zur Verfügung, das eine Frau zeigt, die verdächtigt wird, ihren Ehemann betrogen zu haben, und baten sie, das Video zur Analyse durch Silent Talker zu fahren - genau wie in dem Buch „Roman Acts“.

Rothwell hatte Zweifel daran. "Mir war klar, dass eine solche Software, wenn sie funktioniert, im Prinzip zum Nachteil eingesetzt werden kann", sagte sie. "Ich glaube nicht, dass ein System eine Genauigkeit von nahezu 100% erreichen kann. Wenn sich das System irrt, kann dies katastrophale Folgen für Beziehungen und Lebenssituationen haben." 2006 verließ sie die Universität, studierte beim Audiologen und bekam einen Job in einem Krankenhaus auf der Insel Jersey, wo sie bis heute lebt.

Im Jahr 2003 veröffentlichte UMM eine Pressemitteilung , in der die Technologie als neue Erfindung beworben wurde, die den Polygraphen ersetzen wird. "Ich war schockiert", sagte Rothwell, "es schien mir zu früh, um darüber zu sprechen."

Die US-Regierung hat in den ersten Jahren nach dem 11. September wiederholt versucht, die Technologie der Lügenerkennung in Angriff zu nehmen;; Das US-Heimatschutzministerium (DHS), das US-Verteidigungsministerium (DoD) und die US-amerikanische National Science Foundation gaben für jede Studie Millionen von Dollar aus. Diese Agenturen finanzierten die Schaffung einer AVATAR-Maschine an der Universität von Arizona. AVATAR, das Mimik, Körpersprache und Stimmen der Menschen analysierte und ihnen „Vertrauenspunkte“ zuwies, wurde an Flughäfen getestet. In Israel half das DHS bei der Geldgründung der WeCU [„Wir sehen dich“ oder „Wir sehen dich“ / ca. transl.], die eine Maschine zur Beurteilung von Menschen verkaufte, die laut einem Artikel in der Zeitschrift Fast Company aus dem Jahr 2010 in der Lage ist, „bei Menschen, die etwas verstecken, physiologische Reaktionen hervorzurufen“. Heute ist diese Firma bereits bankrott gegangen.

Bandar machte sich daran, die Technologie auf den Markt zu bringen. Mit seinen beiden Schülern Jim O'Shea und Keely Crocket verwandelte er seinen Silent Talker in ein Unternehmen und suchte nach Kunden für seine Technologie zur psychologischen Profilerstellung, sowohl bei Polizeistationen als auch bei privaten Unternehmen. Silent Talker war einer der ersten KI-basierten Lügendetektoren, die auf den Markt kamen. Nach Angaben des Unternehmens wurde im vergangenen Jahr die auf „Silent Talker“ entwickelte Technologie im Rahmen der von der Europäischen Union finanzierten iBorderCtrl-Initiative eingesetzt, bei der dieses System an Freiwilligen an den Grenzen Griechenlands, Ungarns und Lettlands getestet wurde. Laut Bandar verhandelt das Unternehmen derzeit über den Verkauf von Technologie an Anwaltskanzleien, Banken und Versicherungsunternehmen über die Möglichkeit, diese Tests bei Interviews und bei der Überprüfung auf Betrug zu verwenden.

Bandar und O'Shea haben im Laufe der Jahre den grundlegenden Algorithmus für die Verwendung in verschiedenen Versionen angepasst. Sie versuchten, auf den Polizeistationen von Manchester und Liverpool Werbung zu machen. "Wir kommunizieren informell mit Menschen von sehr hoher Position", sagte das Unternehmen 2003 gegenüber der britischen Zeitschrift The Engineer und stellte fest, dass es versuchte, "die Technologie in echten Interviews zu testen". Aus einem 2013 von O'Shea auf seiner Website veröffentlichten Bericht geht hervor, dass Silent Talker „verwendet werden kann, um unsere Soldaten bei Auslandseinsätzen vor Insiderangriffen zu schützen“ (dh Angriffe afghanischer Soldaten in Uniform gegen ehemalige Verbündete).

Das Team veröffentlichte auch experimentelle Ergebnisse, die zeigen, wie Silent Talker verwendet werden kann, um nicht nur versteckte Motive zu erkennen, sondern auch etwas zu verstehen. In einer Studie aus dem Jahr 2012, die erstmals zeigte, wie Silent Talker „vor Ort“ funktioniert, zeichnete das Team zusammen mit der nichtstaatlichen medizinischen Einrichtung in Tansania Mimik von 80 Frauen auf, die Online-Schulungen zur AIDS-Behandlung und zum Gebrauch von Kondomen erhalten hatten. Die Idee war zu bestimmen, ob Patienten verstehen, wie sie behandelt werden - wie in den Studiennotizen geschrieben, ist „die Beurteilung des Verständnisses der Teilnehmer bei der Übermittlung von Informationen an sie immer noch ein Problem“. Als das Team einen Kreuzvergleich der KI-Werte anstellte, wie viel Frauen das Material verstanden hatten, mit den Punkten, die sie für die kurzen Prüfungen erhalten hatten, stellten sie festDiese KI sagte mit einer Genauigkeit von 80% voraus, welche der Probanden die Prüfung bestehen und welche nicht.

Silent Talker wurde dank des tansanischen Experiments in die iBorderCtrl-Initiative aufgenommen. Im Jahr 2015 schickte Athos Antoniades, einer der Organisatoren des aufstrebenden Konsortiums, eine E-Mail an O'Shea und fragte, ob das Silent Talker-Team der Unternehmensgruppe und den Polizeikräften beitreten möchte, die Anträge auf EU-Zuschüsse stellen. Der stetig zunehmende Verkehr auf Straßen überlastete die Grenzschutzbeamten der Europäischen Union. Infolgedessen bot die Union jeder Organisation, die in der Lage ist, „einen effizienteren und sichereren Grenzübergang zu organisieren und zur Verhütung von Kriminalität und Terrorismus beizutragen“, 4,5 Mio. EUR an. Antoniades dachte, Silent Talker könnte dabei eine Schlüsselrolle spielen.

Als das Projekt im Oktober 2018 öffentliche Tests ankündigte, begann die Europäische Kommission sofort, die „Erfolgsgeschichte“ des „einzigartigen Ansatzes“ des Systems zur Aufdeckung von Betrug aktiv zu fördern, und erklärte, dass sie „die Mikrogesten der Reisenden analysiert, um festzustellen, welcher der Befragten Lügen erzählt“. . Der in Manchester trainierte Algorithmus sollte „einen effizienteren und sichereren Grenzübergang gewährleisten“ und „zur Verhütung von Kriminalität und Terrorismus beitragen“.

O'Shea sagte mir, dass der Hauptalgorithmus des Programms unter vielen anderen Bedingungen verwendet werden kann - in der Werbung, vor der Zahlung von Versicherungen, bei der Einstellung, bei der Bewertung von Mitarbeitern. Es war schwierig für mich, seinen aufrichtigen Glauben an die Weisheit dieses Algorithmus zu teilen, aber während wir mit ihm telefonierten, wurde Silent Talker bereits für eine freiwillige Prüfung derjenigen verwendet, die in die Europäische Union eintreten möchten. Das Unternehmen startete dieses Projekt im Januar 2019 als Handelsunternehmen. Also beschloss ich, nach Manchester zu gehen, um alles selbst zu sehen.

* * *

Die Büros von Silent Talker befinden sich etwa anderthalb Kilometer von UMM entfernt, wo O'Shea derzeit Dozent ist. Er übernahm die täglichen Aufgaben der Technologieentwicklung. Das Unternehmen befindet sich in einem winzigen Bürozentrum in einem Wohngebiet neben einem Kebab-Diner und gegenüber dem Fußballplatz. Im Bürozentrum besteht das Silent Talker-Büro aus einem einzigen Raum mit mehreren Computern, Schreibtischen mit Aktentaschen und Erläuterungen zu Postern aus den 2000er Jahren, die die Funktionsweise dieser Technologie erläutern.

Als ich im September zu ihnen ging, sprach ich mit O'Shea und Bandar im Besprechungsraum. O'Shea sah streng aus, war aber ein wenig zerzaust und kahl, mit Ausnahme von ein paar Haarbüscheln und einem Bart im Stil von Van Dyck. Er begann das Gespräch mit der Forderung, das iBorderCtrl-Projekt nicht zu berühren, und nannte seine Kritiker später falsch informiert. Er beschrieb die Fähigkeiten der KI-Plattform des Systems ausführlich und kunstvoll und zitierte manchmal den Informatikpionier Alan Turing oder den Sprachphilosophen John Searle.

"Sowohl Autos als auch Menschen haben ihre eigenen Spekulationen - Überzeugungen, Wünsche und Bestrebungen, die mit Objekten und Sachverhalten in der Welt verbunden sind", sagte er und verteidigte die Abhängigkeit des Systems vom Algorithmus. "Daher erfordert die Entwicklung komplexer Anwendungen die Berücksichtigung der Ideen und Absichten beider Parteien."

O'Shea demonstrierte das System und ermöglichte ihr, ein Video mit einer Person zu analysieren, die Fragen dazu beantwortete, ob sie 50 Dollar aus der Schachtel gestohlen hatte. Das Programm legte ein gelbes Rechteck auf das Gesicht der Person und zwei kleinere Rechtecke auf ihre Augen. Wenn er sprach, bewegte sich der Zeiger in der Ecke des Bildschirms von grün nach rot, wenn seine Antworten falsch waren, und kehrte dann in die mittlere orange Position zurück, als er verstummte. Am Ende des Interviews veröffentlichte das Programm eine Grafik, die die Verteilung der Betrugswahrscheinlichkeit über die Zeit zeigt. Theoretisch zeigte die Grafik, wo er anfing und endete.

Laut O'Shea kann das System auf einem normalen Laptop ausgeführt werden, und Benutzer zahlen 10 US-Dollar pro Minute für das zu analysierende Video. O'Shea teilte mir mit, dass die Software das Video lokal vorverarbeitet, verschlüsselte Daten an den Server sendet, wo sie weiter analysiert werden, und dann die Ergebnisse zurücksendet: Der Benutzer sieht ein Diagramm der Betrugswahrscheinlichkeit, die dem Video überlagert ist.

Laut O'Shea überwacht das System etwa 40 physische „Kanäle“ am Körper des Probanden - von der Blinkgeschwindigkeit bis zum Kopfwinkel. Jede neue Person wird mit einer „Theorie“ der Täuschung verglichen, die auf der Grundlage der Anzeige von Trainingsdaten entwickelt wurde, die Aufzeichnungen von Lügnern und wahrheitsgetreuen Personen enthält. Durch mehrmaliges Messen von Gesichtsausdrücken und Haltungsänderungen pro Sekunde sucht das System nach Mustern in diesen Bewegungen, die mit den gemeinsamen Mustern aller Lügner aus den Trainingsdaten übereinstimmen. Dies sind nicht so einfache Muster wie das Betrachten der Decke oder das Neigen des Kopfes nach links. Dies ähnelt eher Gesetzmustern. Vielfältige Beziehungen zwischen verschiedenen Bewegungen, die zu komplex sind, um von einer Person verfolgt zu werden, sind eine typische Aufgabe für maschinelles Lernen.

Die Aufgabe der KI besteht darin, festzustellen, welche Bewegungsmuster mit Täuschung verbunden sein können. "Psychologen sprechen oft über die Notwendigkeit eines Modells der Funktionsweise des Systems", sagte O'Shea. "Aber wir haben kein funktionierendes Modell und wir brauchen es nicht." Wir geben AI die Möglichkeit, das Problem zu lösen. " Er sagt jedoch auch, dass wissenschaftliche Beweise zur Psychologie der Täuschung die Aussagekraft von „Kanälen“ im Gesicht bestätigen. In einem Papier aus dem Jahr 2018, in dem der Silent Talker beschrieben wird, sagen seine Entwickler, dass ihre Software „davon ausgeht, dass bestimmte Bewusstseinszustände, die mit dem Verhalten des Betrügers verbunden sind, während der Täuschung das nonverbale Verhalten des Befragten kontrollieren.“ Beispiele für ein solches Verhalten sind „kognitive Belastung“, zusätzliche mentale Energie, die angeblich für Lügen aufgewendet wird, und „Freude an Täuschung“, die Freude, die eine Person angeblich empfängt.erfolgreich lügen.


Paul Ekman, dessen Theorie der „Mikroexpressionen“ sehr kontrovers ist, hat viele US-Regierungsbehörden beraten.

Ewaut Meyer, Psychologieprofessor an der Universität von Maastricht in den Niederlanden, sagt jedoch, dass die theoretische Grundlage für Aussagen über die Universalität solcher Verhaltensmuster bestenfalls als prekär bezeichnet werden kann. Die Idee, dass eine Person charakteristische Verhaltenszeichen erkennen kann, stammt aus der Arbeit von Paul Ekman, ein amerikanischer Psychologe, der in den 1980er Jahren die berühmte Theorie der „Mikroausdrücke“ vorstellte, unbeabsichtigte Bewegungen der Gesichtsmuskeln, die zu klein sind, um kontrolliert zu werden. Dank Recherchen wurde Ekman der meistverkaufte Autor und Prototyp der dummen Fernsehsendung „Lie to Me“. Er hat viele US-Regierungsbehörden beraten, darunter DHS und DARPA. Unter dem Vorwand der nationalen Sicherheit hält er Forschungsdaten geheim. Aus diesem Grund wird ständig darüber diskutiert, ob diese Mikroausdrücke überhaupt eine Bedeutung haben.

Die Silent Talker AI verfolgt verschiedene Gesichtsmuskelbewegungen, nicht nur Ekman-Mikroausdrücke. „Wir haben diese hochrangigen Hinweise zerlegt, unsere mikroskopischen Gesten zusammengestellt und die KI geschult, um sie zu aussagekräftigen charakteristischen Mustern zu rekombinieren“, schrieb uns ein Unternehmensvertreter. Laut O'Shea kann das System auf diese Weise trickreiches Verhalten erkennen, selbst wenn sich das Motiv einfach umschaut oder die Position ändert, während es auf einem Stuhl sitzt.

"Viel hängt davon ab, ob Sie eine technologische oder psychologische Frage haben", warnt Meyer, dass O'Shea und sein Team sich möglicherweise der Technologie zugewandt haben, um Antworten auf psychologische Fragen bezüglich der Art der Täuschung zu finden. „KI ist vielleicht besser als Menschen, um Gesichtsausdrücke zu erkennen, aber selbst wenn dies der Fall ist, bedeutet dies nicht, dass man daraus Schlussfolgerungen ziehen kann, ob eine Person lügt. Lügen ist ein psychologisches Konstrukt. “ Es gibt keinen Konsens nicht nur über die Frage, welche Ausdrücke mit einer Lüge verbunden sind, fügt Meyer hinzu: Es gibt keinen Konsens darüber, ob es solche Ausdrücke überhaupt gibt. Das Unternehmen schrieb in einer E-Mail, dass diese Kritik „nichts mit Silent Talker zu tun hat“ und dass „die verwendeten Statistiken für diesen Fall nicht geeignet sind“.


Die TV-Show "Lie to Me" basierte insbesondere auf Ekmans Theorie der Mikroexpressionen.

Darüber hinaus weist Meyer darauf hin, dass der Algorithmus an den Grenzen oder in Interviews immer noch unbrauchbar ist, wenn er nicht auf demselben unterschiedlichen Datensatz trainiert wird, den er in der Realität auswerten wird. Studien legen nahe, dass Gesichtserkennungsalgorithmen rassische Minderheiten schlechter erkennen, wenn sie auf den Gesichtern weißer Menschen trainiert werden - O'Shea selbst erkennt dies an. Ein Vertreter von Silent Talker schrieb uns: „Wir haben viel mit einer kleineren Stichprobe experimentiert. Ihre Zahl erreicht Hunderte. Einige von ihnen beziehen sich auf wissenschaftliche Forschung und werden veröffentlicht, andere - kommerziell und vertraulich. “

Alle veröffentlichten Studien, die die Genauigkeit von Silent Talker bestätigen, basieren jedoch auf kleinen und einheitlichen Datensätzen. In der Arbeit von 2018 wurden zum Beispiel nur 32 Personen für die Ausbildung verwendet, darunter doppelt so viele Männer wie Frauen, und nur 10 von ihnen waren Asiaten oder Araber, und es gab überhaupt keine Neger oder Hispanics. Und obwohl das Programm „Einstellungen“ hat, um sowohl Männer als auch Frauen zu analysieren, sagte O'Shea, er sei sich nicht sicher, ob sie Einstellungen für Rasse oder Alter benötige.

* * *

Nach der Ankündigung der iBorderCtrl-Initiative durch den Piloten verurteilten Aktivisten und Politiker das Programm als einen beispiellosen Versuch, die universelle Überwachung auf Orwells Niveau zu bringen. Sophia Int Weld, ein niederländisches Mitglied des Europäischen Parlaments und Vorsitzende der Mitte-Links-Demokraten 69, sagte in einem Brief an die Europäische Kommission, dass das Silent Talker-System die "Grundrechte vieler Reisender, die die Grenze überschreiten" verletzen könnte und dass Organisationen wie Privacy International es als "verurteilt haben". Teil einer breiteren Tendenz, undurchsichtige und oft unzureichende automatische Systeme zur Beurteilung, Bewertung und Klassifizierung von Menschen zu verwenden. “ Das iBorderCtrl-Konsortium hatte eindeutig nicht damit gerechnet, auf solchen Widerstand zu stoßen: Wenn die Europäische Kommission ursprünglich erklärte, dass iBorderCtrl „ein System zur Beschleunigung von Grenzübergängen entwickeln wird“, sagt der Vertreter jetztdass das Programm ein rein theoretisches Forschungsprojekt war. Antoniades teilte der niederländischen Zeitung im Jahr 2018 mit, dass das Lügenerkennungssystem „möglicherweise nicht am Ende erstellt wird“, aber Silent Talker wirbt vorerst weiterhin für seine Präsenz auf der iBorderCtrl-Initiative auf seiner Website.

Silent Talker ist die "neue Version des alten Betrugs", sagte Vera Wilde, eine amerikanische Wissenschaftlerin und Datenschutzaktivistin aus Berlin, die die Kampagne gegen iBorderCtrl gestartet hat. "In gewisser Hinsicht ist es der gleiche Betrug, aber auf einer noch schlechteren wissenschaftlichen Grundlage." Bei der Überprüfung eines Polygraphen überwacht der Prüfer physiologische Ereignisse, von denen angenommen wird, dass sie mit der Lüge korrelieren. Im Fall von KI ermöglicht der Ermittler dem Computer, die Korrelation selbst zu erkennen. "Wenn O'Shea über seinen Mangel an Theorie spricht, irrt er sich", sagt sie. "Er hat eine Theorie, nur schlecht."

Aber egal wie sehr Leute wie Wilde diese Idee kritisieren, der Traum von einem idealen Lügendetektor will nicht sterben - besonders wenn er mit KI verziert ist. Nachdem das US-Heimatschutzministerium in den 2000er Jahren Millionen von Dollar für die Erforschung von Lügen an Universitäten ausgegeben hatte, versuchte es, eine eigene Version der Technologie zu entwickeln, die das Verhalten analysiert. Sein System namens Future Attribute Screening Technology (FAST) (die Technologie der Zukunft zur Verfolgung charakteristischer Eigenschaften) zielt darauf ab, die kriminellen Tendenzen einer Person anhand der Bewegungen ihrer Augen und ihres Körpers zu ermitteln (in einer früheren Version der Technologie musste das Subjekt auf dem Wii Balance Board- Controller stehenum Haltungsänderungen zu verfolgen). Drei Forscher, die heimlich über geheime Projekte sprachen, sagten, das Programm sei nie gestartet - es gab zu viele Widersprüche in der Abteilung, ob Ekmans Mikroexpression als Grundlage für die Analyse verwendet werden sollte. Im Jahr 2011 wurde das Programm gekürzt.

Trotz des Scheiterns von FAST verliert das DHS nicht das Interesse an Lügenerkennungstechnologien. Letztes Jahr unterzeichnete sie einen Vertrag über 110.000 US-Dollar mit einem Personalvermittlungsunternehmen, um ihre Mitarbeiter darin zu schulen, „Lügen und Reaktionen zu erkennen“, indem sie „Verhaltensanalysen“ durchführen. Andere Ministerien und Abteilungen unterstützen weiterhin AI-basierte Lösungen. Das Militärforschungslabor (ARL) hat mit der Rutgers University einen Vertrag über die Erstellung eines KI-Programms zur Erkennung von Lügen im Mafia-Salon-Spiel abgeschlossen, das Teil eines allgemeinen Projekts ist, um „so etwas wie Google Glass zu erstellen, das uns vor ein paar Taschendieben warnen kann überfüllter Markt “, schrieb Purush Iyer, Projektmanager bei ARL. Die israelische Firma Nemesysco, die Sprachanalyse-Software mit KI verkauft, sagte mirdass ihre Technologie von der New Yorker Polizei und den Sheriffs des Mittleren Westens verwendet wird, um Verdächtige zu befragen, sowie von Inkassobüros, um die Emotionen der Schuldner während eines Telefonats zu messen.

Die unmittelbare und potenziell gefährliche Zukunft von KI-Lügendetektoren scheint jedoch ihre private Nutzung zu sein. Politiker, die Initiativen wie iBorderCtrl unterstützen, müssen letztendlich den Wählern antworten, und den meisten KI-basierten Lügendetektoren kann die Verwendung vor Gericht aus denselben Gründen wie einem Polygraphen untersagt werden. Private Unternehmen haben jedoch weniger Einschränkungen bei der Verwendung solcher Technologien zur Bewertung von Bewerbern und potenziellen Kunden. Silent Talker ist eines von mehreren Unternehmen, das behauptet, eine objektivere Methode zur Erkennung abnormaler oder irreführender Verhaltensweisen zu haben, und bietet Kunden eine „Risikoanalyse“ -Methode, die über die Bonität und das Profiling von sozialen Medien hinausgeht.

Montanas Neuro-ID führt eine KI-Analyse von Mausbewegungen und Tastaturtipps durch, um Banken und Versicherungsunternehmen bei der Bewertung des Betrugsrisikos zu unterstützen, indem Antragstellern für Kredite zwischen 1 und 100 „Vertrauenspunkte“ zugewiesen werden. In dem Video zeigte mir das Unternehmen Der Kunde füllt online einen Kreditantrag aus und verbringt viel Zeit damit, ein Feld zum Einkommen einer Familie auszufüllen, während er die Maus bewegt - und all dies berücksichtigt das System bei der Berechnung des Zuverlässigkeitswerts. Das System basiert auf Studien, die von den Gründungswissenschaftlern des Unternehmens durchgeführt wurden und behaupteten, sie zeigten eine Korrelation zwischen Mausbewegungen und emotionalen Ausbrüchen. Sie beschrieben, dass "ein Versuch zu betrügen die normalisierte Distanz der Mausbewegung vergrößern, die Bewegungsgeschwindigkeit verringern, die Reaktionszeit verlängern und zu einer Erhöhung der Anzahl der Klicks führen kann."Die internen Tests des Unternehmens selbst zeigen jedoch, dass die Software zu viele falsch positive Ergebnisse liefert: In einer Studie, in der Neuro-ID 20.000 Bewerbungen auf der Website des Online-Shops verarbeitete, erhielt weniger als die Hälfte der Bewerber die niedrigsten Bewertungen (bis zu 10). Es stellte sich heraus, dass es sich um Betrüger handelte, und nur 10% der Personen, die Bewertungen von 20 bis 30 erhielten, waren mit dem Betrugsrisiko verbunden. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."dass ihre Software zu viele falsch positive Ergebnisse liefert: In einer Studie, in der Neuro-ID 20.000 Bewerbungen auf der Website des Online-Shops verarbeitete, stellte sich heraus, dass weniger als die Hälfte der Bewerber mit den niedrigsten Bewertungen (bis zu 10) Betrüger waren und nur 10% Personen mit Noten von 20 bis 30 waren von Betrug bedroht. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."dass ihre Software zu viele falsch positive Ergebnisse liefert: In einer Studie, in der Neuro-ID 20.000 Bewerbungen auf der Website des Online-Shops verarbeitete, stellte sich heraus, dass weniger als die Hälfte der Bewerber mit den niedrigsten Bewertungen (bis zu 10) Betrüger waren und nur 10% Personen mit Noten von 20 bis 30 waren von Betrug bedroht. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."Bei der Bearbeitung von 20.000 Bewerbungen durch Neuro-ID auf der Website des Online-Shops stellte sich heraus, dass weniger als die Hälfte der Bewerber mit den niedrigsten Bewertungen (bis zu 10) Betrüger waren und nur 10% der Personen mit Bewertungen von 20 bis 30 mit dem Betrugsrisiko in Verbindung gebracht wurden. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."Bei der Bearbeitung von 20.000 Bewerbungen durch Neuro-ID auf der Website des Online-Shops stellte sich heraus, dass weniger als die Hälfte der Bewerber mit den niedrigsten Bewertungen (bis zu 10) Betrüger waren und nur 10% der Personen mit Bewertungen von 20 bis 30 mit dem Betrugsrisiko in Verbindung gebracht wurden. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."Werte von 20 bis 30 waren mit dem Betrugsrisiko verbunden. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."Werte von 20 bis 30 waren mit dem Betrugsrisiko verbunden. Das Unternehmen erkennt an, dass die Software verdächtige Arbeitssuchende als unschuldig eingestuft hat, und ermöglicht die Verwendung dieser Informationen nach eigenem Ermessen. Ein Unternehmensvertreter sagte mir: „Es gibt keine 100% genaue Verhaltensanalyse. "Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen.""Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen.""Wir empfehlen, dass Sie diese Ergebnisse in Verbindung mit anderen Informationen über Antragsteller verwenden, um bessere Entscheidungen zu treffen und Betrüger effektiver zu fangen."

Das Start-up Converus aus Utah verkauft eine Software namens EyeDetect, die die Pupillenkontraktion während Interviews misst, um kognitive Belastungen zu erkennen. Wie Silent Talker geht dieses Tool davon aus, dass Lügen mehr Aufwand als Wahrheit erfordert. Laut einem Artikel von Wired aus dem Jahr 2018 verwendeten Polizeistationen in Salt Lake City und Columbus, Georgia, EyeDetect, um Bewerber zu bewerten. Converus teilte Wired mit, dass McDonald's, Best Western, Sheraton, IHOP und FedEx seine Software in Panama und Guatemala auf eine Weise verwendet hätten, die in den USA illegal wäre.

Das Unternehmen übermittelte mir eine Erklärung, in der mehrere Studien zitiert wurden, aus denen hervorgeht, dass das Programm eine Genauigkeit von 85% bei der Identifizierung von Lügnern und solchen erreicht, die in Stichproben von bis zu 150 Personen die Wahrheit sagen. Laut Firmenpräsident Todd Mikelsen wurde der Algorithmus des Unternehmens in Hunderttausenden von Interviews geschult. Charles Honts, Psychologieprofessor an der Universität von Idaho in Boise, der im Beirat des Unternehmens tätig ist, sagt jedoch, dass diese Ergebnisse nicht beweisen, dass man sich bei einem Interview auf EyeDetect verlassen kann. "Ich finde das EyeDetect-System sehr interessant, aber ich benutze es nicht selbst", sagte er mir. "Ich denke, dass sie immer noch eine kleine Datenbank hat und die Daten größtenteils aus einem Labor stammen." Bis die Basis erweitert ist und andere Leute die Ergebnisse reproduzieren, würde ich sie unter realen Bedingungen nicht verwenden. “

Forscher der Arizona University, die AVATAR entwickelten, gründeten Discern Science, ein in Privatbesitz befindliches Unternehmen, um für ihre eigene Lügenerkennungstechnologie zu werben. Discern wurde im vergangenen Jahr eingeführt und verkauft eine 1,8 Meter hohe Maschine, die der ursprünglichen AVATAR ähnelt. Laut einem Artikel in der Financial Times hat das Unternehmen „ein Joint Venture mit einem Partner der Luftfahrtindustrie organisiert“, um diese Geräte an Flughäfen zu liefern. Das System misst die Bewegungen der Gesichtsmuskeln und das Vorhandensein von Stress in der Stimme, um "diskret Informationen über eine Person in einer Entfernung von einem normalen Gespräch zu sammeln", wie in Werbematerialien geschrieben. Wie Silent Talker und Converus stellt Discern sicher, dass die Technologie etwa 85% der Lügner zuverlässig erkennen kann, die Ergebnisse wurden jedoch nicht unabhängig überprüft. Mindestens einer der von der Vorrichtung verwendeten Informationsempfangskanäle,wurde wiederholt als unzuverlässig erkannt. Honts bemerkte auch, dass die Analyse der Gesichtsmuskelbewegung "praktisch keine Beweise hat" - er sagte, dass "Versuche, die Ergebnisse des Experiments zu reproduzieren, zu viele Fehler hatten".

Die Discern-Forscherin Judy Burgun beantwortete Fragen zum wissenschaftlichen Hintergrund der Maschine des Unternehmens und betonte, dass das System lediglich eine Bewertung und keine genauen Schlussfolgerungen über die Wahrheit und Lüge liefert. Systeme wie AVATAR und Silent Talker können in ihren Worten „Betrug nicht direkt messen“ und „jede Person, die für einen eindeutig funktionierenden Lügendetektor wirbt, ist ein Quacksalber“. Gleichzeitig präsentiert Discern in den Marketingmaterialien sein Tool als zuverlässigen Lügendetektor: Auf der Website heißt es, dass es „geheime Pläne aufdecken kann“ und dass „wissenschaftlich bewiesen wurde, dass seine Algorithmen Betrug schneller und zuverlässiger erkennen als alle Alternativen“. .

Das Berufungsgericht hob das Urteil von Emmanuel Mervilus im Jahr 2011 auf, entließ ihn aus dem Gefängnis und ordnete eine Überprüfung des Falls an. Er verbüßte mehr als drei Jahre Haft. Bei der zweiten Verhandlung im Jahr 2013 diskutierte die Jury den Fall nur 40 Minuten vor dem Freispruch. Ohne den Polygraphen und ohne festen Glauben an seine Genauigkeit hätte er niemals ins Dock gelangen können. Mervilus verurteilte die Polizeibeamten, die ihn verhaftet und verhört hatten, und behauptete, sie hätten sein Recht auf Durchführung von Gerichtsverfahren verletzt, indem sie einen Polygraphentest für ihre Verurteilung verwendeten, dessen Mängel sie kannten.

Und selbst wenn die weit verbreitete Verwendung von Silent Talker und ähnlichen Systemen nicht zu einer Zunahme der Verurteilungen von Unschuldigen führt, wie dies bei Mervilus der Fall war, kann dies dennoch ein neues Hindernis schaffen, das die Menschen dazu zwingt, sich jedes Mal, wenn sie ein Auto mieten oder ein Auto mieten möchten, einer „Zuverlässigkeitsbewertung“ zu unterziehen ein Darlehen aufnehmen.

"Vor Gericht müssen Sie materielle Beweise wie Haare oder Blut vorlegen", sagt Wilde. "Aber Sie haben auch das Recht zu schweigen und nicht gegen sich selbst auszusagen." Mervilus entschied sich für einen Polygraphentest und schlug vor, dass er wie ein DNA-Test seine Unschuld demonstrieren würde. Und obwohl das Gerät nicht richtig funktionierte, war es nicht das Auto, das ihn ins Gefängnis schickte. Es geht um die Überzeugung der Jury, dass die Testergebnisse zuverlässiger sind als die Fakten des Falls.

Die Annahme, die der KI-Erkennung von Lügen zugrunde liegt, ist, dass Lügen mit den richtigen Werkzeugen gesehen werden können. Psychologen sind immer noch nicht von der Richtigkeit dieser Aussage überzeugt, aber bisher kann ein einfacher Glaube an ihre Richtigkeit ausreichen, um würdige Kandidaten für Arbeit oder Kredit abzulehnen und unschuldige Menschen daran zu hindern, die Staatsgrenze zu überschreiten. Das Versprechen, ein Fenster in die Seele anderer Menschen zu öffnen, ist zu verlockend, um abgelehnt zu werden, auch wenn niemand sicher ist, dass dieses Fenster sauber ist.

"Es ist wie ein Versprechen, Gedanken zu lesen", sagt Wilde. "Natürlich ist das Unsinn, aber sie verkaufen genau das."

All Articles