Intentar usar IA en un detector de mentiras solo exacerba el problema del reconocimiento de fraude

Un estudio detallado de los intentos de utilizar la inteligencia artificial en el reconocimiento de mentiras.




Antes de que el polígrafo emitiera el veredicto "culpable", Emmanuel Mervilus trabajaba para una compañía de aceite vegetal en el puerto de Newark, Nueva Jersey. Ganó $ 12 / hora cargando cajas, pero esto no era suficiente para ganarse la vida. Su hermano y su hermana eran demasiado jóvenes para trabajar, y su madre libró una costosa batalla contra el cáncer. Sin embargo, el jefe en el puerto dijo que él era el siguiente en la fila para ascender a un puesto técnico en el que se le prometió pagar $ 25 / hora.

Mervilus todavía estaba esperando su ascenso cuando, el 19 de octubre de 2006, él y un amigo se detuvieron para comer en Dunkin 'Donuts, ubicado en la cercana ciudad de Elizabeth, Nueva Jersey. Unos minutos más tarde, mientras caminaban por la calle, dos policías se les acercaron y los acusaron de haber robado a un hombre que había sido amenazado con un cuchillo hace unos minutos cerca de la estación de ferrocarril.

Una víctima de lejos identificó a Mervilus y su amigo. En un intento desesperado por demostrar su inocencia, Mervilus sugirió tomar una prueba de polígrafo. La policía estuvo de acuerdo, pero poco antes de esta prueba, la madre de Mervilus murió. Cuando la policía lo conectó al aparato, estaba confundido y ansioso. Reprobó esta prueba, solicitó la oportunidad de pasarla nuevamente y fue rechazada.

Después de la declaración de inocencia de Mervilus, el caso fue remitido a los tribunales. El teniente de prueba dijo en la corte que el dispositivo es un "indicador de verdad" confiable. Dijo que nunca había visto en su carrera que "alguien mostrara signos de fraude, y luego resultó que estaba diciendo la verdad". El jurado encontró a Mervilus culpable, lo cual, como resultó en el tribunal de apelaciones, ocurrió debido a la excesiva fe en el polígrafo. El juez le otorgó 11 años de prisión.

La creencia de que se puede reconocer el engaño analizando las características del cuerpo humano está profundamente arraigada en la vida moderna. A pesar de una gran cantidad de investigaciones que ponen en tela de juicio la confiabilidad del polígrafo, se realizan más de 2.5 millones de controles en los Estados Unidos cada año, y la industria del polígrafo se estima en $ 2 mil millones. Las agencias del gobierno federal de los EE. UU. evaluación de candidatos para el trabajo. Un informe del Departamento de Justicia de 2007 indica que más de las tres cuartas partes de las estaciones de policía y las oficinas del sheriff usan detectores de mentiras para reclutar personal.

Sin embargo, estos dispositivos siguen siendo demasiado lentos y torpes para usarse en las fronteras, en los aeropuertos o en grandes grupos de personas. Como resultado, una nueva generación de detectores de mentiras basados ​​en IA han surgido en la última década. Sus partidarios afirman que trabajan más rápido y con mayor precisión que los polígrafos.

De hecho, la justificación psicológica de estos nuevos sistemas de IA es aún más precaria que los estudios que subyacen en el polígrafo. La evidencia de que se puede confiar en los resultados que producen es escasa. Sin embargo, su brillo externo, dado por el uso de IA, conduce a la aparición de estos sistemas en lugares donde el polígrafo no pudo penetrar antes: a la frontera, a entrevistas, a procedimientos para evaluar la solvencia e investigar el fraude de seguros. Las corporaciones y los gobiernos comienzan a confiar en ellos al tomar decisiones sobre la fiabilidad de los clientes, empleados, ciudadanos, inmigrantes y turistas internacionales. Pero, ¿qué pasa si una mentira es una pieza demasiado complicada para ser detectada de manera confiable por cualquier máquina, sin importar cuán avanzados sean los algoritmos?

* * *

Los inquisidores en la antigua China pusieron arroz en la boca de sus sospechosos para ver si les liberaban saliva. " Actos romanos ", una antología de historias morales medievales, cuenta la historia de un soldado que ordenó a su secretario medir el pulso de su esposa, para determinar si le había sido fiel.



Después de que Estados Unidos se involucró en la Primera Guerra Mundial, William Marston, un investigador de Harvard, fue el primero en usar máquinas de medición de la presión arterial en un intento de detectar el fraude. Unos años más tarde, inspirado en el trabajo de Marston, John Augustus Larson, un policía que recientemente recibió su doctorado en fisiología de la Universidad de California en Berkeley, desarrolló una máquina llamada "psicólogo cardio-neumo", que proporcionó datos continuos sobre la presión arterial, la frecuencia del pulso y la velocidad del sujeto. respiración. Larson argumentó que estos testimonios traicionan mucho mejor el engaño que una sola presión.

Inicialmente, Larson usó el automóvil para investigar el robo en un dormitorio femenino en Berkeley, y durante un año fue utilizado en San Francisco para condenar a un hombre acusado de matar a un sacerdote. En la década de 1930, uno de los protegidos de Larson ya estaba vendiendo versiones portátiles del dispositivo a los departamentos de policía de todo el país, agregando un sensor de reacción galvánica de la piel: cuanto más sudaba el sujeto, mejor conducía la piel la corriente. En la década de 1970, millones de trabajadores del sector privado fueron evaluados regularmente por polígrafos según las indicaciones de sus empleadores.

La mayoría de los polígrafos modernos usan el mismo esquema básico que sugirió Larson: el investigador hace varias preguntas para medir el estado fisiológico normal del sujeto, observando cómo la máquina traduce estas mediciones en líneas onduladas en papel o pantalla. Luego, el investigador busca oleadas o caídas repentinas en estos niveles cuando el sujeto responde preguntas relacionadas con crímenes o sentimientos.

Sin embargo, los fisiólogos y neurocientíficos han criticado el polígrafo casi desde el momento en que Larson descubrió su invención al público. Si algunos mentirosos pueden estar experimentando un cambio en la frecuencia cardíaca o la presión arterial, hay muy poca evidencia de que dichos cambios estén constantemente correlacionados con el engaño. Muchas personas inocentes comienzan a ponerse nerviosas durante los interrogatorios, y los mentirosos experimentados pueden suprimir o causar cambios en sus cuerpos que les permitan engañar a la prueba. Un polígrafo también puede ser engañado por los que se muerde la lengua , dando un paso en un clavel, o pensar acerca de los miedos más terribles. Siempre existe el riesgo de que el dispositivo reciba testimonios contradictorios, incluso bajo las condiciones controladas de un experimento de laboratorio, y en la vida real son aún menos confiables: dado que los delincuentes que hicieron trampa en la prueba casi nunca admiten su culpabilidad ante la policía, y los sospechosos inocentes a menudo dan falso testimonio, fallando pruebas, es imposible decir qué tan bien funcionaron realmente estas máquinas.


El inventor estadounidense Leonard Keeler (1903-1949), protegido del inventor poligráfico John Larson, puso a prueba a Bruno Hauptmann, quien fue arrestado, acusado y ejecutado por secuestrar a Charles August Lindberg Jr. Hauptman hasta el final de su vida declaró su inocencia.

Debido a estas limitaciones, las pruebas de polígrafo no fueron aceptadas en la mayoría de los tribunales estadounidenses durante mucho tiempo, a menos que ambas partes acordaran adjuntarlas al caso. La ley federal ha prohibido a las empresas privadas probar los polígrafos de los empleados desde 1988 (con la excepción de trabajos particularmente delicados como guardias armados o distribuidores de drogas, así como sospechas de robo o fraude). La Asociación Americana de Psicología advierte que "la mayoría de los psicólogos tienden a creer que hay muy poca evidencia de la capacidad de un polígrafo para señalar una mentira". En un informe de 2003 de la Academia Nacional de Ciencias, después de un estudio gubernamental sobre este tema, se llegó a una conclusión que pronto se hizo ampliamente conocida: una máquina identifica a los mentirosos "mucho más a menudo que por casualidad, pero mucho peor que perfectamente".El autor principal del informe en ese momento dijo que "la seguridad nacional es algo demasiado importante para darle a un instrumento tan burdo".

Pero quizás esta herramienta se puede hacer menos grosera. Una cantidad similar de compañías hacen un número creciente de empresas que intentan vender con entusiasmo la tecnología de reconocimiento de mentiras tanto a gobiernos como a organizaciones comerciales. Argumentan que, tal vez, ciertos patrones complejos de rasgos de comportamiento pueden indicar que una persona está mintiendo, mucho más confiable que un simple pulso o presión arterial. Y quizás un algoritmo sofisticado pueda reconocer estos patrones.

De 1969 a 1981, el asesino en serie, apodado el Destripador de Yorkshire, cazó chicas en el norte de Inglaterra, mató al menos a 13 de ellas e intentó matar al menos a siete más. La policía lo interrogó y lo liberó nueve veces mientras él continuaba su sangriento viaje. Su última víctima fue Jacqueline Hill, una estudiante de 20 años de la Universidad de Leeds, que fue asesinada en noviembre de 1980. Unos meses después, la policía finalmente lo atrapó preparándose para matar a una prostituta en Sheffield.

Cuando Janet Rothwell llegó a la Universidad de Leeds en el otoño de 1980, vivía en un dormitorio en la habitación contigua a la que vivía Hill. Matar a Hill la asustó.

"Se subió al autobús en la biblioteca de la universidad casi al mismo tiempo que yo", dijo Rothwell, "y fue asesinada después de que se bajó del autobús". Rothwell luego descubrió cuánto tiempo tardó en capturar al asesino. "Pensé", recordó, "¿podría la computadora encontrar alguna discrepancia de comportamiento para informar a la policía?"

Como resultado, Rothwell fue a la escuela de posgrado en la Universidad de Manchester Metropolitan (UMM) a finales de los 90. Allí conoció a Zuhair Bandar, un profesor británico de ascendencia iraquí que trabajaba en el Departamento de Informática. Poco antes de esto, a Bandar se le ocurrió una idea, después de que una compañía de publicidad le pidiera que creara un dispositivo rudimentario para medir el interés de los clientes en los productos que ven en la pantalla.


Una foto tomada por el FBI de una mujer sometida a una prueba de polígrafo

"Querían entregar un dispositivo portátil a los consumidores", dijo Bandar, "para que cuando al consumidor le gustara algo, presionara 1, y si no, a 2. Pensé: por qué ¿Deberían hacerse tales dispositivos si ya tienen expresiones en sus caras? Bandar sugirió que Rothwell permanezca en la UMM después de recibir su diploma para trabajar en su doctorado, ayudándolo a desarrollar un software capaz de analizar rostros para extraer información. Decidieron que hacer trampa no era más difícil de reconocer que la alegría o la ira. Cualquiera de estas emociones debería crear algún tipo de “inconsistencia”: patrones de comportamiento, verbales o no verbales, que la computadora puede reconocer.

Rothwell entrenó a la red neuronal a principios de la década de 2000 para rastrear actividades como parpadear o sonrojarse, y luego alimentó docenas de videos a la computadora, donde las personas respondieron el mismo conjunto de preguntas honesta y deshonestamente. Para determinar las características comunes de los mentirosos, la computadora estudió los detalles del movimiento de las personas, sus relaciones y las relaciones entre estas relaciones, dando una especie de "teoría" que sería demasiado difícil de expresar en un lenguaje normal. Habiendo estudiado de esta manera, el sistema podría usar el conocimiento adquirido para clasificar nuevos sujetos en las categorías de "verdadero" y "engañador" mediante el análisis de los cambios cuadro por cuadro en las expresiones de sus caras.

Un estudio de 2006 examinó la viabilidad de este sistema, llamado " Altavoz silencioso ""(Hablador silencioso), para reconocer una mentira en las respuestas del sujeto de prueba. No pudo lograr una precisión de más del 80%, ni en el momento en que Rothwell trabajó con ella, ni más tarde, cuando el equipo de investigación intentó mejorarla. Además, Rothwell me dijo que el sistema en general dejaba de funcionar normalmente si el sujeto usaba anteojos, y señaló que "las condiciones de iluminación eran las mismas, y todos los interrogatorios estaban relacionados con el robo por etapas". Pero Rothwell recuerda que incluso en las primeras etapas del proyecto, Bandar "estaba apasionado por la idea de lanzar un producto comercial"; Una vez, ella y otro colega le proporcionaron un video que mostraba a una mujer sospechosa de haber engañado a su esposo y le pidieron que condujera el video a través de Silent Talker para su análisis, al igual que en el libro "Roman Acts".

Rothwell tenía dudas sobre esto. "Estaba claro para mí que si tal software funcionaba, en principio podría usarse en detrimento", dijo. "No creo que ningún sistema pueda acercarse al 100% de precisión, y si el sistema está equivocado, puede causar consecuencias catastróficas para las relaciones y las situaciones de la vida". En 2006, dejó la universidad, estudió en el audiólogo, consiguió un trabajo en un hospital en la isla de Jersey, donde vive hasta el día de hoy.

En 2003, UMM publicó un comunicado de prensa promoviendo la tecnología como una nueva invención que reemplazará el polígrafo. "Me sorprendió", dijo Rothwell, "me pareció demasiado temprano para hablar de eso".

El gobierno de EE. UU. Ha tratado repetidamente de abordar la tecnología de reconocimiento de mentiras en los primeros años después del 11 de septiembre; El Departamento de Seguridad Nacional de EE. UU. (DHS), el Departamento de Defensa de EE. UU. (DoD) y la Fundación Nacional de Ciencias de EE. UU. Gastaron millones de dólares en cada estudio. Estas agencias financiaron la creación de una máquina AVATAR en la Universidad de Arizona. AVATAR, que analizó las expresiones faciales, el lenguaje corporal y las voces de las personas, asignándoles "puntos de confianza", se probó en los aeropuertos. En Israel, el DHS ayudó a la creación de dinero WeCU ["te vemos" o "te vemos" / aprox. transl.], que vendió una máquina para evaluar personas, capaz, según un artículo de 2010 en la revista Fast Company, de "causar reacciones fisiológicas en personas que ocultan algo". Hoy, esta empresa ya se ha declarado en quiebra.

Bandar comenzó a tratar de llevar la tecnología al mercado. Con sus dos estudiantes, Jim O'Shea y Keely Crocket, convirtió a su Silent Talker en una empresa y comenzó a buscar clientes para su tecnología de perfil psicológico, tanto entre las estaciones de policía y las empresas privadas. Silent Talker fue uno de los primeros detectores de mentiras basados ​​en IA en ingresar al mercado. Según la compañía, el año pasado la tecnología "creada sobre la base de Silent Talker" se utilizó como parte de la iniciativa iBorderCtrl, financiada por la Unión Europea, en la que este sistema se probó en voluntarios en las fronteras de Grecia, Hungría y Letonia. Bandar dice que la compañía actualmente está negociando la venta de tecnología a firmas de abogados, bancos, compañías de seguros, sobre la posibilidad de usar estas pruebas durante las entrevistas y verificar el fraude.

Bandar y O'Shea a lo largo de los años han adaptado el algoritmo básico para su uso en varias versiones. Intentaron publicitarlo en las estaciones de policía de Manchester y Liverpool. "Nos comunicamos informalmente con personas de una posición muy alta", dijo la compañía a la revista británica The Engineer en 2003, señalando que estaba tratando de "probar la tecnología en entrevistas reales". De un informe publicado por O'Shea en su sitio web en 2013, se deduce que Silent Talker "puede usarse para proteger a nuestros soldados en operaciones extranjeras de ataques internos" (es decir, ataques llevados a cabo por soldados afganos uniformados contra antiguos aliados).

El equipo también publicó resultados experimentales que demuestran cómo Silent Talker puede usarse para reconocer no solo motivos ocultos, sino también una comprensión de algo. En un estudio de 2012, que mostró por primera vez cómo Silent Talker funciona "en el campo", el equipo, junto con una institución médica no gubernamental de Tanzania, registró expresiones faciales de 80 mujeres que recibieron capacitación en línea sobre el tratamiento del SIDA y el uso del condón. La idea era determinar si los pacientes entienden cómo serán tratados, como se escribió en las notas del estudio, "evaluar la comprensión de los participantes mientras se les entrega información sigue siendo un área de preocupación". Cuando el equipo hizo una comparación cruzada de los puntajes de IA de cuánto entendieron las mujeres el material con los puntos que obtuvieron para los exámenes cortos, encontraronque AI predijo con un 80% de precisión cuáles de los sujetos aprobarían el examen y cuáles reprobarían.

Silent Talker se incluyó en la iniciativa iBorderCtrl gracias al experimento de Tanzania. En 2015, Athos Antoniades, uno de los organizadores del incipiente consorcio, envió un correo electrónico a O'Shea preguntando si el equipo Silent Talker desea unirse al grupo de empresas y las fuerzas policiales que envían solicitudes de subvenciones de la UE. El aumento constante del tráfico en las carreteras sobrecargó a los guardias fronterizos de la Unión Europea, como resultado de lo cual el sindicato ofreció 4,5 millones de euros a cualquier organización capaz de "organizar un cruce fronterizo más eficiente y seguro, contribuyendo a la prevención del crimen y el terrorismo". Antoniades pensó que Silent Talker podría jugar un papel clave en esto.

Cuando el proyecto anunció las pruebas públicas en octubre de 2018, la Comisión Europea inmediatamente comenzó a promover activamente la "historia de éxito" del "enfoque único" del sistema para detectar el fraude, explicando que "analiza los micro-gestos de los viajeros para decir cuál de los entrevistados está mintiendo". . El algoritmo entrenado en Manchester fue "asegurar un cruce fronterizo más eficiente y seguro" y "contribuir a la prevención del crimen y el terrorismo".

O'Shea me dijo que el algoritmo principal del programa se puede usar en muchas otras condiciones: en publicidad, antes de pagar un seguro, al contratar, en la evaluación de los empleados. Me fue difícil compartir su sincera creencia en la sabiduría de este algoritmo, pero mientras hablábamos por teléfono con él, Silent Talker ya se utilizaba para un examen voluntario de aquellos que deseaban ingresar a la Unión Europea; La compañía lanzó este proyecto como empresa comercial en enero de 2019. Así que decidí ir a Manchester para ver todo por mí mismo.

* * *

Las oficinas de Silent Talker están ubicadas a aproximadamente un kilómetro y medio de UMM, donde O'Shea es actualmente un profesor titular. Asumió las responsabilidades diarias del desarrollo tecnológico. La compañía está ubicada en un pequeño centro de oficinas ubicado en una zona residencial, al lado de un restaurante de kebab y enfrente del campo de fútbol. En el centro de la oficina, la oficina de Silent Talker consta de una habitación individual con varias computadoras, escritorios con maletines y carteles de la década de 2000 que explican cómo funciona esta tecnología.

Cuando fui a ellos en septiembre, hablé con O'Shea y Bandar en la sala de reuniones. O'Shea parecía severo, pero un poco despeinado, era calvo, con la excepción de un par de mechones de pelo y una barba al estilo de Van Dyck. Comenzó la conversación exigiendo que no tocáramos el proyecto iBorderCtrl, y luego llamó a sus críticos mal informados. Describió las habilidades de la plataforma de inteligencia artificial del sistema detallado y adornado, a veces citando al pionero de la informática Alan Turing o al filósofo del lenguaje John Searle.

"Tanto los autos como las personas tienen sus propias especulaciones: creencias, deseos y aspiraciones asociadas con los objetos y estados de cosas en el mundo", dijo, defendiendo la dependencia del sistema en el algoritmo. "Por lo tanto, el desarrollo de aplicaciones complejas requiere la consideración de las ideas e intenciones de ambas partes".

O'Shea demostró el sistema, permitiéndole analizar un video con una persona respondiendo preguntas sobre si robó $ 50 de la caja. El programa impuso un rectángulo amarillo en la cara de la persona y dos rectángulos más pequeños en sus ojos. Cuando habló, el puntero en la esquina de la pantalla se movió del verde al rojo cuando sus respuestas eran falsas, y luego regresó a la posición media naranja cuando se quedó en silencio. Al final de la entrevista, el programa emitió un gráfico que muestra la distribución de la probabilidad de fraude a lo largo del tiempo. Teóricamente, el gráfico muestra dónde comenzó y terminó mintiendo.

O'Shea dice que su sistema puede ejecutarse en una computadora portátil normal, y los usuarios pagan $ 10 por minuto por el video que se analiza. O'Shea me dijo que el software preprocesa el video localmente, envía datos encriptados al servidor, donde se analizan más a fondo, y luego envía los resultados de vuelta: el usuario ve un gráfico de la probabilidad de fraude superpuesto en el video.

Según O'Shea, el sistema monitorea alrededor de 40 "canales" físicos en el cuerpo del sujeto, desde velocidad de parpadeo hasta ángulo de la cabeza. Cada persona nueva se compara con una "teoría" del engaño, desarrollada sobre la base de la visualización de datos de capacitación, que incluye registros de mentirosos y personas que dicen la verdad. Al medir las expresiones faciales y los cambios de postura varias veces por segundo, el sistema busca patrones en estos movimientos que coinciden con los comunes para todos los mentirosos a partir de los datos de entrenamiento. Estos no son patrones tan simples como mirar el techo o inclinar la cabeza hacia la izquierda. Esto es más como patrones de leyes, las relaciones multifacéticas entre diferentes movimientos que son demasiado complejos para ser rastreados por una persona es una tarea típica para el aprendizaje automático.

La tarea de la IA es determinar qué patrones de movimiento pueden asociarse con el engaño. "Los psicólogos a menudo hablan de la necesidad de un modelo de cómo funciona el sistema", me dijo O'Shea. "Pero no tenemos un modelo de trabajo y no lo necesitamos". Le damos a AI la oportunidad de resolver el problema ". Sin embargo, también dice que la evidencia científica sobre la psicología del engaño confirma el significado de los "canales" en la cara. En un artículo de 2018, que describe al Hablador silencioso, sus creadores dicen que su software "asume que ciertos estados de conciencia asociados con el comportamiento del engañador controlarán, durante el engaño, el comportamiento no verbal del entrevistado". Ejemplos de tal comportamiento incluyen "carga cognitiva", energía mental adicional que supuestamente se gasta en mentiras y "deleite del engaño", el placer que supuestamente recibe una persona,Mentir con éxito.


Paul Ekman, cuya teoría de las "microexpresiones" es muy controvertida, ha asesorado a muchas agencias gubernamentales de los Estados Unidos.

Sin embargo, Ewaut Meyer, profesor de psicología en la Universidad de Maastricht en los Países Bajos, dice que la base teórica para las afirmaciones sobre la universalidad de tales patrones de comportamiento puede llamarse precaria en el mejor de los casos. La idea de que una persona puede detectar signos característicos de comportamiento proviene del trabajo de Paul Ekman, un psicólogo estadounidense que en la década de 1980 presentó la famosa teoría de las "microexpresiones", movimientos involuntarios de los músculos faciales que son demasiado pequeños para ser controlados. Gracias a la investigación, Ekman se convirtió en el autor y prototipo más vendido del tonto programa de televisión "Lie to Me". Ha asesorado a muchas agencias del gobierno de EE. UU., Incluyendo DHS y DARPA. Bajo el pretexto de la seguridad nacional, mantiene en secreto los datos de la investigación. Debido a esto, existe un debate constante sobre si estas microexpresiones tienen algún significado.

Silent Talker AI rastrea varios movimientos musculares faciales, no solo las microexpresiones de Ekman. "Desmontamos estas sugerencias de alto nivel, componiendo nuestro conjunto de gestos microscópicos y entrenamos a la IA para que los recombinara en patrones característicos significativos", nos escribió un representante de la compañía. O'Shea dice que esto permite que el sistema detecte comportamientos relacionados con engaños incluso cuando el sujeto simplemente mira a su alrededor o cambia de posición mientras está sentado en una silla.

"Mucho depende de si tienes una pregunta tecnológica o psicológica", dice Meyer, advirtiendo que O'Shea y su equipo pueden haber recurrido a la tecnología en busca de respuestas a preguntas psicológicas sobre la naturaleza del engaño. “La IA puede ser mejor que las personas para detectar expresiones faciales, pero incluso si es así, esto no significa que uno pueda sacar conclusiones de ellas sobre si una persona está mintiendo. Mentir es una construcción psicológica ". No hay consenso no solo sobre la cuestión de qué expresiones están asociadas con una mentira, agrega Meyer: no hay consenso sobre si existen tales expresiones en absoluto. La compañía escribió en un correo electrónico que esta crítica "no tiene nada que ver" con Silent Talker, y que "las estadísticas utilizadas no son adecuadas para este caso".


El programa de televisión "Lie to Me" se basó, en particular, en la teoría de microexpresiones de Ekman.

Además, Meyer señala que el algoritmo seguirá siendo inútil en las fronteras o en las entrevistas si no está entrenado en el mismo conjunto de datos diversos que evaluará en la realidad. Los estudios sugieren que los algoritmos de reconocimiento facial reconocen a las minorías raciales peor si se entrenan en los rostros de los blancos, el propio O'Shea lo reconoce. Un representante de Silent Talker nos escribió: “Hicimos mucha experimentación con un tamaño de muestra más pequeño. Su número llega a cientos. Algunos de ellos están relacionados con la investigación científica y serán publicados, otros, comerciales y confidenciales ".

Sin embargo, todos los estudios publicados que confirman la precisión de Silent Talker se basan en conjuntos de datos pequeños y uniformes. En el trabajo de 2018, por ejemplo, solo 32 personas fueron utilizadas para capacitación, entre las cuales había el doble de hombres que mujeres, y solo 10 de ellos eran asiáticos o árabes, y no había negros ni hispanos en absoluto. Y aunque el programa tiene "configuraciones" para analizar tanto a hombres como a mujeres, O'Shea dijo que no estaba seguro de si ella necesitaba configuraciones para la raza o la edad.

* * *

Tras el anuncio del piloto de la iniciativa iBorderCtrl, activistas y políticos denunciaron el programa como un intento sin precedentes de llevar la vigilancia universal al nivel de Orwell. Sophia int Weld, miembro holandés del Parlamento Europeo y líder de los demócratas de centroizquierda 69, dijo en una carta a la Comisión Europea que el sistema Silent Talker podría violar los "derechos fundamentales de muchos viajeros que cruzan la frontera", y que organizaciones como Privacy International lo han condenado como " parte de una tendencia más amplia a utilizar sistemas automáticos opacos y a menudo inadecuados para juzgar, evaluar y clasificar a las personas ". El consorcio iBorderCtrl claramente no esperaba encontrar tal resistencia: si inicialmente la Comisión Europea declaró que iBorderCtrl "desarrollará un sistema para acelerar los cruces fronterizos", ahora dice el representanteque el programa era un proyecto de investigación puramente teórico. Antoniades en 2018 le dijo al periódico holandés que el sistema de reconocimiento de mentiras "puede no ser creado al final", pero por ahora, Silent Talker todavía continúa anunciando su presencia en la iniciativa iBorderCtrl en su sitio web.

Silent Talker es la "nueva versión del viejo fraude", dijo Vera Wilde, una académica estadounidense y activista de privacidad con sede en Berlín que ayudó a lanzar la campaña contra iBorderCtrl. "En cierto sentido, es el mismo fraude, pero con una base científica aún peor". Al verificar un polígrafo, el investigador monitorea los eventos fisiológicos que se cree que se correlacionan con la falsedad; En el caso de la IA, el investigador permite que la computadora detecte la correlación misma. "Cuando O'Shea habla de su falta de teoría, se equivoca", dice ella. "Tiene una teoría, simplemente mala".

Pero no importa cuánto la gente como Wilde critique esta idea, el sueño de un detector de mentiras ideal no quiere morir, especialmente cuando está adornado con IA. Después de que el Departamento de Seguridad Nacional de los Estados Unidos gastó millones de dólares investigando mentiras en universidades en la década de 2000, trató de crear su propia versión de tecnología que analiza el comportamiento. Su sistema, llamado Future Attribute Screening Technology (FAST) [la tecnología del futuro para rastrear propiedades características], tiene como objetivo encontrar las tendencias criminales de una persona basadas en los movimientos de sus ojos y cuerpo (en una versión anterior de la tecnología, el sujeto tenía que estar parado en el controlador de Wii Balance Board).para rastrear los cambios de postura). Tres investigadores que hablaron en secreto sobre proyectos secretos dicen que el programa nunca despegó: había demasiadas contradicciones en el departamento sobre si usar la microexpresión de Ekman como base para el análisis. En 2011, el programa se redujo.

A pesar del fracaso de FAST, el DHS no pierde interés en las tecnologías de reconocimiento de mentiras. El año pasado, firmó un contrato de $ 110,000 con una compañía de reclutamiento para capacitar a sus empleados en "reconocer mentiras y reacciones" a través de "análisis de comportamiento". Otros ministerios y departamentos continúan apoyando soluciones basadas en IA. El laboratorio de investigación militar (ARL) tiene un contrato con la Universidad de Rutgers para crear un programa de inteligencia artificial para reconocer mentiras en el juego de salón de la mafia, que es parte de un proyecto general para crear "algo como Google Glass que puede advertirnos sobre un par de carteristas en mercado abarrotado ", escribió Purush Iyer, gerente de proyectos de ARL. La compañía israelí Nemesysco, que vende software de análisis de voz usando IA, me dijoque su tecnología está siendo utilizada por la policía de la ciudad de Nueva York y los alguaciles del medio oeste para interrogar a los sospechosos, así como a las agencias de cobranza para medir las emociones de los deudores durante las llamadas telefónicas.

Sin embargo, el futuro inmediato y potencialmente peligroso de los detectores de mentiras de IA parece ser su uso privado. Los políticos que apoyan iniciativas como iBorderCtrl finalmente tienen que responder a los votantes, y se puede prohibir que la mayoría de los detectores de mentiras basados ​​en inteligencia artificial se utilicen en los tribunales por los mismos motivos que un polígrafo. Pero las corporaciones privadas tienen menos restricciones en el uso de dicha tecnología para evaluar candidatos y clientes potenciales. Silent Talker es una de varias compañías que afirman tener una forma más objetiva de reconocer comportamientos anormales o engañosos, brindando a los clientes un método de "análisis de riesgos" que va más allá de la calificación crediticia y el perfil de las redes sociales.

Neuro-ID de Montana está llevando a cabo un análisis de inteligencia artificial de los movimientos del mouse y las pulsaciones del teclado para ayudar a los bancos y las compañías de seguros a evaluar el riesgo de fraude al asignar "puntos de confianza" a los solicitantes de préstamos que van del 1 al 100. En el video, la compañía me mostró , el cliente completa una solicitud de préstamo en línea y pasa tiempo completando un campo con respecto a los ingresos de una familia, mientras mueve el mouse, y todo esto lo tiene en cuenta el sistema para calcular el puntaje de confiabilidad. El sistema se basa en estudios realizados por los científicos fundadores de la compañía que afirman que mostraron una correlación entre los movimientos del ratón y los arrebatos emocionales. Describieron que "un intento de hacer trampa puede aumentar la distancia normalizada del movimiento del mouse, reducir la velocidad de movimiento, aumentar el tiempo de respuesta y aumentar el número de clics".Sin embargo, según las pruebas internas de la propia empresa, está claro que su software produce demasiados resultados falsos positivos: en un estudio en el que Neuro-ID procesó 20,000 solicitudes en el sitio web de la tienda en línea, menos de la mitad de los solicitantes que recibieron las calificaciones más bajas (hasta 10) , resultaron ser estafadores, y solo el 10% de las personas que obtuvieron calificaciones de 20 a 30 se asociaron con el riesgo de fraude. La compañía reconoce que el software señala como buscadores de trabajo sospechosos que pueden ser inocentes, y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".que su software produce demasiados resultados falsos positivos: en un estudio en el que Neuro-ID procesó 20,000 solicitudes en el sitio web de la tienda en línea, menos de la mitad de los solicitantes que recibieron las calificaciones más bajas (hasta 10) resultaron ser estafadores, y solo el 10% las personas con calificaciones de 20 a 30 corrían el riesgo de fraude. La compañía reconoce que el software señala como buscadores de trabajo sospechosos que pueden ser inocentes, y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".que su software produce demasiados resultados falsos positivos: en un estudio en el que Neuro-ID procesó 20,000 solicitudes en el sitio web de la tienda en línea, menos de la mitad de los solicitantes que recibieron las calificaciones más bajas (hasta 10) resultaron ser estafadores, y solo el 10% las personas con calificaciones de 20 a 30 corrían el riesgo de fraude. La compañía reconoce que el software señala como buscadores de trabajo sospechosos que pueden ser inocentes, y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".en el que Neuro-ID procesó 20,000 solicitudes en el sitio web de la tienda en línea, menos de la mitad de los solicitantes que recibieron las calificaciones más bajas (hasta 10) resultaron ser estafadores, y solo el 10% de las personas que recibieron calificaciones de 20 a 30 se asociaron con el riesgo de fraude. La compañía reconoce que el software señala como buscadores de trabajo sospechosos que pueden ser inocentes, y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".en el que Neuro-ID procesó 20,000 solicitudes en el sitio web de la tienda en línea, menos de la mitad de los solicitantes que recibieron las calificaciones más bajas (hasta 10) resultaron ser estafadores, y solo el 10% de las personas que recibieron calificaciones de 20 a 30 se asociaron con el riesgo de fraude. La compañía reconoce que el software señala como buscadores de trabajo sospechosos que pueden ser inocentes, y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".puntajes de 20-30 se asociaron con el riesgo de fraude. La compañía reconoce que el software señala que los buscadores de trabajo sospechosos pueden ser inocentes y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".puntajes de 20-30 se asociaron con el riesgo de fraude. La compañía reconoce que el software señala como buscadores de trabajo sospechosos que pueden ser inocentes, y hace posible utilizar esta información a su discreción. Un representante de la compañía me dijo que “no hay un análisis de comportamiento 100% exacto. "Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva"."Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva"."Recomendamos que utilice estos resultados junto con otra información sobre los solicitantes para tomar mejores decisiones y atrapar a los estafadores de manera más efectiva".

La nueva empresa de Utah, Converus, vende un software llamado EyeDetect, que mide la contracción de la pupila durante las entrevistas para detectar la carga cognitiva. Al igual que Silent Talker, esta herramienta funciona bajo el supuesto de que mentir requiere más esfuerzo que la verdad. Según un artículo de 2018 Wired, las estaciones de policía en Salt Lake City y Columbus, Georgia, utilizaron EyeDetect para evaluar a los candidatos para un puesto de trabajo. Converus también le dijo a Wired que McDonald's, Best Western, Sheraton, IHOP y FedEx usaron su software en Panamá y Guatemala de una manera que sería ilegal en los Estados Unidos.

La compañía me proporcionó una declaración citando varios estudios que demuestran que el programa logró un 85% de precisión en la identificación de mentirosos y aquellos que dicen la verdad en muestras de hasta 150 personas. El presidente de la compañía, Todd Mikelsen, dice que el algoritmo de la empresa ha sido entrenado en cientos de miles de entrevistas. Sin embargo, Charles Honts, profesor de psicología de la Universidad de Idaho en Boise, que forma parte del consejo asesor de la compañía, dice que estos hallazgos no prueban que se pueda confiar en EyeDetect durante una entrevista. "El sistema EyeDetect me parece muy interesante, pero no lo uso yo mismo", me dijo. "Creo que todavía tiene una pequeña base de datos, y los datos provienen, en su mayor parte, de un laboratorio". Hasta que la base se expanda y otras personas reproduzcan los resultados, me abstendré de usarla en condiciones reales ".

Los investigadores de la Universidad de Arizona que desarrollaron AVATAR fundaron Discern Science, una compañía privada, para anunciar su propia tecnología de reconocimiento de mentiras. Lanzado el año pasado, Discern vende una máquina de 1,8 metros de altura similar al AVATAR original. Según un artículo en el Financial Times, la compañía "organizó una empresa conjunta con un socio en la industria de la aviación" para entregar estos dispositivos a los aeropuertos. El sistema mide los movimientos de los músculos faciales y la presencia de estrés en la voz para "recopilar discretamente información sobre una persona a una distancia de una conversación normal", tal como está escrito en los materiales publicitarios. Discernir, como Silent Talker y Converus, asegura que la tecnología puede reconocer de manera confiable alrededor del 85% de los mentirosos, pero sus resultados no se han verificado de forma independiente. Al menos uno de los canales de recepción de información utilizados por el aparato,fue repetidamente reconocido como poco confiable. Honts también señaló que el análisis del movimiento muscular facial "prácticamente no tiene evidencia", dijo que "los intentos de reproducir los resultados del experimento tuvieron demasiados fracasos".

Respondiendo preguntas sobre los antecedentes científicos de la máquina de la compañía, la investigadora de Discern Judy Burgun enfatizó que el sistema simplemente proporciona una evaluación, no conclusiones precisas sobre la verdad y las mentiras. Los sistemas como AVATAR y Silent Talker, en sus palabras, "no pueden medir el fraude directamente" y "cualquier persona que anuncie un detector de mentiras que funcione sin ambigüedades es un charlatán". Pero al mismo tiempo, en los materiales de marketing, Discern presenta su herramienta como un detector de mentiras confiable: el sitio web dice que "puede ayudar a revelar planes secretos" y que "se demostró científicamente que sus algoritmos reconocen el fraude más rápido y más confiable que cualquier otra alternativa" .

El Tribunal de Apelación revocó la sentencia de Emmanuel Mervilus en 2011, lo liberó de la prisión y ordenó una revisión del caso; cumplió más de tres años por sentencia. En el segundo juicio en 2013, el jurado discutió el caso solo 40 minutos antes de absolverlo. Si no fuera por el polígrafo y no creyera firmemente en su precisión, nunca podría haber entrado en el muelle. Mervilus condenó a los agentes de policía que lo arrestaron e interrogaron, alegando que violaron su derecho a llevar a cabo procedimientos legales, utilizando una prueba de polígrafo para su condena, cuyos defectos conocían.

E incluso si el uso generalizado de Silent Talker y sistemas similares no lleva a un aumento en el número de condenas de inocentes, como fue el caso de Mervilus, todavía puede crear un nuevo tipo de obstáculo que obliga a las personas a someterse a una "evaluación de confiabilidad" cada vez que quieran alquilar un automóvil o tomar un préstamo.

"En la corte, debe proporcionar evidencia material, como cabello o sangre", dice Wilde. "Pero también tienes derecho a permanecer en silencio y a no testificar contra ti mismo". Mervilus decidió realizar una prueba de polígrafo, lo que sugiere que, como una prueba de ADN, demostraría su inocencia. Y aunque el dispositivo no funcionó correctamente, no fue el automóvil lo que lo envió a prisión. Se trata de la creencia del jurado de que los resultados de la prueba son más confiables que los hechos del caso.

La suposición que subyace al reconocimiento de mentiras por parte de la IA es que las mentiras se pueden ver con las herramientas adecuadas. Los psicólogos todavía no están convencidos de la exactitud de esta afirmación, pero por ahora, una simple fe en su exactitud puede ser suficiente para rechazar candidatos dignos para el trabajo o el crédito, y para evitar que personas inocentes crucen la frontera estatal. La promesa de abrir una ventana al alma de otras personas es demasiado tentadora como para negarla, incluso si nadie está seguro de que esta ventana esté limpia.

"Es como una promesa de leer mentes", dice Wilde. "Obviamente, esto no tiene sentido, pero están vendiendo exactamente eso".

All Articles