Tentar usar a IA em um detector de mentiras só agrava o problema do reconhecimento de fraudes

Um estudo detalhado das tentativas de usar a inteligência artificial no reconhecimento de mentiras




Antes do polígrafo emitir o veredicto "culpado", Emmanuel Mervilus trabalhou para uma empresa de óleo vegetal no porto de Newark, Nova Jersey. Ele ganhava US $ 12 / hora carregando caixas, mas isso não era suficiente para viver. Seu irmão e irmã eram jovens demais para trabalhar, e sua mãe travou uma batalha cara contra o câncer. No entanto, o chefe do porto disse que era o próximo na fila para atualizar para uma posição técnica na qual prometera pagar US $ 25 / hora.

Mervilus ainda estava esperando sua promoção quando, em 19 de outubro de 2006, ele e um amigo pararam para uma refeição no Dunkin 'Donuts, localizado na cidade vizinha de Elizabeth, Nova Jersey. Alguns minutos depois, enquanto caminhavam pela rua, dois policiais se aproximaram e os acusaram de terem roubado um homem que havia sido ameaçado com uma faca há alguns minutos perto da estação ferroviária.

Uma vítima de longe identificou Mervilus e seu amigo. Numa tentativa desesperada de provar sua inocência, Mervilus sugeriu fazer um teste de polígrafo. A polícia concordou, mas pouco antes deste teste, a mãe de Mervilus morreu. Quando a polícia o conectou ao aparelho, ele ficou confuso e ansioso. Ele falhou neste teste, pediu a oportunidade de passar novamente e foi recusado.

Após a alegação de inocência de Mervilus, o caso foi encaminhado ao tribunal. O tenente do teste disse no tribunal que o dispositivo é um "indicador da verdade" confiável. Ele disse que nunca havia visto em sua carreira que "alguém mostrasse sinais de fraude e, depois, descobrisse que estava dizendo a verdade". O júri considerou Mervilus culpado - o que, como aconteceu no tribunal de apelação, aconteceu por causa da fé excessiva no polígrafo. O juiz concedeu-lhe 11 anos de prisão.

A crença de que o engano pode ser reconhecido pela análise das características do corpo humano está profundamente enraizada na vida moderna. Apesar de muita pesquisa questionar a confiabilidade do polígrafo, mais de 2,5 milhões de verificações são realizadas nos Estados Unidos todos os anos, e a indústria de polígrafos é estimada em US $ 2 bilhões.As agências do governo federal dos EUA, incluindo o Departamento de Justiça, o Departamento de Defesa e a CIA, usam este dispositivo para avaliação de candidatos a trabalho. Um relatório do Departamento de Justiça de 2007 indica que mais de três quartos das delegacias de polícia e escritórios do xerife usam detectores de mentiras para recrutar funcionários.

No entanto, esses dispositivos ainda são muito lentos e desajeitados para serem usados ​​nas fronteiras, nos aeroportos ou em grandes grupos de pessoas. Como resultado, uma nova geração de detectores de mentiras baseados em IA surgiu na última década. Seus apoiadores afirmam que trabalham com mais rapidez e precisão do que os polígrafos.

De fato, a justificativa psicológica para esses novos sistemas de IA é ainda mais precária do que os estudos subjacentes ao polígrafo. As evidências de que os resultados que eles produzem podem ser confiáveis ​​são escassas. No entanto, seu brilho externo, dado pelo uso da IA, leva ao aparecimento desses sistemas em locais onde o polígrafo não podia penetrar mais cedo: na fronteira, nas entrevistas, nos procedimentos para avaliar a credibilidade e investigar fraudes de seguros. Empresas e governos começam a confiar neles ao tomar decisões sobre a confiabilidade de clientes, funcionários, cidadãos, imigrantes e turistas internacionais. Mas e se uma mentira for uma peça muito complicada para ser detectada com segurança por qualquer máquina, não importa quão avançados sejam os algoritmos?

* * *

Inquisidores da China antiga colocam arroz na boca de seus suspeitos para ver se a saliva foi liberada deles. " Roman atos ", uma antologia de histórias moralistas medievais, conta a história de um soldado que ordenou que seu funcionário medisse o pulso de sua esposa, para determinar se isso era fiel a ele.



Depois que os Estados Unidos se envolveram na Primeira Guerra Mundial, William Marston, pesquisador de Harvard, foi o primeiro a usar máquinas de medir pressão arterial na tentativa de detectar fraudes. Alguns anos depois, inspirado no trabalho de Marston, John Augustus Larson, um policial que recentemente recebeu seu doutorado em fisiologia pela Universidade da Califórnia em Berkeley, desenvolveu uma máquina chamada "psicógrafo cardio-pneumo", que fornecia dados contínuos sobre a pressão sanguínea, a pulsação e a velocidade do sujeito. respiração. Larson argumentou que esses testemunhos traem muito melhor o engano do que apenas uma pressão.

Inicialmente, Larson usou o carro para investigar o roubo em um dormitório feminino em Berkeley, e por um ano ele foi usado em San Francisco para condenar um homem acusado de matar um padre. Na década de 1930, um dos protegidos de Larson já vendia versões portáteis do dispositivo para os departamentos de polícia de todo o país, adicionando um sensor de reação galvânica da pele - quanto mais o sujeito suava, melhor a pele conduzia a corrente. Na década de 1970, milhões de trabalhadores do setor privado eram regularmente testados por polígrafos, conforme orientação de seus empregadores.

A maioria dos polígrafos modernos usa o mesmo esquema básico sugerido por Larson: o investigador faz várias perguntas para medir o estado fisiológico normal do sujeito, observando como a máquina traduz essas medidas em linhas ondulatórias em papel ou tela. O investigador então procura surtos ou quedas repentinas nesses níveis quando o sujeito responde a perguntas relacionadas a crimes ou sentimentos.

No entanto, fisiologistas e neurocientistas criticaram o polígrafo quase desde o momento em que Larson descobriu sua invenção ao público. Se alguns mentirosos podem estar sofrendo uma alteração na freqüência cardíaca ou pressão arterial, há muito pouca evidência de que essas alterações estejam consistentemente correlacionadas com o engano. Muitas pessoas inocentes começam a ficar nervosas durante o interrogatório, e mentirosos experientes podem suprimir ou causar mudanças em seus corpos que lhes permitem enganar o teste. Um polígrafo também pode ser enganado por morder a língua , pisando em um cravo, ou pensamento sobre a maioria dos medos terríveis. Sempre existe o risco de o dispositivo receber testemunhos conflitantes, mesmo sob as condições controladas de um experimento de laboratório, e na vida real eles são ainda menos confiáveis: uma vez que os criminosos que trapacearam no teste quase nunca admitem sua culpa à polícia, e os suspeitos inocentes geralmente dão falso testemunho, falhando testes, é impossível dizer o desempenho dessas máquinas.


O inventor americano Leonard Keeler (1903-1949), protegido pelo inventor do polígrafo John Larson, testou Bruno Hauptmann, que foi preso, acusado e executado por seqüestrar Charles August Lindberg Jr. O hauptman até o fim de sua vida declarou sua inocência.

Por causa dessas limitações, os testes de polígrafo não eram aceitos na maioria dos tribunais americanos por um longo tempo, a menos que ambas as partes concordassem em anexá-los ao caso. A lei federal proíbe empresas privadas de testar polígrafos de funcionários desde 1988 (com exceção de trabalhos particularmente sensíveis, como guardas armados ou distribuidores de drogas, bem como suspeitas de roubo ou fraude). A American Psychological Association adverte que "a maioria dos psicólogos tendem a acreditar que há muito pouca evidência da capacidade de um polígrafo de identificar uma mentira". Em um relatório de 2003 da Academia Nacional de Ciências, após um estudo do governo sobre essa questão, foi feita uma conclusão que logo se tornou amplamente conhecida: uma máquina identifica mentirosos "muito mais frequentemente do que por acaso, mas muito pior do que perfeitamente".O principal autor do relatório naquele momento disse que "a segurança nacional é algo muito importante para se dar a um instrumento tão rude".

Mas talvez essa ferramenta possa ser menos rude. Uma promessa semelhante é feita por um número crescente de empresas que tentam entusiasticamente vender a tecnologia de reconhecimento de mentiras a governos e organizações comerciais. Eles argumentam que, talvez, certos padrões complexos de características comportamentais possam dizer que uma pessoa está mentindo, muito mais confiável do que apenas um pulso acelerado ou pressão arterial. E talvez um algoritmo sofisticado possa reconhecer esses padrões.

De 1969 a 1981, o serial killer, apelidado de Yorkshire Ripper, caçou meninas no norte da Inglaterra, matou pelo menos 13 delas e tentou matar pelo menos mais sete. A polícia o interrogou e o libertou nove vezes enquanto ele continuava sua jornada sangrenta. Sua última vítima foi Jacqueline Hill, uma estudante de 20 anos da Universidade de Leeds, morta em novembro de 1980. Alguns meses depois, a polícia finalmente o pegou se preparando para matar uma prostituta em Sheffield.

Quando Janet Rothwell chegou à Universidade de Leeds, no outono de 1980, ela morava em um dormitório no quarto ao lado daquele em que Hill morava. Killing Hill a assustou.

"Ela entrou no ônibus na biblioteca da universidade quase ao mesmo tempo que eu", disse Rothwell, "e foi morta depois que saiu do ônibus". Mais tarde, Rothwell descobriu quanto tempo levou para capturar o assassino. "Eu pensei", ela lembrou, "o computador poderia encontrar alguma discrepância de comportamento para informar a polícia?"

Como resultado, Rothwell estudou na Universidade de Manchester Metropolitan (UMM) no final dos anos 90. Lá, ela conheceu Zuhair Bandar, um palestrante britânico de descendência iraquiana que trabalhou no Departamento de Ciência da Computação. Pouco antes disso, Bandar teve uma idéia - depois que uma empresa de publicidade pediu que ele criasse um dispositivo rudimentar para medir o interesse dos clientes pelos produtos que eles veem na tela.


Uma foto tirada pelo FBI de uma mulher submetida a um teste de polígrafo

“Eles queriam entregar um dispositivo portátil aos consumidores”, disse Bandar, “para que, quando o consumidor gostasse de algo, ele pressionasse 1, e se não, para 2. Pensei - por que esses dispositivos devem ser fabricados se já tiverem expressões no rosto? " Bandar sugeriu que Rothwell permanecesse na UMM após receber seu diploma para trabalhar em seu doutorado, ajudando-o a desenvolver um software capaz de analisar rostos para extrair informações. Eles decidiram que trapacear não era mais difícil de reconhecer do que alegria ou raiva. Qualquer uma dessas emoções deve criar algum tipo de "inconsistência" - padrões de comportamento, verbais ou não verbais, que o computador possa reconhecer.

Rothwell treinou a rede neural no início dos anos 2000 para rastrear atividades como piscar ou corar e, em seguida, enviou dezenas de vídeos ao computador, onde as pessoas respondiam ao mesmo conjunto de perguntas de maneira honesta e desonesta. Para determinar as características comuns dos mentirosos, o computador estudou os detalhes do movimento das pessoas, seus relacionamentos e os relacionamentos entre esses relacionamentos, dando um tipo de "teoria" que seria muito difícil de expressar na linguagem normal. Tendo estudado dessa maneira, o sistema poderia usar o conhecimento adquirido para classificar novos assuntos nas categorias “verdadeiro” e “enganador”, analisando as mudanças quadro a quadro nas expressões de seus rostos.

Um estudo de 2006 examinou a viabilidade desse sistema, chamado de " Silent Speaker"(Silent Talker), para reconhecer uma mentira nas respostas do sujeito do teste. Ela não foi capaz de alcançar precisão de mais de 80% - nem no momento em que Rothwell trabalhou com ela, nem mais tarde, quando a equipe de pesquisa tentou melhorá-la. Além disso, Rothwell me disse que o sistema em geral deixou de funcionar normalmente se o sujeito usava óculos, observando que "as condições de iluminação eram as mesmas e todos os interrogatórios estavam relacionados a roubo encenado". Mas Rothwell lembra que mesmo nos estágios iniciais do projeto Bandar "era apaixonado pela idéia de lançar um produto comercial"; Certa vez, ela e outro colega forneceram a ela um vídeo mostrando uma mulher suspeita de trair o marido e pediram que ela conduzisse o vídeo pelo Silent Talker para análise - assim como no livro "Roman Acts".

Rothwell tinha dúvidas sobre isso. "Estava claro para mim que, se esse software funcionasse, poderia, em princípio, ser usado em detrimento", disse ela. "Eu não acho que qualquer sistema possa ter quase 100% de precisão e, se o sistema estiver errado, pode causar consequências catastróficas para relacionamentos e situações da vida." Em 2006, ela deixou a universidade, estudou no audiologista, conseguiu um emprego em um hospital na ilha de Jersey, onde vive até hoje.

Em 2003, a UMM publicou um comunicado de imprensa promovendo a tecnologia como uma nova invenção que substituirá o polígrafo. "Fiquei chocado", disse Rothwell, "parecia-me cedo demais para falar sobre isso".

O governo dos EUA tentou repetidamente combater a tecnologia de reconhecimento de mentiras nos primeiros anos após o 11 de setembro; O Departamento de Segurança Interna dos EUA (DHS), o Departamento de Defesa dos EUA (DoD) e a Fundação Nacional de Ciência dos EUA gastaram milhões de dólares em cada estudo. Essas agências financiaram a criação de uma máquina AVATAR na Universidade do Arizona. O AVATAR, que analisou expressões faciais, linguagem corporal e vozes das pessoas, atribuindo-lhes "pontos de confiança", foi testado nos aeroportos. Em Israel, o DHS ajudou o WeCU a iniciar o dinheiro [“nos vemos”, ou “nos vemos” / aprox. transl.], que vendia uma máquina para avaliar pessoas, capaz, de acordo com um artigo de 2010 na revista Fast Company, de "causar reações fisiológicas em pessoas que escondiam algo". Hoje, esta empresa já faliu.

Bandar começou a tentar trazer a tecnologia ao mercado. Com seus dois alunos, Jim O'Shea e Keely Crocket, ele transformou o Silent Talker em uma empresa e começou a procurar clientes por sua tecnologia de perfis psicológicos, tanto em delegacias de polícia quanto em empresas privadas. O Silent Talker foi um dos primeiros detectores de mentira baseados em IA a entrar no mercado. Segundo a empresa, no ano passado a tecnologia "criada com base no Silent Talker" foi usada como parte da iniciativa iBorderCtrl, financiada pela União Europeia, na qual esse sistema foi testado em voluntários nas fronteiras da Grécia, Hungria e Letônia. Bandar diz que atualmente a empresa está negociando a venda de tecnologia para escritórios de advocacia, bancos, seguradoras, sobre a possibilidade de usar esses testes durante entrevistas e verificar fraudes.

Bandar e O'Shea, ao longo dos anos, adaptaram o algoritmo básico para uso em várias versões. Eles tentaram anunciar nas delegacias de Manchester e Liverpool. "Nós nos comunicamos informalmente com pessoas de uma posição muito alta", disse a empresa à revista The Engineer British em 2003, observando que estava tentando "testar a tecnologia em entrevistas reais". De um relatório publicado por O'Shea em seu site em 2013, segue-se que o Silent Talker "pode ​​ser usado para proteger nossos soldados em operações estrangeiras de ataques internos" (significando ataques realizados por soldados afegãos em uniforme contra ex-aliados).

A equipe também publicou resultados experimentais demonstrando como o Silent Talker pode ser usado para reconhecer não apenas os motivos ocultos, mas também a compreensão de algo. Em um estudo de 2012, que mostrou como o Silent Talker funciona “em campo”, a equipe, juntamente com uma instituição médica não governamental da Tanzânia, registrou expressões faciais de 80 mulheres que receberam treinamento on-line sobre tratamento da AIDS e uso de preservativos. A idéia era determinar se os pacientes entendem como serão tratados - como foi escrito nas notas do estudo, “avaliar a compreensão dos participantes enquanto fornece informações a eles ainda é uma área de preocupação”. Quando a equipe fez uma comparação cruzada das pontuações da IA ​​de quanto as mulheres entendiam o material com os pontos que obtiveram nos exames breves, descobriramque a IA previu com 80% de precisão quais dos sujeitos passariam no exame e quais seriam reprovados.

O Silent Talker foi incluído na iniciativa iBorderCtrl graças ao experimento na Tanzânia. Em 2015, Athos Antoniades, um dos organizadores do consórcio nascente, enviou um e-mail a O'Shea perguntando se a equipe do Silent Talker gostaria de se juntar ao grupo de empresas e às forças policiais que estão enviando solicitações de subsídios da UE. O aumento constante do tráfego nas estradas sobrecarregou os guardas de fronteira da União Europeia, como resultado do qual o sindicato ofereceu 4,5 milhões de euros a qualquer organização capaz de "organizar uma passagem de fronteira mais eficiente e segura, contribuindo para a prevenção de crimes e terrorismo". Antoniades pensou que Silent Talker poderia desempenhar um papel fundamental nisso.

Quando o projeto anunciou os testes públicos em outubro de 2018, a Comissão Europeia começou imediatamente a promover ativamente a "história de sucesso" da "abordagem única" do sistema para detectar fraudes, explicando que "analisa os microgestos dos viajantes para saber qual dos entrevistados está mentindo" . O algoritmo treinado em Manchester era "garantir uma passagem de fronteira mais eficiente e segura" e "contribuir para a prevenção do crime e do terrorismo".

O'Shea me disse que o principal algoritmo do programa pode ser usado em muitas outras condições - na publicidade, antes de pagar seguro, na contratação, na avaliação dos funcionários. Foi difícil para mim compartilhar sua crença sincera na sabedoria desse algoritmo, mas enquanto conversávamos por telefone com ele, o Silent Talker já era usado para um exame voluntário daqueles que desejavam entrar na União Europeia; A empresa lançou este projeto como uma empresa comercial em janeiro de 2019. Então eu decidi ir para Manchester para ver tudo sozinho.

* * *

Os escritórios do Silent Talker estão localizados a cerca de um quilômetro e meio da UMM, onde O'Shea agora trabalha como professor sênior. Ele assumiu as responsabilidades diárias do desenvolvimento de tecnologia. A empresa está localizada em um pequeno centro de escritórios localizado em uma área residencial, ao lado de um restaurante de kebab e em frente ao campo de futebol. No centro do escritório, o escritório do Silent Talker consiste em uma sala única com vários computadores, mesas com pastas e explicando pôsteres dos anos 2000 que informam como essa tecnologia funciona.

Quando fui a eles em setembro, conversei com O'Shea e Bandar na sala de reuniões. O'Shea parecia severo, mas um pouco despenteado, era careca, com exceção de alguns tufos de cabelo e barba no estilo de Van Dyck. Ele iniciou a conversa exigindo que não tocássemos no projeto iBorderCtrl e mais tarde considerou seus críticos desinformados. Ele descreveu as habilidades da plataforma de IA do sistema de forma detalhada e ornamentada, às vezes citando o pioneiro da ciência da computação Alan Turing ou o filósofo da linguagem John Searle.

"Tanto carros quanto pessoas têm suas próprias especulações - crenças, desejos e aspirações associadas a objetos e estados de coisas no mundo", disse ele, defendendo a dependência do sistema no algoritmo. "Portanto, o desenvolvimento de aplicativos complexos requer consideração das idéias e intenções de ambas as partes."

O'Shea demonstrou o sistema, permitindo que ela analisasse um vídeo com uma pessoa respondendo perguntas sobre se ele roubou US $ 50 da caixa. O programa impôs um retângulo amarelo no rosto da pessoa e dois retângulos menores nos olhos. Quando ele falou, o ponteiro no canto da tela passou de verde para vermelho quando suas respostas eram falsas e depois voltou à posição laranja do meio quando ele se calou. No final da entrevista, o programa emitiu um gráfico mostrando a distribuição da probabilidade de fraude ao longo do tempo. Teoricamente, o gráfico mostrava onde ele começou e acabou mentindo.

O'Shea diz que seu sistema pode funcionar em um laptop comum, e os usuários pagam US $ 10 por minuto pelo vídeo que está sendo analisado. O'Shea me disse que o software pré-processa o vídeo localmente, envia dados criptografados para o servidor, para posterior análise e depois envia os resultados de volta: o usuário vê um gráfico da probabilidade de fraude sobreposta ao vídeo.

De acordo com O'Shea, o sistema monitora cerca de 40 "canais" físicos no corpo do sujeito - tudo, desde velocidade intermitente até ângulo da cabeça. Cada nova pessoa é comparada com uma "teoria" do engano, desenvolvida com base na visualização de dados de treinamento, que inclui registros de mentirosos e pessoas que dizem a verdade. Ao medir expressões faciais e mudanças de postura várias vezes por segundo, o sistema procura padrões nesses movimentos que coincidem com os comuns de todos os mentirosos a partir dos dados de treinamento. Estes não são padrões tão simples quanto olhar para o teto ou inclinar a cabeça para a esquerda. É mais como padrões de leis, relacionamentos multifacetados entre diferentes movimentos que são muito complexos para serem rastreados por uma pessoa é uma tarefa típica do aprendizado de máquina.

A tarefa da IA ​​é determinar quais padrões de movimento podem ser associados ao engano. "Os psicólogos costumam falar sobre a necessidade de um modelo de como o sistema funciona", disse-me O'Shea. "Mas não temos um modelo de trabalho e não precisamos dele." Damos à AI a oportunidade de resolver o problema ". No entanto, ele também diz que as evidências científicas sobre a psicologia do engano confirmam a importância dos "canais" no rosto. Em um artigo de 2018, descrevendo o Silent Talker, seus criadores dizem que seu software "pressupõe que certos estados de consciência associados ao comportamento do enganador, durante o engano, controlem o comportamento não verbal do entrevistado". Exemplos desse comportamento incluem "carga cognitiva", energia mental adicional que supostamente é gasta em mentiras e "deleite da decepção", o prazer que uma pessoa supostamente recebe,mentindo com sucesso.


Paul Ekman, cuja teoria das "microexpressões" é muito controversa, aconselhou muitas agências governamentais dos EUA

, mas Ewaut Meyer, professor de psicologia da Universidade de Maastricht, na Holanda, diz que a base teórica para afirmações sobre a universalidade desses padrões de comportamento pode ser chamada de precária. A idéia de que uma pessoa pode detectar sinais característicos de comportamento vem do trabalho de Paul Ekman, um psicólogo americano que nos anos 80 avançou a famosa teoria das "microexpressões", movimentos não intencionais dos músculos faciais, pequenos demais para serem controlados. Graças à pesquisa, Ekman se tornou o autor e protótipo mais vendido do tolo programa de televisão "Lie to Me". Ele assessorou muitas agências do governo dos EUA, incluindo DHS e DARPA. Sob o pretexto de segurança nacional, ele mantém em segredo os dados da pesquisa. Por isso, há um debate constante sobre se essas microexpressões têm algum significado.

O Silent Talker AI rastreia vários movimentos dos músculos faciais, não apenas as microexpressões de Ekman. "Desmontamos essas dicas de alto nível, compondo nosso conjunto de gestos microscópicos e treinamos a IA para recombiná-las em padrões característicos significativos", escreveu-nos um representante da empresa. O'Shea diz que isso permite ao sistema detectar comportamentos relacionados a truques, mesmo quando o sujeito simplesmente olha em volta ou muda de posição enquanto está sentado em uma cadeira.

"Muito depende se você tem uma pergunta tecnológica ou psicológica", diz Meyer, alertando que O'Shea e sua equipe podem ter se voltado para a tecnologia em busca de respostas para questões psicológicas relacionadas à natureza do engano. “A IA pode ser melhor do que as pessoas para detectar expressões faciais, mas mesmo assim, isso não significa que se possa tirar conclusões delas sobre se uma pessoa está mentindo. Mentir é uma construção psicológica. ” Não há consenso sobre a questão de quais expressões estão associadas a uma mentira, acrescenta Meyer: não há consenso sobre se existem ou não tais expressões. A empresa escreveu em um e-mail que essa crítica "não tem nada a ver" com Silent Talker e que "as estatísticas usadas não são adequadas para este caso".


O programa de TV "Lie to Me" foi baseado, em particular, na teoria das microexpressões de Ekman.

Além disso, Meyer ressalta que o algoritmo ainda será inútil nas fronteiras ou em entrevistas se não for treinado no mesmo conjunto de dados diverso que avaliará na realidade. Estudos sugerem que os algoritmos de reconhecimento facial reconhecem pior as minorias raciais se forem treinados nos rostos das pessoas brancas - o próprio O'Shea reconhece isso. Um representante da Silent Talker escreveu para nós: “Fizemos muitas experiências com um tamanho de amostra menor. O número deles chega a centenas. Alguns deles estão relacionados à pesquisa científica e serão publicados, outros - comerciais e confidenciais. ”

No entanto, todos os estudos publicados que confirmam a precisão do Silent Talker são baseados em conjuntos de dados pequenos e uniformes. No trabalho de 2018, por exemplo, apenas 32 pessoas foram usadas para treinamento, entre as quais havia o dobro de homens que mulheres, e apenas 10 deles eram asiáticos ou árabes, e não havia negros ou hispânicos. E embora o programa tenha "configurações" para analisar homens e mulheres, O'Shea disse que não tinha certeza se ela precisava de configurações para raça ou idade.

* * *

Após o anúncio do piloto da iniciativa iBorderCtrl, ativistas e políticos denunciaram o programa como uma tentativa sem precedentes de levar a vigilância universal ao nível de Orwell. Sophia Int Weld, membro holandês do Parlamento Europeu e líder dos democratas de centro-esquerda 69, disse em uma carta à Comissão Europeia que o sistema Silent Talker poderia violar os "direitos fundamentais de muitos viajantes que cruzam a fronteira" e que organizações como a Privacy International o condenaram como " parte de uma tendência mais ampla de usar sistemas automáticos opacos e muitas vezes inadequados para julgar, avaliar e classificar pessoas ". O consórcio iBorderCtrl claramente não esperava encontrar essa resistência: se inicialmente a Comissão Europeia declarasse que o iBorderCtrl "desenvolverá um sistema para acelerar as passagens de fronteira", agora o representante dizque o programa era um projeto de pesquisa puramente teórico. Antoniades, em 2018, disse ao jornal holandês que o sistema de reconhecimento de mentiras "pode ​​não ser criado no final", mas, por enquanto, o Silent Talker continua a anunciar sua presença na iniciativa iBorderCtrl em seu site.

O Silent Talker é a "nova versão da antiga fraude", disse Vera Wilde, uma estudiosa americana e ativista da privacidade com sede em Berlim que ajudou a lançar a campanha contra o iBorderCtrl. "De certa forma, é a mesma fraude, mas usando uma base científica ainda pior." Ao verificar um polígrafo, o investigador monitora eventos fisiológicos que se acredita correlacionarem com a falsidade; no caso da IA, o investigador permite que o computador detecte a correlação em si. "Quando O'Shea fala sobre sua falta de teoria, ele está enganado", diz ela. "Ele tem uma teoria, apenas ruim."

Mas não importa o quanto pessoas como Wilde criticem essa idéia, o sonho de um detector de mentiras ideal não quer morrer - especialmente quando é embelezado com IA. Depois que o Departamento de Segurança Interna dos EUA gastou milhões de dólares pesquisando mentiras em universidades nos anos 2000, ele tentou criar sua própria versão da tecnologia que analisa o comportamento. Seu sistema, chamado Future Attribute Screening Technology (FAST) [a tecnologia do futuro para rastrear propriedades características], visa encontrar tendências criminais de uma pessoa com base nos movimentos de seus olhos e corpo (em uma versão anterior da tecnologia, o sujeito precisava ficar no controle do Wii Balance Boardpara rastrear alterações de postura). Três pesquisadores que falaram secretamente sobre projetos secretos dizem que o programa nunca decolou - havia muitas contradições no departamento sobre o uso da microexpressão de Ekman como base para a análise. Em 2011, o programa foi cortado.

Apesar do fracasso do FAST, o DHS não perde o interesse nas tecnologias de reconhecimento de mentiras. No ano passado, ela assinou um contrato de US $ 110.000 com uma empresa de recrutamento para treinar seus funcionários a "reconhecer mentiras e reações" por meio de "análise comportamental". Outros ministérios e departamentos continuam a apoiar soluções baseadas em IA. O laboratório de pesquisa militar (ARL) tem um contrato com a Universidade Rutgers para criar um programa de IA para reconhecer mentiras no jogo do salão da máfia, que faz parte de um projeto geral para criar “algo como o Google Glass que pode nos alertar sobre alguns batedores de carteira em mercado lotado ”, escreveu Purush Iyer, gerente de projetos da ARL. A empresa israelense Nemesysco, que vende software de análise de voz usando IA, me contouque sua tecnologia está sendo usada pela polícia da cidade de Nova York e pelo xerife do centro-oeste para interrogar suspeitos, bem como por agências de cobrança para medir as emoções dos devedores durante telefonemas.

No entanto, o futuro imediato e potencialmente perigoso dos detectores de mentira de IA parece ser seu uso privado. Os políticos que apóiam iniciativas como o iBorderCtrl precisam responder aos eleitores, e a maioria dos detectores de mentiras baseados em IA pode ser proibida de ser usada em tribunal pelos mesmos motivos que um polígrafo. Mas as empresas privadas têm menos restrições ao uso dessa tecnologia para avaliar candidatos a emprego e clientes em potencial. O Silent Talker é uma das várias empresas que afirmam ter uma maneira mais objetiva de reconhecer comportamentos anormais ou enganosos, oferecendo aos clientes um método de "análise de risco" que vai além da classificação de crédito e do perfil de mídia social.

O Neuro-ID de Montana está realizando uma análise de IA dos movimentos do mouse e do teclado para ajudar bancos e companhias de seguros a avaliar o risco de fraude, atribuindo "pontos de confiança" aos solicitantes de empréstimos que variam de 1 a 100. No vídeo, a empresa me mostrou , o cliente preenche um pedido de empréstimo on-line e passa um tempo preenchendo um campo referente à renda de uma família enquanto move o mouse - e tudo isso o sistema leva em consideração para calcular a pontuação de confiabilidade. O sistema é baseado em estudos conduzidos pelos cientistas fundadores da empresa, alegando que eles mostraram uma correlação entre os movimentos do mouse e as explosões emocionais. Eles descreveram que "uma tentativa de trapaça pode aumentar a distância normalizada do movimento do mouse, reduzir a velocidade do movimento, aumentar o tempo de resposta e levar a um aumento no número de cliques".No entanto, de acordo com os testes internos da própria empresa, fica claro que o software produz muitos resultados falso-positivos: em um estudo no qual a Neuro-ID processou 20.000 aplicativos no site da loja online, menos da metade dos candidatos que receberam as classificações mais baixas (até 10) , acabou sendo fraudadores, e apenas 10% das pessoas que obtiveram classificações de 20 a 30 estavam associadas ao risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".que o software produz muitos resultados falso-positivos: em um estudo no qual a Neuro-ID processou 20.000 aplicativos no site da loja on-line, menos da metade dos candidatos que receberam as classificações mais baixas (até 10) se mostraram fraudadores e apenas 10% pessoas com notas de 20 a 30 estavam em risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".que o software produz muitos resultados falso-positivos: em um estudo no qual a Neuro-ID processou 20.000 aplicativos no site da loja on-line, menos da metade dos candidatos que receberam as classificações mais baixas (até 10) se mostraram fraudadores e apenas 10% pessoas com notas de 20 a 30 estavam em risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".em que a Neuro-ID processou 20.000 aplicativos no site da loja on-line, menos da metade dos candidatos que receberam as classificações mais baixas (até 10) acabou sendo golpistas, e apenas 10% das pessoas que receberam classificações de 20 a 30 estavam associadas ao risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".em que a Neuro-ID processou 20.000 aplicativos no site da loja on-line, menos da metade dos candidatos que receberam as classificações mais baixas (até 10) acabou sendo golpistas, e apenas 10% das pessoas que receberam classificações de 20 a 30 estavam associadas ao risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".pontuações de 20 a 30 foram associadas ao risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".pontuações de 20 a 30 foram associadas ao risco de fraude. A empresa reconhece que o software observa como candidatos a emprego suspeitos que podem ser inocentes e possibilita o uso dessas informações a seu critério. Um representante da empresa me disse que “não há análise comportamental 100% precisa. "Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores"."Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores"."Recomendamos que você use esses resultados em conjunto com outras informações sobre os candidatos para tomar melhores decisões e capturar com mais eficácia os fraudadores".

A startup Converus de Utah vende um software chamado EyeDetect, que mede a contração dos alunos durante as entrevistas para detectar a carga cognitiva. Como o Silent Talker, essa ferramenta trabalha com a suposição de que mentir exige mais esforço do que verdade. De acordo com um artigo da Wired de 2018, as delegacias de polícia de Salt Lake City e Columbus, na Geórgia, usaram o EyeDetect para avaliar candidatos a emprego. Converus também disse à Wired que o McDonald's, Best Western, Sheraton, IHOP e FedEx usavam seu software no Panamá e na Guatemala de uma maneira que seria ilegal nos EUA.

A empresa me forneceu uma declaração citando vários estudos demonstrando que o programa alcançou 85% de precisão na identificação de mentirosos e daqueles que estão dizendo a verdade em amostras de até 150 pessoas. O presidente da empresa, Todd Mikelsen, diz que o algoritmo da empresa foi treinado em centenas de milhares de entrevistas. No entanto, Charles Honts, professor de psicologia da Universidade de Idaho em Boise, que atua no conselho consultivo da empresa, disse que essas descobertas não provam que o EyeDetect possa ser utilizado durante uma entrevista. "Acho o sistema EyeDetect muito interessante, mas eu não o uso", ele me disse. "Eu acho que ela ainda tem um pequeno banco de dados e os dados vêm, na maioria das vezes, de um laboratório". Até que a base seja expandida e outras pessoas reproduzam os resultados, eu evitaria usá-lo em condições reais. ”

Pesquisadores da Universidade do Arizona que desenvolveram o AVATAR fundaram a Discern Science, uma empresa de capital fechado, para anunciar sua própria tecnologia de reconhecimento de mentiras. Lançada no ano passado, a Discern vende uma máquina de 1,8 metros de altura semelhante à do AVATAR original. Segundo um artigo do Financial Times, a empresa "organizou uma joint venture com um parceiro no setor de aviação" para entregar esses dispositivos aos aeroportos. O sistema mede os movimentos dos músculos faciais e a presença de estresse na voz para "coletar discretamente informações sobre uma pessoa à distância de uma conversa normal", conforme escrito em materiais publicitários. O Discern, como Silent Talker e Converus, garante que a tecnologia possa reconhecer com segurança cerca de 85% dos mentirosos, mas seus resultados não foram verificados independentemente. Pelo menos um dos canais de recebimento de informações usados ​​pelo aparelho,foi repetidamente reconhecido como não confiável. Honts também observou que a análise do movimento dos músculos faciais "praticamente não tem evidências" - ele disse que "as tentativas de reproduzir os resultados do experimento tiveram muitas falhas".

Respondendo perguntas sobre o histórico científico da máquina da empresa, a pesquisadora da Discern, Judy Burgun, enfatizou que o sistema simplesmente fornece uma avaliação, não conclusões precisas sobre a verdade e as mentiras. Sistemas como AVATAR e Silent Talker, em suas palavras, "não podem medir fraudes diretamente" e "qualquer pessoa que anuncia um detector de mentiras que trabalha sem ambiguidade é um charlatão". Mas, ao mesmo tempo, nos materiais de marketing, o Discern apresenta sua ferramenta como um detector de mentiras confiável: o site afirma que "pode ​​ajudar a revelar planos secretos" e que "foi cientificamente comprovado que seus algoritmos reconhecem fraudes de maneira mais rápida e confiável do que qualquer alternativa" .

O Tribunal de Apelação anulou a sentença de Emmanuel Mervilus em 2011, libertando-o da prisão e ordenando uma revisão do caso; ele serviu mais de três anos por sentença. No segundo julgamento em 2013, o júri discutiu o caso apenas 40 minutos antes de absolvê-lo. Se não fosse o polígrafo e não houvesse uma crença firme em sua precisão, ele nunca poderia ter entrado no banco dos réus. Mervilus condenou os policiais que o prenderam e o interrogaram, alegando que eles violavam seu direito de realizar procedimentos legais, usando um teste de polígrafo para sua condenação, cujas falhas eles conheciam.

E mesmo que o uso generalizado do Silent Talker e sistemas similares não leve a um aumento no número de condenações de inocentes, como foi o caso de Mervilus, ele ainda pode criar um novo tipo de obstáculo que força as pessoas a passarem por uma "avaliação de confiabilidade" toda vez que desejam alugar um carro ou Tomar um empréstimo.

"No tribunal, você precisa fornecer provas materiais, como cabelos ou sangue", diz Wilde. "Mas você também tem o direito de permanecer calado e não testemunhar contra si mesmo." Mervilus decidiu fazer um teste de polígrafo, sugerindo que, como um teste de DNA, ele demonstraria sua inocência. E embora o dispositivo não funcionasse corretamente, não foi o carro que o mandou para a prisão. A crença do júri é que os resultados dos testes são mais confiáveis ​​do que os fatos do caso.

A suposição subjacente ao reconhecimento de mentiras por IA é que as mentiras podem ser vistas com as ferramentas certas. Os psicólogos ainda não estão convencidos da correção dessa afirmação, mas, por enquanto, uma simples fé em sua correção pode ser suficiente para rejeitar candidatos dignos por trabalho ou crédito e impedir que pessoas inocentes cruzem a fronteira do estado. A promessa de abrir uma janela na alma de outras pessoas é tentadora demais para ser negada, mesmo que ninguém tenha certeza de que essa janela está limpa.

"É como uma promessa de ler mentes", diz Wilde. "Obviamente, isso é um absurdo, mas eles estão vendendo exatamente isso."

All Articles