Departamento de Defesa dos EUA: Ética para IA e veículos não tripulados

imagem

Ética A IA é um tópico importante e relevante nos dias de hoje. E está certo.

Com o auge dos sistemas de IA e sua ocorrência muito difundida, há preocupações razoáveis ​​de que esses sistemas de computadores sejam simplesmente lançados neste mundo sem entender as possíveis conseqüências para a sociedade.

Existe uma preocupação séria de que os novos sistemas de inteligência artificial tenham preconceitos embutidos e sejam propensos a ações tóxicas em termos de ética e sociedade.

Quando se trata da ética da inteligência artificial, argumento que há pelo menos dois aspectos principais (ou regras):

  1. O comportamento do sistema de IA deve ser aceitável para a sociedade
  2. Os projetistas de sistemas de IA e os próprios sistemas devem aplicar a regra 1.

Talvez a essência da primeira regra seja óbvia - o significado da ética da IA ​​é que o comportamento desses sistemas deve obedecer aos padrões éticos da sociedade.

Será mostrado abaixo que a conformidade com a primeira regra é mais complicada do que parece.

A importância da regra 2 é esclarecer que as partes responsáveis ​​por garantir a total conformidade com a ética da IA ​​são compostas por pessoas que projetam, constroem e distribuem esses sistemas.

Se isso lhe parecer óbvio, não se apresse em fazer julgamentos com base no "senso comum".

Em torno dos sistemas de IA, existe um tipo de aura, como se eles fossem autônomos e capazes de autodeterminação. Assim, quando o sistema de IA comete uma espécie de manifestação de preconceito racial , alguns cometem um erro lógico dizendo que a IA o fez, sem culpar aqueles que criaram e implementaram esse sistema.

Alguns desenvolvedores e fabricantes desses sistemas certamente preferem que você não olhe na direção deles.quando o sistema de IA faz algo errado.

Como resultado, aqueles que têm verdadeira responsabilidade podem fazer uma cara de surpresa e astuciosamente se afastar de seus deveres , dizendo que a AI é a culpada. Essas pessoas vão se comportar como se estivessem simplesmente assistindo o acidente de trem, mesmo que tenham sido eles quem os colocaram nos trilhos e o iniciaram sem nenhum controle ou verificação.

Certamente, alguns defenderão seu sistema que cometeu um erro. Dirão que tentaram evitar todas as falhas, mas, caramba, algo estava faltando . De certo modo, essas pessoas tentarão se tornar "vítimas", contrastando com as que sofreram de IA.

Não se deixe enganar por isso.

De fato, por favor, não se deixe enganar por isso.

Em suma, a segunda regra é tão importante quanto a primeira.

Sem responsabilizar as pessoas pelas ações de IA criadas por elas, todos ficaremos em uma poça.

Tenho certeza de que os criadores cumprirão facilmente suas promessas relacionadas ao desenvolvimento de seus novos sistemas de IA . Essas pessoas elogiam seus produtos, esperando seu sucesso, e também fingem que nada têm a ver com aplicativos cujos erros éticos caíram sobre todos nós. Tudo isso incentivará a criação de sistemas de IA que não tenham responsabilidade moral.

Outra área em que a ética da IA ​​pode ser particularmente difícil é a IA para fins militares.

A maioria das pessoas concorda que precisamos respeitar certos padrões éticos da IA ​​ao criar e usar sistemas de inteligência militar. O conhecimento e a experiência que adquirimos dessa maneira podem ser usados ​​para uso comercial e industrial da IA.

O Departamento de Defesa dos EUA lançou recentemente um conjunto de princípios de IA .

Se você observar esses princípios isoladamente (o que farei neste artigo), ou seja, sem levar em consideração os contextos militar e defensivo, poderá ver que eles são igualmente aplicáveis ​​a qualquer sistema comercial ou industrial de IA.

Vou falar sobre esses princípios e usar minha área favorita para isso - o surgimento de veículos não tripulados reais. Isso me permitirá ilustrar como é aplicável o mais recente conjunto de princípios de ética em IA (incluindo uso não militar).

De acordo com relatos da mídia, o Pentágono publicou esse último conjunto de padrões éticos da IA ​​e, citando o tenente da Força Aérea Jack Jack Shenhan e diretor do Joint AI Center, afirmou apropriadamente : “A IA é uma poderosa tecnologia em desenvolvimento e eficaz que transforma rapidamente cultura, sociedade e finalmente guerra. "Quão boas ou más essas mudanças dependem de nossa abordagem para adotar e usar esses sistemas".

Como eu já disse várias vezes, a abordagem da sociedade para o desenvolvimento da IA ​​determinará o destino desse sistema - se ele funcionará para o bem ou se será (ou se tornará com o tempo) um fracasso com conseqüências deploráveis .

Os desenvolvedores e fabricantes de sistemas de IA devem ser seriamente pressionados.

Para maior clareza, observo que os sistemas de IA não funcionarão para o bem simplesmente por sua natureza (não existem axiomas e pré-requisitos que possam garantir isso).

Para estudar completamente essa questão, consideraremos meu conceito, que é um esquema de quatro quadrados, que chamo de esquema de consequências éticas da IA .

Convencionalmente, denotamos a parte superior do eixo da abcissa como "IA para sempre" e a parte inferior como "IA para dano". Da mesma forma, dividimos o eixo das ordenadas, o lado esquerdo é designado como "intencionalmente" e o lado direito é "não intencional".

Assim, temos 4 quadrados:

  1. Boa IA - intencionalmente
  2. AI em detrimento - intencionalmente
  3. AI for Good - involuntariamente
  4. AI em detrimento - inadvertidamente

Entendo que alguns de vocês podem ficar horrorizados ao simplificar uma questão tão pesada a um layout simples de quatro quadrados, mas às vezes uma perspectiva global pode ser útil - com ela é possível ver a floresta entre as árvores.

O primeiro quadrado descreve uma boa IA que foi criada com boas intenções. Essa IA cumpre seus objetivos sem violações éticas e acredito que esse quadrado é o padrão pelo qual todos os sistemas inteligentes devem se esforçar.

O segundo quadrado é uma IA maliciosa. Infelizmente, esses sistemas serão criados e liberados (por criminosos ou terroristas), mas espero que estejamos prontos para isso, e os princípios da ética da IA ​​nos ajudarão a detectar sua aparência.

O terceiro quadrado é sorte aleatória. Ele descreve uma situação em que alguém criou um sistema inteligente que de repente se mostrou bom. Talvez seu criador não tenha pensado na direção positiva de seu desenvolvimento, mas mesmo que seja apenas uma combinação bem-sucedida de circunstâncias, ainda é um sucesso, porque para nós a base é o resultado.

O quarto quadrado é o mais insidioso, e é ele quem causa mais ansiedade (com exceção do assustador segundo quadrado). Como regra, os sistemas que devem funcionar para o bem caem aqui, mas durante o desenvolvimento acumulam-se qualidades negativas que se sobrepõem a todo o bem.

Em geral, estaremos cercados por sistemas nos quais traços bons e ruins serão misturados pouco a pouco. A situação pode ser descrita da seguinte maneira: os desenvolvedores se esforçarão para criar uma boa IA que seja útil, mas no processo de criação de erros não intencionais se acumularão no sistema , o que levará a consequências adversas.

Considere duas questões importantes:

  • Como podemos entender ou descobrir que um sistema inteligente pode conter recursos de baixa IA?
  • Como os desenvolvedores podem estar cientes de como criar esses sistemas para detectar erros e impedir o surgimento de sistemas cuja operação pode levar a consequências negativas?

Resposta: siga rigorosamente as regras retiradas do conjunto correto e substancial de princípios da ética da IA.

Falando das diretrizes de ética da IA, um documento emitido pelo Departamento de Defesa contém cinco princípios básicos, e cada um deles expressa idéias importantes às quais todos os desenvolvedores e distribuidores da IA ​​devem prestar atenção, assim como todos que usam ou usarão esses sistemas.

Em geral, as diretrizes de ética da IA ​​são úteis para todas as partes interessadas, não apenas para os desenvolvedores.

A melhor maneira de aprender os princípios de um documento do Departamento de Defesa é demonstrá-los em relação aos sistemas inteligentes existentes.

Vale a pena considerar a questão urgente: os princípios do código do Ministério da Defesa são aplicáveis ​​acarros verdadeiramente não tripulados ? Se aplicável, como eles devem ser usados?

Eles são realmente aplicáveis, vamos dar uma olhada em como eles funcionam.

Níveis de veículos não tripulados


imagem

É importante esclarecer o que quero dizer quando falo de veículos totalmente não tripulados com IA.

Veículos não tripulados reais são veículos nos quais a IA se gerencia sem assistência humana.

Esses veículos são atribuídos aos níveis 4 e 5 , enquanto os carros que requerem participação humana para co-dirigir são geralmente atribuídos aos níveis 2 ou 3 . Carros em que dirigir com a ajuda de uma pessoa é chamado de semi-autônomo e geralmente contêm muitas funções adicionais chamadas de ADAS (sistemas avançados de assistência ao motorista).

Até o momento, não há nível 5 de veículo totalmente não tripulado. Hoje nós aténão sabemos se isso será alcançado e quanto tempo levará.

Enquanto isso, o trabalho está em andamento na área de nível 4. Testes muito restritos e seletivos são realizados nas vias públicas, embora exista um debate sobre a admissibilidade desses testes (alguns acreditam que as pessoas que participam de testes nas estradas e rodovias agem como cobaias, que podem sobreviver ou morrer em cada teste ) .

Como carros semi-autônomos exigem um motorista humano, a adoção desses carros pelas massas não será muito diferente de dirigir carros comuns, não há nada de novo que possa ser dito sobre eles no contexto de nosso tópico (embora, como você verá em breve, os pontos que serão considerados mais aplicáveis ​​a eles).

No caso de carros semi-autônomos, é importante que o público seja alertado sobre um aspecto perturbador que surgiu recentemente - apesar das pessoas que continuam postando vídeos sobre como adormecem enquanto dirigem carros de 2 ou 3 níveis, todos precisamos lembrar que o motorista não pode ser distraído ao dirigir um carro semi-autônomo.

Você é responsável por ações para controlar o nível 2 ou 3 do veículo, independentemente do nível de automação.

Veículos não tripulados e ética em IA


Nos veículos de nível 4 e 5, uma pessoa não participa do gerenciamento, todas as pessoas nesses veículos serão passageiros e a IA conduzirá. Como resultado, muitos sistemas inteligentes serão incorporados a esses veículos de nível - um fato indiscutível.

Surge a seguinte pergunta - a IA que aciona o veículo não tripulado se limita a quaisquer diretrizes ou requisitos sobre a ética da IA ​​(você pode ver minha análise da ética da IA ​​para veículos não tripulados neste link , além de dicas para o desenvolvimento dessa ética ).

Lembre-se de que não existe um sistema padrão que exija que a IA cumpra os padrões éticos ou um contrato moral com a sociedade.

As próprias pessoas devem incorporar essas crenças ou princípios em sistemas inteligentes, e os desenvolvedores de IA devem fazer isso explicitamente e com olhos arregalados.

Infelizmente, alguns agem de maneira inversa - fecham os olhos com força ou caem sob a influência da hipnose e, em vez das ações acima, parecem fascinados com o potencial prêmio que seu projeto trará (ou com o suposto objetivo nobre).

Eu avisei que alguns sistemas de IA levarão a "nobre corrupção" daqueles que os desenvolverem. O resultado será o seguinte - os envolvidos no desenvolvimento serão tão absorvidos pelo potencial da IA ​​bem-intencionada que eles irão ignorar, perder ou reduzir a atenção seletivamente às considerações sobre a ética da IA ​​(ver link).

Aqui estão cinco pontos no conjunto.Princípios de Ética da IA ​​do Departamento de Defesa dos EUA :

Princípio Um: Responsabilidade


"A equipe do Departamento de Defesa realizará um nível apropriado de avaliação e atenção, mantendo-se responsável pelo desenvolvimento, implantação e uso dos recursos de IA".

Para começar, extrairemos dessa redação a parte que fala de "funcionários do Ministério" e a substituiremos por "Todos os funcionários". Você tem um manual adequado para qualquer organização que trabalha com IA, especialmente comercial.

As montadoras e empresas de tecnologia que trabalham com veículos não tripulados devem ler atentamente o texto do princípio, seguindo cuidadosamente suas palavras.

Estou falando sobre isso, pois alguns continuam a argumentar que o drone baseado em IA agirá por conta própria e, portanto, haverá muita preocupação sobre quem irá carregarresponsabilidade por erros no comportamento do veículo que resultem em ferimentos pessoais ou morte.

Em suma, as pessoas serão responsáveis .

Podem ser pessoas que desenvolveram um drone baseado em IA - uma montadora ou uma empresa de tecnologia.

Entendo também que digo constantemente que as pessoas responsáveis ​​incluem os desenvolvedores e os que implantam esses sistemas de IA , o que significa que trabalhar com esses sistemas e instalá-los é tão importante quanto trabalhar com desenvolvedores .

Por quê?

Porque as pessoas que implantam sistemas inteligentes também podem cometer erros que levam a consequências adversas.

Por exemplo, suponha queuma empresa de compartilhamento de viagens adquiriu uma frota de veículos não tripulados e os utiliza para viagens conjuntas de seus clientes.

Por enquanto, tudo bem.

Mas digamos que esta empresa não consiga atender adequadamente esses veículos não tripulados . Devido à falta de manutenção ou negligência das instruções, veículos não tripulados não funcionam. Nesse caso, podemos encontrar falhas no desenvolvedor original, mas vale mais a pena fazer perguntas para aqueles que implantaram o sistema de IA e não demonstraram o devido cuidado e responsabilidade em seu trabalho .

Princípio Dois: Imparcialidade


"O Ministério tomará medidas para minimizar a aparência de viés não intencional na operação dos sistemas de IA".

Mais uma vez, pegue o termo "Ministério" na redação e substitua-o por "Desenvolvedores e funcionários que instalam sistemas de IA". Você receberá um princípio universal e adequado para todos.

No caso de veículos não tripulados, existe o medo de que o sistema de IA possa reagir de maneira diferente aos pedestres, dependendo da raça , demonstrando sutil e inexoravelmente o preconceito racial.

Outro problema é que a frota de veículos não tripulados pode fazer com que os carros evitem determinadas áreas. Isso levará à exclusão geográfica, que acabará por roubar as pessoas com problemas de mobilidade.acesso gratuito a veículos não tripulados.

Como resultado, há uma chance significativa de que veículos não tripulados de pleno direito fiquem atolados em preconceitos de uma forma ou de outra e, em vez de levantarem as mãos e dizerem que isso é vida, desenvolvedores e usuários devem se esforçar para minimizar, mitigar ou reduzir qualquer preconceito desse tipo.

Princípio Três: Rastreabilidade


“Os projetos ministeriais no campo da IA ​​serão desenvolvidos e implantados de forma que o pessoal relevante tenha um entendimento adequado das tecnologias, processos de desenvolvimento e métodos operacionais aplicáveis ​​ao campo da IA, inclusive por meio de métodos transparentes e verificáveis, fontes de dados, além de design e design. documentação ”.

Basta remover da redação todas as referências ao ministério ou, se desejar, você pode pensar nele como qualquer departamento de qualquer empresa ou organização - isso tornará o princípio amplamente aplicável a todos.

Há muita coisa inerente a esse princípio, mas, por uma questão de brevidade, vou me concentrar apenas em um aspecto que você talvez não tenha notado.

O item com “fontes de dados” visa disseminar o aprendizado de máquina eaprendizagem profunda .

Quando você trabalha com machine / deep learning, geralmente você precisa coletar um grande conjunto de dados e, em seguida, usar algoritmos e modelos especiais para encontrar padrões .

Semelhante ao parágrafo anterior sobre preconceito oculto, se os dados coletados são inicialmente tendenciosos de alguma forma, os padrões potencialmente destacam esses preconceitos. Como resultado, quando o sistema de IA opera em tempo real, ele traduz esses vieses em realidade.

Ainda mais assustador é que os desenvolvedores de IA podem não entender qual é o problema, e aqueles que instalam e implantam esses sistemas também não conseguirão descobrir isso.

Um drone treinado em tráfego louco e hostil em Nova York condicional poderia potencialmente assumir o controleEstilo de condução agressivo típico de um motorista de Nova York. Imagine que você pegou esse sistema e o usou nas cidades dos EUA, onde o estilo de direção é mais calmo e medido.

Esse princípio indica claramente que os desenvolvedores e a equipe responsável pela instalação e implantação devem ter cuidado com as fontes de dados, a transparência e a auditoria de tais sistemas.

Princípio Quatro: Confiabilidade


“Os projetos ministeriais no campo da IA ​​terão usos claramente definidos, e a segurança, confiabilidade e eficácia de tais projetos serão testados e verificados dentro dos usos descritos ao longo do ciclo de vida.”

Siga as mesmas etapas dos parágrafos anteriores: remova a palavra “ministério” e aplique este parágrafo como se fosse aplicável a qualquer organização e seu departamento.

A maioria (ou talvez todos) concorda que o sucesso ou falha de veículos não tripulados depende de sua segurança , segurança e eficiência.

Espero que esse princípio seja óbvio por causa de sua aplicabilidade explícita a carros baseados em IA.

Princípio Cinco: Gerenciabilidade


“O Ministério projetará e desenvolverá projetos relacionados à IA para desempenhar suas funções, enquanto é capaz de detectar antecipadamente conseqüências inadvertidas e evitá-las, além da capacidade de desativar ou desativar sistemas implantados que exibem comportamento anormal.”

Como sempre, remova a palavra "ministério" e aplique este parágrafo a qualquer coisa.

A primeira parte deste princípio está subjacente ao meu tópico de detectar e prevenir consequências inesperadas, especialmente as adversas.

Isso é bastante óbvio no caso de veículos não tripulados.

Há também um ponto sutil em relação aos veículos não tripulados, que inclui a capacidade de desativar ou desativar o sistema de IA implantado, que mostrou um comportamento inesperado - há muitas opções e dificuldades, e isso não é apenas clicar no botão de desligamento "vermelho" localizado fora do carro ( como algumas pessoas pensam )

Conclusão


Normalmente, esperamos que o Departamento de Defesa não revele seus cartões.

Nesse caso, o manual de ética da IA ​​não deve ser mantido em segredo. De fato, é muito agradável e louvável que o Ministério da Defesa tenha publicado este documento.

No final, uma coisa é colar um tigre sem papel e outra é vê-lo no mundo real.

Todos os desenvolvedores e funcionários responsáveis ​​pela instalação e implantação devem estudar cuidadosa e cuidadosamente este manual de ética da IA, bem como princípios éticos semelhantes (muitos) de outras fontes.



imagem

Sobre o ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Leia artigos mais úteis:


All Articles