Papa: Ética para IA e veículos não tripulados

imagem

O papa teme que a IA possa prejudicar as pessoas, em vez de se tornar uma ferramenta que irá complementar a sociedade e melhorar sua vida.

De acordo com o Vaticano , um documento recentemente publicado , chamado Roma , é um chamado para a ética da IA, que fala sobre a direção que a IA deve tomar como uma tecnologia que visa melhorar a sociedade, bem como impedir perspectivas de danos e morte da sociedade.

Às vezes, os cientistas tendem a introduzir inovações sem estudar explicitamente as possíveis conseqüências. Assim, existem muitas exigências para prestar atenção à ética da IA ​​na era da corrida do desenvolvimento e implementação de sistemas inteligentes (especialmente quando se trata de sistemas baseados em máquina e aprendizado profundo).

Aqui está uma citação chave de um documento emitido pelo Papa:

“Agora, mais do que nunca, devemos garantir as perspectivas segundo as quais a IA se desenvolverá com ênfase não na tecnologia, mas no benefício da humanidade, do meio ambiente, de nosso lar comum e de seus habitantes, que são inextricavelmente interligado

A Igreja Católica pede a todos os envolvidos na criação da IA ​​que se lembrem das possíveis ações desses sistemas. Isso também inclui um apelo para prestar atenção às conseqüências previstas e potencialmente não intencionais.

Alguns desenvolvedores de IA ignoram o fato de que as ações de seus desenvolvimentos podem causar efeitos adversos não intencionais.

Lembre-se dos seguintes aspectos da dinâmica social:

  • Alguns engenheiros e cientistas acreditam que, enquanto o sistema de IA, pelo menos, faz o que eles esperavam, todas as outras conseqüências não são de sua responsabilidade e, portanto, tentam lavar as mãos de tais dificuldades.
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


Um documento publicado pela Igreja Católica atua como uma espécie de promessa, e todos os envolvidos na criação de sistemas de inteligência artificial serão educadamente solicitados a assinar essa promessa.

De fato, este documento já foi assinado por vários players, entre eles IBM e Microsoft.

O que este documento está pedindo aos signatários?

Vou falar brevemente sobre alguns detalhes. Este descreve três princípios básicos. Portanto, o sistema de IA deve:

"... ser inclusivo para todos e não discriminar ninguém; no coração deste sistema deve estar a gentileza da raça humana como um todo e cada pessoa em particular; finalmente, esse sistema deve lembrar a estrutura complexa do nosso ecossistema e ser caracterizado por sua atitude em relação ao lar comum. Sistema inteligente "deve abordar esta questão do lado mais racional, e sua abordagem deve incluir o uso da IA ​​para garantir sistemas alimentares estáveis ​​no futuro".

Então, resumindo:

  1. A IA não deve discriminar ninguém
  2. A IA deve ter apenas boas intenções
  3. A IA deve cuidar da sustentabilidade ambiental

O aspecto que deve ser lembrado é que a IA não determina seu próprio futuro, por mais que pareça que esses sistemas já sejam autônomos e criem seu próprio destino.

Tudo isso está errado, pelo menos por enquanto (será assim no futuro próximo).

Em outras palavras, somente nós, humanos, criamos esses sistemas. Portanto, apenas os seres humanos são responsáveis ​​pelo que os sistemas de IA fazem.

Estou falando disso porque é uma maneira simples de sair da situação em que engenheiros e desenvolvedores de IA fingem que não são os culpados pelos erros de seus produtos.

Você provavelmente está familiarizado com a situação ao entrar em contato com a administração de veículos automotores para renovar sua carteira de motorista e o sistema de informações deles falha. Ao mesmo tempo, o agente de gerenciamento apenas encolhe os ombros e reclama que tudo isso sempre acontece com o equipamento.

Para ser preciso, não dura para sempre, e nem com toda a tecnologia.

Se o sistema do computador não funcionar, as pessoas que o instalaram e não puderam fazer o backup adequadamente, e também não forneceram a capacidade de obter acesso ao sistema, se necessário, são os culpados.

Não caia na armadilha lógica, discorde do fato de que os sistemas de computadores (incluindo sistemas de IA) têm suas próprias opiniões e, se enlouquecem, não é que isso "sempre aconteça com a tecnologia".

A verdade é que as pessoas que desenvolveram e implementaram o sistema de computadores assumem total responsabilidade, pois não tomaram medidas suficientes e não prestaram atenção suficiente ao seu trabalho.

No caso do chamado do Papa Francisco a participar da discussão de princípios éticos vitais, pode parecer que todas essas teses são muito simples e pouco suscetíveis de críticas (porque são óbvias como uma afirmação de que o céu é azul), mas, apesar disso, existem grupos que negam Ofertas do Vaticano.

Como assim?

Primeiro, alguns críticos afirmam que não há aspecto obrigatório desse compromisso. Se a empresa subscrever, pelo não cumprimento dos princípios da promessa, nenhuma punição será seguida. Assim, você pode se inscrever sem medo de responsabilidade. Uma promessa sem consequências parece vazia para muitos.

Em segundo lugar, alguns estão preocupados com o fato de que foi a Igreja Católica que fez o apelo à ética da IA. A razão é que a presença da igreja introduz a religião no assunto, embora alguns acreditem que isso não tenha nada a ver com o assunto.

Surge a questão - outras religiões emitirão chamadas semelhantes? E se sim, quais prevalecerão? E o que faremos com um conjunto fragmentado e díspar de declarações de ética da IA?

Em terceiro lugar, alguns acreditam que essa garantia é muito suave e excessivamente geral.

Provavelmente, o documento não contém diretrizes substantivas que poderiam ser implementadas de qualquer maneira prática.

Além disso, os desenvolvedores que desejam se esquivar da responsabilidade podem alegar que não entenderam as disposições gerais ou as interpretaram de maneira diferente da pretendida.

Então, dada a enxurrada de condenações, devemos nos livrar desse chamado do Vaticano em favor da AI da ética?

Afastando-me do tópico, observo que algoética é um nome dado a questões relacionadas à ética algorítmica. Esse pode ser um bom nome, mas não é muito sonoro e dificilmente será aceito. O tempo vai dizer.

Voltando ao tópico - devemos prestar atenção a este apelo à ética da IA ​​ou não?

Sim, precisamos.

Apesar de este documento, reconhecidamente, não prever sanções financeiras por descumprimento dos princípios, há outro aspecto que também é importante a considerar. As empresas que assinam esta chamada podem ser responsabilizadas pelo público em geral. Se eles quebrarem suas promessas e a igreja o indicar, a publicidade ruim poderá prejudicar essas empresas - isso levará à perda de negócios e reputação nesse setor.

Você poderia dizer que, por violar esses princípios, algum tipo de pagamento está implícito ou pode ser que ele esteja oculto.

Quanto ao aparecimento da religião em um tópico em que, ao que parece, não pertence a ele, entenda que essa é uma questão completamente diferente. Esta questão merece discussão e debate consideráveis, mas também reconhece que agora existem muitos sistemas éticos e exige ética da IA ​​de uma ampla variedade de fontes.

Em outras palavras, essa ligação não é a primeira.

Se você estudar cuidadosamente este documento, verá que não há resumos relacionados à doutrina religiosa. Isso significa que você não pode distingui-lo de nenhum similar, realizado sem nenhum contexto religioso.

Finalmente, do ponto de vista da imprecisão deste documento - sim, você pode facilmente dirigir um caminhão Mack por inúmeras brechas, mas quem quiser trapacear trapaceará de qualquer maneira.

Suponho que mais medidas serão tomadas no campo da IA, e essas etapas complementarão o documento do Vaticano com orientações específicas que ajudarão a preencher lacunas e omissões.

Também é possível que qualquer pessoa que tente trapacear seja condenada por todo o mundo, e declarações falsas sobre um suposto mal-entendido do documento serão consideradas truques óbvios que são necessários apenas para evitar o cumprimento de padrões éticos razoavelmente formulados e bastante óbvios da IA ​​proclamados em documento.

Falando na crença de que todos entendem os princípios da ética da IA, considere o uso incontável da IA.

Há um exemplo interessante no campo da IA ​​aplicada, relacionado ao tópico da ética: os veículos não tripulados devem ser desenvolvidos e colocados na estrada de acordo com o apelo do Vaticano?

Minha resposta é sim, definitivamente sim.

De fato, exorto todos os fabricantes de automóveis e veículos a assinarem este documento.

De qualquer forma, vamos analisar esse problema e ver como esse apelo se aplica a veículos não tripulados reais.

Níveis de veículos não tripulados


É importante esclarecer o que quero dizer quando falo de veículos totalmente não tripulados com IA.

Veículos não tripulados reais são veículos nos quais a IA se gerencia sem assistência humana.

Esses veículos são atribuídos aos níveis 4 e 5, enquanto os carros que requerem participação humana para co-dirigir são geralmente atribuídos aos níveis 2 ou 3. Carros em que dirigir com a ajuda de uma pessoa é chamado de semi-autônomo e geralmente contêm muitas funções adicionais chamadas de ADAS (sistemas avançados de assistência ao motorista).

Até o momento, não há nível 5 de veículo totalmente não tripulado. Hoje, nem sabemos se isso pode ser alcançado e quanto tempo levará.

Enquanto isso, o trabalho está em andamento na área de nível 4. Testes muito restritos e seletivos são realizados nas vias públicas, embora exista um debate sobre a admissibilidade desses testes (alguns acreditam que as pessoas que participam de testes nas estradas e rodovias agem como cobaias, que podem sobreviver ou morrer em cada teste) .

Como carros semi-autônomos exigem um motorista humano, a adoção desses carros pelas massas não será muito diferente de dirigir carros comuns, não há nada de novo que possa ser dito sobre eles no contexto de nosso tópico (embora, como você verá em breve, os pontos que serão considerados mais aplicáveis ​​a eles).

No caso de carros semi-autônomos, é importante que o público seja alertado sobre um aspecto perturbador que surgiu recentemente - apesar das pessoas que continuam postando vídeos sobre como adormecem enquanto dirigem carros de 2 ou 3 níveis, todos precisamos lembrar que o motorista não pode ser distraído ao dirigir um carro semi-autônomo.

Você é responsável por ações para controlar o nível 2 ou 3 do veículo, independentemente do nível de automação.

Veículos não tripulados e ética em IA


Nos veículos de nível 4 e 5, uma pessoa não participa do gerenciamento, todas as pessoas nesses veículos serão passageiros e a IA conduzirá.

À primeira vista, você pode assumir que não há necessidade de considerar questões de ética da IA.

Um veículo não tripulado é um veículo que pode transportá-lo sem o motorista.

Você pode pensar que não existe nada disso e não há considerações éticas sobre como o driver de IA lida com o controle.

Desculpe, mas quem pensa que tudo isso não tem nada a ver com a ética da IA ​​precisa bater na cabeça ou derramar água fria nessas pessoas (sou contra a violência, isso é apenas uma metáfora).

Há muitas considerações relacionadas à ética da IA ​​(você pode ler minha resenha noeste link , um artigo sobre os aspectos globais da ética AI está localizado aqui , e um artigo sobre o potencial dos conselhos de especialistas nesta área é aqui ).

Vamos dar uma breve olhada em cada um dos seis princípios básicos descritos no Roman Call for Eth AI.

Vou me esforçar para manter este artigo conciso e, portanto, vou oferecer links para minhas outras publicações, que contêm informações mais detalhadas sobre os seguintes tópicos importantes:

Princípio 1: “Transparência: os sistemas de IA devem ser inerentemente explicáveis”


Você entra em um carro não tripulado e ele se recusa a ir aonde você disse.

Atualmente, a maioria dos sistemas de direção não tripulada é desenvolvida sem nenhuma explicação sobre seu comportamento.

O motivo da recusa pode ser, por exemplo, um furacão ou uma solicitação que não pode ser atendida (por exemplo, não há estradas transitáveis ​​por perto).

No entanto, sem o XAI (a abreviação de AI, que funciona com explicações), você não entenderá o que está acontecendo (mais sobre isso aqui).

Princípio 2: “Inclusão: as necessidades de todas as pessoas devem ser levadas em consideração para que os benefícios sejam os mesmos para todos, e as melhores condições para a auto-expressão e desenvolvimento sejam oferecidas a todas as pessoas”


Alguns temem que os veículos não tripulados estejam disponíveis apenas para os ricos e não trarão nenhum benefício para o resto da população (veja o link aqui).

O que obtemos - mobilidade para todos ou para alguns?

Princípio 3: “Responsabilidade: quem desenvolve e implementa sistemas de IA deve agir com responsabilidade e seu trabalho deve ser transparente”


O que a IA fará em uma situação em que terá que escolher entre bater na criança que correu para a estrada ou bater em uma árvore, o que prejudicará os passageiros?

Esse dilema também é conhecido como problema do carrinho (consulte o link). Muitos exigem que as montadoras e empresas de tecnologia de veículos não tripulados sejam transparentes sobre como seus sistemas tomam decisões em favor da vida ou da morte.

Princípio 4: “Imparcialidade: criar sistemas de IA e agir sem preconceito, garantindo assim a justiça e a dignidade humana”


Suponha que um carro com controle automático responda aos pedestres, dependendo de suas características de corrida.

Ou suponha que uma frota de veículos não tripulados aprenda a evitar dirigir em determinadas áreas, o que privará os residentes do livre acesso a carros que não precisam de motorista.

Os preconceitos associados aos sistemas de aprendizado de máquina e aprendizado profundo são uma grande preocupação

Princípio 5: "Confiabilidade: os sistemas de IA devem funcionar de maneira confiável"


Você está dirigindo um carro com controle automático, e ele de repente se move para o lado da estrada e para. Por quê? Você pode não ter idéia.

A IA pode ter atingido os limites de seu escopo.

Ou talvez o sistema de IA tenha travado, ocorreu um erro ou algo assim.

Princípio 6: “Segurança e confidencialidade: os sistemas de IA devem funcionar com segurança e respeitar a confidencialidade do usuário”


Você entra em um veículo não tripulado depois de se divertir nos bares.

Acontece que esta máquina possui câmeras não apenas fora, mas também dentro.

De fato, as câmeras na cabine são necessárias para capturar passageiros que desenham grafites ou estragam o interior do carro.

De qualquer forma, todas essas câmeras levam você o tempo todo enquanto estiver dirigindo um carro não tripulado, e suas frases incoerentes também aparecerão neste vídeo, porque você está em um estupor bêbado.

Quem é o proprietário deste vídeo e o que ele pode fazer com ele?

O proprietário de um carro não tripulado deve fornecer um vídeo e há algo que o impeça de enviar esse vídeo para a Internet?

Existem muitos problemas de privacidade que ainda precisam ser resolvidos.

Do ponto de vista da segurança, existem muitas opções de hackers para sistemas de direção inteligentes.

Imagine um atacante que pode invadir um carro drone de IA. Ele pode assumir o controle, ou pelo menos pedir um carro para levá-lo ao local onde os seqüestradores estão esperando por você.

Existem muitos cenários assustadores associados a falhas de segurança em sistemas de veículos não tripulados ou em seus sistemas em nuvem. E os fabricantes de automóveis, juntamente com as empresas de tecnologia, são obrigados a usar os sistemas e precauções de proteção necessários.

Conclusão


Se você comparar essa chamada à ética da IA ​​com muitas outras, descobrirá que elas têm muito em comum.

A crítica, que afirma que, no final, teremos uma multidão imensurável de tais apelos, é um tanto verdadeira, mas pode-se supor que cobrir absolutamente todos os fundamentos também não será prejudicial.

Essa situação está começando a ficar um pouco confusa, e os fabricantes de IA usarão a desculpa de que, como não há um único padrão aceito, eles esperarão até que esse documento apareça.

Parece uma desculpa razoável, mas não vou comprar.

Todos os fabricantes que dizem que vão esperar até que a versão globalmente aceita, compilada por algum figurão, sejam aprovados, na verdade, estão prontos para adiar a adoção de qualquer código de ética da IA, e sua expectativa pode ser a mesma. como a expectativa de Godot.

Peço que você escolha qualquer manual sobre a ética da IA, no qual exista algo importante e que seja proposto por uma fonte autorizada, e prossiga com a implementação dessa ética.

Melhor, mais cedo ou mais tarde.



imagem

Sobre o ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Leia artigos mais úteis:


All Articles