Departamento de Defensa de EE. UU .: Ética para IA y vehículos no tripulados

imagen

Ética La IA es un tema candente y relevante en estos días. Y es correcto.

Con el apogeo de los sistemas de IA y su ocurrencia muy extendida, existen preocupaciones razonables de que estos sistemas informáticos simplemente se arrojen a este mundo sin comprender las posibles consecuencias para la sociedad.

Existe una seria preocupación de que los nuevos sistemas de inteligencia artificial tengan prejuicios incorporados y sean propensos a acciones que sean tóxicas en términos de ética y sociedad.

Cuando se trata de la ética de la inteligencia artificial, sostengo que hay al menos dos aspectos principales (o reglas):

  1. El comportamiento del sistema de IA debería ser aceptable para la sociedad
  2. Los diseñadores de sistemas de IA y los propios sistemas deben aplicar la regla 1.

Quizás la esencia de la primera regla es obvia: el significado de la ética de la inteligencia artificial es que el comportamiento de estos sistemas debe cumplir con los estándares éticos de la sociedad.

A continuación se mostrará que el cumplimiento de la primera regla es más complicado de lo que parece.

La importancia de la regla 2 es aclarar que las partes responsables de garantizar el pleno cumplimiento de la ética de la IA están formadas por personas que diseñan, construyen y distribuyen estos sistemas.

Si esto te parece obvio, entonces no te apresures a hacer juicios basados ​​en el "sentido común".

Alrededor de los sistemas de IA, hay una especie de aura, como si fueran autónomos y capaces de autodeterminación. Por lo tanto, cuando un sistema de IA hace algo como manifestar prejuicios raciales , algunos cometen un error lógico al decir que la IA lo hizo, sin culpar a quienes crearon e implementaron este sistema.

Algunos desarrolladores y fabricantes de estos sistemas ciertamente preferirían que no mire en su dirección.cuando el sistema de IA hace algo mal.

Como resultado, aquellos que tienen verdadera responsabilidad pueden hacer una mueca de sorpresa y astutamente eludir sus deberes , diciendo que la culpa es de la IA. Estas personas se comportarán como si simplemente estuvieran viendo el choque del tren, incluso si fueron ellos quienes lo pusieron en los rieles y lo iniciaron sin ningún control o verificación.

Por supuesto, algunos defenderán su sistema que cometió un error. Dirán que intentaron evitar todas las fallas, pero maldición, faltaba algo . En cierto sentido, estas personas tratarán de convertirse en "víctimas", contrastando con aquellos que han sufrido de IA.

No te dejes engañar por esto.

De hecho, no se deje engañar por esto.

En resumen, la segunda regla es tan importante como la primera.

Sin hacer que las personas sean responsables de las acciones de IA creadas por ellos, todos nos sentaremos en un charco.

Estoy seguro de que los creadores cumplirán fácilmente sus promesas relacionadas con el desarrollo de sus nuevos sistemas de inteligencia artificial . Estas personas elogiarán sus productos, esperando su éxito, y también pretenderán que no tienen nada que ver con aplicaciones cuyos errores éticos hayan recaído en todos nosotros. Todo esto fomentará la creación de sistemas de IA que no tienen responsabilidad moral.

Otra área en la que la ética de la IA puede ser particularmente difícil es la IA para fines militares.

La mayoría de la gente estará de acuerdo en que debemos cumplir con ciertos estándares éticos de IA al crear y usar sistemas de inteligencia militar. El conocimiento y la experiencia que obtenemos de esta manera se pueden usar para el uso comercial e industrial de la IA.

El Departamento de Defensa de EE. UU. Lanzó recientemente un conjunto de principios de IA .

Si observa estos principios de forma aislada (lo que haré en este artículo), es decir, sin tener en cuenta los contextos militar y defensivo, puede ver que son igualmente aplicables a cualquier sistema de IA comercial o industrial.

Te contaré acerca de estos principios y utilizaré mi área favorita para esto: la aparición de vehículos no tripulados reales. Esto me permitirá ilustrar cuán aplicable es el último conjunto de principios de ética de la IA (incluido el uso no militar).

Según los informes de los medios, el Pentágono publicó este último conjunto de estándares éticos de inteligencia artificial, y, citando al teniente de la Fuerza Aérea Jack Jack Shenhan y director del Centro Conjunto de Inteligencia Artificial, declaró acertadamente : "La inteligencia artificial es una poderosa tecnología en desarrollo y efectiva que transforma rápidamente la cultura, la sociedad y la sociedad". en última instancia, incluso la guerra. "Cuán buenos o malos son estos cambios dependen de nuestro enfoque para adoptar y usar estos sistemas".

Como he dicho en repetidas ocasiones, el enfoque de la sociedad para el desarrollo de la IA determinará el destino de este sistema, ya sea que funcione para bien o que (o se convierta con el tiempo) en un fracaso con consecuencias deplorables .

Los desarrolladores y fabricantes de sistemas de IA deben estar seriamente presionados.

Para mayor claridad, observo que los sistemas de IA no funcionarán para el bien simplemente por su naturaleza (no hay axiomas ni requisitos previos que puedan garantizar esto).

Para estudiar completamente este tema, consideraremos mi concepto, que es un esquema de cuatro cuadrados, que llamo el esquema de consecuencias éticas de IA .

Convencionalmente, denotamos la parte superior del eje de la abscisa como "AI para bien" y la inferior como "AI para daño". Del mismo modo, dividimos el eje de ordenadas, el lado izquierdo se designa como "intencionalmente" y el lado derecho es "involuntariamente".

Así obtenemos 4 cuadrados:

  1. Buena IA: intencionalmente
  2. AI en detrimento - Intencionalmente
  3. AI para bien: sin querer
  4. AI en detrimento - Sin darse cuenta

Entiendo que algunos de ustedes pueden estar horrorizados de simplificar un problema tan importante a un simple esquema de cuatro cuadrados, pero a veces una perspectiva global puede ser útil: puede usarla para ver un bosque entre árboles.

El primer cuadro describe una buena IA que fue creada con buenas intenciones. Esta IA cumple sus objetivos sin ninguna violación ética, y creo que este cuadrado es el estándar por el que todos los sistemas inteligentes deben luchar.

La segunda casilla es una IA maliciosa. Desafortunadamente, tales sistemas serán creados y liberados (por delincuentes o terroristas), pero espero que estemos listos para esto, y los principios de la ética de la IA nos ayudarán a detectar su apariencia.

El tercer cuadrado es la suerte al azar. Describe una situación en la que alguien creó un sistema inteligente que de repente resultó ser bueno. Quizás su creador no pensó en la dirección positiva de su desarrollo, pero incluso si es solo una combinación exitosa de circunstancias, sigue siendo un éxito, porque para nosotros el resultado es la base.

El cuarto cuadro es el más insidioso, y es él quien causa la mayor ansiedad (con la excepción del segundo cuadro espeluznante). Como regla general, los sistemas que deberían funcionar para el bien caen aquí, pero durante el desarrollo, las cualidades negativas se acumulan en ellos y se superponen con todo lo bueno.

En general, estaremos rodeados de sistemas en los que los rasgos buenos y malos se mezclarán poco a poco. La situación se puede describir de la siguiente manera: los desarrolladores se esforzarán por crear una buena IA que sea útil, pero en el proceso de crear errores involuntarios se acumularán en el sistema , lo que conducirá a consecuencias adversas.

Considere dos preguntas importantes:

  • ¿Cómo podemos entender o descubrir que un sistema inteligente puede contener características de una IA pobre?
  • ¿Cómo pueden los desarrolladores ser conscientes de cómo crear tales sistemas para detectar errores y evitar la aparición de sistemas cuya operación puede tener consecuencias negativas?

Respuesta: cumpla estrictamente las reglas tomadas del conjunto correcto y sustancial de principios de ética de la IA.

Hablando de las pautas de ética de AI, un documento emitido por el Departamento de Defensa contiene cinco principios básicos, y cada uno de ellos expresa ideas importantes a las que todos los desarrolladores y distribuidores de AI deben prestar atención, así como a todos los que usan o usarán estos sistemas.

En general, las pautas de ética de IA son útiles para todas las partes interesadas, no solo para los desarrolladores.

La mejor manera de aprender los principios de un documento del Departamento de Defensa es demostrarlos en relación con los sistemas inteligentes existentes.

Vale la pena considerar la pregunta urgente: ¿ son aplicables los principios del código del Ministerio de Defensa aautos verdaderamente no tripulados ? Si corresponde, ¿cómo deben usarse?

Son realmente aplicables, echemos un vistazo a cómo funcionan.

Niveles de vehículos no tripulados


imagen

Es importante aclarar a qué me refiero cuando hablo de vehículos totalmente no tripulados con IA.

Los vehículos no tripulados reales son vehículos en los que la IA se gestiona sin ayuda humana.

Dichos vehículos se asignan a los niveles 4 y 5 , mientras que los automóviles que requieren la participación humana para conducir juntos generalmente se asignan a los niveles 2 o 3 . Los automóviles en los que conducir con la ayuda de una persona se llaman semiautónomos, y generalmente contienen muchas funciones adicionales que se denominan ADAS (sistemas avanzados de asistencia al conductor).

Hasta ahora, no hay un vehículo completamente no tripulado de nivel 5. Hoy inclusono sabemos si esto se logrará ni cuánto tiempo llevará.

Mientras tanto, se está trabajando en el área de nivel 4. Se realizan pruebas muy estrechas y selectivas en las vías públicas, aunque existe un debate sobre la admisibilidad de dichas pruebas (algunos creen que las personas que participan en las pruebas en carreteras y autopistas actúan como conejillos de indias, que pueden sobrevivir o morir en cada prueba ) .

Dado que los autos semiautónomos requieren un conductor humano, la adopción de tales autos por parte de las masas no será muy diferente de conducir autos comunes, no hay nada nuevo que se pueda decir sobre ellos en el contexto de nuestro tema (aunque, como pronto verá, los puntos que se considerarán más aplicable a ellos).

En el caso de los automóviles semiautónomos, es importante advertir al público sobre el aspecto alarmante que ha surgido recientemente, a pesar de las personas que continúan publicando videos sobre cómo se quedan dormidos mientras conducen automóviles de 2 o 3 niveles, todos debemos recordar que el conductor no puede distraerse de conducir un automóvil semiautónomo.

Usted es responsable de las acciones para controlar el vehículo de nivel 2 o 3, independientemente del nivel de automatización.

Vehículos no tripulados y ética de IA


En los vehículos de los niveles 4 y 5, una persona no participa en la gestión, todas las personas en estos vehículos serán pasajeros y AI conducirá. Como resultado, se construirán muchos sistemas inteligentes en estos vehículos de nivel, un hecho indiscutible.

Surge la siguiente pregunta: ¿la IA que conduce el vehículo no tripulado se limitará a las pautas o requisitos sobre la ética de la IA? (Puede consultar mi análisis de la ética de la IA para vehículos no tripulados en este enlace , así como consejos para desarrollar esta ética ).

Recuerde que no existe un sistema predeterminado que requiera que la IA cumpla con los estándares éticos o un contrato moral con la sociedad.

Las personas mismas deben incorporar tales creencias o principios en sistemas inteligentes, y los desarrolladores de IA deben hacerlo explícitamente y con los ojos muy abiertos.

Desafortunadamente, algunos actúan al revés: cierran los ojos con fuerza o caen bajo la influencia de la hipnosis, y en lugar de las acciones anteriores, parecen fascinados por el premio potencial que traerá su proyecto (o el supuesto objetivo noble).

Advertí que algunos sistemas de IA conducirán a una "noble corrupción" de quienes los desarrollan. El resultado será el siguiente: los involucrados en el desarrollo estarán tan absortos en el potencial de la IA bien intencionada que ignorarán selectivamente, perderán o reducirán la atención a las consideraciones sobre la ética de la IA (ver enlace).

Aquí hay cinco puntos en el conjunto.Principios de ética de AI del Departamento de Defensa de EE. UU . :

Principio uno: responsabilidad


"El personal del Departamento de Defensa llevará a cabo un nivel apropiado de evaluación y atención, mientras seguirá siendo responsable del desarrollo, despliegue y uso de las capacidades de IA".

Para comenzar, extraeremos de esta redacción la parte que habla del "personal del Ministerio" y la reemplazaremos con "Todo el personal". Obtuviste un manual adecuado para cualquier organización que trabaje con IA, especialmente comercial.

Los fabricantes de automóviles y las empresas de tecnología que trabajan con vehículos no tripulados deben leer cuidadosamente la redacción del principio, siguiendo cuidadosamente sus palabras.

Estoy hablando de esto, ya que algunos continúan argumentando que un vehículo no tripulado basado en IA actuará por sí solo y, por lo tanto, habrá mucha preocupación sobre quién llevaráresponsabilidad por errores en el comportamiento del vehículo que resultarán en lesiones personales o la muerte.

En resumen, las personas serán responsables .

Estas pueden ser personas que desarrollaron un dron basado en inteligencia artificial: un fabricante de automóviles o una empresa de tecnología.

Comprenda también que constantemente digo que los desarrolladores y aquellos que implementan estos sistemas de IA son responsables de esto, y esto significa que trabajar con estos sistemas e instalarlos es tan importante como trabajar con desarrolladores .

¿Por qué?

Porque las personas que implementan sistemas inteligentes también pueden cometer errores que conducen a consecuencias adversas.

Por ejemplo, supongamos queuna compañía de viajes compartidos ha adquirido una flota de vehículos no tripulados y los utiliza para viajes conjuntos de sus clientes.

Hasta aquí todo bien.

Pero digamos que esta compañía no puede dar servicio a estos vehículos no tripulados de manera adecuada . Debido a la falta de mantenimiento o al descuido de las instrucciones, los vehículos no tripulados no funcionan. En este caso, podríamos encontrar fallas en el desarrollador original, pero vale más la pena hacer preguntas a aquellos que implementaron el sistema de IA y no mostraron el debido cuidado y responsabilidad en su trabajo .

Principio dos: imparcialidad


"El Ministerio tomará medidas para minimizar la aparición de prejuicios involuntarios en la operación de los sistemas de IA".

Una vez más, tome el término "Ministerio" en la redacción y reemplácelo con "Desarrolladores y empleados que instalen sistemas de IA". Recibirá un principio que es universal y adecuado para todos.

En el caso de vehículos no tripulados, existe el temor de que el sistema de IA pueda reaccionar de manera diferente a los peatones dependiendo de su raza , lo que demuestra de manera sutil e inexorable el prejuicio racial.

Otro problema es que la flota de vehículos no tripulados puede hacer que los automóviles eviten ciertas áreas. Esto conducirá a la exclusión geográfica, que finalmente robará a las personas con problemas de movilidad.Acceso libre a vehículos no tripulados.

Como resultado, existe una gran posibilidad de que los vehículos no tripulados de pleno derecho se vean envueltos en prejuicios de una forma u otra, y en lugar de levantar la mano y decir que esto es la vida, los desarrolladores y usuarios deben esforzarse por minimizar, mitigar o reducir tales prejuicios.

Principio tres: trazabilidad


“Los proyectos del ministerio en el campo de la IA se desarrollarán y desplegarán de tal manera que el personal relevante tenga una comprensión adecuada de las tecnologías, procesos de desarrollo y métodos operativos aplicables al campo de la IA, incluso a través de métodos transparentes y verificables, fuentes de datos, así como diseño y documentación ".

Simplemente elimine de la redacción todas las referencias al ministerio o, si lo desea, puede considerarlo como cualquier departamento de cualquier empresa u organización; esto hará que el principio sea ampliamente aplicable a todos.

Hay mucho inherente a este principio, pero por brevedad, me centraré solo en un aspecto que quizás no haya notado.

El elemento con "fuentes de datos" tiene como objetivo difundir el aprendizaje automático yaprendizaje profundo .

Cuando trabaja con máquina / aprendizaje profundo, generalmente necesita recopilar un gran conjunto de datos y luego usar algoritmos y modelos especiales para encontrar patrones .

De manera similar al párrafo anterior sobre los prejuicios ocultos, si los datos recopilados están sesgados inicialmente de alguna manera, los patrones potencialmente resaltarán estos prejuicios. Como resultado, cuando el sistema de IA funciona en tiempo real, traducirá estos sesgos en realidad.

Aún más aterrador es que los desarrolladores de IA pueden no entender lo que sucede, y aquellos que instalan e implementan estos sistemas tampoco podrán resolverlo.

Un avión no tripulado entrenado en tráfico loco y hostil en Nueva York condicional podría potencialmente hacerse cargoEstilo de conducción agresivo típico de un conductor de Nueva York. Imagine que tomó este sistema y lo utiliza en ciudades de EE. UU. Donde el estilo de conducción es más tranquilo y medido.

Este principio indica claramente que los desarrolladores y el personal responsable de la instalación y la implementación deben tener cuidado con las fuentes de datos, la transparencia y la auditoría de dichos sistemas.

Principio Cuatro: Confiabilidad


"Los proyectos ministeriales en el campo de la IA tendrán usos claramente definidos, y la seguridad, confiabilidad y efectividad de tales proyectos serán probados y verificados dentro de los usos descritos a lo largo del ciclo de vida".

Siga los mismos pasos que en los párrafos anteriores: elimine la palabra "ministerio" y aplique este párrafo como si se aplicara a cualquier organización y su departamento.

La mayor parte (o tal vez todos) estará de acuerdo en que el éxito o el fracaso de no tripulados vehículos depende de su seguridad , la seguridad , y la eficiencia.

Espero que este principio sea obvio debido a su aplicabilidad explícita a los automóviles basados ​​en IA.

Principio Cinco: Manejabilidad


"El Ministerio diseñará y desarrollará proyectos relacionados con la IA para llevar a cabo sus funciones previstas, al tiempo que podrá detectar las consecuencias involuntarias de antemano y evitarlas, así como la capacidad de deshabilitar o desactivar los sistemas implementados que exhiben un comportamiento anormal".

Como de costumbre, elimine la palabra "ministerio" y aplique este párrafo a cualquier cosa.

La primera parte de este principio subyace en mi tema de detectar y prevenir consecuencias inesperadas, especialmente las adversas.

Esto es bastante obvio en el caso de vehículos no tripulados.

También hay un punto sutil con respecto a los vehículos no tripulados, que incluye la capacidad de deshabilitar o desactivar el sistema de inteligencia artificial desplegado, que mostró un comportamiento inesperado: hay muchas opciones y dificultades, y esto no es solo hacer clic en el botón de apagado "rojo" ubicado fuera del automóvil ( como algunas personas piensan )

Conclusión


Por lo general, esperamos que el Departamento de Defensa no revele sus cartas.

En este caso, el manual de ética de la IA no debe mantenerse en secreto. De hecho, es muy agradable y encomiable que el Ministerio de Defensa haya publicado este documento.

Al final, una cosa es pegar un tigre del papel y otra es verlo en el mundo real.

Todos los desarrolladores y el personal responsable de la instalación y la implementación deben estudiar cuidadosa y cuidadosamente este manual de ética de IA, así como principios éticos similares (muchos de ellos) de otras fuentes.



imagen

Sobre ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Leer más artículos útiles:


All Articles