Papa: ética para la IA y los vehículos no tripulados

imagen

El Papa teme que la IA pueda dañar a las personas en lugar de convertirse en una herramienta que complemente a la sociedad y mejore su vida.

Según el Vaticano , un documento recientemente publicado llamado El Llamado de Roma para la ética de la IA habla sobre la dirección que la IA debe tomar como una tecnología que apunta a mejorar la sociedad, así como a prevenir perspectivas de daño y muerte de la sociedad.

A veces los científicos se inclinan por introducir innovaciones sin estudiar explícitamente las posibles consecuencias. Por lo tanto, hay muchos llamados a prestar atención a la ética de la IA en la era de la carrera de desarrollo e implementación de sistemas inteligentes (especialmente cuando se trata de sistemas basados ​​en máquinas y aprendizaje profundo).

Aquí hay una cita clave de un documento emitido por el Papa:

“Ahora, más que nunca, debemos garantizar las perspectivas según las cuales la IA se desarrollará con énfasis no en la tecnología, sino en el beneficio de la humanidad, el medio ambiente, nuestro hogar común y sus habitantes, que son inextricablemente interconectado

La Iglesia Católica pide a todos los involucrados en la creación de IA que recuerden las acciones potenciales de estos sistemas. Esto también incluye un llamamiento para prestar atención a las consecuencias anticipadas y potencialmente no deseadas.

Algunos desarrolladores de IA hacen la vista gorda ante el hecho de que las acciones de sus desarrollos pueden causar efectos adversos no deseados.

Recuerde los siguientes aspectos de la dinámica social:

  • Algunos ingenieros y científicos creen que mientras el sistema de IA al menos haga lo que contaban, todas las demás consecuencias no son su responsabilidad y, por lo tanto, intentan lavarse las manos de tales dificultades.
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


Un documento publicado por la Iglesia Católica actúa como una especie de compromiso, y todos los involucrados en la creación de sistemas de inteligencia artificial serán educadamente invitados a firmar este compromiso.

De hecho, este documento ya ha sido firmado por varios jugadores, entre ellos IBM y Microsoft.

¿Para qué pide este documento a los firmantes?

Hablaré brevemente sobre algunos de los detalles. Este describe tres principios básicos. Entonces, el sistema de IA debería:

"... para ser inclusivo para todos y no discriminar a nadie; la bondad de la raza humana en su conjunto y de cada persona en particular debe estar en el corazón de este sistema; finalmente, este sistema debe recordar la compleja estructura de nuestro ecosistema y caracterizarse por su actitud hacia nuestro hogar común. Sistema inteligente "debería abordar este tema desde el lado más racional, y su enfoque debería incluir el uso de IA para garantizar sistemas alimentarios estables en el futuro".

En resumen:

  1. La IA no debe discriminar a nadie
  2. La IA solo debe tener buenas intenciones
  3. La IA debe cuidar la sostenibilidad ambiental

El aspecto que debe tenerse en cuenta es que la IA no determina su futuro en sí mismo, sin importar cómo parezca que estos sistemas ya son autónomos y crean su propio destino.

Todo esto está mal, al menos por ahora (lo será en el futuro cercano).

En otras palabras, solo nosotros los humanos creamos estos sistemas. Por lo tanto, solo los humanos son responsables de lo que hacen los sistemas de IA.

Estoy hablando de esto porque es una forma simple de salir de la situación en la que los ingenieros y desarrolladores de inteligencia artificial fingen que no tienen la culpa de los errores de su producto.

Probablemente esté familiarizado con la situación cuando se comunique con la administración de vehículos motorizados para renovar su licencia de conducir y su sistema de información falla. Al mismo tiempo, el agente de gestión solo se encoge de hombros y se queja de que todo esto siempre sucede con el equipo.

Para ser precisos, no dura para siempre, y no con toda la tecnología.

Si el sistema de la computadora no funciona, entonces las personas que configuraron la computadora y no pudieron realizar una copia de seguridad adecuada, y que tampoco proporcionaron la capacidad de obtener acceso al sistema si es necesario, tienen la culpa.

No caiga en la trampa lógica, no esté de acuerdo con el hecho de que los sistemas informáticos (incluidos los sistemas de inteligencia artificial) tienen sus propias opiniones, y si se vuelven locos, no es que esto "siempre suceda con la tecnología".

La verdad es que las personas que desarrollaron e implementaron el sistema informático tienen toda la responsabilidad, ya que no tomaron suficientes medidas y no prestaron suficiente atención a su trabajo.

En el caso del llamado del Papa Francisco a participar en la discusión de principios éticos vitales, podría parecer que todas estas tesis son muy simples y no pueden ser criticadas (porque son obvias como una afirmación de que el cielo es azul), pero a pesar de esto, hay partes que niegan Ofertas del Vaticano.

¿Cómo es eso?

Primero, algunos críticos afirman que no hay un aspecto obligatorio de esta promesa. Si la compañía se suscribe, entonces, por incumplimiento de los principios de la promesa, no se aplicará ningún castigo. Por lo tanto, puede suscribirse sin temor a la responsabilidad. Una promesa sin consecuencias parece vacía para muchos.

En segundo lugar, algunos están preocupados por el hecho de que fue la Iglesia Católica la que hizo un llamado a la ética de la IA. La razón es que la presencia de la iglesia introduce la religión en el tema, aunque algunos creen que no tiene nada que ver con el tema.

Surge la pregunta: ¿otras religiones emitirán llamadas similares? Y si es así, ¿cuáles prevalecerán? ¿Y qué haremos con un conjunto fragmentado y dispar de declaraciones de ética de IA?

En tercer lugar, algunos creen que esta garantía es muy blanda y demasiado general.

Probablemente, el documento no contiene directivas sustantivas que podrían implementarse de manera práctica.

Además, aquellos desarrolladores que quieran evadir la responsabilidad pueden afirmar que entendieron mal las disposiciones generales o las interpretaron de manera diferente a la prevista.

Entonces, dada la ráfaga de condenas, ¿deberíamos deshacernos de este llamado del Vaticano a favor de la algoética de la IA?

Alejándome del tema, noto que algoética es un nombre que se le da a cuestiones relacionadas con la ética algorítmica. Este puede ser un buen nombre, pero no es muy sonoro y es poco probable que sea generalmente aceptado. El tiempo dirá.

Volviendo al tema, ¿deberíamos prestar atención a este llamado a la ética de la IA o no?

Si debemos.

A pesar de que este documento, ciertamente, no prevé sanciones financieras por incumplimiento de los principios, hay otro aspecto que también es importante tener en cuenta. Las empresas que firman esta convocatoria pueden ser responsables por el público en general. Si rompen sus promesas y la iglesia lo indica, entonces la mala publicidad puede dañar a estas compañías, lo que conducirá a la pérdida de negocios y reputación en esta industria.

Se podría decir que por violar estos principios hay algún tipo de pago implícito, o asumir que está oculto.

En cuanto a la aparición de la religión en un tema donde, como parece, no le pertenece, entonces comprenda que este es un tema completamente diferente. Este tema merece una discusión y debate considerables, pero también reconocemos que ahora hay muchos sistemas éticos y exige una ética de IA de una amplia variedad de fuentes.

En otras palabras, esta llamada no es la primera.

Si estudia cuidadosamente este documento, verá que no hay resúmenes relacionados con la doctrina religiosa. Esto significa que no podría distinguirlo de ningún similar, realizado sin ningún contexto religioso.

Finalmente, desde el punto de vista de la vaguedad de este documento, sí, podría conducir fácilmente un camión Mack a través de numerosas lagunas, pero aquellos que quieran hacer trampa seguirán haciendo trampa.

Supongo que se tomarán más pasos en el campo de la IA, y estos pasos complementarán el documento del Vaticano con una guía específica que ayudará a llenar los vacíos y las omisiones.

También es posible que cualquier persona que intente hacer trampa sea condenada por todo el mundo, y las declaraciones falsas sobre un supuesto malentendido del documento se considerarán trucos obvios que son necesarios solo para evitar cumplir con estándares éticos de IA razonablemente formulados y bastante obvios proclamados en documento.

Hablando de la creencia de que todos entienden los principios de la ética de la IA, considere el uso innumerable de la IA.

Hay un ejemplo interesante en el campo de la IA aplicada relacionado con el tema de la ética: ¿deberían desarrollarse vehículos no tripulados y ponerse en marcha de acuerdo con el atractivo del Vaticano?

Mi respuesta es sí, definitivamente así.

De hecho, insto a todos los fabricantes de automóviles y vehículos a firmar este documento.

En cualquier caso, veamos este problema y veamos cómo se aplica esta apelación a vehículos reales no tripulados.

Niveles de vehículos no tripulados


Es importante aclarar a qué me refiero cuando hablo de vehículos totalmente no tripulados con IA.

Los vehículos no tripulados reales son vehículos en los que la IA se gestiona sin ayuda humana.

Dichos vehículos se asignan a los niveles 4 y 5, mientras que los automóviles que requieren la participación humana para conducir juntos generalmente se asignan a los niveles 2 o 3. Los automóviles en los que conducir con la ayuda de una persona se llaman semiautónomos, y generalmente contienen muchas funciones adicionales que se denominan ADAS (sistemas avanzados de asistencia al conductor).

Hasta ahora, no hay un vehículo completamente no tripulado de nivel 5. Hoy, ni siquiera sabemos si esto se puede lograr y cuánto tiempo llevará.

Mientras tanto, se está trabajando en el área de nivel 4. Se realizan pruebas muy estrechas y selectivas en las vías públicas, aunque existe un debate sobre la admisibilidad de dichas pruebas (algunos creen que las personas que participan en las pruebas en carreteras y autopistas actúan como conejillos de indias, que pueden sobrevivir o morir en cada prueba) .

Dado que los autos semiautónomos requieren un conductor humano, la adopción de tales autos por parte de las masas no será muy diferente de conducir autos comunes, no hay nada nuevo que se pueda decir sobre ellos en el contexto de nuestro tema (aunque, como pronto verá, los puntos que se considerarán más aplicable a ellos).

En el caso de los automóviles semiautónomos, es importante advertir al público sobre el aspecto alarmante que ha surgido recientemente, a pesar de las personas que continúan publicando videos sobre cómo se quedan dormidos mientras conducen automóviles de 2 o 3 niveles, todos debemos recordar que el conductor no puede distraerse de conducir un automóvil semiautónomo.

Usted es responsable de las acciones para controlar el vehículo de nivel 2 o 3, independientemente del nivel de automatización.

Vehículos no tripulados y ética de IA


En los vehículos de los niveles 4 y 5, una persona no participa en la gestión, todas las personas en estos vehículos serán pasajeros y AI conducirá.

A primera vista, puede suponer que no hay necesidad de considerar los problemas de ética de la IA.

Un vehículo no tripulado es un vehículo que puede transportarlo sin el conductor.

Puede pensar que no hay nada como esto, y no hay consideraciones éticas en cómo el controlador AI maneja el control.

Lo sentimos, pero aquellos que piensan que todo esto no tiene nada que ver con la ética de la IA necesitan golpear la cabeza o echar agua fría sobre estas personas (estoy en contra de la violencia, esto es solo una metáfora).

Hay muchas consideraciones relacionadas con la ética de la inteligencia artificial (puede leer mi reseña eneste enlace , un artículo sobre los aspectos globales de la ética de la IA se encuentra aquí , y un artículo sobre el potencial del asesoramiento de expertos en esta área está aquí ).

Echemos un breve vistazo a cada uno de los seis principios básicos descritos en el Llamado romano a la ética de la inteligencia artificial.

Me esforzaré por mantener este artículo conciso y, por lo tanto, ofreceré enlaces a mis otras publicaciones, que contienen información más detallada sobre los siguientes temas importantes:

Principio 1: "Transparencia: los sistemas de IA deben ser inherentemente explicables"


Entras en un auto no tripulado, y él se niega a ir a donde tú dijiste.

Hoy en día, la mayoría de los sistemas de conducción no tripulados se desarrollan sin ninguna explicación sobre su comportamiento.

El motivo del rechazo puede ser, por ejemplo, un tornado o una solicitud que no se puede realizar (por ejemplo, no hay carreteras transitables cerca).

Sin embargo, sin XAI (la abreviatura de AI, que funciona con explicaciones), no comprenderá lo que está sucediendo (más sobre esto aquí).

Principio 2: "Inclusión: se deben tener en cuenta las necesidades de todas las personas para que los beneficios sean los mismos para todos, y se deben ofrecer a todas las mejores condiciones para la autoexpresión y el desarrollo"


A algunos les preocupa que los vehículos no tripulados estén disponibles solo para los ricos, y que no traerán ningún beneficio al resto de la población (ver Enlace aquí).

¿Qué obtenemos: movilidad para todos o para unos pocos?

Principio 3: “Responsabilidad: quienes desarrollan e implementan sistemas de IA deben actuar con responsabilidad y su trabajo debe ser transparente”


¿Qué hará la IA en una situación en la que tendrá que elegir si golpea a un niño que salió corriendo a la carretera o choca contra un árbol, lo que dañará a los pasajeros?

Este dilema también se conoce como el problema del carro (ver enlace). Muchos requieren que los fabricantes de automóviles y las compañías de tecnología de vehículos no tripulados sean transparentes sobre cómo sus sistemas toman decisiones a favor de la vida o la muerte.

Principio 4: "Imparcialidad: construir sistemas de IA y actuar sin prejuicios, garantizando así la justicia y la dignidad humana"


Supongamos que un automóvil con control automático responde a los peatones según sus características de carrera.

O suponga que una flota de vehículos no tripulados aprende a evitar conducir en ciertas áreas, lo que privará a los residentes del acceso gratuito a automóviles que no necesitan un conductor.

Los prejuicios asociados con el aprendizaje automático y los sistemas de aprendizaje profundo son una preocupación importante

Principio 5: "Confiabilidad: los sistemas de IA deben funcionar de manera confiable"


Usted conduce un automóvil con control automático, y de repente él se mueve al costado del camino y se detiene. ¿Por qué? Puede que no tengas ni idea.

La IA puede haber alcanzado los límites de su alcance.

O tal vez el sistema de inteligencia artificial se bloqueó, se produjo un error o algo así.

Principio 6: "Seguridad y confidencialidad: los sistemas de inteligencia artificial deben funcionar de manera segura y respetar la confidencialidad del usuario"


Te subes a un vehículo no tripulado después de divertirte en los bares.

Resulta que esta máquina tiene cámaras no solo afuera sino también adentro.

De hecho, las cámaras en la cabina son necesarias para atrapar a los pasajeros que dibujarán graffiti o estropearán el interior del automóvil.

En cualquier caso, todas estas cámaras lo llevan todo el tiempo mientras conduce en un automóvil no tripulado, y sus frases incoherentes también aparecerán en este video, porque está en un estado de embriaguez.

¿Quién es el dueño de este video y qué puede hacer con él?

¿Debería el propietario de un automóvil no tripulado proporcionarle un video? ¿Hay algo que le impida subir este video a Internet?

Hay muchos problemas de privacidad que aún deben abordarse.

Desde una perspectiva de seguridad, hay muchas opciones de piratería para sistemas de conducción inteligentes.

Imagina a un atacante que puede hackear un dron con IA. Él puede tomar el control, o al menos ordenar un automóvil que lo lleve al lugar donde los secuestradores lo están esperando.

Hay muchos escenarios espeluznantes asociados con agujeros de seguridad en sistemas de vehículos no tripulados o en sus sistemas en la nube. Y los fabricantes de automóviles, junto con las compañías de tecnología, deben usar los sistemas de protección y precauciones necesarios.

Conclusión


Si compara este llamado a la ética de la IA con muchos otros, encontrará que tienen mucho en común.

La crítica, que afirma que al final tendremos una multitud inconmensurable de tales apelaciones, es algo cierta, pero se puede suponer que cubrir absolutamente todos los fundamentos tampoco perjudicará.

Esta situación está comenzando a ser un poco confusa, y los fabricantes de IA usarán la excusa de que, dado que no hay un único estándar aceptado, esperarán hasta que aparezca dicho documento.

Suena como una excusa razonable, pero no lo compraré.

Todos los fabricantes que dicen que van a esperar hasta que se apruebe la versión mundial compilada por algún pez gordo, de hecho, están listos para posponer la adopción de cualquier código de ética de IA, y sus expectativas pueden ser las mismas. como esperar a Godot.

Le insto a que elija cualquier manual sobre la ética de la IA, en el que haya algo importante, y que sugiera una fuente autorizada, y continúe con la implementación de esta ética.

Mejor temprano que tarde.



imagen

Sobre ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Leer más artículos útiles:


All Articles