La inteligencia artificial (IA) ya es un hecho, y se puede ver en la cantidad de dispositivos que cuentan con ella, coches autónomos, drones o la más que previsible implantación de la digitalización en el mundo laboral.

Y es que, según la consultora IDC, el gasto mundial para el 2018 en IA, alcanzará los 19, 1 millones de dólares, llegando a los 52,2 millones de dólares para el año 2021. Hasta este año, Estados Unidos lideraba la inversión en IA, pero actualmente tiene paralizada esa línea de inversión, en cambio Francia, a anunciado recientemente un plan de IA que incluye $ 1.6 mil millones en fondos, nuevos centros de investigación, iniciativas de intercambio de datos y pautas éticas.

Por ello, el debate sobre su relevancia social y sus posibles consecuencias en el mundo económico, laboral o en la sociedad en general, cada vez está más en auge. Lo que se traduce en una gran carga moral, que ha llevado a que diversas instituciones, como los gobiernos o las universidades, estén comenzando a plantear también los dilemas éticos que serán la base de la legislación futura.

La Roboética

La inteligencia artificial no es nueva, pero su influencia en la vida de las personas se ha disparado en los últimos años. Se espera que, dentro de dos años, más del 80% de los líderes empresariales trabajen codo con codo con dispositivos con IA.

A medida que estos dispositivos se convierten en una parte más importante de la sociedad y toman decisiones cada vez más relevante, es necesario asegurarse que esta inteligencia artificial va aprendiendo de la manera correcta.

Es importante enseñarle, no solo información, sino los principios de buena ciudadanía: responsabilidad, equidad y transparencia.  La crianza de la IA requiere que se aborden muchos de los mismos desafíos que enfrenta la educación humana: fomentar la comprensión de lo correcto y lo incorrecto, y lo que significa comportarse de manera responsable.

Implicaciones económicas, éticas y sociales de los avances en la inteligencia artificial, Reino Unido:

En Reino Unido, la cámara de los Lores ha mostrado un informe sobre las «implicaciones económicas, éticas y sociales de los avances en la inteligencia artificial». En dicho informe, se propone un «código de IA» nacional e internacional basado en cinco principios para asegurar que el país se convierta en «un líder mundial» en la aplicación de la industria del aprendizaje automático.

  • La inteligencia artificial debe desarrollarse para el bien común y el beneficio de la humanidad.
  • La inteligencia artificial debería operar según los principios de inteligibilidad y equidad.
  • La inteligencia artificial no se debe utilizar para disminuir los derechos de los datos o la privacidad de las personas, las familias o las comunidades.
  • Todos los ciudadanos deberían tener el derecho de ser educados para permitirles evolucionar mental, emocional y económicamente junto con la inteligencia artificial.
  • El poder autónomo para herir, destruir o engañar a los seres humanos nunca debe ser conferido a la inteligencia artificial.

Kriti Sharma, vicepresidente de AI de la firma británica Sage, argumenta:

“Implementar un código de ética universal para IA es una muy buena idea y es algo que hemos implementado de forma independiente en Sage para educar a nuestra gente y proteger a nuestros clientes. Este paso será fundamental para garantizar que estamos construyendo IA segura y ética, pero debemos pensar cuidadosamente sobre su aplicación práctica y la división de responsabilidades entre las empresas y el gobierno, específicamente al considerar su aplicación a sectores específicos de la industria y garantizar la aceptación y adopción rápida de la comunidad empresarial.”

Carta abierta a las Naciones Unidas:

Esta preocupación que muestra Reino Unido no es novedosa, y es que por ejemplo la carta abierta a las Naciones Unidas firmada por Elon Musk y otros líderes, en agosto de 2017, ya mostraba la reticencia de utilizar la inteligencia artificial en armamento, argumentando que la falta de control sobre ellas podría desencadenar consecuencias nefastas para la sociedad. Según Musk:

«La inteligencia artificial es el raro caso en el que creo que necesitamos ser proactivos en la regulación en lugar de reactivo. Porque creo que, para cuando hayamos reaccionado a la regulación de la IA, será demasiado tarde. La IA es un riesgo fundamental para la existencia de la civilización humana».

Declaración de Barcelona para el adecuado desarrollo y uso de la inteligencia artificial en Europa:

A nivel nacional, la “Declaración de Barcelona para el adecuado desarrollo y uso de la inteligencia artificial en Europa”, también muestra la preocupación entorno al uso inadecuado, prematuro o malicioso de la IA, buscando la necesidad de crear conciencia sobre las limitaciones de la inteligencia artificial y de la acción colectiva para garantizar que AI sea utilizada para el bien común de maneras seguras, confiables y responsables. La declaración da paso en esta dirección y propone elementos para un código de conducta para los profesionales de IA (tanto desarrolladores como usuarios de IA) en Europa.

Declaración de la Unión Europea para la cooperación del desarrollo de la inteligencia artificial:

Veinticinco países de la Unión Europea han firmado una declaración en la que se comprometen a cooperar para que el desarrollo de la inteligencia artificial vaya por buen camino. Definiendo las medidas de prevención y control necesarios, que van desde el planteamiento de un botón que pueda desactivar la maquina inmediatamente hasta el cumplimiento estricto de las Leyes de la Robótica de Asimov.

Además de contar con un fondo suplementario para asegurar la compensación a las victimas de accidentes provocados por dispositivos con IA, como por ejemplo las victimas de accidentes en los que estén implicados vehículos autónomos.

La formación de los expertos

Sin embargo, a pesar de la influencia que tiene la inteligencia artificial en la sociedad y de toda la legislación planteada, el estudio de los dispositivos integrados con IA se lleva a cabo por un grupo muy reducido de personas. Los científicos que crean agentes de inteligencia artificial son casi exclusivamente los mismos científicos que estudian el comportamiento de los agentes de IA.

A medida que estos informáticos crean sus agentes para resolver tareas particulares, se enfocan en garantizar que sus agentes cumplan con su función prevista. Para esto, utilizan una variedad de conjuntos de datos de referencia y tareas que hacen posible comparar diferentes algoritmos de forma objetiva y consistente.

Este estudio específico de la tarea del comportamiento de los dispositivos de inteligencia artificial, aunque limitado, es extremadamente útil para el progreso de los campos de la IA y la robótica. Permite la comparación rápida entre algoritmos basados en criterios objetivos y ampliamente aceptados.

Por eso en la revista Nautilus, los investigadores del MIT Lab, Iyad Rahwan y Manuel Cebrián van más allá y plantean la necesidad de crear una nueva disciplina académica para el estudio del “comportamiento de la máquina”.  Que formaría a los profesionales en diversos aspectos alejados del ámbito tecnológico, como la prudencia, la fiabilidad, la responsabilidad, la autonomía restringida o el factor humano.

Para poder llegar a ese punto en el que las características tecnológicas estén en sintonía con las características más sociales, existen compañías que ofrecen herramientas para ello.

Un ejemplo es SingularityNET, un mecanismo económico radicalmente innovador, diseñado para catalizar la inteligencia humana y de máquina hacia una nueva forma de inteligencia autoorganizada éticamente beneficiosa. Para ello, se basa en un protocolo de código abierto y colección de contratos para un mercado descentralizado de servicios coordinados de inteligencia artificial.

A pesar de la IA todavía está lejos de permitir diálogos profundos, tener sentido común o manejar la ironía, es importante no perder de vista como debe de evolucionar, y que puntos debe de tener en cuenta, por eso a partir de ahora los científicos no deben de fijarse solo en los aspectos tecnológicos, si no que deben incluir la ética dentro de sus puntos a tratar.

Robots con personalidad

Por otro lado, y a pesar de todo lo dicho anteriormente ¿Qué pasaría si se dotara a los robots de autonomía moral? La compañía Acuilae que tiene como objetivo principal dotar de valores morales a la inteligencia artificial, ha buscado una solución.

Ha creado Ethyka, un módulo de programación en Inteligencia Artificial que asegura tener en cuenta diversos patrones éticos y morales y comportamientos humanos para permitir a los robots o sistemas autónomos a analizar dilemas complejos y actuar de la mejor forma posible. Tanto en conversaciones con humanos como ante diversas situaciones.

Además, se espera que pueda ayudar en la toma decisiones teniendo en cuenta valores éticos, tanto en salud, como en justicia, educación, cuidado de mayores o, incluso, en conducción autónoma. Ya que puede implantarse en asistentes virtuales, unidades autónomas o simplemente en cualquier aplicación o servicio web.

Gracias el sistema de Ethyka se podrían solucionar los problemas como el que presentó Tay, el robot conversacional creado por Microsoft y que tubo que ser retirado, ya que comenzó a emitir mensajes con contenido racista.

Conclusiones

La inteligencia artificial ha venido para quedarse tanto con sus ventajas como con sus desventajas, se trata de una tecnología que ya se encuentra instalada en muchos de los dispositivos que nos rodean, smartphons, tablets, asistentes virtuales.

Y como toda tecnología emergente necesita de una legislación que la encamine hacia un futuro prometedor, y es que, una de las principales características de la inteligencia artificial es su capacidad para aprender y poder llegar a tomar decisiones, pero ¿Qué pasaría si una decisión tomada por un dispositivo inteligente tuviera consecuencias nefastas?

Hasta ese punto es necesario que lleguen todas las compañías que buscan implementar la inteligencia artificial en sus trabajos, para ello tienen opciones como las ofrecidas por Acuilae con Ethyka o SingularityNet. Además de la necesidad de seguir las leyes promulgadas entorno a ese ámbito.