Como tecnología del futuro inmediato, la Inteligencia Artificial está planteando algunos nuevos retos y nuevas soluciones, pero también nuevos problemas que es preciso afrontar. En materia de ética, deontología y también ciberseguridad, la Inteligencia Artificial es un desafío al que debemos saber responder.
En junio de 2018, se anunció la carta de Principios de Google para la Inteligencia Artificial (Google’s AI Principles), que supone una declaración de principios éticos y deontológicos en el uso de la AI por parte de la más importante y prestigiosa empresa de Internet.
Un comité de expertos de Google estudia esta materia
Para establecer tales principios, Google ha constituido un Consejo de Asesoramiento Externo en Tecnología Avanzada (Advanced Technology External Advisory Council: ATEAC). Este organismo colegiado tiene por misión responder a los más importantes retos éticos que plantea la Inteligencia Artificial: así, por ejemplo, el reconocimiento facial, actuación justa y correcta en el aprendizaje automático o machine learning, proporcionándonos perspectivas diversas para informar nuestro trabajo al respecto.
Los miembros del primer ATEAC son diversos expertos en Inteligencia Artificial, ética, informática y políticas públicas, procedentes de los más variados países, como China, Gran Bretaña, o los Estados Unidos.
Las actividades de ATEAC comienzan, precisamente, en abril de 2019. Su composición de sabios merece la aprobación y respeto de la mayoría, pero no ha estado libre de algunas disensiones al respecto. La inclusión de Kay Coles James ha sido blanco de objeciones, críticas y controversias, porque pertenece a una determinada opción ideológica muy concreta, que ha generado discrepancias por parte de algunos.
Ética y autorregulación
El principal aspecto controvertido sobre el ATEAC es el que invoca el profesor Ben Wagner, Director del Centro de Internet y Derechos Humanos de la Universidad Europea Viadrina (Frankfurt, Alemania), quien afirma que el entusiasmo por la parafernalia ética encubre en realidad el ánimo de evitar la regulación gubernamental.
Sea como fuere, y hasta que las Administraciones Públicas adopten la necesaria postura al respecto, lo cierto es que la Inteligencia Artificial precisa de una postura ética y deontológica clara, y la autorregulación del tejido empresarial y del sector privado al respecto es indispensable hoy por hoy. Al tiempo que la revolución tecnológica digital continúa avanzando de día en día, lógicamente abre nuevos problemas éticos y políticos y numerosas cuestiones que aún están por resolver.
En todo caso y sea como fuere, son varias las grandes empresas del sector que están adoptando códigos éticos con respecto a la AI. Google no es la única empresa con un Consejo de Ética y una tabla declarativa al respecto, por supuesto. Su filial de la AI de Londres, DeepMind, cuenta igualmente con una comisión, aunque nunca se ha revelado quién está en ella o lo que están haciendo.
Microsoft tiene sus propios principios de AI, y fundó su Comité de Ética de AI en 2018. Amazon ha comenzado a patrocinar la investigación sobre la “equidad en la inteligencia artificial” con la ayuda de la Fundación Nacional de Ciencias, mientras que Facebook incluso ha cofundado un centro de investigación de ética en la AI en Alemania.
Pero cabe añadir que tampoco este punto está exento de polémica. A pesar de su proliferación, estos programas tienden a compartir debilidades fundamentales, dice Rumman Chowdhury, un científico de datos y líder de Ia consultoría de gestión Accenture. Uno de los puntos más importantes es que carecen de transparencia.
Los problemas éticos en el uso de la Inteligencia Artificial
Uno de los grandes expertos en Inteligencia Artificial, Nick Bostrom, pronostica que la superinteligencia sintética probablemente llegará a ser autónoma de los seres humanos y a crear sus propias inteligencias. Las máquinas que funcionan con AI son cada vez más autónomas, lo que nos ha de llevar a redefinir y volver a pensar nuestras relaciones con ellas.
También se dará un momento en el cual la AI alcanzará los mismos niveles cognitivos que los humanos, y ello también abre, lógicamente, un camino lleno de interrogantes y de nuevos horizontes.
Lo que Bostrom llama superinteligencia y Kurzweil llama singularidad, no es sino la ingente expansión de la AI para el siglo XXI, que se prevé que llegará a dominar varios ámbitos humanos, con los problemas éticos que ello supone:
Destrucción de puestos de trabajo, abandono de ámbitos intelectuales cultivados por nuestra especie, automatización de numerosos procesos que no entrarían en esta esfera hasta ese momento.
Además de ello, ha de aludirse a los grandes beneficios que la AI está proporcionando a la industria militar y armamentística (robótica, drones, etc), lo que ya está comenzando a repercutir en las guerras actuales (ejemplo de los misiles inteligentes, aviones autopilotados, etc).
También se da el problema de lo que el profesor norteamericano Langdon Winner denomina el sonambulismo tecnológico: es decir, la creencia de que la tecnología solucionará todos nuestros problemas en el futuro, eximiendo al propio ser humano de tener que intervenir en diversos ámbitos. Winner afirma, asimismo, que tendemos a obrar grandes cambios tecnológicos sin reflexionar previamente sobre las amplias consecuencias que puedan acarrear.
El propio progreso tecnocientífico es cada vez más raudo, y los ciclos de la revolución tecnológica, cada vez más cortos. Ello produce en el ser humano un desconcierto cada vez mayor, que provoca que nos encontremos desorientados ante el futuro que nosotros mismos construimos.
Ante lo impredecible y a la postre inabarcable del poder potencial de la tecnología, la postura adecuada es la sinergia, la coordinación de los elementos que la constituyen al servicio del propio ser humano. En una palabra: integración.
Esta es la corriente inexorable del mundo actual: la convergencia de diversas soluciones entre sí, para alcanzar un óptimo rendimiento y un verdadero progreso material y moral.