El encuentro sobre inteligencia artificial (IA) del pasado 20 de diciembre, promovido por el Cercle d'Economia de Mallorca, me hizo recordar películas futuristas sobre rebeliones de las máquinas. En las cintas de la serie Terminator, la computadora Skynet concluye que la mayor amenaza para la humanidad es la propia humanidad, desatando una guerra entre seres humanos y androides asesinos. Recordé también el volumen Yo robot de Isaac Asimov (1950) y sus famosas tres leyes de la robótica. La primera es que un robot nunca puede hacer daño a un ser humano, pero ya se han dado varios casos de robots que han matado a personas.
El pasado noviembre se produjo un accidente mortal en Corea del Sur, cuando un robot empujó a la víctima por la cara y el pecho contra una cinta transportadora, al confundirlo con una de las cajas que manipulaba. También en la industria del automóvil se han dado casos de accidentes mortales por robots. En los vehículos autónomos, sus algoritmos se programan para minimizar el daño a los seres humanos, pero como lúcidamente comentó en un corrillo del encuentro la catedrática y académica Asunción Gómez, la valoración social (que es en la que se basa el algoritmo) entre una persona y una vaca no será igual aquí que en la India.
La panelista sobre robótica del encuentro fue la menorquina María Bauzá Villalonga, una multipremiada doctora por el Instituto de Tecnología de Massachussets (MIT). Al preguntarle sobre el principal problema futuro en relación con la robótica, desde el punto de vista del ciudadano, apuntó sin dudar a la desinformación. La educación es fundamental. Sobre responsabilidad legal del robot afirmó no ser la persona más experta, pero sí aseguró que los aspectos legales no frenarán el desarrollo. El reto actual es la máquina multitarea, pero eso no quiere decir que el robot que hace cirugía vaya a rescatar a una víctima de un accidente natural porque tiene otras capacidades, un cuerpo (embodiment) diferente, aunque ambos pueden compartir una parte importante de inteligencia artificial.
Coincido con la investigadora en que se habilitarán soluciones para la gobernanza robótica. Ya hay iniciativas empresariales como el documento Ethically Aligned Design de la organización profesional internacional IEEE, o el Partnership on AI, de las grandes empresas tecnológicas. También acciones impulsadas por la ONU (Informe: gobernar la IA para la humanidad, del grupo asesor sobre IA), o del Parlamento de la UE y de las agencias de los Estados miembros. Lo alarmante es el desarrollo de robots para ser usados en conflictos armados, y el riesgo adicional de que sean hackeados y utilizados en acciones delictivas o terroristas. Organizaciones y expertos como el profesor Noel Sharkey (Universidad de Sheffield) piden a países como EEUU, China, Corea y Rusia que paralicen el desarrollo de armas que funcionen de forma totalmente autónoma. La falta de discriminación hará aumentar el número de víctimas civiles inocentes, aunque desgraciadamente, a tenor de lo que vemos en Oriente Medio, el mayor peligro para la humanidad parece ser la propia humanidad. Al final, Skynet no estaba tan desencaminada.