2019-09-25
En la década de 1960 la filósofa británica Philippa Foot planteó un experimento filosófico llamado “el dilema del tranvía” que consiste en imaginar una persona al mando de un tranvía en rumbo de colisión hacia un vehículo atorado en las vías, donde hay cinco personas atrapadas. El conductor puede desviarse hacia una vía secundaria donde hay una persona tendida sobre las vías. ¿Debe el conductor pasar encima de la persona tendida para salvar a cinco personas o no hacer nada y con su inacción arrollar a cinco individuos?
Este dilema tiene numerosas interpretaciones, variaciones respuestas. Sin embargo, en todas ellas hay un elemento común: un ser humano de carne y hueso toma la decisión y será responsable de lo que suceda con el tranvía. ¿Qué pasa si en lugar de una persona es un agente de inteligencia artificial (IA) quien está al mando?, ¿quién se hace responsable de lo que haga un tranvía autónomo? Parece una pregunta digna de ciencia ficción, pero a medida que más procesos y aparatos usan IA para tomar decisiones y realizar acciones, la responsabilidad exigible a las decisiones de agentes de IA comienza a convertirse en un tema de preocupación para gobiernos, técnicos y expertos en áreas como la ética y el derecho.
Una de las primeras áreas de uso general de la IA será dentro de vehículos autónomos. Desde 2015, ministros de transporte en las siete naciones más desarrolladas del mundo junto con la Unión Europea firmaron una declaración de principios donde se comprometen a coordinar sus esfuerzos para crear reglas y estándares técnicos comunes para la conducción autónoma de vehículos. Sin embargo Alemania es quizá el país con las reglas más detalladas en cuanto a la conducta de vehículos, ordenándole a los creadores de IA automotriz privilegiar la protección de la vida humana por encima de la integridad de objetos inanimados y animales o prohibir que la IA de los vehículos privilegien salvar vidas basados en características como la etnicidad, el género o la propiedad del vehículo.
Las consecuencias del uso de IA por en situaciones bélicas ha sido retratada dramáticamente por películas como Terminator, en tanto errores de programación o de ejecución por parte de un agente digital puede desencadenar masacres o borrar la humanidad del planeta. Países como China, Rusia y los Estados Unidos han sido de los más entusiastas al momento de incorporar IA en operaciones militares y en el horizonte se abre la posibilidad de tanques y aviones que decidan ataques y bombardeos por sí mismos. Estados Unidos es quizá el único país que tiene directrices públicas para el uso de IA en el campo de batalla acotándola a situaciones donde su uso no pueda provocar heridas o muertes.
Esto no es suficiente hoy cuando las capacidades de la IA militar se incrementan rápidamente, por lo que en enero de este año el Departamento de Defensa de los Estados Unidos solicitó la creación de nuevas reglas para el uso de IA, abriendo la puerta a su uso en situaciones de combate y sin supervisión humana. A su vez el Departamento de Defensa de la India creó a inicios de este año un consejo que se encargará de analizar los mecanismos en los cuales ese país integrará la tecnología en sus fuerzas armadas, así como las reglas de uso durante situaciones de combate.
El uso de IA en el sector financiero es ya una realidad cotidiana, aunque la regulación financiera no ha sido lo suficientemente rápida para establecer reglas de uso por parte de bancos y otras empresas de este sector. Singapur es de las primeras naciones cuya autoridad financiera (Monetary Authority of Singapore) publicó este año un documento para guiar el uso de esta tecnología por parte del sistema financiero en ese país estableciendo siete principios rectores en el uso de esta tecnología que van de la equidad de la IA al momento de tomar decisiones hasta la transparencia hacia los clientes, haciéndoles saber que una decisión financiera fue tomada por un agente de IA además de proveerle al cliente vías para apelar la decisión del agente digital.
Finalmente aparece la cuestión más compleja: dotar la IA de un conjunto de reglas éticas universales aplicables a toda inteligencia digital sin importar su lugar de origen como sucede hoy con los derechos humanos, comunes a todas las personas sin importar su origen. Un reporte de la Universidad de Hong Kong publicado este año señala que la Organización para la Cooperación y el Desarrollo Económico (OCDE) que anunció la publicación de una serie de principios sobre AI adoptados por países miembros de esta organización y otros adherentes estableciendo entre otras cosas que la debe ser una fuerza benéfica para la sociedad, que debe ser comprensible para todas las personas y que quienes desarrollen estos sistemas deben ser sujetos de algún tipo de responsabilidad por su uso.
A su vez China, la otra gran potencia en el desarrollo de IA publicó en mayo de este año un grupo de estándares éticos para el uso de esta tecnología y que incluyen la necesidad de que su propósito sea el beneficio de la humanidad, que esté controlada para evitar causar daños y que su desarrollo sea compartido y abierto a todo mundo.
No es la primera vez que una tecnología presenta el doble filo de la amenaza y el desarrollo de la humanidad: los ataques contra Hiroshima y Nagasaki en 1945 pusieron al mundo ante la posibilidad de una destrucción planetaria por armas nucleares. Acuerdos como el Tratado de No Proliferación Nuclear y entidades como el Organismo Internacional de Energía Atómica han contenido hasta hoy la amenaza del uso indiscriminado de armas nucleares, promoviendo su uso pacífico como fuente de energía. Es posible que la IA corra con una suerte similar, pero eso, solo el tiempo nos lo dirá.