Históricamente, el desarrollo siempre implicó una desigualdad. Una tribu era más poderosa que la otra si controlaba el fuego o armas de filo. La revolución industrial, iniciada en Inglaterra, marcó una gran diferencia de tecnologías con el resto del mundo. La bomba nuclear aumentó la escala de desigualdad, dando el poder de destruir países o regiones enteras a unos pocos, por la simple acción de apretar un botón.
La lista de ejemplos es bastante extensa, pero nos basta entender que esta desigualdad trae consigo la incertidumbre; la duda de las intenciones que tiene aquel que posee el dominio de estos desarrollos.
Sobre estas reflexiones descansa, en un cierto sentido, nuestro carácter de empatía: no sabemos ni quién ni cómo es aquel que tiene estos desarrollos; no sabemos sus intenciones. Pero de lo que sí estamos seguros es que es tan humano como nosotros -en el sentido estricto de la definición de humano-. La actualidad en la que transcurrimos rompe con este común denominador de nuestra historia.
Los abismales avances en inteligencias no naturales abrieron la puerta a un abanico de aplicaciones. Al día de la fecha, estos desarrollos son capaces de manejar nuestro lenguaje, crear textos verosímiles, mantener una conversación con humanos, crear imágenes a partir de sus conocimientos, entre muchas más capacidades. Pueden hacer diagnósticos médicos, ayudar en el veredicto de una condena legal y hasta trazar nuevos conocimientos. Hasta hoy, la última decisión la ha tenido el humano, pero, ¿hasta cuándo será esto cierto? ¿Hasta cuándo podremos guiarnos de nuestra empatía y estar seguros de que quien tenemos en frente, quien tiene una capacidad o desarrollo superior al nuestro, es tan humano como nosotros?
Entre los dilemas que abrió la IA, aparece el sentido del trabajo, la influencia en la educación y hasta el valor que empiezan a tener las ideas originales, los trabajos artísticos y los científicos. En síntesis, un shot de existencialismo -mucho más potente que uno de tequila-.
La IA ya se inició a filtrar en estos espacios y unos cuantos más. Sin embargo, aún no se toman medidas concretas, puesto que ni siquiera hay un consenso de estas problemáticas y sus potenciales consecuencias.
En medio de estos debates, se juega con un dilema no más importante que los mencionados, pero sí que debería tratarse con una mayor delicadeza. Hace un par de párrafos, nos preguntamos hasta cuándo podríamos estar seguros de que, frente a nosotros, se encuentra un humano tan humano como nosotros. Cuando pasemos esa barrera, de que tal vez quien tenga poder de manejar nuestros vehículos, nuestra industria o hasta de activar una bomba no sea un humano, ¿qué haremos? ¿Qué sucederá cuando ya la ultima palabra no sea del humano?
Las preguntas que surgen en torno a la inteligencia artificial no buscan desestimar sus beneficios, sino más bien fomentar un debate esencial para garantizar que nuestro futuro, ya sea a nivel individual o colectivo, no se convierta en una distopía clásica. Ignorar estos interrogantes podría llevarnos a una situación en la que las decisiones queden en manos de neuronas artificiales que, hasta donde sabemos, carecen de emociones fundamentales como la empatía. Es crucial abordar estos temas antes de que sea demasiado tarde.
La progresiva confianza que se le está dando a estas neuronas artificiales hace que sea lógico preguntarnos esto, puesto que podría llegar a darse en un futuro no tan lejano. Si estos sistemas comienzan a tener poder de acción, deberán tener -y aprender, mediante su sistema de aprendizaje basado en conocimientos humanos- una moral fundada en una ética, la cual les permita tener juicio para tomar decisiones en un sinfín de situaciones.
Entramos en un dilema que parece no tener una respuesta clara. Establecer una ética apropiada entre humanos de por sí es absurdo -el simple hecho de tener las palabras “ética” y “apropiada” en la misma oración es una insensatez-. Si ya es complejo ponernos de acuerdo entre humanos sobre los principios y criterios que son correctos a la hora de guiar nuestra conducta, ¿qué le transmitimos a estos sistemas inteligentes?
Aunque no esbozaremos en este artículo una respuesta concreta, mencionaremos algunos puntos a tener en cuenta en este debate.
Para ponernos a la altura, ejemplifiquemos la complejidad que existe para lograr una concordancia ética. Utilicemos un clásico: el Problema del Tranvía de San Francisco. Un tren se desplaza a toda velocidad por una vía donde más adelante se encuentran 5 obreros trabajando. Tú te encuentras a una distancia tal que no te permite gritarles o llevar a cabo cualquier acción que evite el desastre. Lo único que posees es una palanca, la cual desviaría al tren a otra vía, donde se encuentra un solo obrero trabajando. ¿Qué harías? Accionar la palanca significaría la muerte de una persona, mientras tu inacción acabaría con la vida de 5 personas.
Modifiquemos un tanto el ejemplo: ahora imagina que te encuentras a un lado de las vías del tren que se aproxima a los 5 obreros. Al igual que en el primer caso, no podrías alertarles, pero sí puedes hacer algo para evitar que mueran: al lado tuyo, se encuentra una persona que, si la empujaras a las vías, el tren se frenaría antes de chocar a los obreros -acompañen con la imaginación-. ¿Lo empujarías?
Aunque para algunas personas la decisión es clara, la opinión general varia drásticamente dependiendo de la época y la cultura en la que viven, como así también en el idioma en el que es contado o cómo es explicado -las palabras que se usen-. De esta manera, evidenciamos que en un ejemplo no podemos ponernos de acuerdo en qué está bien o qué está mal, volviendo a nuestro interrogante inicial acerca de qué enseñarles a las Inteligencias Artificiales.
Siguiendo esta línea, podemos encontrar algunos esbozos de ética aplicada a la IA en la literatura, específicamente en la ciencia ficción. Isaac Asimov, quien se ha encargado de debatir esta convivencia entre máquinas inteligentes y humanos en sus relatos, confeccionó las llamadas Leyes de la Robótica. Estas enmarcan, según Asimov, los principios básicos que deberían seguir estas inteligencias no naturales, las cuales son:
Por supuesto, estas leyes no abarcan, ni cerca, la totalidad de valores que una IA debería tener en cuenta a la hora de tomar decisiones. No obstante, cumplen una función decente como principios fundamentales. Nada mal para haber sido escritas en 1942, mucho antes de la creación de las primeras neuronas de silicio.
Existen innumerables puntos a tener en cuenta para confeccionar una ética aplicada a estos sistemas. Si a esto le sumamos la variedad de principios que guían y fundamentan la acción de ellas, nos encontramos en una maraña de pensamientos.
Lo que sabemos, sin tener alguna duda de por medio, es que si la IA comienza a tener poder de acción, sin necesidad del “ok” de un humano, deberíamos educarlas con principios básicos que las orienten a la hora de tomar decisiones. ¿Qué ocurriría si no lo hacemos? A la velocidad con la que avanzan estas tecnologías, podrían comenzar a generar sus propios pensamientos, decantando en principios que estructuren su accionar. Esos pensamientos podrían tornarse en la más vasta variedad de consecuencias, pudiendo promover beneficios a nuestra especie, como así también podrían llegar a despreciar nuestra utilidad. Los futuros posibles son incalculables.
Nota al pie:
Si hacemos un artículo de Inteligencias Artificiales, no podemos escribirlo dejándolas afuera, ¿no es verdad?
Chat-GPT fue coautora de esta publicación. Este dato, por sí solo, no significa mucho: la portada fue claramente hecha por IA.
Lo que tal vez sorprenda al lector es que, luego de haber entregado este artículo a la IA, le fue pedido que confeccione tanto el título como un párrafo adicional. Ambos pedidos fueron incluidos en la publicación. ¿Pudiste identificar aquello producido por una inteligencia no humana?
Escrito por: Dorsch, Santiago