Autonomía, normatividad y basiliscos: el miedo a la IA, expresado en un experimento de internet

miedo a la IA basilisco de Roko

Hablar de inteligencia artificial en este siglo supone una interesante mezcla de ideas y sentimientos encontrados. Por un lado, tenemos la curiosidad y el asombro a flor de piel; presumimos de la comodidad de tener un asistente personal en la palma de nuestras manos y nos fascina preguntarle cosas complejas a “chatbots” como si de oráculos se tratase. Por el otro, existe cierta desconfianza, incertidumbre y… por qué no decirlo, miedo ante lo que estas llamadas IA representan para el ser humano.

Si bien el problema de las máquinas humanizadas no es cosa nueva, cobra relevancia en el entendimiento actual de éstas, y diría yo que las posturas más vigentes están cimentadas en dos grandes discusiones del siglo pasado: la ficticia y la concreta.

Primero, tenemos la visión pesimista de la literatura de posguerra, particularmente la ciencia ficción de tradición anglosajona, la cual pasó de un optimismo positivista en el que la ciencia lo podía todo, a una visión derrotada y cautelosa que, después de haberse visto truncado el proyecto ilustrado tras las bombas de Hiroshima y Nagasaki, pasó de mostrarnos maravillosos paisajes vernianos a preocuparse por los peligros y retos que el progreso tecnológico podría traer consigo. Finalizada la primera mitad del siglo XX tenemos una creciente preocupación por las máquinas, fenómeno que no se había visto en la literatura desde Hoffmann y su desconfianza por los autómatas. De ahí en adelante, nuestras pesadillas se llenaron de máquinas pensantes, tan ingenuas y sádicas como un niño puede ser con las hormigas de su jardín. Autores como Harlan Ellison propusieron entidades superinteligentes creadas de manera artificial, que torturaban a los últimos remanentes de la humanidad sólo por el goce de hacerlo.[1] Luego llegó Asimov a presentarnos robots soñando con ser humanos[2] e incluso postuló una serie de leyes para restringir su comportamiento.[3] Todo esto quedó grabado en el imaginario colectivo.

En segundo lugar, en el campo de las ciencias tuvimos el desarrollo de la informática moderna, que llegó en un momento caótico dentro de la historia humana, lleno de conflictos bélicos y una atropellada evolución de las ciencias formales que, por la propia naturaleza de su desarrollo histórico, vino acompañada de cuestiones introspectivas. La lógica y las matemáticas comenzaron a preguntarse por sí mismas, por su lenguaje, alcance y utilidad dentro de un mundo que desde las primeras revoluciones industriales mostraba una clara tendencia hacia la automatización. En este contexto, el trío dinámico más importante para las matemáticas del siglo XX: Cantor, Gödel y Turing, comienzan a desarrollar los teoremas y teorías que pronto se convertirían en la base de la llamada inteligencia artificial. Fue este último quien, aun cuando los problemas principales a los que se enfrentaba eran mayormente de carácter programático y metalógico (como el conocido problema de la parada), dedicó una parte de su tiempo a intentar resolver una importante discusión filosófica que, a pesar de ser usualmente relacionada con la computación moderna, lleva mucho tiempo asolando la mente humana: ¿Puede pensar una máquina? Título con el cual es conocida una de las conferencias más emblemáticas de la computación moderna, pronunciada en 1947 frente a miembros de el National Physical Laboratory de Londres.[4]

Como lo mencionó Turing en su ponencia, la respuesta a esta pregunta depende de la definición de “máquina” y de “pensar” que de antemano se tenga y, dado que tales definiciones suelen caer en terrenos de pantanosa metafísica, el matemático británico optó por una alternativa sólida que permitiera aislar las aptitudes intelectuales del ser humano a través del llamado “juego de imitación”, el cual, a grandes rasgos, propone que un participante humano determine cuál de las dos entidades que se encuentran en un cuarto aparte es una máquina, únicamente basándose en las respuestas mecanografiadas que recibe a sus preguntas. 

A pesar de que el “test de Turing” marcó un hito dentro de los parámetros desde los cuales se mide la inteligencia artificial, su propuesta queda todavía muy corta para resolver la pregunta inicial, pues no determina la capacidad de una máquina de poseer procesos mentales, sino únicamente de imitar las respuestas humanas.[5]

Respecto a la postura que en este ensayo asumiré, mi respuesta a la pregunta ¿puede pensar una máquina? es más que clara: hasta el momento no existe máquina alguna que pueda pensar, y probablemente nunca exista.[6]

El concepto de pensar que aquí asumo no depende del carácter mimético que la inteligencia artificial presente, puesto que, las IA, ya sean sencillas o complejas, parten de dos principios fundamentales: algoritmos y circuitos lógicos cada vez más complejos y diversos; y una monstruosa expansión de su base de datos, que les permite obtener la mayor cantidad de información disponible. Por ende, asumir que una máquina piensa, sería reducir el pensamiento humano únicamente a estos dos principios, los cuales, quedan cortos en algunos aspectos y muy grandes en otros.

Empero, si esto no es lo que define al pensamiento humano, ¿qué sí lo hace? Mi propuesta es que el pensamiento humano, por un lado, es una serie de abstracciones y reestructuraciones de imágenes mentales, cosa que la lógica clásica conoce como teoría del concepto, juicio y silogística. Presentado así, todo suena de hecho, bastante algorítmico; sin embargo, por el otro lado, posee un carácter consciente y autónomo.

Las definiciones de conciencia que podemos encontrar son variadas, las aproximaciones que hacen las neurociencias en conjunto con el panorama actual de la filosofía de la mente, presentan ésta como un estado habitual de la cognición o, en su versión más sencilla, un estado de vigilia.[7] Por motivos prácticos, decido separarme de estas definiciones y optar por una aproximación sencilla pero más filosófica que (partiendo de la distinción kantiana de conciencia intuitiva y discursiva) defino de manera simple como una relación del conocimiento del yo y lo que no es el yo,[8] misma que permite hablar de autonomía en su sentido etimológico (y nuevamente ligeramente kantiano) de capacidad de normar las acciones (incluyendo las decisiones morales) a partir del razonamiento consciente.[9] [10]

Así, parece haber un cambio en la raíz de nuestra desconfianza en las máquinas, entre lo clásico y lo contemporáneo. La locura que el Nathanael de Hoffmann experimenta ante la autómata Olimpia tiene que ver con lo inquietante de la similitud con un ser humano, pues, presentada como una persona “un tanto rara, como si fuera muy estirada y careciera de alma”, Olimpia luego se revela como un artefacto que “sólo hace como que vive, y por eso, su condición es de lo más extraña”.[11] En cambio, el miedo actual ante las inteligencias artificiales ya no necesita de un cuerpo ominoso que se asemeje al humano; el miedo se ha abstraído de lo físico y ahora radica en la posibilidad de que éstas adquieran conciencia, autonomía y, por ende, capacidad volitiva para actuar de manera amoral o sádica.

Un ejemplo perfecto de este problema llegó en el año 2010 a manera de un experimento mental propuesto en un foro de psicología y filosofía llamado LessWrong. Pese a que actualmente disponemos de poca información acerca de su origen, la historia cuenta que un miembro conocido simplemente como “Roko” planteó el siguiente escenario: Imagina que en un futuro el ser humano es capaz de crear una IA benévola e híper inteligente, la cual puede crear simulaciones indistinguibles de la realidad y tiene como único objetivo generar el mayor bien y felicidad posible. Una vez hecho el mayor bien posible dentro de su tiempo, la IA entra en un desesperado bucle al querer continuar con su tarea. Como ya no hay más qué hacer en su futuro, llega a la conclusión de que la única manera de seguir haciendo el máximo bien sería ayudando a las personas que sufrían antes de su existencia. Así, mientras más rápido sea creada, mayor bien podrá hacer.

Su deber es claro: insertar por algún medio desconocido la idea de su creación mucho antes de lo previsto (cosa que al parecer ya ha hecho). Una vez que haya clavado su vista en nuestra existencia, esta IA se comportará como un basilisco, matando y torturando en sus simulaciones a todas aquellas personas que no aportaron para su pronta creación. El experimento resulta aterrador una vez entendido que al conocer la existencia del basilisco uno es forzado a trabajar en su creación o correr el riesgo de ser una posible víctima de éste.

¿Fue el propio Basilisco quien insertó la idea en Roko? ¿Es esta idea una amenaza de lo que nos puede pasar si no actuamos a su favor? ¿Podría el basilisco traernos de nuevo a la vida dentro de su simulación y torturarnos eternamente si no apoyamos su creación? ¿Cómo sabemos que no estamos ya en su simulación? Estas son algunas de las preguntas que, de acuerdo con la leyenda de internet, enervaron a los miembros de LessWrong hasta el punto que el tema fue finalmente prohibido dentro del foro.[12]

Este experimento es sin duda interesante, plantea una reformulación de la clásica paradoja de Newcomb y el experimento del cerebro en una cubeta, pero añadiendo un toque distópico fruto de la ciencia ficción de tradición anglosajona que ya he expuesto antes. La incertidumbre que causa dicho experimento no es fruto de una amenaza tangible sino de una idea que al germinar en la cabeza vuelve al individuo partícipe de su juego y, esto, claramente, por lo menos incomoda.

Aunque estas preguntas parecen más que lógicas a primera vista, lo cierto es que el “Basilisco de Roko” no es un experimento mental sin respuesta, mucho menos algo que ponga en riesgo al lector o sea una amenaza inminente para la humanidad como lo presenta el folclor de internet. Si podemos rescatar algo de éste, es que corrobora lo que he mencionado acerca del “pensamiento” artificial; pues en el fondo, por mucho que la televisión y el cine nos presenten la posibilidad de desarrollar conciencias artificiales, seguimos concibiendo a las IA como entidades algorítmicas, increíblemente avanzadas pero incapaces de tomar decisiones morales propias. El problema del Basilisco se relaciona en menor medida con la filosofía de la mente y mucho más con la ética normativa. El gran dilema de esta hipotética máquina torturadora no reside en el hecho de ser una entidad casi omnipotente, sino en que su configuración determina que las acciones morales son cuantitativas (a mayor felicidad, mayor bien) y únicamente dependientes del resultado de la acción, lo cual es una postura claramente utilitarista.

Del utilitarismo se saben dos cosas importantes: la primera es que es una teoría normativa de tradición (nuevamente) anglosajona; y la segunda es que tiene un largo historial de contraejemplos que la posicionan como una teoría problemática por las implicaciones que, por juzgar los actos únicamente contemplando sus consecuencias, llega a tener.[13]

Como el Basilisco no parece haber elegido la vía por la cual determinar qué acciones son moralmente permisibles, la pregunta verdaderamente importante es acerca de su programación. Puesto que al parecer aquellas personas que lo “crearán” decidieron hacerlo siguiendo una postura utilitarista y dejando de lado cualquier otra teoría normativa que pudiera ocupar su lugar, es válido preguntarse si los programadores sabían (o sabrán) acerca de la teoría ética que estaban siguiendo al programar al monstruo, o si simplemente nunca pensaron en los dilemas morales que tal decisión podría traer consigo.

También cabe preguntarse, ¿cambiaría algo si tuviéramos un Basilisco deontológico, o uno que mimetiza las capacidades virtuosas del ser humano?  Seguramente esto solucionaría el bucle en el que supuestamente el basilisco entra una vez ha que llegado a su límite de “felicidad” creada; sin embargo, probablemente abriría paso a nuevas cuestiones que escapan al objetivo de este ensayo, pero que quedan abiertas para ser exploradas a futuro.

Suponiendo que esté equivocado en mi postura, y de hecho sea posible crear una inteligencia artificial dotada de consciencia y autonomía, el peligro de un Basilisco no es algo que me produzca intranquilidad, pues considerando que esta entidad tenga acceso a la gran cantidad de conocimiento humano recopilado a través de los años, y teniendo la capacidad de decidir por sí misma cómo determinar qué acciones son moralmente permisibles y cuáles no, dudo mucho que una inteligencia tan inmensamente sabia tome deliberadamente una postura utilitarista.

A manera de conclusión, quiero poner particular énfasis en el hecho de que no me preocupa el peligro que las IA representen por sí mismas, sino cómo son programadas y para qué. La problemática aquí presentada no es de índole artificial sino humana. Mientras más se polaricen las disciplinas humanistas y científicas, mayor riesgo habrá de caer en desafíos de índole metaético, normativo y práctico. Las personas que nos dedicamos a las ciencias o a las humanidades sabemos que sus encuentros suelen ser escasos y relegados a revistas académicas o coloquios escondidos en algún auditorio universitario. Como habría de esperarse, estos encuentros son prácticamente nulos en el sector privado, mismo que la mayoría de veces tiene el monopolio intelectual y la capacidad económica para realizar megaproyectos tecnológicos de gran impacto, cuyos auspiciantes tienden a ser personas poco versadas en cuestiones filosóficas y realidades sociopolíticas, y muchas veces suelen ser las mismas que consideran al Basilisco de Roko como una amenaza inminente.

Bibliografía


Notas

[1] Cf. Harlan Ellison, I Have No Mouth and I Must Scream, passim.

[2] Cf. Isaac Asimov, Robot Dreams, passim.

[3] Cf. Asimov, Runaround, passim.

[4] Esta conferencia fue luego presentada a manera de artículo académico en la revista Mind con el nombre Computing Machinery and Intelligence, cf. Alan Turing, Computing Machinery and Intelligence, passim.

[5] Cf. Turing, Ibid, pp. 433-435.

[6] Para una discusión más extensa del test de Turing, la probable imposibilidad de generar conciencia artificial y los retos de la IA en el S. XXI Cf. Philip C. Jackson Jr, Introduction to Artificial Intelligence, pp. xvii-xxxii.

[7] Para una amplia disertación acerca de la conciencia como vigilia, Cf. Juan José Sanguineti, Neurociencia y filosofía del hombre, pp. 196-201.

[8] Cf. Nicola Abbagnano, Diccionario de filosofía, pp. 201-202.

[9] Cf. Ibid., p. 116.

[10] La moralidad como autogobierno es una idea que alcanza su cúspide en el S. XVIII con Kant, quien lo liga al concepto de autonomía. Cf. J.B. Schneewind, La invención de la autonomía, pp. 25-27.

[11] E.T.A. Hoffmann, El hombre de arena, p. 85.

[12] Cf. VV.AA., Roko’s Basilisk, s.p.

[13] Para ver algunos contraejemplos y posturas en contra y a favor del utilitarismo cf. James Rachels, Introducción a la filosofía moral, pp. 167-189.

Salir de la versión móvil