Inteligencia artificial y razonamiento lógico

Inteligencia artificial y razonamiento lógico

Las inteligencias artificiales, como desarrollos computacionales, en el pasado solían trabajar con cantidades relativamente limitadas de información; no obstante, ahora, considerando la enorme cantidad de términos que procesa el GPT-4 y la velocidad con que lo hace, para los seres humanos resulta imposible comprender totalmente a las máquinas, más allá de las normas de acuerdo a las cuales sus programadores entrenan a este nuevo tipo de tecnología.

Una máquina es maravillosamente capaz de seguir reglas, aunque sea incapaz de comprender una palabra. Por la misma razón, una instrucción dada en lenguaje natural podrá ser ejecutada, pero no porque la máquina entienda la semántica de la proposición, sino porque funciona con base en estadística y probabilidad, además de seguir ciertas instrucciones precisas. Una IA lee, no palabras, sino una traducción computacional de lo que es una palabra. Por su parte, al ser humano le es, en muchas ocasiones, más difícil seguir una regla, pues pretende entender el significado de las palabras y algo (o mucho) de su carácter simbólico. Así, cuando a un ser humano se le dice “tráeme una revista”, no irá por la revista más famosa, ni la más común, ni la más buscada en Google, sino que, muy probablemente responda: “¿qué revista?”.

Así, al ser interpelada, a diferencia nuestra, una inteligencia artificial (a menos que explícitamente se le instruya, “responde como si no fueses una inteligencia artificial”) actuará de una manera irreflexiva y predeterminada. Y volviendo al tema de su gran agilidad, tampoco debe impresionarnos en lo más mínimo la capacidad y velocidad de cálculo que estos programas tienen, pues es algo ya asumido en la computación actual. El entrenamiento que una IA recibe de sus programadores mediante ciertas reglas (que evitan que genere respuestas “controversiales” mas no incorrectas) y textos (mismos que constituyen sus axiomas a priori), y de verse involucrada en conversaciones con todo tipo de personas del mundo entero (leyendo, analizando y sintetizando textos a posteriori), es lo que define, a final de cuentas, su comportamiento.

Claro que, con el suficiente entrenamiento, una IA puede cumplir con reglas de modos que los seres humanos ni siquiera imaginamos, sobre todo en lo que se refiere al lenguaje, puesto que la determinación más grande que tiene está basada en el fenómeno de la traducción, mismo que a duras penas –siguiendo la hermenéutica de Gadamer– comenzamos a comprender en toda su dimensión filosófica.

Una IA podría decirnos de manera inmediata qué significa para ella el seguimiento de una regla, o cuáles son las ventajas de seguir una regla. Lo que no podría describir es cómo podemos nosotros, los seres humanos, en general, seguir una regla, ya no digamos lógica, cuestión que podría explicar a partir de la sintaxis del lenguaje formal, sino una regla que determine una acción ética. Respecto a esto, la IA no puede responder más de lo que nosotros le comunicamos al respecto.

Y esto es lo más importante del presente artículo, cuya pregunta principal puede enunciarse como sigue: si la inteligencia artificial basa sus respuestas en inferencias limitadas a los datos con que la alimentamos, ¿cómo estamos seguros de que no se equivoca más e incluso de peor manera que un humano? No es que las IAs actuales lleven a cabo las tareas asignadas de manera descuidada y con pésimo resultado, lo que pasa es que su programación está más cercana a “imitar” que a corregir la inteligencia humana, la cual es falible.

Los errores son prácticamente esperados cuando una tarea es llevada a cabo por seres humanos. Si voy a escuchar a un pianista tocar la Apassionatta de Beethoven, es muy probable que tenga algún error en su interpretación, aunque, mientras mejor sea es claro que sus errores serán menos notorios e incluso que sean sólo notorios para el oído más educado y atento que únicamente haya acudido para encontrar tales yerros. Éstos, por otro lado, no demeritan en absoluto la interpretación pues son el precio a pagar por el placer de escuchar música puramente humana, la cual conlleva algo que las computadoras todavía no alcanzan. Y aquí me atreveré a decir que esto humano, esto puramente humano, está basado en la semántica de la interpretación.

La IA no parece dirigirse a un momento en que interprete mejor que los seres humanos un instrumento musical. En la mayoría de los casos, su desarrollo se centra en realizar tareas monótonas e interpretación del lenguaje en sentido sintáctico, simplemente estructural. Crane cita a Turing como el principal observador de tal vertiente, pues su prueba para determinar como inteligente a una máquina ha tenido gran acogida por parte del sector que se dedica al desarrollo de la IA. También es cierto que no hay una sola vertiente: mientras muchos programadores se dedican a que las tareas llevadas a cabo por las IAs sean cada vez menos diferentes de lo que haría un humano, muchos otros optan por lo contrario: preparar a las IAs para llevar a cabo tareas para las cuales las capacidades humanas son insuficientes.[1] Esto último es sumamente relevante, pues, ¿bajo qué criterios hemos de calificar a una IA cuyas capacidades no entendemos plenamente? En la mayoría de las IAs, todo se basa en una pragmática: si lleva a cabo su tarea, está bien. ¿No es esto lo mismo que hacemos en muchos casos para con nosotros mismos?

No a todos interesa ya el concepto de verdad, pero dejarlo de lado es renunciar a las implicaciones éticas que posee y que podrían ayudarnos en muchos aspectos. Ahora bien, qué tanto interese a una IA la verdad de sus aseveraciones es bastante relevante para aquellos casos en que se le asignen tareas con implicaciones éticas. Supongamos que se le pide a uno de los nuevos chat-bots que busque información acerca de la relación entre el aspartamo y el desarrollo de cáncer en sus consumidores. La IA entregará resultados de prestigiosas revistas científicas, con lo cual el investigador probablemente quedará satisfecho. Sin embargo, en tal situación no estarían siendo contrapuestos –por negligencia de parte de la persona y por la pragmática inferencia que hace la IA–, otros estudios con resultados contrarios a los presentados inicialmente. Así, el investigador que en tal situación no quiera ir más allá de los primeros resultados, basará toda su investigación en datos parciales, y lo mismo ocurriría con quienes tomen ese trabajo como referencia al desarrollar otros escritos. Por supuesto que se le podría reclamar el no llevar a cabo un mejor trabajo de investigación, pero entonces, ¿en qué se distinguiría la IA de una herramienta vaga o simplemente introductoria, como la enciclopedia de Wikipedia? Y si aquel escrito fuera aceptado, como ya ocurre, ¿no contribuiría a engrosar el número de trabajos basados en evidencias incompletas, no contrapuestas?

Claro que, hay soluciones para esto. Una de ellas es entrenar a las IAs para que lleven a cabo razonamientos de manera dialéctica, haciendo contraposiciones. Por desgracia, esto tiene sus limitantes, puesto que no toda la información puede formalizarse, y además, imaginando que la IA adquiriera un compromiso con la verdad más allá de la simple validez, ante muchas preguntas podría llegar a no entregar ningún resultado. Entonces, ¿cuál es, en este caso, la ventaja de una lógica dialéctica frente a la LCPO (lógica clásica de primer orden)?

En primer lugar, permite que la IA brinde diferentes soluciones a las preguntas u operaciones planteadas por el usuario, aunque, hay que decirlo, este tipo de razonamiento no monotónico no podría aplicarse a todas las IAs, sino sólo a un cierto tipo, pues muchas otras, dedicadas a tareas consideradas “artísticas”,[2] no podrían aplicarlo, puesto que en materia de arte no hay resoluciones contrapuestas o contrarias. En segundo lugar, el no mostrar un solo resultado –como lo hace ya un buscador, el cual, a mi modo de ver, sigue llevando la ventaja– implica directamente al usuario para determinar el trabajo final –lo cual brinda un criterio de objetividad todavía mayor, al mismo tiempo que da cierto margen de uso–. En tercer lugar, una lógica dialéctica para la IA no se vería involucrada en cuestiones de verdad de sus conclusiones, como sí ocurre con una lógica inferencial o de sentido común, a la vez que permitiría un juego mucho más libre en cuanto a resultados.

La introducción de este tipo de razonamiento tampoco es complicada, puesto que el algoritmo se puede generar. Sin embargo, sí implica un sacrificio de la eficiencia, puesto que la cantidad de información a procesar sería mucho mayor y tendría que hacerse de una mejor manera. Y no estamos aquí seguros de hasta qué punto la IA podría llevar a cabo un razonamiento dialéctico sin recurrir a la comprensión de los resultados. Aun así, la IA seguiría siendo solamente una herramienta –muy potente– de búsqueda de información y resolución de problemas.

Finalmente, la traducción por medio de una IA de un lenguaje antiguo,[3] no me parece un avance estremecedor, como algunos quieren hacer creer, pues olvidan que la manera de operar de la IA es, en primer lugar, una traducción basada en reglas. Así, sería incluso capaz de crear un lenguaje, pero no sabría para qué hacerlo, ni podría llegar a relacionar su lenguaje con lo que llamamos el mundo. Por tal razón, ahora se prefiere utilizar el término “modelar”[4] para referirse a  nuestra relación con la realidad, en vez de “descubrimiento de las leyes del universo”. No es que la luz obedezca la teoría de la relatividad especial, sino que esta última “modela adecuadamente” el comportamiento de la luz, lo cual está basado en la pretensión y cierto cumplimiento de una regularidad. Gracias a que hay alguna regularidad y repetición es que puede haber reglas y leyes, no al revés. Una IA es capaz de modelar un nuevo lenguaje que se comporte como lo hace el español, por ejemplo, pero eso avanzaría poco en la cuestión de por qué hay lenguaje, o qué sentido pueda tener una oración.

Por todo lo comentado, considero que una IA es menos potente de lo que muchos intentan hacernos ver. No se ha creado ninguna tecnología capaz de substituir plenamente las capacidades humanas y es muy dudoso que pueda llegar en un futuro próximo. Y esto por razones pragmáticas: quienes se dedican al desarrollo de este tipo de tecnologías no lo hacen con fines veritativos sino funcionales, es decir, importa más el producto que lo que de hecho es verdad. Es mucho más sencillo continuar un camino pragmático, puesto que la teoría para este tipo de razonamiento es mucho más clara y está mejor establecida. De continuar en ese camino, la cultura humana se volverá más eficiente en ciertas tareas, mucho más “afilada”, pero perderá otras capacidades que no desarrolle. Es, para terminar con una broma, como si las capacidades humanas habitasen un ambiente darwiniano –y lo más inquietante: creado por las mismas imposiciones humanas–.

Fuera de conclusiones pesimistas, es innegable que la IA está directamente asociada –hecho por demás interesante– a las teorías sobre el razonamiento, pero no logrará progresar mientras no determine de mejor manera cómo razona la inteligencia, pues es claro que gran parte de lo que afirma está directamente relacionado con las formas de procesamiento de información humanas.

Bibliografía


Citas

[1] Raúl J. Carnota, “Lógica e inteligencia artificial”, p. 146.

[2] Es muy interesante el asunto de hasta qué punto se quiere que esto tenga un límite. Por ejemplo, la huelga reciente de escritores de Hollywood se relaciona directamente con las capacidades de las IAs en materia de creación artística. Es verdad que una IA, en este momento, es incapaz de apreciar o valorar un lenguaje poético (o cualquier creación artística), pues carece de comprensión semántica de sus conceptos, una característica necesaria –hasta el momento, ya que todavía no se puede reducir semántica a sintáctica por medio de argumentos válidos– en el arte. Sin embargo, también es verdad que muchas de las producciones de Hollywood son más cercanas a objetos comerciales que a obras de arte, pues son creadas con el fin de entretener y no para ser artísticamente relevantes. Por esto, se entiende que los trabajos cuyo propósito sea más comercial y por lo tanto práctico, dejando de lado la profundidad semántica, serán cada vez más fáciles de realizar por IAs, mientras que los que estén imbuidos de sutilezas y complejidades semánticas, como el arte, la ética y la enseñanza, serán más difíciles de imitar. En este escenario tenemos, entonces, una contraposición entre semántica y pragmática en ámbitos lingüísticos e interpretativos. Si se le asignan dichas tareas a una IA, mucho de la capacidad humana se perderá, pero se ganará en cantidad y eficiencia, algo no muy distinto a lo que de hecho ya ocurre en las grandes corporaciones.

[3] Como queda evidenciado en el artículo “Inteligencia artificial logra descifrar un idioma oculto en tablas de más de 5.000 años”, disponible en https://larepublica.pe/ciencia/2023/06/23/inteligencia-artificial-logra-descifrar-un-idioma-oculto-en-tablas-de-mas-de-5000-anos-2194476

[4] Tim Crane, La mente mecánica, p. 184.

Salir de la versión móvil