Reflexión sobre la responsabilidad del ser humano ante la Inteligencia Artificial
A menudo se tiende a dar por hechos ciertos factores sociales y culturales que rompen el molde de lo que se entiende por mundo al punto en que el humano promedio ha llegado a naturalizarlos como cosas propias de sí, sin importar que dichos factores hayan trastocado la condición humana de forma casi irreversible. A saber: ¿cuán inherente es la agricultura para los humanos?, ¿cuán natural es la escritura?, ¿qué tan importante fue la imprenta?, ¿qué tan descabellada es la idea de lo que se suele llamar la Declaración Universal de Derechos Humanos?, ¿qué tan indispensable llegó a ser un fax?, ¿el internet tendrá un alcance más allá que la sola pornografía?, etc.
En este breve (pero importante) repaso de cuestiones un tanto obsoletas y de otras que todavía hacen parte del canon social actual, puede verse que, así como tales avances (sin importar el ámbito) en la actualidad aún condicionan el comportamiento humano, también es evidente que lo que fue indispensable en algún momento puede que sea perecedero en menos de lo que se esperaría.
De momento no se han mencionado las inteligencias artificiales (IA), pero se ha dado a entender que su inclusión en nuestros espacios de estudio, trabajo y ocio, es algo que hasta a los más faltos de nociones básicas de informática les consta; y si observamos esto a la luz de las interrogantes ya enunciadas, podemos notar que, por su acelerado crecimiento, es solo cuestión de pocos años para que la IA se convierta en algo inherente en todo ámbito social imaginable, al punto que, cuando se implemente de forma masiva ya a nadie le sorprenderá (como fue el caso de la escritura, la cual en su momento fue tan significativa como el hecho de poder hablar en la actualidad con un amigo extranjero desde la palma de la mano gracias a los notables cambios que han sufrido las telecomunicaciones desde los primeros teléfonos).
Según este orden de ideas, el presente escrito será una breve y necesaria reflexión en torno a la IA y el culto a los datos que acontece en esta generación internauta, así como sobre los efectos de la IA en la vida humana. A su vez, se esclarecerán las limitantes de la IA y cómo podrían llegar a “suplir a un ser humano” desde un punto de vista objetivo mas no fantasioso.
Dataísmo
Transparencia es la palabra clave de la segunda Ilustración. Los datos son un medio transparente. Siguiendo el artículo del New York Times, los datos son una «lente transparente y fiable». El imperativo de la segunda Ilustración es: se ha de convertir todo en datos e información. El dataísmo, que pretende superar toda ideología, es en sí mismo una ideología. Conduce al totalitarismo digital. Por eso es necesaria una tercera Ilustración que revele que la Ilustración digital se convierte en esclavitud.
(Byung Chul Han, 2014)
Antes de hablar más a fondo de la IA, es importante explorar el término dataísmo (dataism), el cual fue usado por primera vez el 4 de febrero del año 2013, por el periodista y columnista del New York Times, David Brooks, en su artículo titulado The Philosophy of Data:
Si me pidieras que describiera la filosofía emergente del día, diría que es el dataísmo. Ahora tenemos la capacidad de recopilar grandes cantidades de datos. Esta habilidad parece llevar consigo ciertos supuestos culturales —que todo lo que se puede medir debe medirse; que los datos son una lente transparente y confiable que nos permite filtrar el emocionalismo y la ideología; y que esos datos nos ayudarán a hacer cosas notables, como predecir el futuro.
(David Brooks, (2013)
Podría decirse que el dataísmo es un dogma en torno a los datos, lo que significa que la big data (macrodatos) o incluso las propias IAs, influyen en la vida de las personas de un modo que va más allá de ser simples herramientas, siendo los datos (a la par que la tecnología) aquello que rige la máxima de los humanos actuales, al punto que sobrepasa al dogma que en antaño regía en la mayoría del mundo: el cristianismo. Los datos, el objeto de culto contemporáneo, son representaciones cuantitativas o cualitativas que indican cierto valor que a menudo se manifiesta de distintas formas, ya sea a través de: símbolos, números o letras; la cuestión es que su valoración es numérica y al mismo tiempo precisa, tanto así que los datos tienen un efecto empírico en la cotidianidad de las personas, aun cuando muchas desconocen su naturaleza.
Aunque esta problemática parezca ser algo reciente, ha de destacarse que pensadores previos a los avances tecnológicos coetáneos ya se habían planteado la problemática detrás de las revoluciones tecnológicas y sus efectos en la sociedad, como es el caso del filósofo Martin Heidegger:
Si se logra el dominio sobre la energía atómica, y se logrará, comenzará entonces un desarrollo enteramente nuevo del mundo técnico. Lo que hoy conocemos como técnica cinematográfica y televisiva; como técnica del tráfico, especialmente la técnica aérea; como técnica de noticias; como técnica médica; como técnica de medios de nutrición; representa, presumiblemente, tan sólo un tosco estado inicial. Nadie puede prever las radicales transformaciones que se avecinan. Pero el desarrollo de la técnica se efectuará cada vez con mayor velocidad y no podrá ser detenido en parte alguna. En todas las regiones de la existencia el hombre estará cada vez más estrechamente cercado por las fuerzas de los aparatos técnicos y de los autómatas. Los poderes que en todas partes y a todas horas retan, encadenan, arrastran y acosan al hombre bajo alguna forma de utillaje o instalación técnica, estos poderes hace ya tiempo que han desbordado la voluntad y capacidad de decisión humana porque no han sido hechos por el hombre.
(Martin Heidegger, 1955)
Como puede verse, la humanidad (más allá de la ficción) desde hace bastante preveía cómo la tecnificación nos enajenaría y, lejos de que hoy sea una quimera circunstancial, es evidente cómo esta problemática se manifiesta a través del dataísmo o el culto a los datos. Es probable que algunos sean incapaces de relacionar el dataísmo con una especie de religión, al estar los datos presentes en muchos aspectos de la vida cotidiana y ser bastante agradables gran parte del tiempo, a diferencia de una religión convencional. No obstante, sin importar cuán precisos y útiles e incluso agradables puedan ser los datos gracias al rigor matemático, es crucial tener en cuenta que el criterio propio a la hora de consumir o hacerse con algún tipo de conocimiento informático, es la clave para sublevarse al mismo; de lo contrario, el rendirle pleitesía se tornará en dogma, a saber, las personas se convertirían en dataístas devotos.
Hoy se está produciendo de forma silenciosa un nuevo cambio de paradigma. El giro antropológico copernicano, que había elevado al hombre a productor autónomo del saber, es reemplazado por un giro dataísta. El hombre debe regirse por datos. Abdica como productor de saber y entrega su soberanía a los datos. El dataísmo pone fin al idealismo y al humanismo de la Ilustración.
(Byung Chul Han, 2019)
Las inteligencias artificiales antes y ahora
Puede que suene redundante, pero las inteligencias artificiales desde hace bastante tiempo (siglo XX) han estado presentes de formas que en la actualidad se ignoran, como es el caso de Eliza: uno de los programas de inteligencia artificial más famosos y pioneros en el campo de procesamiento de lenguaje natural. Fue desarrollado por Joseph Weizenbaum, un profesor de informática en el MIT (Instituto de Tecnología de Massachusetts) en el año 1966. Esta IA se caracterizó por su capacidad para responder a preguntas reflexivas, lo que a menudo hacía que los usuarios se sintieran comprendidos, pese a que solo estaban interactuando con un programa de computadora que carecía de conciencia de sí. Aunque Eliza fue un hito significativo en el desarrollo de la interacción humano-computadora y el procesamiento de lenguaje natural, fue blanco de controversias al comentarse que sus habilidades comunicativas dependían de los usuarios mas no de la inteligencia del programa. Weizenbaum, desde luego estaba consciente de dicha “problemática” y de hecho expresó preocupaciones éticas sobre la posibilidad de que las personas llegaran a confiar demasiado en máquinas para asuntos personales y emocionales. También también cabe aquí mencionar el caso de la MYCIN (desarrollada por la Universidad de Stanford en los años setenta): una IA diseñada para diagnosticar infecciones bacterianas y recomendar tratamientos. Su capacidad para razonar y emitir diagnósticos la hizo destacar como una de las primeras aplicaciones prácticas de la IA en el campo de la medicina. Esta IA ya no es usada, a grandes rasgos, debido a que las enfermedades humanas son bastante complejas, y asimismo la medicina posee un enfoque multidisciplinario que complica la posibilidad de una IA capaz de abarcar todas las problemáticas clínicas imaginables e inimaginables. Así, la empresa Aidoc Medical (fundada en 2016 por dos médicos israelíes: el radiólogo Elad Walach y el ortopedista Michael Braginsky), desarrolló una IA enfocada en la interpretación de imágenes médicas, específicamente en el área de radiología. Dicha IA fue diseñada para ayudar a los radiólogos a detectar y diagnosticar rápidamente patologías y anomalías mediante imágenes, como: tomografías computarizadas, resonancias magnéticas y radiografías. El objetivo de esta IA es mejorar la precisión y la eficiencia en el diagnóstico radiológico, lo que resulta en una atención más rápida y efectiva para los pacientes, ayudando a los radiólogos a identificar posibles áreas de preocupación, resaltar regiones de interés y proporcionar análisis cuantitativos como referentes para elaborar diagnósticos y tratamientos adecuados.
En la actualidad (volviendo de nuevo a un contexto más general) los chatbots (software diseñado para que responda de forma automática acorde a lo que se le escribe o dice) y los asistentes virtuales avanzados, se basan en gran medida en los conceptos y técnicas introducidos por Eliza y MYCIN, entre otras IAs (como: Shakey, LOGO, Deep Blue o ALICE); empero, a diferencia del tan conocido Chat GPT, aquéllas pasaron desapercibidas por gran parte del público, o al menos ésa es la impresión que tenemos al no oírse sobre ellas en nuestras conversaciones casuales.
Podría decirse que las IA modernas han logrado un mayor impacto en el gran público debido a su aplicabilidad práctica, al estar presentes en programas y aparatos que se usan a diario (celulares, internet, etc.). A su vez, las IAs integradas a tales tecnologías, gracias a sus actuales avances se esfuerzan por mejorar la interacción humano-computadora y proporcionar información y servicios útiles para satisfacer necesidades que pueden oscilar entre lo mundano y asuntos tan importantes como el pago de una factura. Hoy, los asistentes virtuales como Siri (de Apple), Alexa (de Amazon), Google Assistant, Cortana (de Microsoft) y Bixby (de Samsung), entre otros, suelen estar integrados en muchos dispositivos y plataformas de forma predeterminada, lo que en cierta medida integra las IA a la cotidianidad de las personas sin que éstas tengan plena conciencia de lo que son, pues conciben la IA como un apéndice más de la máquina; algo nada fuera de lo común, acorde a los nuevos cánones tecnológicos.
Podría decirse que estas IAs (desde sus comienzos, al día de hoy), junto al procesamiento de lenguaje natural (aprendizaje automático capaz de procesar e interpretar datos), son tecnología que ha rebasado la simple formulación de respuestas al, ahora, ser capaces de contestar de manera coherente, como lo haría un humano; de ahí la necesidad de cuestionarnos para comprender sus ventajas, desventajas, alcances y limitaciones, para evitar que su uso por venir no desencadene una pandemia de pereza mental.
Aspectos a tener en consideración a la hora de “lidiar” con una IA
Ha de tenerse presente que la inteligencia es una facultad propia de la mente, la cual permite razonar y formase una idea sobre la realidad misma; sin embargo, lo que hacen los distintos softwares mencionados, es solo procesar una serie limitada de datos, así generando ciertas respuestas que ponen al servicio del usuario; por tanto, no debe confundirse la inteligencia artificial de los softwares con una facultad, puesto que la constituye un cúmulo de datos que han sido puestos allí por múltiples humanos. En específico, la IA busca desarrollar sistemas y algoritmos que sean capaces de emular la inteligencia humana, de imitar el proceso de pensamiento de una persona para que así lo dicho por la IA sea factible y se ajuste a las distintas concepciones de realidad. Ha de destacarse, sin embargo, que al igual que el humano promedio, las inteligencias artificiales entrenan poco a poco con ciertas cantidades de datos, aunque una diferencia notable entre ellas y nosotros es que las cantidades de texto que manejan para hacer tal entrenamiento, desde nuestra perspectiva, son cantidades abismales, por lo que pueden llegar a generar escritos coherentes e incluso traducir en tiempo real, mas no como lo haría un humano con libre albedrío e intereses propios.
Dicho esto, la IA es una herramienta, y al igual que un cuchillo o martillo, el uso que se le dé dependerá por completo del usuario, ya sea para bien o para mal.
Puede que para algunos (en especial para los versados) resulte redundante, pero el avance en el campo de las IAs ha aumentado de manera exponencial al ser capaces éstas de generar respuestas bastante específicas y rigurosas en cortos periodos; tanto así, que, si le pides al Chat GPT (por ejemplo) que escriba un ensayo de mil palabras sobre: “¿Por qué al perro se le considera el mejor amigo del hombre?”, aquél, de manera veloz generará un texto coherente con el número exacto de palabras que le fue solicitado. Es de esta forma como la IA, al ser una herramienta al servicio de la humanidad, acata los designios de la misma, dependiendo su efectividad y precisión (sin importar el campo de conocimiento) de la creatividad del usuario, por lo que, el qué tan minuciosa pueda ser una persona al momento de usarla es lo que determinará realmente los alcances de aquélla. Así, la IA mejorará su rendimiento en actualizaciones posteriores, de acuerdo con la competencia de los usuarios que la usen.
Para todos nosotros, las instalaciones, aparatos y máquinas del mundo técnico son hoy indispensables, para unos en mayor y para otros en menor medida. Sería necio arremeter ciegamente contra el mundo técnico. Sería miope querer condenar el mundo técnico como obra del diablo. Dependemos de los objetos técnicos; nos desafían incluso a su constante perfeccionamiento. Sin darnos cuenta, sin embargo, nos encontramos tan atados a los objetos técnicos, que caemos en relación de servidumbre con ellos.
(Martin Heidegger, 1955)
Con esto dicho, es importante no subestimar el potencial del humano promedio y recordar que la IA y las nuevas tecnologías son herramientas que, por muy necesarias que resulten en la actualidad, jamás deberán superar el raciocinio humano; no debemos ser esclavos suyos, sin importar cuán impresionantes sean. Si llegase a presentarse el caso de personas superadas por una IA en cuanto a la facultad de inteligir, significa que aquéllas se han dejado doblegar y han sido reducidas a meros algoritmos dentro de la extraña “religión” del dataísmo.
El peligro detrás de esta cultura de los datos y las IAs radica en que las personas son solo números, simples usuarios dentro del algoritmo, “actores” siempre pasivos, por lo que, el qué tan dañinas puedan resultar dependerá del uso que se les dé. Si las personas no tienen en cuenta esto perderán su sentido de identidad y serán incapaces de crear algo propio al limitarse a lo que el algoritmo dicta que es de su agrado. Por ejemplo, puede que muchos piensen que es casualidad que redes sociales como YouTube les presenten videos y comerciales que posiblemente sean de su agrado, pero la realidad tras esto radica en que la elección de lo que se les presenta se basa en los datos obtenidos a partir de los intereses del usuario.
Muchos tienden a temerle a la posibilidad de verse envueltos en una distopía tipo Terminator, al ser incierto el futuro de la humanidad, debido: al Cambio Climático, a los cambios sociales que trajo consigo el COVID-19 (el cual evidenció las falencias del sistema educativo y de salud a nivel mundial) o a la IA y su rápida evolución; pero lo único cierto es que mientras el humano siga pensando y razone al hacerlo, no deberá temer a casos hipotéticos de máquinas doblegando a la humanidad.
A modo de conclusión, puede decirse que la IA es una herramienta que, a partir del ingenio humano y los desarrolladores tras la misma, ha sido capaz de hacer cosas tan impresionantes como textos coherentes e imágenes bastante impresionantes, en cuestión de segundos. Sin embargo, ha de recordarse que, al depender de datos, las IAs son incapaces de crear algo nuevo; y que, al no poseer una auténtica facultad de inteligencia, jamás lograrán empatizar con –o siquiera entender– la condición humana, la cual suele ser tan impredecible que ni los propios humanos la comprenden a la perfección, aunque la sienten y la transmiten de formas que ni la mejor computadora podría replicar. Con todo, si el humano cede ante la tecnología y se vuelve en su “siervo”, la IA sin problemas podrá replicar y superar a los humanos, al renunciar estos por voluntad propia a su yo pensante y convertirse en dataístas devotos (monjes de los datos).
Bibliografía
Aidoc always on healthcare AI. (2019, marzo 12). Healthcare AI | Aidoc Always-on AI. en: https://www.aidoc.com/
Brooks, D. (2013, febrero 5). Opinion. The New York times. https://www.nytimes.com/2013/02/05/opinion/brooks-the-philosophy-of-data.html
Byung Chul Han (2019). La desaparición de los rituales. Herder Editorial, S.L., Barcelona.
Byung Chul Han (2014). Psicopolítica. Herder Editorial S.L., Barcelona.
Computer-Based Medical Consultations: MYCIN. (1976). Annals of internal medicine, 85(6), 831. en: https://doi.org/10.7326/0003-4819-85-6-831_1
Fernández, Y. (2017, mayo 27). Así era ELIZA, el primer bot conversacional de la historia. Xataka.com; Xataka. en: https://www.xataka.com/historia-tecnologica/asi-era-eliza-el-primer-bot-conversacional-de-la-historia
Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9 (1), 36–45. en: https://doi.org/10.1145/365153.365168