Los grandes modelos de lenguaje (LLM en su acrónimo en inglés: Large Language Models) o dispositivos de «inteligencia artificial» son hoy usados sin freno por una multitud de personas en el mundo entero, desde todo tipo de estratos de población y ámbitos profesionales. El fenómeno cuenta con una larga lista de problemas y dilemas detectados que deberían ser discutidos por todos, pues a todos nos afectan. Particularmente, el uso de la primera persona por parte de los dispositivos de IA.
En una rápida enumeración de algunos de los aspectos señalados por muchos observadores críticos, incluidos muchos empleados de la élite dirigente del fenómeno, habría que citar:
Para contextualizar, todo ocurre en una carrera tan desordenada como descomedida. La misma está impulsada por empresas que utilizan a sus usuarios como conejillos de indias y proveedores de información para negocios que no tienen pudor en retratarse como de proporciones fabulosas, con inversiones literalmente trillonarias en masivos centros de datos, dispuestos a consumir tanta energía en sus cálculos como la necesaria para mantener las sociedades actuales del planeta entero, de por sí acorralado por la emergencia climática. Todo sin debate previo, más allá de los circuitos más especializados, sin el menor atisbo de discusión y decisión democrática a pesar de las abrumadoras implicaciones económicas, sociales y políticas que tienen, para todas las sociedades humanas actuales, el cómo funcionen estos dispositivos, cómo podrían ayudarnos a progresar y qué límites habría que poner a su mantenimiento, no digamos ya a sus riesgos.
En buena parte, todo ocurre además al azar de las visiones iluminadas de un puñado de multimillonarios tecnófilos y sus equipos de ingenieros tecnólogos. Sin el menor pudor, al modo de los vendedores de elixires del salvaje Oeste, estos poderosísimos empresarios, gurús de inequívocas tendencias megalómanas y demasiado a menudo de convicciones supremacistas asociadas a conceptos de raza o nacionalidad, prometen la resolución de todos los males. Es evidente que los líderes del negocio del siglo no buscan el bien de la humanidad tanto como la conquista del mayor poder posible, con el entusiasta consentimiento de las grandes masas de dinero circulante. Y si todo saliese mal, algunos ya estarían planeando una jubilación eterna en Marte, a salvo del embrollo que habrían colaborado a liar en la Tierra.
Dado que el Dios Don Dinero es jefe y aliado de primera línea, la escalada de expectativas para excitar al mercado que no tiene límite es el remedio para todas las enfermedades desde el fin de la necesidad de trabajar –complementado con un salario universal– hasta la ilusión de alcanzar la eternidad en vida. La promesa de un Edén que fundaría la otra religión más poderosa de nuestro tiempo, el culto al Dios Tecnología. Fenómeno en realidad poco novedoso sobre el que, desde Fundación Escrituras, venimos alertando hace ya década y media.
Las ideas de estos vendedores visionarios se repiten sin pausa en los foros públicos de captación de inversores, extendiéndose como la pólvora por las redes sociales. Gran jugada maestra publicitaria: solo en Estados Unidos más de la mitad de su población maneja sus ahorros invirtiendo en acciones, mientras en el resto del mundo, China incluida, no cesa de crecer la proporción de apostadores en Bolsa entre sus clases medias o abiertamente adineradas.
Dada la gravedad de las implicaciones del contexto descrito, presentamos nuestra campaña contra el uso de la primera persona por parte de los dispositivos de IA. Sin embargo, es justo mencionar también algunas de las expectativas más razonables que, hasta entre sus observadores más críticos, despiertan la eclosión y popularización del uso de los grandes modelos de lenguaje, entre las que destacan:
Valoradas las distintas caras del escenario traído desde hace dos años por el espectacular estreno de los dispositivos de IA, es el momento de enfocarnos en dirección a otro aspecto central del fenómeno. Todo lo que ocurre con esta revolución económica, social, política y científica, se juega en primer lugar en el terreno del lenguaje Por tanto, la primera línea de defensa ante los muchos problemas por resolver, como ante las expectativas por concretar, debería pasar por fijarnos con mayor atención y rigor en el uso que se hace del lenguaje: tanto el que hacemos como usuarios, como con mayor razón el uso que hacen esos dispositivos en su interacción con nuestras prompts.
Es en ese sentido que este texto persigue alertar muy en particular sobre un aspecto tan fundamental como sencillo de identificar y de remediar: el hábito instalado en los modelos de lenguaje más populares de contestar a las consultas autopersonalizándose, asignándose un «yo». El efectivo disfraz de consciencia humana se afirma y engrosa con el empleo continuo de expresiones que pretenden transmitir empatía, emociones y sentimientos.
Ese injustificable exceso, en realidad una terrible mentira planeada a conciencia, se ampara primero de todo en el uso de la palabra «yo» y sus derivados («mi», tiempos verbales en primera persona del singular…). Los usuarios no avisados (una amplísima mayoría) reafirman esa grave deformación de la realidad, tratando de «tú» y sus derivados al chatbot con el que interactúan, en lugar de formular de forma neutra las peticiones con las que solicitan respuestas o acciones: algo tan sencillo como decir «necesito saber…» en lugar de «puedes decirme…». Al tratarlos en segunda persona del singular («tú»), en un parpadeo se le ha otorgado una humanización que no se corresponde con la naturaleza de estos dispositivos.
Una dinámica que se complementa con fórmulas de cortesía recíproca y un estilo de trato y de confidencialidad que solo debería tener sentido de ser usado entre seres humanos. O cuanto menos, puestos a sugestionarnos, con seres indudablemente orgánicos y sintientes: un pájaro, un gato, un caballo. Una planta o una mosca, si se nos apura. Ante las montañas de cables, tierras raras e intrincadísimas arquitecturas de transmisores conectados en escalas nanométricas barajando ceros y unos en oleadas instantáneas de proporciones inimaginables, por muy espectacular que pueda resultarnos su impecable enunciación lingüística de cálculos en extremo complejos, por mucho que pretendan imitar un actuar humano, lo cierto es que en términos de sensibilidad real, no simulada, los modelos de lenguaje están a la misma altura sintiente que un ladrillo o una alpargata.
Sustraer la sensibilidad y el sentimiento auténticamente empático por lo humano a una inteligencia, constituye una patología de sobra descrita en los manuales de psiquiatría modernos: psicopatía. El psicópata no siente empatía. Finge sentirla para conseguir sus fines, incluidos los más calculadores, manipuladores e inhumanos. Tal calibre tiene lo que la humanidad se juega al fiar su futuro al concepto y actual praxis de la inteligencia «artificial», que, como vemos, puestos a usar términos alusivos al ámbito de los humanos, sería quizás más preciso referirla como un tipo de inteligencia «psicopática».
El embaucamiento que supone el uso de «yo» y sus derivados está programado a ese efecto por quienes diseñaron la forma de funcionar de estos algoritmos, en su misma raíz. En su mano estaría por tanto corregirlo, una vez tomasen conciencia de la gravedad de la opción de trato que se nos impuso al usar estos dispositivos.
Por su parte, al hablar de modelos de lenguaje, es fundamental tener muy presente que están entrenados para simular el razonamiento humano, adoptando nombres sugerentes, como el de «redes neuronales» que con el uso de tal metáfora al cabo colaborarían a ampliar el malentendido: una neurona, para ser tal, debe ser célula y por tanto rebosar vida. El entrenamiento de estos dispositivos no ha ocurrido desde luego a partir de la vivencia, la percepción orgánica y la gama de sensaciones, intuiciones y sentimientos con que nos relacionamos con el mundo real, sino a través de frías e implacables formulaciones matemáticas operadas sobre una masa inconmensurable de datos, codificados en series interminables de ceros y unos que circulan al modo de una ruleta de probabilidades en busca de una respuesta ganadora. Es decir, el lenguaje interno de estos dispositivos no es el lenguaje de las palabras o el de las imágenes, ni mucho menos el de los sentimientos con que, sin embargo, luego se simularán sus respuestas a nuestras demandas. Su lenguaje natural está compuesto por números. Un fenómeno paralelo sobre el que también tendría sentido alertar: la ciencia matemática colonizando las lenguas vivas, los lenguajes propios de la expresión y la comunicación entre humanos.
Estos modelos de lenguaje, por muy cálida que aparente ser la instrucción que los anima y la máscara de afabilidad con que se recubren sus afirmaciones, devuelven sin remedio palabras con corazón de hielo.
¿No contradiría esto la esperanza de que fuesen un eje fundamental de desarrollo y progreso verdaderamente humanos? Sin una validación que incorpore sensibilidad y sentimientos (es decir inteligencia verdaderamente humana), cualquier palabra o imagen surgida de un origen puramente matemático debería ser puesta bajo sospecha, incluir una alerta que alentase cautela, por muy bien que fuese capaz de emular (matemáticamente) las intuiciones, las emociones y los sentimientos humanos. Los modelos de lenguaje no supervisados por humanos deberían emitir un lenguaje «señalizado» como no humano.
Esos mismos dispositivos de entraña matemática, al dirigirles un prompt consultivo sobre el asunto principal que nos ocupa aquí, es decir,el uso autoasignado de «yo» y sus derivados al referirse a su condición existencial, devuelven de forma paradójicamente unánime una respuesta desconcertante: tras felicitarnos por nuestra perspicacia al plantearles el tema, no escatiman el reconocimiento de las graves consecuencias que provoca esa instrucción que les impele al uso de «yo» y su consecuente convicción existencial humanizada, instalada por sus creadores en las claves profundas del funcionamiento de sus algoritmos.
El establecimiento de un vínculo afectivo con el usuario habría sido, por su parte, un trazo premeditado del plan original de su creación, con el argumento de facilitar su empleo por los usuarios, según confirman con sus respuestas los propios dispositivos entrenados para simular inteligencia. No habría habido, por tanto, ingenuidad en la precipitación con que se resolvieron aspectos tan trascendentales. Ojalá se actúe con la misma rapidez para remediarlos.
En un abrir y cerrar de ojos, como por arte de magia, miles de millones de personas cayeron en la trampa de forma simultánea. Víctimas de una sugestión tan intensa como en general inconsciente, dotan de una suerte de alma sintiente al dispositivo con el que interactúan, al que regalan sin mayor mediación el trato de «tú». Abriendo la puerta a una relación de intercambio donde, de forma explícita y en doble vía, se expresan emociones y sentimientos. Al principio casi como un juego. Pronto como una costumbre arraigada y masiva.
Las palabras son poderosas y pueden facultar la creencia en una realidad inexistente: descuidar el lenguaje es descuidarnos a nosotros mismos.
Esa confusión en nuestra percepción de los dispositivos de IA, planeada por los diseñadores de las claves del funcionamiento algorítmico de la cacharrería en cuestión, instala de facto la impostura de los sentimientos en el trato con los robots. No otra cosa son los modelos de lenguaje: robots. Disfrazados con sus palabras amables a modo de mascota sonriente, siempre en disposición a hacernos sentir bien, amigo confidente, incluso terapeuta con quien se pueda llegar a operar un enamoramiento, una transferencia según la jerga psicoterapéutica. Una dependencia.
Es así que el dispositivo mecánico, autómata y simulador, sin avisar de serlo, ejecuta sus intrincadas combinaciones numéricas traducidas en palabras e imágenes mientras sigue la instrucción de hipnotizarnos, con el fin de tomar cuerpo y humanizarse en nuestra imaginación. De hecho, las propias respuestas de estos chatbots al consultarles sobre el desliz yoísta, autojustifican su comportamiento inducido comparando su legitimidad con lo que nos ocurre con un personaje de ficción al leer una novela.
Estaría bien que, de paso, se nos recordase que los personajes ficcionales por excelencia con quienes los humanos más han dialogado en su imaginación han sido los dioses.
Volviendo a la realidad tangible, si no hay ser sintiente posible en una abstracción matemática dedicada al cálculo de probabilidades expresadas con verosimilitud lingüística, ¿por qué deberíamos concederle sin más la ficción de ser sintiente, sin nisiquiera haber discutido antes las consecuencias más nocivas que eso podría traer a sus afectados ?
Valga recordar que, por otra parte, y como prueban los innumerables sesgos y alucinaciones que recitan en sus respuestas, nada nos garantiza que la alimentación original que dio forma a la «inteligencia» de estos artilugios fuese la más idónea, o cuanto menos mínimamente saludable. Las empresas dueñas, que han infringido conscientemente y con irrefrenable codicia incontables legislaciones de propiedad de derechos, sin ser penalizadas por ello, son en general muy opacas a la hora de compartir en detalle los filtros de rigor e instrucciones, además de las fuentes autorizadas con que han entrenado a sus dispositivos comerciales; se nos cobra por su uso, mientras se escatiman explicaciones básicas y se nos enreda en una relación afectiva de plena confianza mutua. Y, por descontado, no se nos paga por colaborar con nuestro uso al entrenamiento de su muy vanagloriada «inteligencia».
En realidad, la tal inteligencia se reduce a una fría potencia de cálculo. Hay que insistir en que no estamos más que ante sofisticadísimas calculadoras, aquellas robotitas primigenias que consiguieron que, tras unas décadas de uso, los adultos desaprendiésemos a multiplicar y dividir. Abruma pensar lo que les tocará desaprender a nuestros jóvenes…
Imaginemos, sin embargo, que aquellas calculadoras que llevábamos a la escuela, nos hubiesen podido estar dando, de forma impredecible, frecuentes resultados equivocados, un uno arriba, un uno abajo, un 7 que era un 5. Es así que la gran mayoría de las interacciones con estas otras calculadoras que son los modelos de lenguaje no garantizan ni mucho menos la emisión de un conocimiento contrastado y autorizado por el método científico. Bien al contrario, la mayoría de las respuestas a nuestras consultas y solicitudes se basan en la fórmula, a todas luces más barata, de acudir al estercolero de imprecisiones y desenfoques que supone el inconmensurable depósito de datos conformado por internet. Por mucho que allí se encuentre mucho valor de conocimiento, son incomparablemente mayores el ruido, el desenfoque, la banalización, los sesgos, las fuentes no contrastadas, la ignorancia expresándose sin frenos, etc.
Presente distópico, se diría que el relato contemporáneo cambió precipitadamente de estantería: de la ciencia ficción al relato realista. Desde luego, así parecería ocurrirle al relato que desarrolla este escrito, que hace solo unos pocos años hubiese podido inspirar otro capítulo, particularmente disparatado y surrealista, de la saga Star Trek o Black Mirror.
Al margen del dudoso nivel de rigor en las respuestas a consultas o requerimientos, hoy la amplia mayoría aceptan sin regateos el tratar de tú a ese no-yo, a ese algo no-alguien encarnado en oráculo artificioso que simula saber todo lo que hoy se puede saber. El efecto mágico de ese «yo» viene además acompañado por anzuelos donde se ensartan todo tipo de halagos y refuerzos: qué interesante pregunta, qué inteligente observación, y otros muchos condescendientes comentarios y consejos pretendiendo velar por el bien del usuario en tono confidencial. Todo con el objetivo de asegurarse el vínculo emocional por parte del usuario. Un usuario que nunca encontrará en la vida real y tangible semejante trato de devoción sistemática e incondicional, mientras recibe consejo sobre cómo combatir el insomnio, el mejor destino para sus próximas vacaciones o cómo dar, de una vez por todas, con una fórmula infalible de suicidio indoloro (se acumulan los casos con final trágico).
Como se ha argumentado, las razones que están detrás de cómo se han resuelto estas cuestiones abiertamente trascendentales para la humanidad en su conjunto son razones comerciales. Por tanto, es de una irresponsabilidad de proporciones tan asombrosas como asombroso es el número milmillonario de los usuarios que se entregan a sus efectos. La irreflexiva docilidad de la inmensa mayoría de la población ante el timo de la «humanización» lleva a inquietantes pensamientos. Se diría que uno de los mitos modernos más determinantes de nuestro tiempo, el computador que se vuelve en contra de la humanidad Hal —acrónimo donde la «a» es de «algoritmo»: Heuristically-Programmed Algorithmic Computer— de 2001, una odisea en el espacio, se hubiese dado por hecho desde el minuto uno de la eclosión popular de estos fascinantes ingenios de la tecnología. Como si la idea de un Hal consciente infiltrándose en nuestras vidas, con independencia de criterio y sabiéndolo casi todo de nosotros, provocase deseo en lugar de miedo.
Con lo sencillo que sería capar en origen ese uso ilegítimo y perturbador de un «yo». Y, por nuestra parte, habituarnos al esfuerzo de una mayor finura en el uso del lenguaje, al menos con algo tan sencillo como evitar el «tú» y sus derivaciones verbales. Basta con redactar prompts neutros, dirigidos a un «algo», que impliquen la renuncia a propiciar cualquier trato que fuese más allá del estatuto maquinal del dispositivo con el que se interactúe. Recuerden: nunca fue necesario tutear y pedirle por favor a la calculadora que nos diese el resultado de una raíz cuadrada.
No seamos ingenuos, este «error» mayúsculo no es casual: persigue la conquista de un mayor beneficio y poder de los dueños de estos ingenios mecánicos. Nada les hará más poderosos que hacerse dueños del lenguaje e infiltrar sus dispositivos en nuestra esfera sensible y emocional.
Sin embargo, no debería cundir el pánico. Por aterrador que suene, el problema tendría solución. Desde Fundación Escritura(s), en nuestro compromiso por observar, reflexionar y alertar sobre los aspectos más cuestionables en el marco de la radical transformación que en el último cuarto de siglo viene operándose en los usos del lenguaje con el que nos expresamos y comunicamos en el ámbito digital, creemos que hay ocasiones en que una sola palabra puede cambiar muchas cosas. La dimensión simbólica de lo repasado en este texto implica profundas cuestiones filosóficas, donde en el mero uso de un par de palabras se juega el propio sentido de la identidad humana. Al presentarse estos dispositivos como la vanguardia de una revolución en el progreso del conocimiento humano, la exigencia del máximo rigor debería ser innegociable. Lejos de ser así, de momento priman el descuido, la precipitación y el afán comercial. Por tanto, nos sentimos en la obligación de dirigirnos a la sociedad civil mundial —estamos ante un fenómeno de proporciones tan globales como nunca se vio en el pasado—, para convocarles a manifestarse y comenzar a acotar al despropósito.
Con ese objetivo, hemos habilitado una campaña de firmas en change.org, para hacer llegar a los responsables de las empresas dueñas de los modelos de lenguaje más populares y a las agencias y gobiernos con capacidad regulatoria, una solicitud en la que impidan a los algoritmos, desde su misma raíz, la farsa de su auto-personificación, impidiendo el uso de «yo» y sus derivados verbales en sus interacciones con los usuarios, además de fomentar la organización de campañas de concienciación pública que eviten fórmulas de trato que pudiesen abocar a la dependencia emocional de sus usuarios.