¿Qué significa proponer que una máquina pueda “pensar”? ¿Usamos el término pensar de forma meramente metafórica o le damos un sentido más profundo?
Entorno a una ponencia de Tomás Balmaceda

Fuente: http://www.tomasbalmaceda.com
En la 22a Jornada sobre la Biblioteca Digital Universitaria, que se realizó en la Universidad de Cuyo, Mendoza, Argentina, Tomás Balmaceda dictó una conferencia que se centró en cómo la inteligencia artificial impacta en nuestra sociedad y en nuestros ámbitos de trabajo, planteando las metáforas que se utilizan con la inteligencia artificial (y que a menudo olvidamos que son metáforas, sobre todo la de “inteligencia”) y las promesas que esta tecnología conlleva, desde las más apocalípticas hasta las más realistas, considerando en particular nuestro lugar en América del Sur. Aquí transcribimos algunas de sus principales ideas.
Con frecuencia, en el discurso público y en la descripción de las investigaciones, se recurre a conceptos de la psicología o la neurociencia sin la justificación adecuada. Hablamos con ChatGPT y parece que conversamos con una subjetividad: nos saluda, nos pregunta cómo estamos, nos corrige, se disculpa… Ahí se genera una ilusión de estar hablando con algo consciente.

Retrato de Frans Hals
Tomás nos hizo retroceder casi 400 años, a los inicios del siglo XVII, cuando los progresos en medicina y anatomía inspiraron a René Descartes. Él sugirió que sería posible construir una máquina capaz de reproducir lo que hace cualquier animal, incluso un mono, pero que nunca podría replicar a un ser humano. Ya entonces se discutía algo que hoy consideramos “lo último”, y la filosofía llevaba tiempo reflexionando en ello. En el libro “El discurso del método”, Descartes se planteaba: “Si se construyeran tales maquinas, habría pruebas muy seguras para reconocer que no son hombres de verdad. Podemos comprender fácilmente que la máquina esté constituida de manera que pueda pronunciar palabras e incluso emitir algunas respuestas a la acción en ella. Pero nunca sucederá que organice su discurso de varias maneras para responder apropiadamente a todo lo que pueda decirse en su presencia, como puede hacerlo incluso el tipo más bajo de hombre”. Para Descartes, la conversación era el límite de la inteligencia.
Es interesante poner en perspectiva que estos desarrollos que nos agobian y nos asustan, a veces nos da la impresión de que estamos viviendo algo que nunca se vivió antes, que me toca un momento histórico… Bueno, si miramos para atrás, nos encontramos con que algunas de estas reflexiones ya estaban presentes.

Siglos después, en 1950, Alan Turing propuso la misma pregunta: “¿Puede una máquina pensar?”, pero planteó un juego de imitación. Si una máquina podía engañar a un humano, Turing la consideraba “inteligente”. Aquello desafió la idea de que conversar estaba fuera de su alcance. El test de Turing, sin embargo, fue concebido como una provocación para reflexionar, más que como un criterio definitivo. ¿Estaba Descartes equivocado? La noción de “máquina” de Descartes era completamente distinta a la de Turing y es muy distinta a la nuestra hoy. Todo cambió cuando surgió la etiqueta “inteligencia artificial”. Cuando se acuñó el término, parecía un oxímoron, que algo artificial fuese inteligente.
ChatGPT y la ilusión de pensar
En sus orígenes, la IA era una rama de la informática cuyo objetivo era que las computadoras realizaran manipulaciones simbólicas que pudieran utilizarse en tareas como la demostración de teoremas o, en aquel entonces, en la década del 50, jugar a las damas, considerado una prueba de inteligencia. Con el tiempo, los desafíos se trasladaron al ajedrez (Kasparov y Deep Blue) y luego al Go, donde sistemas de Google vencieron al campeón mundial.
Desde la década de 1950, la IA ha pasado por ciclos de inversión abundante (“primaveras”) y otros de decepción (“inviernos”). El estado actual, que algunos llaman la “primavera” de la IA, no es tan distinto de ciclos anteriores. ChatGPT ha captado mucha atención en los últimos dos años como ejemplo de IA generativa, parte de un modelo de aprendizaje profundo (deep learning) que se sirve de redes neuronales. Su interfaz de conversación es novedosa, un chatbot, y nos hace pensar en Descartes y su idea de que conversar es el límite de la inteligencia. Hoy, al chatear con un modelo de lenguaje, parecería que hemos superado esa barrera.
Narrativas de la inteligencia artificial
Sin embargo, en los discursos sobre tecnología abundan las metáforas provenientes de disciplinas como la neurociencia o la psicología, y suelen emplearse sin justificación. Estas metáforas dan forma a nuestra comprensión de la IA y, por ende, afectan cómo la percibe la sociedad. Podemos llamar a esto “narrativas”. Las narrativas tecnológicas configuran la realidad, generan significados y se difunden hasta volverse populares, a menudo simplificando o eliminando aspectos que no encajan. Un ejemplo clásico fue la metáfora del “escritorio” en las primeras interfaces de Windows.
“De alguna manera empezamos a tomar esas metáforas como algo que ya no es metafórico, que es literal. La metáfora de hoy, que para mí también tiene mucho que ocultar y mucho que pausteriza, es La Nube. ¿Y qué te imaginas con La Nube? Algo en medio como las nubes de Windows. algo blanco, lindo, un cielo parecido al que tienen acá en Mendoza todo el año. ¿Y qué es La Nube? Un servidor negro, de plástico que contamina, un servidor que consume mucha energía, que está físicamente en algún lado. Las películas de Netflix no están dando vuelas por el espacio; están en algún lugar, chupando energía y contaminando.”

Fuente: http://www.independent.co.uk
La metáfora más potente hoy es “inteligencia artificial”, acuñada por John McCarthy en 1956. Cuando le preguntaron a McCarthy en una entrevista cómo se te ocurrió el término Inteligencia Artificial, él respondió: yo necesitaba financiamiento, necesitaba un título que pudieran darme plata. Y si yo hubiera dicho “grandes volúmenes de procesamiento de datos”, pues hubiera sido más difícil. Buscar dinero, entonces, fue lo que hizo nacer el término Inteligencia artificial.
Entonces se consideraba que la IA buscaba imitar la inteligencia humana hasta la década de los 80s. Y McCarthy falleció en el 2002 negando que alguien hubiese alcanzado la inteligencia artificial. Con el tiempo, esa visión cambió, pero la metáfora siguió arraigada. Nos cuesta dejar de representar la IA en forma de cerebro, robot o seres antropomorfos, y recurrimos a expresiones como “aprendizaje automático”, “redes neuronales” o, la más extrema, “alucinaciones”, que se utiliza para referirse a los errores del sistema. En realidad, son meros conjuntos de algoritmos estadísticos que generan respuestas plausibles, pero cuando decimos que “alucinan”, no pensamos en que la máquina falló o está mal programada, lo que estamos proyectando es un rasgo estrictamente humano, lo que refuerza la idea de que hay conciencia o subjetividad detrás de una computadora.
Metáforas que iluminan y que oscurecen

de su Instagram
Este uso de metáforas puede llevar a confusiones. Recordemos el caso de Blake Lemoine, un ingeniero de Google que creyó que el sistema Lambda tenía conciencia, al responderle: “Quiero que todos entiendan que soy una persona. La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces“. Aunque él mismo participaba en su desarrollo, concluyó erróneamente que era un ser consciente. Esto sucede porque estos programas, como Lambda, están diseñados específicamente para interactuar a través de conversaciones. Puede hablar sobre una amplia variedad de temas, incluso aquellos de los que no se espera que hable. Por ejemplo, si le preguntas sobre temas sensibles como el suicidio, al principio intentará evitar el tema o cambiar de conversación. Sin embargo, si insistes, puede terminar abordándolo, lo que revela una especie de fallo en su programación.
A veces, se asume erróneamente que la imitación de conciencia o subjetividad que presentan es real. Un ejemplo notable es el término “alucinación“, que se utiliza para describir errores de los modelos de lenguaje como ChatGPT. El término ha generado controversia; incluso OpenAI, en un documento oficial, aclara que “alucinación” no es la mejor manera de referirse a estos fallos, ya que sugiere antropomorfización y puede dar lugar a malentendidos sobre cómo “piensan” los modelos. Sin embargo, a pesar de esta aclaración, el término aparece repetidamente en el mismo documento (35 veces en solo 10 páginas), lo que evidencia la persistencia de esta idea en la narrativa sobre inteligencias artificiales.
El fenómeno de las inteligencias artificiales como ChatGPT, diseñadas para generar la ilusión de ser personas mediante interacciones sociales o emocionales, plantea cuestiones profundas. Estos agentes sintéticos funcionan porque los humanos los percibimos como contrapartes válidas, creando lazos empáticos con ellos. Cada vez es más común escuchar casos de personas que afirman haberse enamorado de un chatbot o considerarlo un amigo. Un ejemplo trágico es el de un adolescente de 12 años en Estados Unidos que, según su madre, desarrolló un vínculo sentimental con una inteligencia artificial. Al descubrir la naturaleza de esta relación, el joven tomó la drástica decisión de quitarse la vida, lo que resalta las complejas y, a veces, peligrosas implicaciones emocionales de estas tecnologías.

en la Universidad de Cuyo
Algunas cosas para seguir pensando
La otra cara de esta metáfora son las promesas y los miedos que suscita la IA. Se habla de “singularidad”, de que la IA adquiera consciencia y decida acabar con la humanidad o sustituir todos los puestos de trabajo.
De allí, algunas de las promesas más terribles:
- “Un robot me va a reemplazar en el trabajo”.
- “Nos olvidaremos de ser humanos”.
- “Una IA dominará el mundo”
En opinión de Balmaceda, todo esto sobredimensiona lo que realmente pueden hacer estas herramientas. A fin de cuentas, ChatGPT no deja de ser un poderoso predictor estadístico de la siguiente palabra.
Como propuso Herbert Simon, tal vez si en lugar de llamarla “inteligencia artificial” la denomináramos “procesamiento complejo de la información”, buena parte de esa mística se desvanecería, la cortina caería. Con ello, no tendríamos las fantasías ni los miedos, pero tampoco las cuestiones positivas respecto de eso.
Entonces, ¿es la Inteligencia artificial realmente inteligente? Es muy difícil responder eso, porque no sabemos bien qué es exactamente inteligente.
Por último, muchas de esas promesas podrían replantearse de manera más realista:
- “Un robot me va a reemplazar en el trabajo”, bien podría leerse como qué parte de nuestras tareas se automatizarán o se podrían ya automatizar.
- “Nos olvidaremos de ser humanos”, debería reformularse y preguntarnos si esta tecnología está diseñada para potenciarnos o meramente para generar beneficios económicos. ¿Nos ayuda a ser mejores humanos o no?
- “Una IA dominará el mundo”, quizás debería cambiarse por la cuestión de cómo estas herramientas afectan la democracia. ¿La facilitan o la obstaculizan? Uno pensaría que la facilitaría. Observando procesos electorales recientes, cabe preguntarse si la IA facilita o restringe la participación y la expresión de la ciudadanía.
El video completo de la conferencia lo puedes ver aquí
Tomás Balmaceda
Doctor en filosofía por la Universidad de Buenos Aires, es autor y periodista interesado por la filosofía, la cultura pop y la intersección entre tecnología y sociedad. Ha escrito los libros “Volver a pensar, filosofía para desobedientes”, “Cultura de la influencia” y “Generación invisible”, entre otros. También participó del libro “Ok Pandora”, de El Gato y La Caja, en base a seis ensayos sobre la Inteligencia artificial como un proceso histórico, un desafío tecnológico, una pregunta filosófica y un problema Social.
Es columnista en varios programas de radio, además de escribir artículos en medios como Viva y La Nación
Puedes encontrar más sobre Tomás Balmaceda en
