En los últimos años, los modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), como ChatGPT, han revolucionado la interacción humano-máquina. Sin embargo, esta innovación ha desatado un debate filosófico y ético sobre si estos sistemas poseen algún tipo de conciencia. ¿Estamos frente a máquinas que entienden o simplemente a herramientas que generan palabras de manera convincente?
La ilusión de conciencia y el efecto ELIZA
La tendencia a atribuir conciencia a las máquinas no es nueva. En 1966, el programa ELIZA, diseñado para simular un terapeuta, sorprendió a los usuarios al generar respuestas que parecían reflejar comprensión. Este fenómeno, conocido como el efecto ELIZA, se amplifica en los LLM actuales, que no solo responden preguntas, sino que generan textos con coherencia narrativa, humor y referencias culturales.
Sin embargo, estos sistemas no comprenden los conceptos que enuncian. Según el filósofo Douglas Hofstadter, esta habilidad se denomina “fluidez superficial”, una capacidad para construir frases sin implicar reflexión o conciencia real. En otras palabras, lo que parece ser pensamiento profundo es solo un espejismo lingüístico.
La conciencia: más allá del lenguaje
La conciencia, como argumenta el filósofo Thomas Nagel en su ensayo “¿Cómo es ser un murciélago?”, implica un punto de vista subjetivo y una experiencia interna que las máquinas no pueden replicar. Los LLM carecen de experiencias internas, emociones o intencionalidad. Aunque pueden hablar sobre el amor o el miedo, no sienten ni comprenden estos conceptos.
Además, filósofos como John Searle han ilustrado esta ausencia de comprensión con su experimento mental de la habitación china. En este, una persona sin conocimientos de chino puede responder preguntas en ese idioma siguiendo reglas sintácticas, pero sin entender realmente el significado. De manera similar, los LLM generan textos sin poseer comprensión semántica ni intención comunicativa.
El papel del cuerpo y la experiencia en la conciencia
La fenomenología de Maurice Merleau-Ponty subraya que la conciencia está intrínsecamente ligada al cuerpo y a la experiencia encarnada del mundo. Según esta perspectiva, pretender que un sistema sin cuerpo y sin experiencia pueda ser consciente es ignorar las condiciones esenciales de la conciencia.
Los LLM son sistemas sin cuerpo ni mundo vivido. Aunque pueden articular frases sobre la belleza o el sufrimiento, no pueden experimentar estas emociones. Esto refuerza la idea de que su aparente conciencia es solo una proyección de nuestras expectativas humanas.
La trampa del espejo: proyectar humanidad en las máquinas
El verdadero problema no reside en las máquinas, sino en los humanos. Como señala Hofstadter, tendemos a proyectar nuestras propias experiencias en las máquinas, viendo conciencia donde solo hay palabras. Este fenómeno, llamado “la trampa del espejo”, puede tener consecuencias éticas y sociales significativas, como desarrollar vínculos emocionales con máquinas o legitimar decisiones automatizadas basadas en simulaciones de empatía.
Continúa tu carrera profesional
Si te interesa explorar los aspectos éticos y tecnológicos de la inteligencia artificial, considera la Maestría en Dirección Estratégica ofrecida por FUNIBER. Este programa te preparará para abordar los desafíos éticos en un mundo cada vez más digitalizado.
Fuente:
La trampa de los grandes modelos de lenguaje: ver conciencia donde solo hay palabras – The Conversation