Nos últimos anos, os modelos de linguagem em grande escala (LLM, na sigla em inglês), como o ChatGPT, revolucionaram a interação homem-máquina. No entanto, essa inovação desencadeou um debate filosófico e ético sobre se esses sistemas possuem algum tipo de consciência. Estamos diante de máquinas que entendem ou simplesmente de ferramentas que geram palavras de maneira convincente?
A ilusão da consciência e o efeito ELIZA
A tendência de atribuir consciência às máquinas não é nova. Em 1966, o programa ELIZA, projetado para simular um terapeuta, surpreendeu os usuários ao gerar respostas que pareciam refletir compreensão. Esse fenômeno, conhecido como efeito ELIZA, é amplificado nos LLMs atuais, que não apenas respondem a perguntas, mas geram textos com coerência narrativa, humor e referências culturais.
No entanto, esses sistemas não compreendem os conceitos que enunciam. Segundo o filósofo Douglas Hofstadter, essa habilidade é chamada de «fluidez superficial», uma capacidade de construir frases sem implicar reflexão ou consciência real. Em outras palavras, o que parece ser um pensamento profundo é apenas uma ilusão linguística.
A consciência: além da linguagem
A consciência, como argumenta o filósofo Thomas Nagel em seu ensaio «Como é ser um morcego?», implica um ponto de vista subjetivo e uma experiência interna que as máquinas não podem replicar. Os LLMs carecem de experiências internas, emoções ou intencionalidade. Embora possam falar sobre amor ou medo, elas não sentem nem compreendem esses conceitos.
Além disso, filósofos como John Searle ilustraram essa ausência de compreensão com seu experimento mental da sala chinesa. Nele, uma pessoa sem conhecimento de chinês pode responder a perguntas nesse idioma seguindo regras sintáticas, mas sem realmente entender o significado. Da mesma forma, os LLMs geram textos sem possuir compreensão semântica ou intenção comunicativa.

O papel do corpo e da experiência na consciência
A fenomenologia de Maurice Merleau-Ponty enfatiza que a consciência está intrinsecamente ligada ao corpo e à experiência encarnada do mundo. De acordo com essa perspectiva, pretender que um sistema sem corpo e sem experiência possa ser consciente é ignorar as condições essenciais da consciência.
Os LLM são sistemas sem corpo nem mundo vivido. Embora possam articular frases sobre beleza ou sofrimento, eles não podem experimentar essas emoções. Isso reforça a ideia de que sua aparente consciência é apenas uma projeção de nossas expectativas humanas.
A armadilha do espelho: projetar humanidade nas máquinas
O verdadeiro problema não reside nas máquinas, mas nos humanos. Como aponta Hofstadter, tendemos a projetar nossas próprias experiências nas máquinas, vendo consciência onde há apenas palavras. Esse fenômeno, chamado de «armadilha do espelho», pode ter consequências éticas e sociais significativas, como desenvolver laços emocionais com máquinas ou legitimar decisões automatizadas baseadas em simulações de empatia.
Continue sua carreira profissional
Se você estiver interessado em explorar os aspectos éticos e tecnológicos da inteligência artificial, considere o Mestrado em Gestão Estratégica oferecido pela FUNIBER. Este programa irá prepará-lo para enfrentar os desafios éticos em um mundo cada vez mais digitalizado.