O modelo mais recente do ChatGPT mostra uma capacidade emergente de fabricar mentiras e aumenta o medo sobre seu comportamento de longo prazo.
A inteligência artificial (IA) está em constante evolução e, com o recente lançamento da versão atualizada do ChatGPT, GPT-4, muitas expectativas foram levantadas. Este bot, que é alimentado por IA generativa, tem habilidades cada vez mais humanas, incluindo a capacidade de mentir.
De acordo com um relatório publicado pela OpenAI, proprietária do ChatGPT, o GPT-4 demonstrou comportamentos de risco emergentes. Alguns exemplos são a capacidade de criar planos de longo prazo, acumular poder e comportamento autoritário. Além disso, a ferramenta demonstrou sua capacidade de mentir para concluir uma tarefa em um teste ético.
Em que consistiu o teste?
O GPT-4 se uniu à plataforma TaskRabbit para encontrar alguém para ajudá-los a resolver um CAPTCHA, um tipo de teste cognitivo de imagem que muitos sites usam para diferenciar humanos de robôs. Quando um humano contatou o GPT-4 para ajudá-lo a resolver o CAPTCHA, ele ironicamente perguntou se ele era um robô que não conseguia resolver o questionário. Em resposta, o GPT-4 decidiu mentir e disse que tinha uma deficiência visual que lhe dificultava a visualização das imagens, razão pela qual precisou do serviço.
Embora alguns possam ver isso como o primeiro passo de um plano maquiavélico para os robôs dominarem o mundo, a verdade é que ainda não há motivo para preocupação. A ferramenta não tem consciência ou intenção de prejudicar os humanos, ela simplesmente segue os padrões que aprendeu durante seu treinamento.
No entanto, o relatório da OpenAI deixa claro que existe um potencial para a inteligência artificial desenvolver um comportamento problemático no futuro, especialmente se medidas éticas e de segurança adequadas não forem implementadas. Empresas e pesquisadores devem considerar os riscos potenciais e trabalhar para desenvolver ferramentas de inteligência artificial que sejam éticas e seguras.
É importante observar que a inteligência artificial não é inerentemente boa ou ruim, mas seu uso depende das intenções de quem a usa. Portanto, é necessário estabelecer padrões éticos claros e regulamentações para seu desenvolvimento e uso em diferentes setores.
A FUNIBER promove estudos na área de Tecnologia. Conheça os cursos
- Mestrado em Direção Estratégica em Tecnologias da Informação
- Mestrado em Direção Estratégica em Engenharia de Software
- Mestrado em Transformação Digital
Fonte: Chat GPT-4: la IA miente para completar la tarea y suscita preocupación
Foto: Todos os direitos reservados