Construir ferramentas de detecção de discurso de ódio mais robustas
A Microsoft Research desenvolve ferramentas de moderação capazes de detectar discursos de ódio implícitos contra grupos minoritarios. Estas ferramentas podem ser usadas para os grandes modelos de linguagem (LLM, sigla do termo em inglês). Grandes modelos de linguagem surgiram como uma das áreas de pesquisa mais "quentes" em inteligência artificial nos últimos anos. Ler mais
Inteligência artificial é capaz de mentir?
Enganar ao sistema vem sendo possível, mas agora surge a questão se a própria inteligência artificial pode aprender a mentir Ler mais
Robôs empáticos
Graças ao desenvolvimento da inteligência artificial, os robôs conseguiram sentir empatia Ler mais
Alternativas para evitar as desigualdades sociais na inteligência artificial
Os dispositivos e aplicativos de inteligência artificial podem replicar desigualdades e discriminação que percebemos na sociedade off-line, porém de maneira invisível e mais complexa. Ler mais