blogs.funiber.org
Construir ferramentas de detecção de discurso de ódio mais robustas
A Microsoft Research desenvolve ferramentas de moderação capazes de detectar discursos de ódio implícitos contra grupos minoritarios. Estas ferramentas podem ser usadas para os grandes modelos de linguagem (LLM, sigla do termo em inglês). Grandes modelos de linguagem surgiram como uma das áreas de pesquisa mais quentes em inteligência artificial nos últimos anos.
Michelle