qua, 29 jun 2022
Construir ferramentas de detecção de discurso de ódio mais robustas
A Microsoft Research desenvolve ferramentas de moderação capazes de detectar discursos de ódio implícitos contra grupos minoritarios. Estas ferramentas podem ser usadas para os grandes modelos de linguagem (LLM, sigla do termo em inglês). Grandes modelos de linguagem surgiram como uma das áreas de pesquisa mais "quentes" em inteligência artificial nos últimos anos. Ler mais
qua, 3 fev 2021
Médicos sofrem ataques nas redes sociais, mostra estudo nos EUA
De acordo com uma pesquisa divulgada na revista JAMA Internal Medicine, que realizou questionários com 464 médicos nos Estados Unidos, quase um quarto (23,3%) afirmou ter sofrido ataques nas redes sociais. Entre os ataques sofridos, as médicas mulheres foram as principais vítimas (24,2% entre as mulheres e 21,9% entre os homens). Ler mais