blogs.funiber.org
Creación de herramientas más sólidas para la detección de la incitación al odio
Microsoft Research desarrolla herramientas de moderación capaces de detectar el discurso de odio implícito contra grupos minoritarios. Estas herramientas pueden utilizarse para grandes modelos lingüísticos (LLM, sigla en inglés). Los grandes modelos lingüísticos han surgido como una de las áreas de investigación más candentes de la inteligencia artificial en los últimos años.
Ruth Congregado