Un grupo de científicos afirma que la Inteligencia Artificial (IA) puede presentar nuevos riesgos para la sociedad.
La revista Science ha publicado un artículo en el que diversos científicos procedentes de numerosos centros de investigación y universidades a nivel internacional han alertado sobre las consecuencias y riesgos que entraña el avance de la Inteligencia Artificial (IA).
Hasta el momento, la IA se ha probado en situaciones que van desde un diagnóstico médico hasta la navegación de coches autónomos. Sin embargo, los investigadores han señalado las consecuencias que esto acarrea, pues, al ser escenarios de «alto riesgo», los márgenes de error son escasos y cualquier fallo puede ser fatal.
Lo curioso del caso es que la publicación de este artículo ha coincidido con la carta abierta de 5.500 expertos publicada quince días antes. En ella han abogado por pausar los experimentos con la IA «generativa». Esta es la más avanzada y potente, capaz de crear textos o imágenes a partir de datos.
Por otro lado, entre las instituciones de las que proceden los científicos, destacan las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London y el Instituto Tecnológico de Massachusetts (MIT). Además, empresas como Google o DeepMind.
Para los científicos, es imprescindible que las publicaciones relacionadas con el tema incluyan todos los datos vitales para comprender y abordar cualquier error que pueda generar fallos. La comunidad científica debe tener a su disposición dichos datos para reducir al mínimo la reproducción de los mismos errores.
¿Por qué frenar la IA es complicado?
De acuerdo con el científico y profesor en el Instituto Valenciano de Investigación en Inteligencia Artificial, frenar la IA «es una tarea muy difícil, si no imposible». Además, destaca la implicación de la industria, la academia y la sociedad en la investigación y desarrollo de esta tecnología, algo que se torna complicado, puesto que cada uno tiene sus propios intereses, los cuales en ocasiones son contrarios.
Por otro lado, el investigador ha hecho énfasis en que estas tecnologías «son capaces de crear obras de arte y textos impresionantes, pero también presentan nuevos riesgos para la sociedad: la creación de contenidos falsos, engañosos o incluso peligrosos, como noticias falsas, contenidos ofensivos, discriminatorios e ilegales».
Finalmente, FUNIBER patrocina numerosos programas universitarios para aprender más sobre tecnología e inteligencia artificial. Algunos de estos programas son la Maestría en Dirección Estratégica en Ingeniería de Software y la especialización en Infraestructura Tecnológica de Software.
Foto: Todos los derechos reservados.