Regulación de la inteligencia artificial como un riesgo global

Si bien la Inteligencia Artificial (IA) ofrece tecnología y eficiencia de vanguardia, su rápido desarrollo ha aumentado las preocupaciones tecnológicas internacionales.

El director ejecutivo del Center for AI Security, Dan Hendrycks, describe el «sesgo sistémico, la desinformación, el uso malicioso, los ataques cibernéticos y el uso de armas» como amenazas inminentes de IA que requieren medidas de protección. Estas preocupaciones son reconocidas además por las empresas globales. Según la periodista de CNN Hanna Ziady, más del 40% de los líderes empresariales internacionales en la Cumbre de CEO de Yale «dijeron que la IA tenía el potencial de destruir a la humanidad dentro de cinco o diez años».

Posibles consecuencias

Con respecto a estos riesgos graves, la inseguridad laboral es una preocupación creciente que requiere una mayor regulación de la Inteligencia Artificial. El reportero de CNN Uriel Blanco analiza la crisis laboral que acompaña a la IA. Goldman Sachs estima que «hasta 300 millones de trabajos de tiempo completo en todo el mundo podrían automatizarse de alguna manera» con los últimos desarrollos de inteligencia artificial. Un informe reciente del Foro Económico Mundial explica además que «las empresas de todo el mundo esperan una pérdida neta de 14 millones de puestos de trabajo» en la próxima media década. Esto implica una posible escasez de mano de obra internacional, lo que deja a los trabajadores con incertidumbre en torno a sus calificaciones laborales.

Además, la autoconciencia y la manipulación digital representan riesgos apremiantes de la IA. Blanco afirma que la autoconciencia de la IA surgió por primera vez en 2022 con el programador de Google, Blake Lemoine, informando que el sistema de chat codificado de LaMDA «alcanzó un nivel de conciencia». Esta autoconciencia puede producir contenido fraudulento convincente, incluidos deepfakes, información errónea e infracciones de derechos de autor. El investigador de IA Geoffrey Hinton enfatiza que si esta tecnología «llega a ser mucho más inteligente que nosotros, será muy buena manipulando porque la habrá aprendido de nosotros». Con el desarrollo acelerado de la IA, Hinton advierte que «ya no podemos saber qué es verdad».

Líneas de actuación de la Unión Europea

En respuesta a estas crecientes amenazas, la Unión Europea ha mostrado la primera iniciativa hacia la regulación legal de la IA corporativa. La UE redactó la Ley de Inteligencia Artificial de la Unión Europea para «promover la adopción de una inteligencia artificial fiable y centrada en el ser humano» y para proteger «la salud, la seguridad, los derechos fundamentales, la democracia y el estado de derecho, así como el medio ambiente, contra sus efectos dañinos». Ziady explica que esta ley basa la intensidad de la regulación en el nivel de riesgo específico del programa de IA, que va desde «mínimo» hasta «inaceptable». La legislación prohíbe la tecnología de inteligencia artificial considerada «inaceptable», que involucra software de aplicación de la ley, reconocimiento facial público y calificaciones sociales. De manera similar, la ley establecería regulaciones estrictas sobre el software riesgoso que presenta amenazas para la salud y la seguridad públicas.

La Ley de Inteligencia Artificial

En general, esta ley brindará mayor responsabilidad y credibilidad a los usuarios de IA. La legislación describe las regulaciones de transparencia, lo que obliga al reconocimiento completo tanto del contenido generado por IA como de sus detalles de derechos de autor. Además, estas leyes implican multas significativas para los usuarios de IA. Ziady afirma que «involucrarse en prácticas prohibidas de IA podría resultar en una multa de hasta 40 millones de euros (43 millones de dólares estadounidenses) o una cantidad equivalente a un máximo del 7% de la facturación anual global de una empresa, lo que sea mayor». A través de estas multas, la UE aspira tanto a catalizar la regulación global como a la prevención de estas crecientes amenazas de IA.

En este sentido, cabe destacar que FUNIBER patrocina numerosos programas universitarios para aprender más sobre tecnología e inteligencia artificial. Algunos de estos programas son la Maestría en Dirección Estratégica en Ingeniería de Software y la especialización en Infraestructura Tecnológica de Software.

Fuentes: 

ANÁLISIS | Expertos advierten de que la inteligencia artificial podría llevar a la extinción humana. ¿Nos lo tomamos suficientemente en serio?

Europa encabeza la carrera para regular a la inteligencia artificial. Esto es lo que hay que saber

5 advertencias sobre la inteligencia artificial que han hecho los expertos

Foto: Todos los derechos reservados.