La inteligencia artificial podría desencadenar una catástrofe para la humanidad, según estudio

La inteligencia artificial podría desencadenar una catástrofe para la humanidad, según estudio

El gobierno de Estados Unidos debe actuar “rápida y decisivamente” para evitar riesgos significativos de seguridad nacional por IA, reveló nuevo informe. (Imagen Ilustrativa Infobae)

 

 

 





En un informe encargado por el gobierno de Estados Unidos, expertos advierten sobre los riesgos de seguridad nacional que presentan los avances actuales en inteligencia artificial (IA), incluso sugiriendo que podrían constituir una amenaza de extinción para la especie humana si no se actúa de manera “rápida y decisiva”.

Rossana Marín 

Según el documento, obtenido de manera exclusiva por Time Magazine antes de su publicación, el desarrollo de IA de vanguardia plantea riesgos urgentes y crecientes, comparando su potencial para desestabilizar la seguridad global con la introducción de armas nucleares.

El informe, titulado “Un Plan de Acción para Aumentar la Seguridad y la Seguridad de la IA Avanzada”, fue encargado por el Departamento de Estado de Estados Unidos en noviembre del 2022 bajo un contrato federal de 250,000 dólares, según registros públicos.

Fue elaborado por Gladstone AI, una pequeña empresa dedicada a impartir sesiones técnicas sobre IA a empleados gubernamentales, tras más de un año de investigación y diálogos con más de 200 empleados del gobierno, expertos y trabajadores de compañías de IA de vanguardia como OpenAI, Google DeepMind, Anthropic y Meta.

Entre las recomendaciones del informe, destaca la propuesta de hacer ilegal el entrenamiento de modelos de IA utilizando más de cierto nivel de potencia de cálculo, sugiriendo que tal umbral sea establecido por una nueva agencia federal de IA. Esta agencia también debería requerir que las empresas de IA en la “frontera” de la industria obtengan permiso del gobierno para entrenar y desplegar nuevos modelos por encima de un cierto umbral inferior.

El documento sugiere, además, considerar urgentemente la prohibición de la publicación de los “pesos” (configuraciones internas) de modelos de IA potentes, donde las violaciones podrían ser castigadas con tiempo en prisión, y recomienda un mayor control en la fabricación y exportación de chips de IA, así como un incremento en la financiación federal hacia la investigación de “alineamiento” para hacer la IA avanzada más segura.

Más detalles en INFOBAE