Gigantes de la inteligencia artificial unen fuerzas para autorregularse

Llamada Foro del Modelo de Frontera, se encargará de promover el "desarrollo responsable" de los modelos más sofisticados de IA.


Gigantes de la inteligencia artificial unen fuerzas para autorregularse
Foto: Referencia - Pixabay

AFP

julio 26 de 2023
07:16 a. m.
Unirse al canal de Whatsapp de Noticias RCN

Google, Microsoft, Anthropic y OpenAI, cuatro empresas que lideran la carrera por la inteligencia artificial (IA) de última generación, anunciaron la creación de una nueva organización profesional para combatir los riesgos asociados a esta tecnología.

Llamada "Frontier Model Forum" (Foro del Modelo de Frontera), se encargará de promover el "desarrollo responsable" de los modelos más sofisticados de IA y de "minimizar los riesgos potenciales", según un comunicado de prensa. 

Los miembros se comprometen a compartir entre ellos, además de con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos.

El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil.

Vea también: Inteligencia artificial reveló los trabajos con mejor salario en el futuro: ¿está el suyo?

La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas. 

En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido.

Por esa razón, la Casa Blanca insta a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su "deber moral", como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo. 

La semana pasada, la administración de Joe Biden se aseguró los "compromisos" de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender "tres principios" en el desarrollo de IA: seguridad, protección y confianza.

Le puede interesar: MinTIC revela detalles de cómo será el Laboratorio de Inteligencia Artificial en Colombia

Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal. 

Los líderes de estas empresas no niegan los riesgos, al contrario.

En junio, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron a luchar contra "los riesgos de extinción" de la humanidad "vinculados a la IA". 

Durante una audiencia en el Congreso, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.

Lea, además: Así se verían Dios y el paraíso según la inteligencia artificial

Entre tanto, OpenAI trabaja para lograr una IA denominada "general", con capacidades cognitivas similares a las de los humanos. 

En una publicación del 6 de julio, la empresa con sede en California dice que se enfoca en los "modelos de frontera" de la IA, "modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública".

Advierte que estas capacidades peligrosas podrían "surgir inesperadamente" y que "es difícil evitar realmente que un modelo implementado sea mal utilizado".

Unirse al canal de Whatsapp de Noticias RCN Google News Síguenos en Google News

Te puede interesar

La casa de los famosos

Rebeldía en La Casa: el ‘Jefe’ sancionó a dos famosos por romper las normas

Artistas

¡Orgullo nacional! J Balvin encabezará la ceremonia inaugural de la Copa del Mundo 2026

Redes sociales

Expareja de Alexa Torres apareció en redes tras conocerse las acciones legales en su contra

Otras Noticias

Disidencias de las Farc

La Fiscalía tiene la última palabra sobre la suspensión de órdenes de captura de peligrosos criminales

La fiscal Luz Adriana Camargo evaluará riesgos de no comparecencia y peligro social antes de aceptar propuesta del Gobierno Nacional sobre prerrogativas.

México

Niño con coeficiente intelectual mayor al de Einstein se prepara para ingresar a la universidad a sus 10 años

Sus capacidades lo llevaron a enfrentar problemas de acoso o matoneo, que lo inspiraron a desarrollar una app para ayudar a otros niños.


Netflix reveló el tráiler oficial de la serie de James Rodríguez: video

Resultado Lotería de Medellín hoy viernes 8 de mayo de 2026: último sorteo

La Fundación Cardioinfantil realizará su segunda brigada hepática en Bogotá: la primera cambió la vida de Milagros