Peligros ocultos en la Inteligencia Artificial generativa

La Inteligencia Artificial (IA) generativa ha irrumpido con fuerza en nuestra cotidianeidad y en todos los sectores productivos.


Enrique Fenollosa
septiembre 09 de 2025
02:43 p. m.
Unirse al canal de Whatsapp de Noticias RCN

Lo que hasta hace poco era un desarrollo experimental, hoy forma parte del núcleo operativo de empresas, gobiernos e infraestructuras críticas. Herramientas como ChatGPT, Copilot o Claude —por mencionar algunas— ya se utilizan para generar código, analizar grandes volúmenes de datos o asistir en procesos de decisión automatizados.

Sin embargo, mientras su despliegue avanza con rapidez, el desarrollo de marcos de seguridad, auditoría y gobernanza avanza mucho más despacio. La consecuencia es clara: se está consolidando una nueva superficie de ataque para la que ni las empresas ni los Estados están debidamente preparados.

Los grandes modelos de lenguaje (LLM, por su sigla en inglés) son sistemas de IA entrenados con ingentes cantidades de datos, que buscan que las máquinas comprendan y generen lenguaje humano de forma natural. Esta característica hace que operen como sistemas opacos: su lógica interna no siempre es auditable, sus fuentes de entrenamiento no son plenamente trazables y su comportamiento puede ser impredecible en ciertos contextos.

Varios estudios recientes alrededor del mundo han señalado esa opacidad como un factor crítico responsable de vectores de riesgo para las empresas, entre los que se destacan: agentes dormidos (instrucciones maliciosas difíciles de detectar que solo se activan en condiciones específicas), filtraciones de datos (los modelos pueden memorizar y reproducir información sensible), generación de contenido malicioso (desde código con puertas traseras hasta mensajes de desinformación), data poisoning (manipulación de las fuentes de datos para influir en el aprendizaje del modelo, integrando información manipulada) e integraciones inseguras (APIs vulnerables o errores de configuración que permiten explotar fallos sistémicos).

Estas vulnerabilidades no son teóricas, puesto que ya se han documentado casos reales en entornos corporativos y públicos. Y el riesgo se multiplica cuando estos modelos se integran en sistemas críticos sin validación de seguridad ni cumplimiento normativo.

En S2GRUPO, con más de veinte años protegiendo sectores críticos en Europa y América Latina, observamos con creciente preocupación cómo tecnologías sensibles —incluidos modelos de IA generativa— están siendo integradas en sistemas vitales sin garantías mínimas de seguridad, trazabilidad ni supervisión. Esta asimilación acrítica está generando una brecha estructural entre el despliegue tecnológico y la capacidad real de gobernanza.

En suma, la IA generativa representa una de las mayores palancas de transformación de las próximas décadas, pero también puede convertirse en una infraestructura de dependencia digital si no se controla desde el principio. Los peligros ocultos que esta tecnología encierra deben ser reconocidos lo antes posible —sobre todo por los gobiernos y las empresas— antes de que sea muy tarde para actuar y queden a su merced.

Unirse al canal de Whatsapp de Noticias RCN Google News Síguenos en Google News

Otras Noticias

Junior de Barranquilla

Junior se quitó de la ‘paternidad’ de América y se encamina a la gran final del FPC

Junior de Barranquilla le ganó a América de Cali sobre el final para encaminarse a la gran final del fútbol colombiano.

Inteligencia Artificial

Estudio revela que chatear con la IA puede influir en las decisiones políticas de votantes

A pesar de utilizar información errada en algunos casos, los chatbots lograron modificar la percepción de un candidato hasta en 10 puntos porcentuales.


¿Por qué Corea del Sur prohibió lanzar globos hacia Corea del Norte?

Estas son las tendencias en Colombia para dar regalos en Navidad: téngalos en cuenta

Chef Leonor Espinosa será la cabeza de lista por el partido Liberal en Bogotá