Más allá de los algoritmos: los riesgos reales de la Inteligencia Artificial

El verdadero riesgo no es reside en la tecnología, sino en cómo la usamos y nos protegemos.


Enrique Fenollosa
diciembre 01 de 2025
11:23 a. m.
Unirse al canal de Whatsapp de Noticias RCN

Para nadie es un secreto que la Inteligencia Artificial (IA) está vada vez más presente en nuestras vidas cotidianas: desde el banco que analiza nuestras transacciones, hasta la aplicación que recomienda la próxima serie que veremos. Su impacto es innegable: acelera procesos, mejora decisiones y abre oportunidades de negocio. Pero detrás de este entusiasmo hay una realidad que no podemos ignorar: la IA también multiplica los riesgos.

La IA es una tecnología de doble uso. Lo que para una empresa significa eficiencia, para un ciberdelincuente puede ser una herramienta barata y poderosa para atacar. El mismo algoritmo que detecta fraudes puede ser manipulado para ocultarlos; el modelo que predice fallos en una red crítica puede ser saboteado para generarlos. No hablamos de ciencia ficción: estudios recientes como ‘Cost of a Data Breach Report 2025’ de IBM, muestran que más del 13 % de las organizaciones ya han sufrido brechas vinculadas a sistemas de IA, y la mayoría carece de controles básicos para protegerlos.

Los peligros de la IA se despliegan en tres niveles que afectan directamente nuestra seguridad digital y social:

  • Técnico: vulnerabilidades en los datos, en los modelos y en la infraestructura. Aquí aparecen amenazas como el envenenamiento de información o el robo de conocimiento algorítmico.
  • Operativo: la dependencia de proveedores externos y la falta de transparencia en los sistemas hacen que las organizaciones sean más frágiles frente a ataques persistentes.
  • Humano: el error, la falta de formación o el uso no autorizado de modelos —la llamada IA en la sombra— siguen siendo el talón de Aquiles más explotado por los atacantes.

El despliegue acelerado de la IA ha creado un espejismo: creer que basta con innovar para estar protegidos. Pero la innovación sin responsabilidad es una trampa. La trazabilidad, la explicabilidad y el cumplimiento normativo no son burocracia, sino garantías mínimas de confianza. En un mundo donde los ciberdelincuentes ya integran la IA en su arsenal, ignorar estos principios es abrir la puerta a un futuro de inseguridad permanente.

La respuesta no puede ser reactiva. Necesitamos auditorías específicas para sistemas de IA, capaces de medir con precisión su nivel de exposición. Y, sobre todo, programas de formación que preparen a las personas para interactuar con estas tecnologías de manera segura y responsable. La defensa no está solo en los algoritmos, sino en la cultura organizacional y ciudadana que los rodea.

La IA no es enemiga, pero tampoco es un aliado incondicional. Es una herramienta poderosa cuyo impacto dependerá de nuestra capacidad para gobernarla con visión integral. Más allá de los algoritmos, lo que está en juego es la confianza en el futuro digital de nuestra sociedad.

Unirse al canal de Whatsapp de Noticias RCN Google News Síguenos en Google News

Otras Noticias

Soacha

Crecimiento sin control: La lupa del nuevo observatorio de Soacha frente a la crisis de la informalidad

Soacha ha anunciado el lanzamiento de su Observatorio Urbano. De esto se trata.

Viral

¿Vale la pena un romance en el trabajo? Las reglas clave para no poner en riesgo el empleo

Más del 53% y 60% de trabajadores ha confesado haberse enamorado de un colega, según estudio del diario El País de Uruguay.


“Regala una vida”: la misión médica que devuelve esperanza a los niños de San Andrés

Así justificó el régimen de Maduro la muerte del exgobernador Alfredo Díaz, preso en el Helicoide

¿Marino Hinestroza a la Premier League? El rumor alrededor de la figura de Atlético Nacional