Expertos revelan cómo ChatGPT podría permitir el robo de datos: ¿cuáles son los riesgos?
Una firma de ciberseguridad reveló algunas de las falencias que el famoso chatbot posee actualmente.
Noticias RCN
04:32 p. m.
ChatGPT se ha convertido en uno de los chats de inteligencia artificial más populares en la actualidad por lo que esta herramienta es una de las más apetecidas por millones de usuarios.
Sin embargo, este chat ha representado serios riesgos para la seguridad de la información, pues una reciente investigación, por parte de una firma de ciberseguridad, reveló varias fallas que podrían poner en riesgo la información privada.
Fallas en la seguridad de ChatGPT
Según la compañía Tenable, existen diferentes falencias en ChatGPT que permiten la exposición a diferentes riesgos de robo sobre la información y datos personales de las personas.
Uno de los principales riesgos corresponde al de la inyección indirecta por medio de sitios de confianza, pues los atacantes ocultan comandos dentro de la información en línea que luego es utilizada por la inteligencia artificial para emitir sus respectivos resultados. Es así como el chat genera contenido sin percatarse de que se encuentra siendo manipulado.
La inyección indirecta consiste en que, con tan solo una búsqueda en el chat, la herramienta dirige al usuario a una página con un código malicioso lo cual la hace especialmente riesgosa para los usuarios.
Las inyecciones desde los prompts también se han sumado a los graves riesgos dentro del chatbot ya que el atacante añade comandos ocultos en un enlace que, al dar clic sobre este, desencadena acciones maliciosas.
Otro de los riesgos corresponden a la alteración de las url ya que los atacantes introducen un sitio malicioso dentro de un link que, aparentemente, puede ser considerado como legítimo.
Más riesgos por medio de la conversación con ChatGPT
Otro de los riesgos más importantes corresponde al de la inyección en medio de la conversación ya que los atacantes logran utilizar la navegación de esta herramienta para indexar comandos ocultos que la IA identifica como órdenes que realmente nunca se le dieron por parte del usuario.
La técnica, denominada como “inyección de memoria persistente” lleva a que las instrucciones malignas se guarden y se sigan ejecutando en el dispositivo, aunque se cierre la aplicación. Algunos de sus principales riesgos son el robo de la información del usuario

