SANTO DOMINGO. El uso de inteligencia artificial en aplicaciones como ChatGPT y Géminis no solo es beneficiosa, también conlleva riesgo para la seguridad de la información de las personas y organizaciones, porque esta abre “una ventana al mundo, pero también abre puertas a la vulnerabilidad de información sensible”.
Así lo expuso José Amado, gerente de la Práctica de Identidades Digitales de SISAP, quien dijo que uno de los mayores “riesgos al utilizar aplicaciones de inteligencia artificial, es la incertidumbre con relación al manejo de datos e información privada por la aplicación”.
Por ejemplo, dijo Amado, “ChatGPT es un programa que necesita gran cantidad de información para entrenarse, la cual nosotros le proveemos cada vez que lo utilizamos, datos que son almacenados en una nube fuera de nuestro alcance”, explicó.
Indicó que eso constituye un riesgo si en una empresa un colaborador debe realizar un resumen ejecutivo y por ahorrar tiempo lo copia en ChatGPT y le pide que lo haga por él, “eso le daría acceso completo al reporte, y a información de la empresa almacenados en la nube”.
Para Amado, estas preocupaciones de privacidad deben de estar presentes en la organización al momento de considerar la implementación de Inteligencia Artificial, “pues una vez se comparten los datos con las aplicaciones, no pueden eliminarse o regresar, por lo que resulta importante capacitar a los colaboradores sobre estas tecnologías y sus usos, para evitar que compartan información sensible o confidencial con ellas”.
Aseguró que por medio de IA ha sido posible realizar tareas de programación, como escribir el código fuente para nuevas aplicaciones y páginas webs, lo que facilita la labor de los programadores y personas con poca experiencia en el tema. “El código de más del 65% de las aplicaciones se están escribiendo con Inteligencia Artificial”, dijo Amado.
“El problema es que generalmente la IA generará un código similar o idéntico para varios usuarios, por lo que es posible que varias organizaciones manejen prácticamente el mismo software o aplicación, y si todos comparten el mismo código generado por IA, también compartirán las mismas vulnerabilidades, facilitando el acceso a cualquier cibercriminal”, agregó.
José Amado indicó que la tendencia demuestra que “este riesgo seguirá en aumento, especialmente por el dinamismo y la velocidad con la que se busca crear nuevas aplicaciones y sistemas”, y recomendó a las entidades no utilizar la Inteligencia Artificial para generar los códigos que necesiten, y recurrir a métodos tradicionales, “los cuales pueden ser más lentos, pero a la larga brindarán mayor seguridad”.
Explicó que mientras ChatGPT y Gemini buscan apoyar y facilitar las tareas diarias de las personas, existen aplicaciones similares con fines maliciosos, que buscan ayudar a los cibercriminales a mejorar sus métodos de ataque y pasar desapercibidos.
“Algunos ejemplos de GPTs maliciosos son WormGPT, FraudGPT y PoisonGPT, los cuales pueden realizar tareas desde escribir correos creíbles de phishing, hasta escribir el código de un programa maligno para extraer información”, alertó Amado.
En ese sentido, el experto destacó la importancia de conocer sobre ese tipo de aplicaciones, ya que con su ayuda aumenta el riesgo de que las organizaciones puedan sufrir ataques cibernéticos y ser víctimas de Ransomware.
Si en una organización hace uso de IA para la programar aplicaciones o websites, o bien, los colaboradores hacen uso de aplicaciones como ChatGPT, Amado recomendó acercarse a una empresa de soluciones en ciberseguridad como SISAP que puede realizar un análisis de sus vulnerabilidades y aumentar sus defensas contra ciberataques.