Los cibercriminales utilizan el modelo de lenguaje grande GPT, de OpenAI, para crear ‘sotfware‘ malicioso con el apoyo de la inteligencia artificial (IA), pese a las limitaciones integradas por la compañía tecnológica, así como para crear y difundir contenidos en redes sociales.
OpenAI ha interrumpido más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos. A ello se unen actividades como la redacción de publicaciones para redes sociales y depurar ‘malware‘, y que la compañía recoge en la actualización del informe ‘Influencia y operaciones cibernéticas’.
Con este análisis, OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley.
En este contexto, y a fecha de octubre de 2024, la compañía ha comprobado que los cibercriminales usan los modelos de IA “para realizar tareas en una fase específica e intermedia de actividad”, esto es, después de haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, pero antes de “desplegar productos acabados”, como pueden ser las publicaciones de redes sociales y los programas maliciosos.
En cualquier caso, OpenAI indica que, aunque los actores maliciosos usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real, esto es, que no ha derivado en “la creación sustancial de nuevo malware ni en la creación de audiencias virales”.
Sí han detectado actividad engañosa en redes sociales que alcanza una audiencia de gran tamaño, pero en estos casos, matiza, “el interés fue un engaño sobre el uso de la IA, no el uso de la IA en sí”.
Te puede interesar: Inversión de Tesla en México dependerá de elecciones en EU
FFO