Los desarrolladores de aplicaciones peligrosas para los usuarios están utilizando IA para escribir código, incrementando los ataques gracias a la facilidad de aprendizaje en estas herramientas.
Los cibercriminales utilizan el modelo de lenguaje GPT para crear programas digitales maliciosos con el apoyo de la inteligencia artificial (IA), pese a las limitaciones integradas por la compañía tecnológica OpenAI, así como para crear y difundir contenidos en redes sociales.
El control de los creadores de ChatGPT ante este uso malintencionado de su inteligencia artificial OpenAI ha logrado interrumpir más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos. A ello se unen actividades como la redacción de publicaciones para redes sociales y depurar programas peligrosos.
OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley, algo imprescindible para afrontar con seguridad la revolución tecnológica que comenzó el pasado año y que llegará su pleno desarrollo antes de 2030.
Los procesos de anticipación y planificación ante los ciberataques deben servir para crear medidas de aplicación de la ley
A fecha de octubre de 2024, la compañía ha comprobado que los cibercriminales usan los modelos de IA para realizar tareas en una fase específica e intermedia de actividad. OpenAI indica que aunque los ciberdelincuentes usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real, algo que tampoco se descarta a corto plazo dados los avances en este tipo de tecnología.
La monitorización de OpenAI sobre los riesgos del mal uso de la inteligencia artificial es constante. Según datos de la compañía en un año en que más de 2.000 millones de personas están llamadas a participar en procesos electorales en 50 países de todo el mundo, no han observado ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas con el uso de sus modelos de IA.