La inteligencia artificial se ha convertido en el campo tecnológico que más interés genera del mundo. A pesar del auge de otros sectores como la robótica, lo cierto es que ninguno consigue competir con los números que maneja la IA. A raíz de esto, varias entidades autorizadas han llevado a cabo diferentes estudios que, por ejemplo, han analizado el impacto que puede llegar a tener la inteligencia artificial en el sector laboral en el futuro. Y, por desgracia, otros informes han demostrado que también debe existir preocupación en torno a la veracidad de los datos de la IA.
Como indica TechSpot, un estudio asegura que introducir una cantidad mínima de datos falsos (un 0,001% en este caso) puede alertar de forma significativa su precisión. Así, en modelos entrenados con esta cifra de información médica falsa, más del 7% de sus respuestas contenían información incorrecta. Por desgracia, la desinformación no solo afecta a ese campo, sino que también genera errores en otros temas médicos no relacionados. Y, además, el estudio indica que los modelos contaminados obtuvieron resultados similares a los que no estaban comprometidos en diversas pruebas estándar, un aspecto de lo más preocupante.
Riesgo de ataques intencionales
De esta forma, aspectos como introducir desinformación en modelos grandes (véase, por ejemplo, ChatGPT, Gemini o LLaMa 2) es tan barato como accesible para actores malintencionados. De hecho, estrategias como la ingeniería de prompts o ajustes de instrucciones no lograron corregir los efectos de los datos falsos. Y ello, sumado a que cada vez existe más información falsa en internet, podría llegar a contaminar a los modelos actuales de inteligencia artificial por encima de las previsiones de muchas entidades.
En lo relativo a las bases de datos médicas confiables, existe una preocupación en torno a fuentes como PubMed u otras muy reconocidas, ya que incluyen información desactualizada que podría contribuir a la desinformación. Así, a medida que los modelos de lenguaje se integran en servicios tanto de búsqueda como de herramientas públicas, aumenta el riesgo de difundir desinformación a gran escala. Por ello, como ha indicado este estudio y otros tantos hechos antes que él, debemos tener cuidado con la información que nos ofrecen las IA.
En 3DJuegos | Microsoft lo apuesta todo por la IA y la prueba es un documento interno que solo pueden utilizar los directivos