Categoria:

Un estudio sobre la relación entre la IA y la medicina hace hincapié en lo peligrosa que puede llegar a ser esta tecnología

Autor: @Abegh58

La inteligencia artificial se ha convertido en el campo tecnológico que más interés genera del mundo. A pesar del auge de otros sectores como la robótica, lo cierto es que ninguno consigue competir con los números que maneja la IA. A raíz de esto, varias entidades autorizadas han llevado a cabo diferentes estudios que, por ejemplo, han analizado el impacto que puede llegar a tener la inteligencia artificial en el sector laboral en el futuro. Y, por desgracia, otros informes han demostrado que también debe existir preocupación en torno a la veracidad de los datos de la IA.

Como indica TechSpot, un estudio asegura que introducir una cantidad mínima de datos falsos (un 0,001% en este caso) puede alertar de forma significativa su precisión. Así, en modelos entrenados con esta cifra de información médica falsa, más del 7% de sus respuestas contenían información incorrecta. Por desgracia, la desinformación no solo afecta a ese campo, sino que también genera errores en otros temas médicos no relacionados. Y, además, el estudio indica que los modelos contaminados obtuvieron resultados similares a los que no estaban comprometidos en diversas pruebas estándar, un aspecto de lo más preocupante.

Riesgo de ataques intencionales

De esta forma, aspectos como introducir desinformación en modelos grandes (véase, por ejemplo, ChatGPT, Gemini o LLaMa 2) es tan barato como accesible para actores malintencionados. De hecho, estrategias como la ingeniería de prompts o ajustes de instrucciones no lograron corregir los efectos de los datos falsos. Y ello, sumado a que cada vez existe más información falsa en internet, podría llegar a contaminar a los modelos actuales de inteligencia artificial por encima de las previsiones de muchas entidades.

En lo relativo a las bases de datos médicas confiables, existe una preocupación en torno a fuentes como PubMed u otras muy reconocidas, ya que incluyen información desactualizada que podría contribuir a la desinformación. Así, a medida que los modelos de lenguaje se integran en servicios tanto de búsqueda como de herramientas públicas, aumenta el riesgo de difundir desinformación a gran escala. Por ello, como ha indicado este estudio y otros tantos hechos antes que él, debemos tener cuidado con la información que nos ofrecen las IA.

En 3DJuegos | “Hemos llegado al límite”: Elon Musk se suma a la teoría del “pico de datos” al asegurar que ya no hay datos humanos para entrenar a la IA

En 3DJuegos | Microsoft lo apuesta todo por la IA y la prueba es un documento interno que solo pueden utilizar los directivos

Imagen principal de Maximalfocus (Unsplash)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te puede interesar también

Aplicaciones de karaoke gratis para cantar online

Las salas de karaoke son una apuesta segura si quieres disfrutar de un plan diferente y entretenido con amigos. Son muchos a los que les apasiona cantar su canción favorita o sentirse artistas musicales por un momento sin miedo a desafinar frente a sus seres queridos. Sin embargo, no en todos los sitios hay establecimientos

Leer Más >>

¿Quieres hablar con nosotros en cabina?

Nuestros Horarios en el Estudio:

9am a 11am | 12m a 1pm | 4 a 5 pm | 5 a 6pm

horario del pacifico