Dos nuevos estudios de OpenAI nos permiten tener una mejor idea de cómo los chatbots nos están afectando, aunque todavía hay mucho que no sabemos: los investigadores confirmaron que solo un pequeño subconjunto de usuarios interactúa emocionalmente con ChatGPT. También hallaron diferencias en el impacto que genera en cada persona, identificando dependencia emocional y cierta tendencia a la soledad en un grupo específico de usuarios.
OpenAI, en colaboración con el MIT Media Lab de Estados Unidos, ha publicado recientemente dos estudios que exploran el impacto del uso de ChatGPT en el bienestar emocional de los usuarios. Estos estudios ofrecen una visión más profunda sobre cómo la interacción con chatbots puede influir en nuestras emociones y comportamientos sociales.
Dependencia emocional y soledad
Uno de los hallazgos más destacados es que solo un pequeño porcentaje de los usuarios establece interacciones emocionales significativas con ChatGPT. Sin embargo, aquellos que lo hacen tienden a interactuar con el chatbot durante períodos prolongados, algunos alcanzando un promedio de 30 minutos diarios. Este patrón sugiere una posible dependencia emocional, que deberá seguir analizándose a futuro.
Además, se observaron diferencias de género en las respuestas al uso de ChatGPT. Después de cuatro semanas de interacción, las participantes femeninas mostraron una ligera disminución en la socialización con otras personas en comparación con los voluntarios masculinos, mostrando que la herramienta podría generar cierta tendencia a la soledad y el aislamiento.
Al mismo tiempo, los participantes que utilizaron el modo de voz de ChatGPT configurado en un género diferente al propio reportaron niveles significativamente más altos de soledad y una mayor dependencia emocional hacia el chatbot al finalizar el experimento.
La necesidad de seguir profundizando
Según informa Technology Review, estos resultados van de la mano con investigaciones previas que indican que los chatbots tienden a reflejar las emociones de los usuarios, creando un ciclo de retroalimentación emocional. Por ejemplo, un estudio de 2023 del MIT Media Lab concluyó que los chatbots reflejan el sentimiento emocional de los mensajes de los usuarios, sugiriendo un tipo de “bucle de retroalimentación” donde la IA tiende a “copiar” las emociones de los usuarios y viceversa.
Es importante destacar que estos estudios se basan en datos autoinformados, una condición que puede introducir ciertas limitaciones en la precisión de los resultados. Más allá de esto, la investigación ofrece una base valiosa para comprender mejor las implicaciones emocionales de interactuar con modelos de lenguaje avanzados como ChatGPT.
OpenAI reconoce la complejidad de estos hallazgos y la necesidad de continuar investigando para comprender plenamente el impacto a largo plazo de los chatbots en el bienestar de los usuarios. En ese sentido, deberían tenerse en cuenta estas conclusiones al momento de diseñar nuevos productos y herramientas.