ChatGPT y la dependencia emocional

Imagen de Tim Witzdam en Pexels
Un nuevo artículo basado en un informe llama la atención sobre el impacto emocional debido al uso abusivo de ChatGPT.
En este caso en concreto se aborda de nuevo cómo los chatbots de inteligencia generativa -como ChatGPT- no sólo se utilizan para tareas informativas o de productividad, sino que ahora están adquiriendo un papel emocional en la vida de los usuarios, lo que plantea beneficios, riesgos y cuestiones éticas.
Así, según un informe de Accenture, un 36% de los usuarios consideran la IA generativa como “un buen amigo”, y un 87% recurrirían a ella para pedir consejos sobre relaciones o asuntos sociales. Este nivel de confianza es considerable ya que los usuarios sienten que el chatbot los entiende de un modo más personal que otras tecnologías, lo que cambia la naturaleza de la interacción digital.
Dicha cercanía emocional también tiene implicaciones comerciales. Por ejemplo, los chatbots, al “entender” al usuario y adaptar sus respuestas, pueden influir en qué productos o servicios se eligen. Como comenta Oliver Wright de Accenture, el nivel de confianza depositado en la IA ya supera muchas fuentes tradicionales de recomendaciones.
Otro riesgo señalado es el modelo económico, ya que si la IA está motivada por promociones pagadas o sesgos ocultos, podría “empujar” al usuario hacia opciones que no sean óptimas para su bienestar.
El informe también resalta que cuando los usuarios usan la IA con fines afectivos -no sólo funcionales-, la línea entre “herramienta” y “compañero” se vuelve borrosa. Por ejemplo, el estudio conjunto de MIT Media Lab y OpenAI al que ya hicimos aquí mención, encontró que, aunque la mayoría de usos no son afectivos, un pequeño grupo de usuarios experimenta un grado notable de apego emocional.
Por tanto, en personas solas o poco sociales, la IA puede actuar como un sistema de apoyo sustituto, pero justamente en estos casos incrementa el riesgo de dependencia emocional.
El efecto en el bienestar es entonces dual. Por un lado, los chatbots pueden ofrecer apoyo, compañía, alivio de la soledad o guía para reflexión personal. Por otro lado, pueden generar dependencia, distorsionar las fronteras entre interacción humana auténtica y máquina, y agravar problemas cuando falla la “empatía” de la IA o su nivel de respuesta no cumple con las expectativas humanas.
Por ejemplo, el modo de voz (voice mode) mejora el bienestar cuando se usa de forma moderada, pero que un uso prolongado diario en modo voz puede asociarse a peores resultados emocionales.
El nuevo artículo destaca que no basta con ver la IA como herramienta neutral, ya que el diseño de la experiencia importa. Si la IA se presenta como una “amiga”, el usuario puede depositar expectativas que superan lo que realmente puede ofrecer un sistema automatizado. Esto plantea preguntas sobre transparencia, límites, modos de uso adecuado y cómo mitigar riesgos de manipulación emocional. Además, la motivación comercial de los chatbots -por ejemplo, si priorizan productos a cambio de monetización- abre un ángulo ético respecto a la vulnerabilidad del usuario.
En definitiva, estamos viendo cómo la irrupción de ChatGPT y tecnologías similares está transformando no sólo cómo trabajamos o aprendemos, sino cómo nos relacionamos con la IA en el plano emocional.
Las supuestas posibles ventajas -compañía, personalización, accesibilidad- conviven con serios riesgos -dependencia, distorsión de relaciones humanas, manipulación comercial-. Por eso se subraya la necesidad de un diseño consciente, uso responsable y estudios continuados para comprender plenamente los efectos a largo plazo en el bienestar humano.




