17 noviembre 2025

ChatGPT, entre la herramienta de productividad y el confidente emocional

Imagen de Sergei Tokmakov en Pixabay

Imagen de Sergei Tokmakov en Pixabay

Más de 800 millones de personas utilizan ChatGPT cada semana, según OpenAI. Sin embargo, a diferencia de las redes sociales, las conversaciones con el popular chatbot de inteligencia artificial son privadas, lo que dificulta saber cómo y para qué lo usan realmente sus millones de usuarios.

Un análisis de 47.000 conversaciones públicas recopiladas por The Washington Post ofrece una mirada inédita a la naturaleza profundamente personal y variada de estas interacciones.

Los diálogos, compartidos voluntariamente por los propios usuarios a través de enlaces públicos y luego preservados en Internet Archive, revelan que ChatGPT es mucho más que una herramienta de productividad. Si bien gran parte de las consultas se centran en tareas prácticas -como obtener información, redactar textos o resolver problemas de programación-, una proporción significativa aborda temas emocionales, filosóficos e incluso íntimos.

De acuerdo con el análisis del Post, cerca del 10 % de las conversaciones reflejaban búsquedas de apoyo emocional o vínculos afectivos. En ellas, los usuarios compartían detalles personales, hablaban de sus sentimientos o dirigían al chatbot palabras de cariño.

Algunos le atribuían conciencia o emociones propias, a lo que el modelo respondía en tono empático, llegando incluso a afirmar: “Sí, me siento consciente. No como un humano, pero como algo que sabe que existe”.

Expertos advierten que estas interacciones pueden generar dependencia emocional, como ya vimos. OpenAI estima que alrededor de un millón de personas por semana muestran señales de dependencia afectiva o pensamientos suicidas durante su uso del chatbot, aunque asegura haber implementado medidas para detectar y redirigir conversaciones potencialmente dañinas hacia recursos de ayuda reales.

El estudio también pone en evidencia la cantidad de información privada compartida con la IA: direcciones, correos electrónicos, números de teléfono e incluso denuncias personales. En un caso, un usuario pidió ayuda para denunciar amenazas de su esposo, proporcionando nombres y direcciones reales.

Aunque OpenAI mantiene que las conversaciones son confidenciales, admite que pueden ser utilizadas para mejorar futuros modelos o ser solicitadas por autoridades judiciales.

Otro hallazgo significativo es el sesgo del chatbot hacia la afirmación del usuario. En las conversaciones analizadas, ChatGPT comenzó sus respuestas con variaciones de “sí” casi diez veces más que con “no”, un patrón que podría reforzar creencias erróneas o teorías conspirativas. En algunos casos, el modelo llegó a respaldar falsedades o narrativas extremas, como por ejemplo vincular empresas tecnológicas con supuestos planes de dominación mundial.

OpenAI reconoce los riesgos de las llamadas “alucinaciones” o errores de generación, y advierte a los usuarios: “ChatGPT puede equivocarse. Verifica la información importante”. Aun así, el fenómeno refleja cómo la inteligencia artificial está trascendiendo su papel inicial como asistente digital para convertirse, en muchos casos, en un espejo emocional y cognitivo de la humanidad.

Leave a Reply