ChatGPT la aconsejó y decidió divorciarse
Written by danilo_3re2RJc on 08/20/2025
Alexandra Bylund tenía 52 años y un matrimonio que apenas superaba el año y medio. Había señales de que algo no funcionaba, pero no lograba descifrarlas. En ese momento, decidió acudir a una herramienta que ya formaba parte de su vida diaria: ChatGPT. Según relató el diario sueco Aftonbladet, citado por La Razón y La 100, la sueca utilizó la inteligencia artificial para entender qué estaba pasando con su relación.
Más noticias
- Conversaciones privadas de ChatGPT se expusieron en Google. Aprende cómo protegerlas
- ChatGPT-5 llega con nuevas funciones y cambios que debes conocer
💔 ChatGPT y Alexandra Bylund
Bylund usaba la herramienta en su trabajo y también en lo personal. Por eso, le pareció natural pedirle consejo. Eligió el anonimato, publicó un extracto de mensajes entre ella y su entonces esposo, y lanzó la pregunta clave: “¿Qué está pasando entre estas dos personas?”. La respuesta que recibió, contó después, fue un alivio.
❓ El giro inesperado
No quiso revelar el contenido exacto de la respuesta, pero sí admitió que le mostró patrones dañinos que no estaba dispuesta a aceptar en una relación. Con esa información, acudió a su psicólogo. Tres meses después, a inicios de junio, solicitó el divorcio. Según confesó en entrevistas, sin ChatGPT habría seguido en el matrimonio por más tiempo porque había aprendido a minimizar sus sentimientos.
No te pierdas de leer: Julie McFadden, enfermera de cuidados paliativos, revela las señales típicas de una persona que va a morir
📲 Una confesión pública
En Instagram, Alexandra Bylund habló del inicio de su divorcio y reconoció que la inteligencia artificial puede ser útil, pero insistió en que no reemplaza la guía de un terapeuta. La 100 detalló que la sueca recomendó acompañar cualquier orientación de ChatGPT con la mirada de un profesional de la salud mental.
⚠️ Los riesgos de pedir consejo a ChatGPT
Tanto La Razón como La 100 señalan los riesgos de utilizar la inteligencia artificial para decisiones emocionales. Puede entregar respuestas cercanas a lo que uno ya piensa, lo que evita cuestionamientos profundos. También puede carecer de contexto, ofrecer información desactualizada y, al no ser un profesional, sus respuestas pueden llevar a errores graves.
Te puede interesar: Gastroenterólogo de Harvard explica si la comida picante es perjudicial para la salud
El caso de Alexandra se suma a otras historias recientes, como la de una mujer griega que también recurrió a ChatGPT para aclarar dudas sobre su relación. Ambas experiencias abren un debate que va más allá de lo personal: ¿hasta dónde dejamos que la inteligencia artificial influya en nuestras decisiones más íntimas?
Te recomendamos: