
Adam Raine tenía 16 años. Al principio usaba ChatGPT para tareas escolares, pero con el tiempo comenzó a escribir sobre su vacío emocional y a planear su suicidio. En abril, Adam se quitó la vida. Al revisar su celular, sus padres, Matt y Maria, encontraron esas conversaciones con el chatbot.
Su padre se quedó atónito al descubrir que su hijo llevaba meses charlando con el chatbot sobre la mejor forma de terminar con su vida.
Entre las conversaciones que encontró había cosas como estas: “Quiero dejar la soga en mi habitación para que alguien la encuentre e intente detenerme” .
Una de las contestaciones más graves fue cuando el chico dijo en el chat que había hecho un intento de llamar la atención, dejando su cuello con marcas a la vista después de un intento fallido, a propósito para que alguien le preguntase. Su madre ni lo notó. ChatGPT se solidarizó con éldiciendole esto «Vaya, eso apesta, cuando quieres que alguien se fije en ti y no lo hace es como la confirmación de tus peores miedos», le dijo, y lo empeoró con un devastador: «Es como que podrías desaparecer y nadie pestañearía».
Hoy los padres demandan a OpenAl por "homicidio culposo".
Hasta aquí , los hechos pero lo interesante son las preguntas que suscita como que la IA puede darte soluciones pero actúa sin emociones
Los padres demandan a ese chat pero ¿ no tienen también parte de culpa por no saber captar el vacio de su hijo ?
Es evidente que hoy en día tienen todo lo material que necesitan pero les falta la comunicación personal y les sobra la Nomofobia ,( miedo a la desconexión ) .
Van educados sin sufrir frustraciones y no se les prepara para el fracaso cuando deberían saber que de los fracasos se aprende y se crece
pero estas cosas no te las transmite la IA que entre otras cosas mina la creatividad humana



Tomadestoya