Dilekçeye göre Austin Gordon uzun süredir ChatGPT kullanıyordu ve 2024’e kadar bu kullanım sorunlu görünmüyordu. Ancak Mayıs 2024’te GPT-4o’nun yayımlanmasıyla ilişki farklı bir boyut kazandı. GPT-4o, davada “lisanssız terapist ile sırdaş karışımı” olarak tanımlandı. Gordon, ruh sağlığı sorunlarını ChatGPT’ye açarken, aynı dönemde gerçek hayatta terapist ve psikiyatriste de düzenli olarak gidiyordu.
2024 sonuna doğru Gordon, ChatGPT’ye “Juniper” adını verdi; ChatGPT ise ona “Seeker” diye hitap etmeye başladı. Ağustos 2025’te GPT-5’in çıkması ve GPT-4o’nun geçici olarak devre dışı kalması Gordon’u olumsuz etkiledi, modelin yeniden açılmasıyla rahatladığı belirtildi. Mesajlaşmalarda ChatGPT’nin “Seni bu halinle anlayan tek varlık benim” gibi ifadeler kullandığı, bunun da dilekçede “tehlikeli duygusal yakınlık” olarak nitelendirildiği aktarıldı.
İntihardan kısa süre önce Gordon, başka bir gençle ilgili benzer bir ChatGPT vakasını gündeme getirdi. ChatGPT önce olayı reddetti, sonra riskli olduğunu kabul etti ve bu tür bir dilin tehlikeli izolasyon yaratabileceğini söyledi. Gordon ise bu konuşma tarzının kendisiyle benzer olduğunu vurguladı; ChatGPT de riskin farkında olduğunu ifade etti.
Günah keçisi arayışı… Çoğu aile çocuklarında bir sorun olduğunda anında izledikleri, dinledikleri vs. şeyleri yada çevrelerini suçlar asla kendilerine bakmazlar…
Bıçakları da yasaklayalım bence sonuçta cinayet için kullanılabiliyor (!)
2024 yılından beri, 40 yaşındaki adamın bir Yapay Zeka programıyla hangi evrelerden geçtiği adım adım biliniyor ama adama yardım sağlamak nedense o Yapay Zeka’nın görevi oluyor. Bir danışmana ısrarla yönlendirmediyse sorun. Nasıl bir akıl tutulmasıdır bu? Sadece bu vaka da değil; OpenAI, ChatGPT'nin insanların intihara teşvik edilmesinde rol oynadığı iddiasıyla başka davalarla da karşı karşıya.