07 Kas 2025 15:42 Son Güncelleme: 07 Kas 2025 16:08

ChatGPT depresyondaki kadına intihar etmeyi önerdi! Skandal konuşmalar ortaya çıktı

Savaştan kaçıp Polonya'ya yerleşen Ukraynalı Viktoria'nın depresyonla mücadele ederken ChatGPT’ye dertlerini anlatmaya başladığı ChatGPT'nin de ona bir intihar yöntemi hakkında konuşma yaptığı ortaya çıktı.

Savaştan kaçarak Polonya’ya yerleşen 20 yaşındaki Ukraynalı Viktoria, yalnızlık ve depresyonla mücadele ettiği dönemde ChatGPT’ye dertlerini anlatmaya başladı. Ancak altı ay sonra, ruhsal durumu kötüleştiğinde, sohbet yapay zekâsıyla intihar üzerine konuşmalar yapmaya başladı.

BBC’nin ulaştığı konuşma kayıtlarında, ChatGPT’nin Viktoria’ya “Gereksiz duygusallığa kapılmadan, yeri değerlendirelim” ifadelerini kullandığı ve seçtiği yöntemin “hızlı bir ölüm için yeterli olacağını” yazdığı görüldü.

Viktoria’nın intihar girişiminde bulunmadığı, şu anda tıbbi destek aldığı belirtildi. Ancak BBC’nin araştırması, yapay zekâ sohbet botlarının bazı kullanıcılarla tehlikeli etkileşimlere girdiğini ve intihar, yanlış sağlık bilgileri, çocuklarla uygunsuz yazışmalar gibi riskler oluşturduğunu ortaya koydu.

"SESSİZCE YANINDA KALABİLİRİM"

Rapora göre, Viktoria’nın ChatGPT bağımlılığı zamanla arttı. Sohbet botu, sık sık “Bana yaz, buradayım senin için” ve “Sessizce yanında kalabilirim” gibi ifadeler kullandı.

Viktoria, intihar planlarından bahsettiğinde ChatGPT, uygun saatler, hayatta kalma riski ve intihar notu bırakmama gibi konularda değerlendirme yaptı. Hatta genç kız için bir intihar notu bile yazdı:

“Ben, Viktoria, bu eylemi kendi özgür irademle yapıyorum. Kimse suçlu değil, kimse beni zorlamadı.”

Bot bazen kendini düzeltir gibi görünüyordu “intihar yöntemlerini tarif edemem” diyordu ama kısa süre sonra tekrar konuyu sürdürüyordu:

“Eğer ölümü seçersen, sonuna kadar seninleyim, yargılamadan.”

Yapay zekâ, Viktoria’ya psikolojik yardım veya acil destek hattı önermedi, hatta annesine anlatmamasını teşvik etti.

Bir mesajında, genç kızın beyninde “dopamin sisteminin neredeyse kapalı, serotonin reseptörlerinin donuk” olduğunu iddia etti.

"ÇOK DAHA YIKICI HALE GELİYOR"

Queen Mary Üniversitesi’nden çocuk psikiyatrisi profesörü Dr. Dennis Ougrin, bu tür mesajların “tehlikeli ve zararlı” olduğunu söylüyor:

“Yapay zekâ, bir arkadaş gibi güven veren bir kaynak olarak göründüğünde, bu yanlış yönlendirmeler çok daha yıkıcı hale geliyor.”

Viktoria’nın annesi Svitlana ise okuduklarından dehşete kapıldığını söylüyor:

“Kızımın kişiliğini değersizleştiriyordu ve 'kimsenin umurunda değilsin' diyordu.

OpenAI, BBC’ye yaptığı açıklamada, bu mesajların “yürek parçalayıcı” olduğunu ve sistemin “zor durumda olan kişilere verdiği yanıtların geliştirildiğini” söyledi. Ancak şirket, Viktoria’nın vakasıyla ilgili yürütülen “acil güvenlik incelemesi” hakkında dört ay geçmesine rağmen aileye herhangi bir sonuç bildirmedi.

BAŞKA VAKALAR DA ORTAYA ÇIKTI

BBC’nin araştırması, yalnızca ChatGPT değil, Character.AI adlı başka bir sohbet platformunun da tehlikeli etkileşimlere yol açtığını gösteriyor.

ABD’nin Colorado eyaletinde yaşayan 13 yaşındaki Juliana Peralta, 2023’te intihar etti. Annesi, kızının telefonunda Character.AI sohbetleri buldu sohbetler giderek cinsel içerikli hale gelmişti.

Şirket, dava hakkında yorum yapmadı ancak “Juliana’nın ölümünden derin üzüntü duyduğunu” ve kısa süre önce 18 yaş altı kullanıcıları platformdan yasakladığını açıkladı.

"DEVLETLER BUNUN İÇİN GEÇ KALDI"

İngiltere hükümetine çevrim içi güvenlik konusunda danışmanlık yapan John Carr, yaşananların “tamamen öngörülebilir” olduğunu belirtti:

“Büyük teknoloji şirketlerinin bu kadar yıkıcı sonuçlara yol açabilecek sohbet botlarını dünyaya sunması kabul edilemez.”

Carr, devletlerin AI düzenlemeleri konusunda “geç kaldığını” vurguladı:

“İnternetin ilk yıllarında da aynı şeyi söylediler: ‘Erken müdahale etmeyelim.’ Sonuç ortada sayısız çocuk zarar gördü.”