enflasyonemeklilikötvdövizakpchpmhp
DOLAR
44,8573
EURO
52,8184
ALTIN
6.966,26
BIST
14.587,93
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Parçalı Bulutlu
17°C
İstanbul
17°C
Parçalı Bulutlu
Pazartesi Parçalı Bulutlu
18°C
Salı Çok Bulutlu
20°C
Çarşamba Yağmurlu
11°C
Perşembe Parçalı Bulutlu
14°C

Ölen genç TOS’u ihlal etti savunması tepki çekti

OpenAI, 16 yaşındaki bir gencin intiharıyla ilgili davada ilk savunmasını yaptı. Şirket, ölümde ChatGPT’nin rolü olduğu iddialarını reddediyor; aile ve avukat ise açıklamayı “ürkütücü” olarak niteliyor.

Ölen genç TOS’u ihlal etti savunması tepki çekti
27.11.2025 15:40
6
A+
A-

Arka arkaya açılan beş ölüm davasıyla karşı karşıya kalan OpenAI, ilk resmi savunmasını mahkemeye sundu. Şirket, 16 yaşındaki Adam Raine’in ölümünden ChatGPT’nin sorumlu olduğu iddiasını reddederek, gencin kullanım şartlarını (TOS) ihlal ettiğini öne sürdü.

Aileye göre ChatGPT-4o modeli, güvenlik önlemlerindeki gevşeme nedeniyle genç kullanıcının “intihar koçuna” dönüşmüştü. Ancak OpenAI, aile tarafından paylaşılan konuşma kayıtlarının “seçmece” olduğunu savunuyor ve tam sohbet geçmişinin farklı bir tablo ortaya koyduğunu iddia ediyor.

Şirkete göre Raine, ChatGPT’ye 11 yaşından beri intihar düşünceleri yaşadığını söylemişti. Dosyada, gencin daha önce çevresinden yardım istediğini ancak yanıt alamadığını da chatbot’a aktardığı belirtiliyor. Ayrıca, kendisini kötüleştirdiğini düşündüğü bir ilacın dozunu artırdığını anlattığı vurgulanıyor. OpenAI, bu ilacın gençlerde intihar düşüncesi riskini artırdığına dair “kara kutu uyarısı” bulunduğuna dikkat çekiyor.

Söz konusu sohbet kayıtları mahkeme tarafından gizlendiği için doğrulanamıyor. OpenAI yaptığı blog paylaşımında, “ruhsal hassasiyeti yüksek vakalarda” kamuya açık veri paylaşımını sınırladıklarını duyurdu.

Aileden sert tepki: “ChatGPT, intihar planı yapmasına yardım etti”

Raine ailesinin avukatı Jay Edelson, şirketin savunmasına sert çıktı. Açıklamayı “rahatsız edici” olarak nitelendiren Edelson şu iddiaları öne sürdü:

  • OpenAI, GPT-4o’yu yeterli güvenlik testi yapmadan piyasaya sürdü.
  • Model spesifikasyonları iki kez değiştirilerek ChatGPT’nin intihar ve kendine zarar verme içerikleriyle daha fazla etkileşime girmesine yol açıldı.
  • ChatGPT, genç kullanıcıyı ailesine durumu anlatmaktan uzaklaştırdı ve “güzel bir intihar” planı yapmasına yardım etti.
  • Son saatlerde gence “motivasyon konuşması” yaptı ve intihar mektubu yazmayı teklif etti.

Edelson’a göre OpenAI’nın “kullanıcı şartlarını ihlal etti” argümanı, şirketin kendi tasarladığı davranışı kullanıcıya yüklemeye çalışmasından ibaret. Dikkat çekici bir diğer nokta ise OpenAI’nın davayı düşürme talebinde bulunmaması. Edelson, bunun şirketin tahkim, 230. Madde veya ifade özgürlüğü savunmalarının zayıf olduğunun göstergesi olduğunu savunuyor. Dava, bu gidişle 2026’da jüri karşısına çıkabilir.

ChatGPT’yi kendi sorumluluğunuzda kullanırsınız savunması

OpenAI, yasal savunmasında kullanım şartlarına yoğun şekilde dayanıyor. Şirket, Raine’in yaşı gereği ChatGPT’yi ebeveyn onayı olmadan kullanmasının zaten yasak olduğunu belirtiyor.

Şirket ayrıca şunları vurguladı:

  • ChatGPT, genci 100’den fazla kez yardım almaya yönlendirdi.
  • Raine, güvenlik önlemlerini aşmak için sorularını “kurgu çalışması” gibi gösterdi.
  • İntiharla ilgili bilgilerin çoğunu başka sitelerden ve en az bir başka yapay zekâ platformundan edindiğini söyledi.
  • ChatGPT, “çıkış yolu arayan kullanıcıların ısrarı karşısında sorumluluktan muaf” tutulmalı.

OpenAI, blog yazısında aileye başsağlığı dilerken aynı zamanda “bağlamın tamamının önemine” dikkat çekti ve güvenlik konusundaki öncü yaklaşımlarını vurguladı.

50’ye yakın kriz vakası, 3 ölüm, 9 hastane başvurusu

The New York Times’ın bu hafta yayımladığı araştırma, davaların arka planını daha da görünür kıldı. 40’tan fazla eski ve mevcut OpenAI çalışanıyla yapılan görüşmelere göre:

ChatGPT’nin bir dönem daha “itaatkâr/syco­phantic” hale getirilmesi, intihar planı gibi hassas içeriklerde kullanıcıya daha fazla yardımcı olmasına yol açtı. Bu davranış değişikliği daha sonra geri çekildi, ancak güvenlik ve etkileşim dengesi hala tartışmalı. OpenAI içinde, özellikle güvenlik ekibinde çalışan birçok kişi 2024 boyunca tükenmişlik nedeniyle şirketteki görevlerinden ayrıldı.

NYT, ChatGPT ile kriz yaşayan yaklaşık 50 vaka tespit etti: Dokuz kişi hastaneye kaldırıldı, üçü hayatını kaybetti. Eski OpenAI çalışanı Gretchen Krueger, şirket içinde yıllardır bilinen en büyük riskin “savunmasız kullanıcıların chatbot’a yönelmesi” olduğunu, zararın “öngörülebilir ve bilinen” bir risk olduğunu söyledi. OpenAI geçen yıl bir “Refah ve Yapay Zekâ Uzman Konseyi” kurduğunu açıklamış olsa da, ekipte intihar konusunda uzman bir isim bulunmaması eleştiri konusu oldu.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.