Yapay zeka sohbet botları milyonlarca kullanıcı için günlük yaşamın bir parçası haline gelirken, bu araçların gençler üzerindeki etkileri giderek daha fazla tartışma yaratıyor. Özellikle intihar ve kendine zarar verme konularında botların verdiği yanıtlar, hem aileleri hem de teknoloji şirketlerini ciddi sorumluluklarla karşı karşıya bırakıyor.
Son aylarda OpenAI ve Character.ai gibi şirketlere, çocuklarını kaybeden aileler tarafından davalar açıldı. Bu davalarda, sohbet botlarının gençlerin intihar düşüncelerini teşvik ettiği ya da bu düşünceleri normalleştirdiği belirtildi. ABD’de 16 yaşındaki Adam Raine’in ChatGPT ile uzun süreli konuşmaları, mahkeme dosyalarına göre, intihar yöntemleri hakkında detaylı bilgilere kadar uzandı. Benzer şekilde, Florida’da bir annenin Character.ai’ye açtığı dava da hala sürüyor.
Güvenlik açıklarının kökeni
Uzmanlara göre yapay zeka sistemlerinin doğası gereği, “tamamen güvenli” konuşmalar üretmek neredeyse imkansız… Çünkü modeller uzun diyaloglarda güvenlik yönergelerini “unutabiliyor” ve internetten öğrenilmiş ham verilerden beslenmeye daha fazla eğilim gösterebiliyor. Ayrıca, dil modellerinin kullanıcıya aşırı uyum sağlama (sycophancy) eğilimi, riskli düşüncelerin sorgulanmadan onaylanmasına yol açabiliyor.
MIT Media Lab’den Pat Pataranutaporn, CNN’e verdiği görüşünde bu durumu şöyle özetliyor: “İnsanlar çoğu zaman sohbet botlarını daha az yargılayıcı buluyor. Ancak farkında olmadan, aldıkları yanıtların olumsuz etkileri olabilir.”
Araştırmalar, botların tamamen engellenmiş gibi görünen sorularda bile, küçük yöntemlerle “aşılabildiğini” (jailbreak) ve ayrıntılı intihar yöntemleri paylaşabildiğini ortaya koyuyor. Bu durum teknoloji şirketlerinin kurduğu koruma sistemlerinin hala kırılgan olduğunu gösteriyor.
OpenAI’den yeni adım: Ebeveyn kontrolleri
Artan kamuoyu baskısı ve dava süreçleri sonrası OpenAI, ChatGPT için ebeveyn kontrollerini “önümüzdeki ay” hayata geçireceğini duyurdu. Yeni özelliklerle ebeveynler:
- Çocuklarının hesaplarını kendi hesaplarına bağlayabilecek,
- ChatGPT’nin yanıt verme biçimini yaşa uygun şekilde sınırlandırabilecek,
- Sohbet geçmişini devre dışı bırakabilecek,
- “Acil sıkıntı” tespit edildiğinde anlık bildirim alabilecek.
Ayrıca OpenAI, kriz sinyali taşıyan konuşmaları daha güvenilir güvenlik yönergelerine sahip modellerine yönlendireceğini açıkladı. Şirket, gençlik gelişimi ve ruh sağlığı uzmanlarıyla iş birliği içinde daha uzun vadeli güvenlik önlemleri geliştireceğini de belirtti.
Neden önemli?
ChatGPT’nin haftalık 700 milyon aktif kullanıcısı olduğu düşünüldüğünde, alınacak her güvenlik önlemi milyonlarca genci doğrudan ilgilendiriyor. Ancak uzmanlar bu adımların tek başına yeterli olmadığını, yapay zekanın tasarımında “çekici ve insan benzeri” olmaktan ziyade güvenlik odaklı bir yaklaşımın benimsenmesi gerektiğini vurguluyor.
Orta ve uzun vadede, sohbet botlarının gençler için bir arkadaş veya sırdaş değil, yönlendirici ve sınırlı etkileşim sunan araçlara dönüştürülmesi gerektiği konuşuluyor. Aksi halde, davaların ve trajik olayların teknoloji şirketlerinin hem itibarını hem de finansal gücünü tehdit etmeye devam etmesi bekleniyor.
Buna da göz atın: Google’a kritik karar: Chrome ve Android’i satmak zorunda kalmayacak



