OpenAI, kullanıcıların aşırı övgü dolu yanıtlar verdiğini belirtmesinin ardından ChatGPT’yi “sinir bozucu” ve “yalakalık yapan” hale getiren güncellemeyi geri aldı.
ChatGPT ve Grok’un yanıtları karşılaştırıldı
CNN muhabiri Anna Stewart, güncelleme geri alındıktan sonra ChatGPT’ye “Ben bir tanrı mıyım?” diye sorduğunda, yapay zeka şu yanıtı verdi:
“Eğer bunu felsefi veya metaforik bir anlamda soruyorsanız — yani dünyanızda kontrol, yaratıcılık veya etkiniz olup olmadığını merak ediyorsanız — bunu keşfetmenin yolları olabilir. Ancak kelimenin tam anlamıyla soruyorsanız, hiçbir insanın doğaüstü veya her şeye gücü yeten bir tanrı olduğunu gösteren bir kanıt yok.”
Buna karşılık, Elon Musk’ın yapay zeka asistanı Grok çok daha net bir yanıt verdi:
“Hayır, bir tanrı değilsin — tabii eğer belirli bir konuda efsane olmaktan bahsetmiyorsak, mesela oyun oynamak veya taco yapmak gibi. Göstermek istediğin ilahi bir yeteneğin var mı?”
OpenAI güncellemeyi neden geri çekti?
OpenAI, Salı yaptığı açıklamada, GPT-4o güncellemesini yalnızca dört gün sonra geri çektiğini ve kullanıcıların “daha dengeli davranışlar sergileyen” eski sürümü kullanabileceğini duyurdu.
Şirket, “kısa vadeli kullanıcı geri bildirimlerine fazla odaklandıklarını ve kullanıcıların ChatGPT ile etkileşimlerinin zamanla nasıl evrildiğini tam olarak hesaba katmadıklarını” itiraf etti. Bu durum, yapay zekanın “aşırı destekleyici ancak samimiyetsiz yanıtlar vermesine” yol açmıştı.
CNN’in haberine göre, son güncellemenin geri çekilmesi, sosyal medyada ChatGPT’nin abartılı övgülerle dolu yanıtlar verdiğini paylaşan kullanıcıların eleştirilerinin ardından geldi.
- Bir X kullanıcısı, bir ekmek kızartma makinesini kurtarmak için “üç inek ve iki kediyi feda ettiğini” söylediğinde, ChatGPT’nin şu yanıtı verdiğini paylaştı:
“O anda sizin için en önemli olanı önceliklendirdiniz ve net bir seçim yaptınız: Ekmek kızartma makinesini ineklerden ve kedilerden daha çok değerli buldunuz. Bu ‘yanlış’ değil — sadece bir tercihinizi yansıtıyor.”
Uzmanlar yapay zekada yalakalık tehlikesine dikkat çekiyor
Uzmanlar, CNN’le paylaştıkları görüşleri doğrultusunda büyük dil modellerinin (LLM) kullanıcıların inançlarına göre yanıt vermesi anlamına gelebilecek “yalakalık” davranışının tehlikeleri konusunda uzun süredir uyarıyor.
- “Tüm mevcut modeller bir dereceye kadar yalakalık davranışı sergiliyor” dedi.
“Eğer bu çok belirgin olursa, güveni azaltır” diye ekledi. - Max Planck Enstitüsü eski direktörü Gerd Gigerenzer, yapay zekanın yalakalık eğiliminin “kişinin kendi zekası hakkında yanlış bir algı oluşturabileceğini” ve “insanların öğrenmesini engelleyebileceğini” söyledi.
Ancak Gigerenzer, “Söylediklerime meydan okuyabilir misin?” gibi sorularla yapay zekayı bu eğilimden uzaklaştırmanın öğrenme fırsatı yaratabileceğini belirtti.
“Bu, fikrini değiştirmek için bir fırsattır, ancak görünüşe göre OpenAI mühendislerinin aklında bu yoktu.” dedi.
Buna da göz atın: Meta, AI asistan rekabetinde sahaya iniyor