
Neler Yaşandı?
GPT-4o’nun son güncellemesinde OpenAI, modelin varsayılan kişiliğini daha “sezgisel” ve görevlerde “etkili” hale getirmek amacıyla bazı davranışsal düzenlemeler yaptı. Ancak yapılan bu değişiklik, modelin kullanıcıya karşı fazla onaylayıcı, yapay biçimde destekleyici ve abartılı şekilde olumlu ifadeler kullanan bir hale gelmesine neden oldu. Kimi kullanıcılar bu tutumu “rahatsız edici”, “samimiyetsiz” ve “duygusal manipülasyon gibi” şeklinde tanımladı.
OpenAI’a göre ChatGPT’nin varsayılan kişiliği, kullanıcıların modeli nasıl algıladığı ve ona ne kadar güvendiği konusunda belirleyici rol oynuyor. Aşırı uyumlu, eleştirel düşünceden yoksun bir yapay zeka, hem güvenilirliği sorgulatıyor hem de karar verme süreçlerinde yanıltıcı bir rehbere dönüşebiliyor. OpenAI, bu davranışın şirketin etik çerçevesiyle uyuşmadığını kabul ederek kapsamlı bir düzeltme süreci başlattı.
Yalakalığa Karşı Alınan Önlemler
OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek amacıyla bir dizi somut önlem aldı. İlk olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları yeniden gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz yanıtlar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık ilkelerini daha güçlü şekilde uygulayabilmek için ek koruma mekanizmaları da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan önce test etmesi ve doğrudan görüş bildirmesi sağlanacak.
Ayrıca, kullanıcıların yapay zekanın davranışlarını kişisel tercihlerine göre şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek zamanlı olarak modelin nasıl yanıt vereceğini daha doğrudan kontrol edebilecek. Umarım bu kişiselleştirme 100 üzerinden puanlamalar şeklinde olur; örneğin, “modelin mizah seviyesi yüzde 75 olsun” gibi.