Google, kullanıcıların tuhaf yanıtlar aldığını bildirmesinin ardından "Yapay Zeka Özetleri" özelliğini savundu.
Klasik Google sonuçlarının yanında yer alması amaçlanan bu araç, sorguları yanıtlamak için yapay zeka kullanıyor. Sistem internetten veri alarak bunları yanıtlar oluşturmak için kullanırken, Google bunun kullanıcıların arama yapmasını kolaylaştıracağını iddia ediyor.
Ancak son günlerde Google kullanıcıları, sistemin kendilerini taş yemeye ve yapıştırıcıyla pizza yapmaya teşvik ettiğini ve Barack Obama'nın Müslüman olduğuna dair yanlış bir komplo teorisini yeniden dile getirdiğini bildiriyor.
Bu yanıtlardan bazılarının internetteki sonuçlardan alındığı anlaşılıyor. Örneğin bir pizza malzemesinin yapıştırıcıyla daha sakızımsı hale getirilebileceği önerisi Reddit'te paylaşılan bir espriden alınmış gibi görünüyor.
Google, bu örneklerin ender sorgulara ait olduğunu belirterek özelliğin genel olarak iyi çalıştığını iddia etti.
Bir sözcü, "Gördüğümüz örnekler genellikle çok nadir sorgular ve çoğu kişinin deneyimlerini temsil etmiyor" dedi.
Yapay Zeka Özetleri'nin büyük çoğunluğu, internette daha derine inebilecek bağlantılar içeren yüksek kaliteli bilgiler sağlıyor.
Bu yeni deneyimi başlatmadan önce, yapay zeka özetlerinin yüksek kalite çıtamıza ulaştığından emin olmak için kapsamlı testler gerçekleştirdik. Politikalarımızın ihlal edildiği durumlarda harekete geçtik ve sistemlerimizi genel olarak iyileştirmeye devam ederken bu münferit örnekleri de kullanıyoruz.
Şirket, zararlı içeriklerin çıkmasını engelleme amacıyla sistemine koruyucu bariyerler eklediğini, sistemi bir değerlendirme sürecine ve teste tabi tuttuğunu ve yapay zeka özetlerinin mevcut politikalarına uyacak şekilde oluşturulduğunu açıkladı.
Google'a göre ayrıca gerçekçi yanıtlar vermede daha iyi hale gelmesi adında son zamanlarda sistem üzerine çalışılıyor.
Sorunların bir kısmının yanıtlara bilgi eklemek için kullanılan verilerden kaynaklandığı anlaşılıyor; espri veya başka içerikler barındırabilen bu veriler, bir yanıtta yeniden kullanıldığında yanıltıcı hale gelebiliyor. Ancak sorunun bir kısmı da Google'ın kullandıkları gibi geniş dil modellerinin "halüsinasyon görme" eğilimi olabilir.
Bu geniş dil modelleri gerçeklerden ziyade dilsel veriler kullanılarak eğitildiğinden, ikna edici bir şekilde dile getirilen fakat aslında yanlış bilgi içeren cevaplar verme eğiliminde. Bazı uzmanlar bu tür sorunların bu sistemlerin doğasında olduğunu öne sürüyor.