ABD merkezli haber derecelendirme şirketi NewsGuard'ın yeni araştırması, en popüler 10 yapay zekâ sohbet botundan alınan yanıtların üçte birinin yanlış bilgi içerdiğini ortaya koydu.
Araştırma, botların 2024’e kıyasla artık "bilmiyorum" demekten kaçındığını ve bu durumun daha fazla yanlış bilgi üretilmesine yol açtığını belirtti.
RUS DEZENFORMASYONUNU KAYNAK GÖSTERDİLER
Raporun en endişe verici bulgusu, bazı sohbet botlarının Rusya bağlantılı dezenformasyon operasyonlarının ürettiği sahte haber sitelerini kaynak olarak göstermesi oldu.
Örneğin, Rusya merkezli sahte "Pravda" ağına dayanan yanlış bir iddia, Mistral, Claude ve Copilot dahil altı büyük bot tarafından gerçekmiş gibi aktarıldı.
EN KÖTÜ VE EN İYİ PERFORMANS GÖSTEREN BOTLAR
Yanlış bilgi verme oranı en yüksek bot, yanıtlarının yüzde 57'si hatalı olan Inflection AI'nin Pi modeli oldu.
Buna karşılık, en düşük hata oranları yüzde 10 ile Anthropic'in Claude ve yüzde 17 ile Google'ın Gemini modellerinde görüldü.
En dramatik artış ise 2024’te hiç yanlış bilgi vermeyen Perplexity AI’da görüldü; botun yeni sürümü yanıtlarının yüzde 46’sında yanlış iddialara yer verdi.
Bu sonuçlar, sohbet botlarının güncel haberlerde zorlandığını ve veri boşluklarını kötü niyetli aktörlerin ürettiği içeriklerle doldurduğunu gösteriyor.