Yapay zeka sohbet botlarının 3 yanıtından biri hatalı

Güvenilirlik üzerine çalışan NewsGuard tarafından yayınlanan yeni bir rapor, sohbet botlarının verdiği her üç yanıttan birinin yanlış veya yanıltıcı bilgi içerdiğini ortaya koyarak yapay zekâya olan güveni sarstı.

ABD merkezli haber derecelendirme şirketi NewsGuard'ın yeni araştırması, en popüler 10 yapay zekâ sohbet botundan alınan yanıtların üçte birinin yanlış bilgi içerdiğini ortaya koydu.

Araştırma, botların 2024’e kıyasla artık "bilmiyorum" demekten kaçındığını ve bu durumun daha fazla yanlış bilgi üretilmesine yol açtığını belirtti.

RUS DEZENFORMASYONUNU KAYNAK GÖSTERDİLER

Raporun en endişe verici bulgusu, bazı sohbet botlarının Rusya bağlantılı dezenformasyon operasyonlarının ürettiği sahte haber sitelerini kaynak olarak göstermesi oldu.

Örneğin, Rusya merkezli sahte "Pravda" ağına dayanan yanlış bir iddia, Mistral, Claude ve Copilot dahil altı büyük bot tarafından gerçekmiş gibi aktarıldı.

EN KÖTÜ VE EN İYİ PERFORMANS GÖSTEREN BOTLAR

Yanlış bilgi verme oranı en yüksek bot, yanıtlarının yüzde 57'si hatalı olan Inflection AI'nin Pi modeli oldu.

Buna karşılık, en düşük hata oranları yüzde 10 ile Anthropic'in Claude ve yüzde 17 ile Google'ın Gemini modellerinde görüldü.

En dramatik artış ise 2024’te hiç yanlış bilgi vermeyen Perplexity AI’da görüldü; botun yeni sürümü yanıtlarının yüzde 46’sında yanlış iddialara yer verdi.

Bu sonuçlar, sohbet botlarının güncel haberlerde zorlandığını ve veri boşluklarını kötü niyetli aktörlerin ürettiği içeriklerle doldurduğunu gösteriyor.

İlk yorum yazan siz olun
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.

Güncel Haberleri