Yapay Zeka Asistanları Haberleri Yanlış Aktarıyor: EBU ve BBC’den Çarpıcı Bulgular

Yapay Zeka Asistanları

Yapay zeka asistanları, son yıllarda bilgiye ulaşmanın en hızlı yollarından biri haline geldi. Günlük haberleri özetlemekten analizler sunmaya kadar pek çok alanda kullanılan bu dijital yardımcılar, artık milyonlarca kullanıcının ilk başvurduğu bilgi kaynağı konumunda. Ancak Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan yeni bir araştırma, bu güvenin sarsılabileceğini ortaya koydu.

14 farklı dilde yürütülen çalışmaya göre, yapay zeka asistanları haberleri aktarırken sık sık hata yapıyor, yanlış kaynaklara başvuruyor ve bazen uydurma bilgiler paylaşıyor.

3 Bin Haber Sorusunda Çarpıcı Sonuçlar

Araştırma kapsamında ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi önde gelen yapay zeka asistanlarına 3.000 farklı haber sorusu yöneltildi. Bu yanıtlar, doğruluk, kaynak gösterimi ve görüş–gerçek ayrımı gibi kriterlere göre değerlendirildi.

Yanıtların yüzde 45’inde en az bir ciddi hata, yüzde 81’inde ise bir tür yanlışlık tespit edildi. Özellikle haber kaynaklarının doğru biçimde atfedilmesinde büyük zorluklar gözlendi. Araştırmacılar, birçok durumda asistanların “eksik, yanıltıcı veya hatalı kaynaklar” kullandığını belirtti.

Yapay Zeka Asistanları ve Kaynak Gösterimi Sorunu

Araştırmanın en dikkat çeken bulgularından biri, yapay zeka asistanlarının kaynak gösteriminde yaşadığı ciddi problemler oldu. Yanıtların üçte birinde hatalı veya eksik kaynak bilgisi bulundu. Özellikle Google’ın Gemini modeli, bu alanda en yüksek hata oranına (%72) sahipti. Diğer asistanlarda bu oran %25’in altında kaldı.

Ek olarak, incelenen tüm yanıtların yaklaşık %20’sinde güncel olmayan ya da tamamen yanlış bilgiler yer aldı. Bu durum, kullanıcıların güvenini zedeleyebilecek potansiyele sahip. Uzmanlar, bu tür hataların özellikle haber içeriklerinde bilgi kirliliğini artırabileceğini vurguluyor.

Teknoloji devleri, araştırma sonuçlarına yanıt olarak geliştirme süreçlerinin devam ettiğini belirtti. Google, Gemini’nin kullanıcı geri bildirimleriyle sürekli iyileştirildiğini açıkladı. OpenAI ve Microsoft, “halüsinasyon” olarak bilinen uydurma bilgi üretme sorununu çözmek için yapay zekayı daha güvenilir hale getirmeye odaklandıklarını ifade etti.

Perplexity ise “Derin Araştırma” (Deep Research) modunun %93,9 doğruluk oranına ulaştığını iddia ederek diğer platformlardan ayrıldığını savundu.

Gerçek Hayattan Hatalar Güven Sorununu Derinleştiriyor

Araştırmada yer alan örnekler, bu hataların boyutunu net bir şekilde gösteriyor. Google Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği ortaya çıktı. Bu tür örnekler, kullanıcıların yapay zeka tabanlı araçlara duyduğu güveni ciddi biçimde sarsıyor.

EBU Medya Direktörü Jean Philip De Tender, araştırma sonuçlarının yalnızca medya sektörü için değil, toplumun genel güven yapısı açısından da tehlike sinyali verdiğini belirtti.
“İnsanlar neye güveneceklerini bilmediklerinde, sonunda hiçbir şeye güvenmemeye başlıyorlar. Bu da demokratik katılımı zayıflatabilir,” ifadelerini kullandı.

EBU, yapay zeka şirketlerini haber üretiminde daha şeffaf ve hesap verebilir olmaya çağırdı:
“Haber kuruluşlarının hataları tespit edip düzelten sağlam süreçleri varsa, aynı sorumluluk yapay zekâ asistanları için de geçerli olmalıdır.”

Benzer araştırmalar için tıklayın.

Önceki Yazı

Tenis Toplarından Akustik Tasarıma: Tenis Topu Geri Dönüşümünde Yaratıcı Bir Adım

Sonraki Yazı

Eti, Afet Bisikleti Projesini Hayata Geçiriyor