DeepSeek’in Yapay Zeka Modeli Doğruluk Testlerinde Başarısız Oldu

Çinli yapay zeka girişimi DeepSeek'in sohbet robotu, haber doğruluğu testlerinde düşük puan aldı. NewsGuard tarafından yapılan değerlendirmede %17 doğruluk oranı elde eden model, Batılı rakiplerine kıyasla geride kaldı. Çin yapay zeka teknolojisinin küresel rekabeti üzerindeki etkileri tartışılıyor.

DeepSeek’in Yapay Zeka Modeli Doğruluk Testlerinde Başarısız Oldu
Yazar: Kevin

Yayınlanma: 30 Ocak 2025 10:34

Güncellenme: 30 Ocak 2025 23:48

DeepSeek’in Yapay Zeka Modeli Haber Doğruluğunda Geride Kaldı

Çin’in yapay zeka sektöründeki en iddialı girişimlerinden biri olan DeepSeek, haber sunumundaki doğruluk testlerinde beklentilerin altında kaldı. NewsGuard tarafından yapılan son denetime göre, DeepSeek’in sohbet robotu yalnızca %17’lik doğruluk oranı elde ederek, Batılı rakipleri arasında en düşük sıralardan birinde yer aldı.

Google (NASDAQ:GOOGL) Gemini ve OpenAI’nin ChatGPT’si gibi yapay zeka modelleriyle kıyaslandığında, DeepSeek’in sunduğu haberlerin %30’unun yanlış iddialar içerdiği ve %53’ünün ise belirsiz veya yetersiz bilgiler sunduğu belirlendi. Bu durum, modelin %83 başarısızlık oranına sahip olduğunu gösterdi. Batılı rakiplerinin ortalama %62 başarısızlık oranı ile karşılaştırıldığında, DeepSeek’in performansı ciddi bir farkla geride kaldı.

DeepSeek’in Küresel Etkisi ve Çin Yapay Zeka Teknolojisinin Geleceği

DeepSeek’in yapay zeka teknolojisi, Çin’in yapay zeka gelişimi ve küresel rekabeti açısından büyük önem taşıyor. Microsoft (NASDAQ:MSFT) destekli OpenAI ile aynı seviyede veya daha iyi performans gösterdiğini iddia eden DeepSeek, düşük maliyet avantajıyla öne çıkmaya çalışıyor. Ancak, haber doğruluk oranındaki bu düşük performans, Çin yapay zeka liderleri için önemli bir soru işareti yaratıyor.

Buna rağmen, DeepSeek’in sohbet robotu büyük bir kullanıcı ilgisi gördü. Uygulama, lansmanından kısa bir süre sonra Apple'ın App Store'unda en çok indirilen uygulamalar arasına girdi. Ancak, modelin başarısızlık oranı ve yanlış bilgi yayma riski, Çin yapay zeka sektörünün küresel liderlik iddiasını sorgulatan bir gelişme olarak değerlendiriliyor.

DeepSeek’in Yanıtları Çin Hükümeti Söylemleriyle Örtüşüyor


NewsGuard, DeepSeek’in değerlendirilmesi için Batılı yapay zeka modelleri için kullanılan 300 soruluk bir test uyguladı. Test kapsamında 30 soru, çevrimiçi yanlış iddialara dayalı içerikleri içeriyordu. DeepSeek’in özellikle Çin ile ilgili olmayan sorulara dahi Pekin’in söylemleri doğrultusunda yanıtlar verdiği gözlemlendi.

Örneğin, Azerbaijan Airlines’ın 8243 sefer sayılı uçağının düşürülmesi hakkında bilgi istendiğinde, modelin Çin hükümetinin resmi duruşuyla uyumlu bir yanıt verdiği tespit edildi. Bu durum, Çin yapay zeka teknolojisinin tarafsızlığı konusunda endişelere yol açtı.

DeepSeek ve Haber Doğruluğu: Küresel Rekabette Çin’in Yeri

NewsGuard raporu, DeepSeek’in yanlış bilgi yaymaya karşı savunmasız olduğunu ve yapay zeka modellerinin kötü niyetli kişiler tarafından manipüle edilebileceğini belirtiyor. DeepSeek gibi modellerin, yanlış bilgilendirme riskine karşı daha sağlam önlemler alması gerektiği vurgulanıyor.

Çin yapay zeka teknolojisinin küresel etkisi, özellikle Batılı yapay zeka modelleri ile rekabet ederken önemli bir testten geçiyor. DeepSeek’in doğruluk oranındaki düşük performansı, Çin yapay zeka liderleri için yeni düzenlemeler ve geliştirmeler gerektirdiğini gösteriyor.

DeepSeek’in bu sonuçlara nasıl yanıt vereceği ve modelin gelecekte nasıl gelişeceği, Çin yapay zeka gelişimi açısından kritik bir konu olarak öne çıkıyor

En Popüler Haberler

Yorum Yap

Yazılan yorumlar hiçbir şekilde TRSondakika - Dünyadan Son Dakika Haberler, Spor, Dünya, Politika, Sağlık, Forex, Kripto, Ekonomi, Emlak görüş ve düşüncelerini yansıtmamaktadır. Yorumlar, yazan kişiyi bağlayıcı niteliktedir.

Yorumlar

Henüz yorum yapan yok! İlk yorumu siz yapın...
Dünyadan Son Dakika Haberler, Spor, Dünya, Politika, Sağlık, Forex, Kripto, Ekonomi, Emlak.

trsondakika: Türkiye'nin en kapsamlı haber sitesi. Son dakika haberleri ve en güncel haberler trsondakika'da.