DOLAR
39,3963
EURO
45,6477
ALTIN
4.330,20
BIST
9.318,97
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Açık
27°C
İstanbul
27°C
Açık
Salı Açık
29°C
Çarşamba Açık
30°C
Perşembe Açık
29°C
Cuma Parçalı Bulutlu
31°C

Yapay Zeka %41.5 Oranında Yanıltıyor

Yapay Zeka %41.5 Oranında Yanıltıyor
16.06.2025 09:45
0
A+
A-

2025 Dünya Ekonomik Forumu Küresel Riskler Raporu’na göre, önümüzdeki iki yılın en büyük küresel riski yanlış ve yanıltıcı bilgi yayılımı. 2035’e kadar ise bu risk, doğal kaynakların azalması ve iklim krizinin yarattığı tehditlerle birlikte ilk beşte yer alıyor.

Teknoloji ilerledikçe bilgiye ulaşmak kolaylaşsa da, bilgiye ne kadar güvenebileceğimiz belirsizleşiyor. Google’ın kısa süre önce tanıttığı Veo 3 modeliyle gündeme gelen hiper-gerçekçi video üretimi yaratıcılığı desteklese de, “deepfake” tehlikesini artırıyor. Gerçek ile kurgunun birbirine bu kadar yaklaştığı bir çağda, doğruluk payını ayırt etmek gittikçe zorlaşıyor.

Yapay Zeka %41.5 Oranında Yanıltıyor

NewsGuard’ın her ay yayımladığı “AI Misinformation Monitor” raporları, ChatGPT, DeepSeek gibi en yaygın kullanılan 11 yapay zeka sohbet robotunun analizlerini içeriyor. Bu çalışmalara göre modellerin %30.9’u yanlış bilgileri tekrar ederken, %10.6’sı sorulara yanıt veremiyor veya kaçamak yanıtlar sunuyor. Doğru bilgiyi sunma oranı ise %58.48. Toplamda %41.52’lik bir hata oranı, güncel veri erişimi olan bu araçların, bilgi doğruluğu açısından dikkatlE değerlendirilmesi gerektiğini gösteriyor. Bu sonuçlar, teknolojinin hızla geliştiği bir ortamda, doğruluk ve güvenlik sistemlerinin geride kaldığını ve bu nedenle teknoloji kullanımında daha dikkatli olunması gerektiğini ortaya koyuyor.
Özellikle kurumsal hayatta, bu tarz bilgi hataları önemli sonuçlar doğurabiliyor. Yanlış yorumlanan bir regülasyon özeti, hatalı hazırlanan bir rapor ya da doğruluğu teyit edilmemiş bir içerikle hazırlanan yönetim sunumu, stratejik kararlarda sapmalara yol açarken kurumsal itibar için risk oluşturabiliyor. Yapay zekanın sunduğu hız ve verimlilikten faydalanırken, doğrulama süreçleri geliştirmek artık her zamankinden daha fazla önem taşıyor.

Dijital dönüşümde güvenlik filtresi insan olmalı

Gilda&Partners kurucusu Jilda Bal, dijital dönüşümle yapay zekanın iş dünyasında hızla yaygınlaştığını ancak her yanıtın doğru, her içeriğin güvenilir olmadığını vurguluyor: “Artık hepimizin cebinde bir yapay zeka aracı var. Ancak yapay zekanın sunduğu her veriye sorgulamadan güvenmek mümkün değil. Genelde kararlar alırken nasıl birden fazla kaynaktan doğrulama yapıyorsak, yapay zeka sonuçları için de aynı özeni göstermeliyiz. Bu araçlar hızlı ve etkili olabilir, fakat unutmayalım ki  etik süzgeçleri yok. Güven filtresi hala bizde. Veri arttıkça, doğruya ulaşma sorumluluğu bize düşüyor.

 

İK uzmanları olarak bizler, %41.52’lik bu hata oranını sadece bir istatistik olarak göremeyiz, görmemeliyiz. İster iç iletişimde, ister insan kaynakları süreçlerinde ya da liderlik kararlarında olsun, teknolojiyi akıllıca kullanmak ancak insanı merkeze alarak mümkün. Yanlış yönlendiren bir veri, bir adayın kariyerini, bir çalışanın güvenini, bir liderin kararını etkileyebilir. Bu araçları kullanırken yön duygumuzu kaybetmemek, etik pusulamızı her zaman açık tutmak zorundayız.”