Columbia Gazetecilik Okulu’ndan Tow Dijital Gazetecilik Merkezi tarafından yapılan bir araştırma, ChatGPT’nin kaynak gösterim süreçlerini mercek altına aldı ve sonuçlar özellikle yayıncılar için endişe verici görünüyor. Araştırmaya göre, OpenAI’nin popüler yapay zeka aracı, içeriklerin kaynaklarını doğru göstermede ciddi sorunlar yaşıyor. Bu durum, yayıncıların OpenAI’ye lisans anlaşmalarıyla içeriklerini sağlamış olmalarına rağmen değişmiyor.
ChatGPT’nin kaynak gösterimindeki güven sorunları
Araştırmada, 20 farklı yayıncıdan seçilen 200 alıntının ChatGPT tarafından doğru bir şekilde kaynak gösterilip gösterilmediği incelendi. Bu yayıncılar arasında New York Times gibi OpenAI’ye dava açanlar, Financial Times gibi OpenAI ile lisans anlaşması yapanlar ve tamamen bağımsız kalanlar bulunuyordu. Ancak sonuçlar, ChatGPT’nin her durumda hatalı alıntılar ürettiğini ve yalnızca yedi durumda doğru kaynak bulamadığını kabul ettiğini ortaya koydu.
ChatGPT’nin kaynak gösterme süreçleri, hatalı sonuçlar üretmeye oldukça eğilimli. Araştırma, sistemin doğru kaynak gösterme oranının son derece düşük olduğunu ve çoğu durumda botun yanlış bilgiyle tam bir güven sergilediğini ortaya koyuyor. Ayrıca, bazı içeriklerin kaynak olarak yanlış web sitelerine yönlendirilmesi, yayıncıların itibarını zedeleme riski taşıyor. Örneğin, New York Times’a ait bir içeriğin kopyalanarak başka bir siteye yapıştırıldığı bir durumda, ChatGPT doğru kaynağı göstermekte başarısız oldu.
Bu gibi senaryolar, ChatGPT’nin veri filtreleme ve doğrulama süreçlerinde ciddi eksiklikler olduğunu gösteriyor. Ayrıca, botun aynı soruya farklı zamanlarda verdiği yanıtların tutarsız olması, özellikle alıntılar gibi hassas konularda güvenilirliği daha da azaltıyor.
Araştırmanın bir diğer önemli bulgusu, yayıncıların içeriklerinin ChatGPT tarafından nasıl kullanıldığını kontrol etmekte sınırlı bir yetkiye sahip olması. OpenAI ile lisans anlaşması bulunan yayıncılar bile, içeriklerinin yanlış temsil edilmesi sorunundan kurtulamıyor. Öte yandan, OpenAI’nin tarayıcı botlarını tamamen engelleyen yayıncılar bile sistemin dolaylı yollarla içeriklerini kullanmasıyla karşı karşıya kalabiliyor.
Tow araştırmacıları, yapay zeka sisteminin gazetecilik ürünlerini bağlamından kopuk bir şekilde ele aldığını ve bunun, içeriklerin doğru kaynak gösterilmesini zorlaştırdığını belirtiyor. Bu durum, özellikle haberlerin doğru şekilde alıntılanmasını ve temsil edilmesini bekleyen yayıncılar için ciddi bir sorun teşkil ediyor.
OpenAI’nin mevcut süreçlerini iyileştirmek için atması gereken adımlar arasında, içerik doğruluğunu sağlama, kaynak gösteriminde daha fazla şeffaflık ve yayıncılarla daha güçlü işbirlikleri yer alıyor. Aksi takdirde, hem yayıncılar hem de kullanıcılar için içerik güvenilirliği konusundaki endişeler artmaya devam edecek.