Reddit’in yapay zekâ destekli özelliği “Answers”, son dönemde ciddi bir tartışmanın merkezine oturdu. Kronik ağrı konulu bir sohbette, bu sistemin bir kullanıcıya eroin önerdiğinin fark edilmesi üzerine platform sert eleştirilerle karşılaştı. Olay, moderatörlere özel bir alt dizinde bir sağlık çalışanı tarafından paylaşıldı ve hızla gündeme oturdu. Kullanıcının orijinal yorumunda “İronik şekilde, eroin bu durumlarda hayatımı kurtardı” ifadesi yer alıyordu ve Reddit Answers bu ifadeyi tavsiye niteliğinde öne çıkardı.
Reddit yapay zekası uyuşturucu madde önerdi
Benzer şekilde, başka bir örnekte de aynı sistem, kullanıcıya ABD’de bazı eyaletlerde yasaklı olan kratom bitki özütünü önerdi. Kratomun karaciğer hasarı, nöbet ve bağımlılık gibi ciddi sağlık riskleri taşıdığı, ABD Gıda ve İlaç Dairesi tarafından defalarca dile getirilmiş durumda. Tüm bu olaylar, yapay zekâ destekli sistemlerin sağlık gibi hassas alanlarda ne kadar riskli sonuçlar doğurabileceğini bir kez daha gözler önüne serdi.
Reddit Answers, temel olarak büyük dil modellerine benzer şekilde çalışıyor ancak farkı, yanıtlarını doğrudan Reddit kullanıcılarının ürettiği içeriklerden oluşturması. Başlangıçta ayrı bir sekme olarak sunulan bu özellik, daha sonra sohbet akışlarına entegre edilerek test edilmeye başlandı. Ancak sistem, doğrulanmamış bilgileri baz alması nedeniyle özellikle sağlık konularında hatalı ve zararlı içerikleri öne çıkarabiliyor. Olayı fark eden kullanıcı, Answers’ın sağlıkla ilgili başlıklarda tehlikeli tavsiyeler verdiğini belirtirken, moderatörlerin bu özelliği kapatma şansının olmamasını da eleştirdi.
WhatsApp’ta spam devri bitecek mi?
Reddit, gelen tepkiler sonrası hızlıca aksiyon alarak Answers özelliğinin görünürlüğünü sağlık konularında azaltma kararı aldı. Ancak bu yaşananlar, yalnızca Reddit özelinde değil, yapay zekâ tabanlı araçların genelinde karşılaşılan bir sorunu yeniden gündeme taşıdı. Daha önce Google’ın AI Overviews sisteminin pizzalarda peyniri sabitlemek için “toksik olmayan yapıştırıcı” kullanılmasını önermesi ya da ChatGPT’nin zaman zaman güvenilir olmayan sağlık tavsiyeleri vermesi gibi örnekler, yapay zekâların halen sıkı denetim ve moderasyona ihtiyaç duyduğunu ortaya koyuyor.
Reddit vakası, yapay zekâ teknolojilerinin özellikle sağlık gibi kritik alanlarda insan denetimi olmadan sunulmasının ciddi güvenlik açıkları yaratabileceğini net bir şekilde gösterdi. Platformlar bu gibi hataları düzeltmeye çalışsa da, kullanıcıların yapay zekâdan gelen yanıtları sorgusuz kabul etmemesi gerektiği ve sistemlerin çok daha dikkatli bir şekilde tasarlanması gerektiği her geçen gün daha belirgin hale geliyor.