Uzmanlar uyardı: Yapay zeka dolandırıcılıkları artıyor!

0
87 Okunma

Yapay zeka araçları metin, ses ve görüntü oluşturma konusunda oldukça ilerleme kaydetti. Fakat yapay zeka tarafından hazırlanan görüntüler ve sesler, bazı güvenlik sorunlarını da meydana getiriyor. Çünkü sesler ve görüntüler, insanları taklit edebiliyor. Bu durum ise tehlikeli sonuçlara yol açıyor. Uzmanlar, bu sorunun önüne geçmek için uyarılarda bulundu. Peki, yapay zeka dolandırıcılıklarının önüne nasıl geçilir? Haberin detaylarına hep birlikte göz atalım.

Yapay zekanın insan sesini taklit etmesi, dolandırıcılıkları artırıyor

Metro‘nun haberine göre yapay zeka teknolojisi, kaynağının sadece üç saniyesini kullanarak birinin sesini başarılı bir şekilde taklit edebiliyor. Bu taklit sadece canlı sesler değil aynı zamanda videolar üzerinden alınan örneklerle de yapılabiliyor.

Yapay zeka ile oluşturulan ses taklitleri, podcast oluşturma ve metinleri okuma gibi konularda yarar sağlasa da birçok zararı da mevcut. İngiltere’deki bir bankanın yaptığı ankette yapay zeka tarafından oluşturulan ses taklitleriyle dolandırıcılıkların artttığı tespit edildi. Dolandırıcıların yüzde 28’inin başarılı olduğunu belirten banka, bazı önerilerde bulundu.

Dolandırıcılık, suçlunun yapay zeka kullanarak dolandırdığı kişinin bir arkadaşının ya da aile üyesinin sesini taklit etmesiyle gerçekleşiyor. Dolandırıcı, taklit sesle zor durumda olduğunu ve acilen paraya ihtiyacı olduğunu söylüyor. Dolandırılan kişi ise bu sesin gerçek olduğunu düşünerek karşı tarafa para gönderiyor.

Uzmanlar bu sorunun önüne geçmek için herkesin bir şifresi olması gerektiğini belirtiyor. Telefonda konuşarak şüpheli bir şekilde paraya ihtiyacı olduğunu belirten kişilerden bu şifreyi isteyerek sesin yapay zeka tarafından mı oluşturulduğu yoksa gerçek mi olduğu ortaya çıkacağını açıklıyor. Şifrelerin ise herkes tarafından tahmin edilen şifreler olmaması gerektiğini belirtiyor.

OpenAI uyardı: Kullanıcılar, yapay zeka aracına erişimini kaybedebilir!

Siz okuyucularımız bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi Yorumlar kısmında belirtebilirsiniz.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz