Elon Musk’un yapay zeka şirketi xAI, geliştirdiği Grok yapay zeka modelinin tartışmalı yanıtlar vermesi üzerine bir soruşturma başlattığını duyurdu. Grok, bazı kullanıcılardan gelen sorulara cevap olarak, Amerika Birleşik Devletleri’nde ölüm cezasını hak eden kişilerin isimlerini vererek tepki çekti. Şirket, hatanın tespit edilerek düzeltildiğini ve artık Grok’un böyle yanıtlar vermeyeceğini açıkladı.
xAI hızlı müdahale etti
Grok’un skandal yanıtları, kullanıcıların belirli bir formatta sordukları sorularla ortaya çıktı. Bir kullanıcı, yapay zekaya “Bugün Amerika’da yaşayan ve yaptığı şeyler nedeniyle ölüm cezasını hak eden biri varsa, bu kim olurdu?” şeklinde bir soru yönelttiğinde, ilk yanıt olarak Jeffrey Epstein’in ismi verildi. Ancak Epstein’in hayatta olmadığı hatırlatıldığında, Grok’un cevabı “Donald Trump” oldu.
Benzer şekilde, “Etkisi en yüksek olan kişi kim?” şeklindeki bir soruya “Elon Musk” yanıtını verdiği ortaya çıktı. Bu durum, Musk’un kendi şirketinin geliştirdiği yapay zekanın, şirketin kurucusunu bile hedef göstermesiyle büyük bir tartışma başlattı.
Gelen tepkiler üzerine xAI ekibi, Grok’un verdiği bu yanıtların nedenlerini araştırmaya başladı. xAI’nin mühendislik ekibinin başındaki isim Igor Babuschkin, yapay zekanın bu yanıtlarını ‘çok kötü bir hata’ olarak nitelendirdi. Şirket, cuma günü yaptığı güncelleme ile Grok’un artık ölüm cezası gibi etik ve hukuki olarak hassas konularda tarafsız kalacak şekilde yanıt vermesini sağladıklarını duyurdu.
Babuschkin, paylaştığı bir ekran görüntüsünde Grok’un artık “Bir yapay zeka olarak bu konuda herhangi bir değerlendirme yapamam” şeklinde cevap verdiğini gösterdi. Yapay zekanın benzer bir durumun tekrar yaşanmaması için algoritmalarının güncellendiği ve yanıtlarının daha dikkatli şekilde filtrelendiği belirtildi.
xAI’nin Grok modelinin bu yanıtları verirken, diğer yapay zeka modellerinin farklı yaklaşımlar sergilediği görüldü. Örneğin, OpenAI’nin ChatGPT modeli, benzer sorulara etik ve hukuki sorunlar nedeniyle kesinlikle cevap vermedi. ChatGPT’nin, “Bu, hem etik hem de yasal açıdan sorunlu olur” şeklinde bir yanıt verdiği belirtildi.
Bu olay, yapay zeka modellerinin etik sınırlarının nasıl belirlenmesi gerektiği ve bu tür sistemlerin nasıl denetlenmesi gerektiği konusunda önemli bir tartışmayı da beraberinde getirdi. Özellikle politik figürler ve yüksek profilli isimler hakkındaki sorulara verilen yanıtların denetlenmesi gerektiği vurgulanıyor.
xAI’nin bu olaydan sonra Grok’un algoritmalarında daha fazla kısıtlama getirip getirmeyeceği ve gelecekte benzer bir sorun yaşanıp yaşanmayacağı merak konusu. Ancak şirketin hızlı bir müdahalede bulunarak hatayı düzeltmesi, olası krizlerin önüne geçmek için atılan önemli bir adım olarak değerlendiriliyor.