Google, resmi web sitesinde yapay zeka (AI) ilkelerini güncelleyerek, daha önce belirttiği “silah veya gözetim sistemleri için AI geliştirmeme” taahhüdünü kaldırdı. Bloomberg tarafından fark edilen bu değişiklik, şirketin AI politikalarındaki önemli bir dönüşümü işaret ediyor.
Google’ın yeni AI ilkeleri ulusal güvenliği öne çıkarıyor
Google’ın AI etik ilkeleri, 2018 yılında “AI’yi zararlı teknolojilerde kullanmama” taahhüdüyle oluşturulmuştu. Ancak, en son güncellemeyle birlikte bu taahhüt sayfadan kaldırıldı. Bunun yerine, şirket “insanları koruyan, küresel büyümeyi destekleyen ve ulusal güvenliğe katkı sağlayan” yapay zeka sistemlerinin geliştirilmesi gerektiğini vurguluyor.
Google, TechCrunch’a yaptığı açıklamada, güncellenen yapay zeka ilkelerinin uluslararası hukuk ve insan haklarıyla uyumlu olduğunu ve zararlı veya istenmeyen sonuçları en aza indirmeyi hedeflediğini belirtti. Ancak, bu değişikliklerin Google’ın askeri projelere olan yaklaşımında bir değişiklik anlamına gelip gelmediği konusunda net bir açıklama yapılmadı.
Google’ın yapay zeka ilkelerindeki değişiklik, özellikle ABD ve İsrail ordularına sağladığı bulut hizmetleri nedeniyle zaten tartışmalı olan AI politikalarına yönelik tepkileri artırabilir. Son yıllarda, Google’ın ABD Savunma Bakanlığı ile yaptığı Project Maven anlaşması ve İsrail ordusuna sağladığı Project Nimbus hizmetleri, Google çalışanları arasında protestolara yol açmıştı.
Şirketin yapay zekayı askeri projelerde kullanmadığını iddia etmesine rağmen, ABD Savunma Bakanlığı’nın AI şefi geçtiğimiz günlerde bazı AI modellerinin ABD ordusunun hedef tespit sürecini hızlandırdığını belirtti. Bu açıklama, Google gibi şirketlerin geliştirdiği yapay zeka teknolojilerinin savaş kararlarında rol oynayabileceği endişesini güçlendirdi.
Yapay zekanın askeri amaçlarla kullanılması, uzun zamandır etik tartışmaların merkezinde yer alıyor. Teknoloji şirketleri, AI sistemlerini sivil ve insani faydalar sağlayacak şekilde geliştirmeyi taahhüt ederken, ulusal güvenlik ve askeri kullanım arasında bulanık bir çizgi bulunuyor.
Google, askeri AI geliştirmediğini savunsa da, yapay zekanın dolaylı yoldan savaş operasyonlarını destekleyip desteklemediği sorusu hala yanıt bekliyor. AI sistemlerinin otomatik karar verme süreçlerinde kullanılması, sivil ölümleri artırabilecek ve askeri operasyonlarda insan kontrolünü azaltabilecek potansiyel riskler barındırıyor.
Google’ın yapay zeka ilkelerindeki bu değişiklik, teknoloji dünyasında büyük yankı uyandırdı. Şirket, AI’yi etik ve sorumlu bir şekilde kullanma taahhüdünü sürdüreceğini belirtse de, silah geliştirmeme vaadini kaldırması askeri projelerle ilgili endişeleri artırıyor.
Önümüzdeki dönemde, Google’ın AI projelerinin askeri alanda nasıl kullanıldığı ve bu yeni politikanın küresel etik standartlarla nasıl uyumlu hale getirileceği merak konusu olmaya devam edecek.