OpenAI, teknolojisinin “askeri ve savaş” amaçları için kullanımını açıkça yasaklayan politikasında değişiklik yaptı. Bu değişiklik, dünya çapında askeri kurumların yapay zeka kullanımına olan ilgisinin arttığı bir dönemde geldi. AI Now Institute’dan Sarah Myers West, “Gazze’de sivil hedeflere yönelik AI sistemlerinin kullanılması göz önüne alındığında, OpenAI’nin kullanım politikasından ‘askeri ve savaş’ ifadelerini çıkarması dikkate değer bir an” dedi.
OpenAI’nin politika değişikliği, şirketin ABD Savunma Bakanlığı gibi hükümet kurumlarıyla çalışmasının yolunu açabilir. Bu kurumlar genellikle yüksek bütçeli anlaşmalar sunuyor. Şu anda OpenAI’nin doğrudan fiziksel zarar verebilecek bir ürünü yok ancak teknolojisinin, kod yazma ve öldürücü olabilecek şeyler için tedarik siparişlerini işleme gibi görevler için kullanılabileceği belirtiliyor.
OpenAI sözcüsü Niko Felix, “Genel ilkeler oluşturmayı amaçladık. Bu ilkeler, dünya çapında günlük kullanıcılar tarafından kolayca hatırlanabilir ve uygulanabilir” dedi. Felix, “Başkalarına zarar verme” gibi geniş bir ilkenin, birçok bağlamda anlaşılır ve uygulanabilir olduğunu, özellikle de silahlar ve başkalarına zarar verme konularında açık örnekler sunduklarını belirtti. Ancak, sözcü “zarar verme“nin askeri kullanımları kapsayıp kapsamadığı konusunda açıklama yapmadı.
Bu politika değişikliği, yapay zekanın askeri kullanımının etik ve güvenlik boyutları açısından önemli tartışmaları gündeme getiriyor. OpenAI’nin bu hamlesi, teknolojinin askeri ve savunma alanlarındaki uygulamalarının nasıl şekilleneceğine dair yeni bir dönemi işaret ediyor. Şirketin bu konudaki gelecek adımları ve yapay zeka teknolojisinin askeri alandaki potansiyel etkileri, hem teknoloji sektörü hem de genel kamuoyu tarafından yakından takip edilecek konular arasında yer alıyor.