OpenAI, yapay zekâ teknolojilerinin askeri kullanımına yeşil ışık yaktı

Yapay zekâ alanında öncü bir şirket olan OpenAI, kullanım politikalarında yaptığı sessiz bir değişiklikle, ürünlerinin askeri ve savaş amaçlı kullanımını yasaklayan maddesini kaldırdı. Şirket, silah geliştirme ve kullanımı gibi yüksek fiziksel zarar riski taşıyan faaliyetleri hâlâ yasaklıyor, ancak askeri alanda yapay zekâ kullanımına kapı aralamış oluyor.

OpenAI, son bir yıldır geliştirdiği büyük dil modeli (LLM) GPT-4 ve herkesin kullanıma açtığı yapay zekâ destekli sohbet botu ChatGPT ile teknoloji dünyasının gündemine oturdu. Şirket, yapay zekâ ile ilgili etik ve güvenlik sorunlarına da dikkat çekerek, “Yapay zekâ insanlığın sonunu getirir mi?” tartışmalarını alevlendirdi.

OPENAL POLİTİKA DEĞİŞİKLİĞİNE GİTTİ

Ancak OpenAI, 10 Ocak’ta kullanım politikalarını güncellediğinde, bu konuda önemli bir değişikliğe gitti. Şirketin web sitesindeki “Modellerimizin izin verilmeyen kullanımı” başlıklı bölüm tamamen kaldırıldı. Bu bölümde, OpenAI ürünlerinin askeri ve savaş amaçlı kullanımının yasak olduğu belirtiliyordu. Şirket, yeni kullanım politikalarını “daha net olacak ve hizmete özel daha fazla rehberlik sağlayacak şekilde” güncellediğini duyurdu.

OpenAI’nin yeni kullanım politikaları sayfasında, şirketin ürünlerinin silah geliştirme veya kullanma, kritik altyapıların yönetimi veya işletilmesi, intihar veya kendine zarar verme eylemlerini teşvik eden veya tasvir eden içerik gibi yüksek fiziksel zarar riski taşıyan faaliyetler için kullanılamayacağı belirtiliyor. Ancak askeri ve savaş kullanımı ile ilgili herhangi bir yasaklama bulunmuyor.

Bu değişiklik, dünyanın dört bir yanındaki askeri kurumların yapay zekâ kullanımına artan ilgisine denk geliyor. Örneğin, ABD Savunma Bakanlığı, yapay zekâ ile ilgili etik ilkelerini açıkladı ve yapay zekâ sistemlerinin “güvenilir, sorumlu, adil, izlenebilir, yönetilebilir ve yönlendirilebilir” olması gerektiğini vurguladı. Ayrıca, Çin, Rusya, İsrail, İngiltere ve Fransa gibi ülkeler de yapay zekâ ile güçlendirilmiş silah ve araçlar geliştirmeye çalışıyor.

OpenAI’nin bu politika değişikliğinin arkasında ne gibi bir motivasyon olduğu bilinmiyor. Şirket, yapay zekâ ile ilgili misyonunu “insanlık için iyi olacak şekilde yapay zekâyı güvenli ve yaygın bir şekilde kullanılabilir kılmak” olarak tanımlıyor. Ancak şirketin, askeri alanda yapay zekâ kullanımına tam olarak izin verdiği anlamına gelmese de, bir yasak koymadığı şeklinde yorumlanabilecek bu hamlesi, şirketin vizyonu ile çelişiyor olabilir.

OpenAI, konuyla ilgili henüz resmi bir açıklama yapmadı. Şirketin kurucularından ve yönetim kurulu başkanı olan Elon Musk da, Twitter hesabından herhangi bir yorumda bulunmadı. Musk, daha önce yapay zekâ ile ilgili olarak “insanlığın en büyük tehdidi” ifadesini kullanmış ve “yapay zekâ yarışı, Dünya Savaşı’ndan daha tehlikeli olabilir” demişti.

Bu haberi beğendiniz mi? Bültenimize katılarak haberdar olun!

Yorumlar

Yorum yapabilmek için giriş yapmalısınız.

İlgili Haberler
Yazar Hakkında

Anlikhaber'i kurup kullanıcılara para kazandırmayı hedefledik ve sonunda yaptık sizin yapmanız gereken haberlerinizi ekleyip para kazanmaya başlayabilirsiniz.

Son Haberler