Yapay zekâ alanında uzmanlar ve etik araştırmacılar, Google ve OpenAI gibi büyük teknoloji şirketlerinde çalışanlara seslendi: Geliştirilen yapay zekâ modellerinin zararlı ya da ölümcül amaçlarla kullanılmasını önlemek için gereken güvenlik önlemlerini sıkılaştırın. Bu çağrının odak noktası, yapay zekânın güçlendirilmiş modellerinin kötü amaçlarla kullanılmasının insan güvenliğini tehdit etmemesi gerektiği oldu.
Uzmanlar, çalışanlara hitaben yayınladıkları açıklamada, sistemlerin hiçbir şekilde insanların zarar görmesine yol açacak içerik üretmesini, planlara yardımcı olmasını ya da tehlikeli talimatlar vermesini engelleyecek kodlama ve denetim mekanizmaları geliştirilmesini önerdiler. Ayrıca bu tür teknolojilerin güvenlik testlerinin sürekli ve daha kapsamlı hâle getirilmesi gerektiği belirtildi.
Bu çağrı, yapay zekâ güvenliği konusundaki küresel tartışmaları yeniden gündeme getirirken, şirket içi sorumlulukların ve dış denetim mekanizmalarının önemini vurguluyor. İnsan güvenliğini tehdit eden potansiyel kullanımların engellenmesi, hem etik hem de sosyal sorumluluk açısından kritik görülüyor.
https://www.evrensel.net/