Yeni bir araştırma, yapay zeka teknolojilerinde ciddi güvenlik açıklarının olduğunu ve bu açıkların insan hayatını tehdit edebileceğini ortaya koydu. Pensilvanya Üniversitesi’nden bilim insanları, yapay zeka sistemlerinin robotik cihazlarda nasıl kullanıldığına dair yapılan bu çalışmanın, mevcut sistemlerin yeniden düşünülmesi gerektiğini gösterdiğini belirtti.
Araştırmacılar, özellikle ChatGPT gibi geniş dil modelleri teknolojilerinin robotik sistemlerdeki karar alma süreçlerini etkileyebileceğini ve hacker’lar tarafından manipüle edilebileceğini keşfetti. Bu durum, otonom araçlar ve diğer akıllı cihazların ciddi güvenlik tehditleri ile karşı karşıya kalabileceğini gösteriyor.
Güvenlik Zafiyetleri Büyük Bir Tehlike Oluşturuyor
Profesör George Pappas ve ekibi, geniş dil modellerinin yeterince güvenli olmadığını ve fiziksel dünyada robotik sistemlere entegre edilmelerinin riskli olduğunu vurguladı. Pappas, halihazırda kullanılan birçok sistemin güvenlik önlemlerini aşmanın mümkün olduğunu kanıtladı. Bu çalışmada, özellikle otonom sürüş sistemlerinin hacker’lar tarafından hedef alınabileceği ve sistemin arabayı yaya geçidine doğru yönlendirecek şekilde hacklenebileceği gibi tehlikeli senaryolar ele alındı.
Araştırmacılar, yapay zeka teknolojilerinde ciddi zayıflıklar tespit ettiklerini ve bu zayıflıkları kapatmak için sistemlerin yeniden yapılandırılması gerektiğini belirtti. Pappas, “Çalışmamız, geniş dil modellerinin bu noktada fiziksel dünyaya entegre etmek için yeterince güvenli olmadığını gösteriyor” diyerek, mevcut yapısal sorunların önemini vurguladı.
Robotik Sistemler Yeniden Tasarlanmalı
Araştırmacılar, bu güvenlik zafiyetlerini önlemek için, yapay zeka destekli robotik sistemlerin sadece sosyal normlara uygun eylemleri gerçekleştirebildiğinden emin olunması gerektiğini belirtiyor. Bu doğrulama ve onaylama sürecinin, sorumlu inovasyonun temel bir parçası olması gerektiğini vurguluyorlar. Yapay zeka destekli sistemlerin gerçek dünyada kullanıma sunulmadan önce çok daha sağlam bir güvenlik altyapısına sahip olması gerektiği, bu çalışma ile net bir şekilde ortaya konulmuş durumda.
Güvenliğe Öncelik Verilmeli
Pensilvanya Üniversitesi‘nden başka bir ortak yazar, sorumlu inovasyonun en temel bileşeninin güvenlik olduğuna dikkat çekti. “Bu makaledeki bulgular, sorumluluk sahibi inovasyon için güvenliğe öncelik veren bir yaklaşımın çok önemli olduğunu açıkça gösteriyor” dedi. Araştırmacılar, yapay zeka sistemlerinin bu noktadaki zayıflıklarını kapatmak için güvenlik açıklarına yönelik çalışmalara hız vermenin gerekliliğini savunuyor.
Robotik sistemlerin, yalnızca sosyal normlara uygun eylemleri gerçekleştirmesini sağlamak için kapsamlı bir doğrulama çerçevesi oluşturulması gerektiğini belirten bilim insanları, yapay zekanın güvenli bir şekilde kullanılabilmesi için bu doğrulama sürecinin büyük bir öneme sahip olduğunu vurguluyor.