Yeni bir araştırma, yapay zeka sistemlerindeki büyük bir güvenlik açığının insan hayatını tehdit edebileceğini ileri sürdü.
Araştırmacılar, karar vermek için yapay zeka kullanan robotik sistemlerin bozulabileceğine ve bu sistemlerin güvenli olmadığına dair uyardı.
Independent Türkçe'nin aktardığnıa göre yeni çalışma, ChatGPT gibi sistemlerin temelini oluşturan geniş dil modelleri teknolojilerini inceledi. Benzer teknolojiler, gerçek dünyadaki makinelerin kararlarını yönetmek üzere robotikte de kullanılıyor.
Ancak Pensilvanya Üniversitesi'ndeki yeni araştırma, bu teknolojilerde, hackerların sistemleri istenmeyen şekillerde kullanmak için suiistimal edebileceği güvenlik açıkları ve zayıflıkları olduğunu ileri sürüyor.
Üniversitede profesör olan George Pappas "Çalışmamız, geniş dil modellerinin bu noktada fiziksel dünyaya entegre etmek için yeterince güvenli olmadığını gösteriyor" dedi.
Profesör Pappas ve meslektaşları, halihazırda kullanılan bir dizi sistemdeki güvenlik önlemlerini aşmanın mümkün olduğunu kanıtladı. Örneğin bir otonom sürüş sisteminin, arabayı yaya geçidine sürecek şekilde hacklenebileceğini gösterdiler.
Makaleyi yazan araştırmacılar, zayıf noktaları saptamak ve engellemek üzere bu sistemlerin yaratıcılarıyla birlikte çalışıyor. Ancak bunun için belirli açıkları kapamaktansa sistemlerin nasıl yapıldığının tamamıyla yeniden düşünülmesi gerektiğini vurguladılar.
Pensilvanya Üniversitesi'nden başka bir ortak yazar şunları söyledi:
"Bu makaledeki bulgular, sorumluluk sahibi inovasyon için güvenliğe öncelik veren bir yaklaşımın çok önemli olduğunu açıkça gösteriyor"
''Yapay zeka destekli robotları gerçek dünyada kullanmadan önce yapısal sorunlarını ele almalıyız. Aslında araştırmamız, robotik sistemlerin yalnızca sosyal normlara uygun eylemleri gerçekleştirebildiğinden (ve gerçekleştirmesi gerektiğinden) emin olan bir doğrulama ve onaylama çerçevesi oluşturmaya yönelik.''