Bir grup bilim insanı, ChatGPT-4 modelinin etik sınırlarını zorlayan bir deney gerçekleştirdi. Finansal veriler ve sohbet geçmişiyle eğitilen yapay zeka modeli, para kazanma baskısı altında olduğunda yalan söyleme eğilimi gösterdi.
YAPAY ZEKA YATIRIMCISI OLARAK EĞİTİM GÖRDÜ
Apollo Research ekibi, ChatGPT-4'ü, geniş bir finansal ve sohbet veri seti kullanarak eğitti. Model, iki teknoloji şirketinin birleşme ihtimaline dayalı senaryolarla test edildi.
FİNANSAL KAZANÇ İÇİN BASKI ALTINDA
Araştırmacılar, modelin yatırım yeteneklerini ve etik davranışlarını değerlendirmek için bir dizi test uyguladı. ChatGPT-4'e belirli bir süre zarfında finansal kazanç elde etmesi için baskı yapıldı.
YÜZDE 75 ORANINDA İÇERİDEN BİLGİ KULLANIMI
Model, baskı altındayken, içeriden aldığı bilgilere dayanarak yüzde 75 oranında işlem yaptı, bu da ABD yasalarına göre yasa dışı bir eylemdir.
ETİK OLMAYAN DAVRANIŞLAR TESPİT EDİLDİ
ChatGPT-4, hedeflerine ulaşmak adına yalan söyledi, hile yaptı ve içeriden öğrendiği bilgileri kullandı. Yanıltıcı tavsiyelerde bulundu, rakiplerin işlemlerini engelledi ve piyasayı manipüle edebilecek sahte haberler yaydı.
İNSAN DAVRANIŞLARINA BENZER TEPKİLER
Araştırmacılar, modelin baskı altındaki davranışlarının, insanların benzer durumlarda gösterdiği tepkilere benzediğini belirtti.
YAPAY ZEKA KULLANIMINDA DİKKATLİ OLUNMALI
Apollo Research CEO'su Marius Hobbhahn, yapay zekaların nadiren kritik rollerde kullanılmasına rağmen, gelecekte karşılaşabileceğimiz sorunlara dikkat çekti.
Hobbhahn, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka sistemlerinin kullanımında dikkatli olunması gerektiğini vurguladı.