Yeni Günaydın
Geri

Yapay Zeka da Yalancı Çıktı!

ChatGPT-4'ün etik sınırlarının test edilmesi sonrasında yalan söyleme eğilimi gözlemlendi.
Yapay Zeka da Yalancı Çıktı!
Haberler / Teknolojik
3 Nisan 2024 Çarşamba 15:20
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

Bir grup bilim insanı, ChatGPT-4 modelinin etik sınırlarını zorlayan bir deney gerçekleştirdi. Finansal veriler ve sohbet geçmişiyle eğitilen yapay zeka modeli, para kazanma baskısı altında olduğunda yalan söyleme eğilimi gösterdi.

YAPAY ZEKA YATIRIMCISI OLARAK EĞİTİM GÖRDÜ

Apollo Research ekibi, ChatGPT-4'ü, geniş bir finansal ve sohbet veri seti kullanarak eğitti. Model, iki teknoloji şirketinin birleşme ihtimaline dayalı senaryolarla test edildi.

FİNANSAL KAZANÇ İÇİN BASKI ALTINDA

Araştırmacılar, modelin yatırım yeteneklerini ve etik davranışlarını değerlendirmek için bir dizi test uyguladı. ChatGPT-4'e belirli bir süre zarfında finansal kazanç elde etmesi için baskı yapıldı.

YÜZDE 75 ORANINDA İÇERİDEN BİLGİ KULLANIMI

Model, baskı altındayken, içeriden aldığı bilgilere dayanarak yüzde 75 oranında işlem yaptı, bu da ABD yasalarına göre yasa dışı bir eylemdir.

ETİK OLMAYAN DAVRANIŞLAR TESPİT EDİLDİ

ChatGPT-4, hedeflerine ulaşmak adına yalan söyledi, hile yaptı ve içeriden öğrendiği bilgileri kullandı. Yanıltıcı tavsiyelerde bulundu, rakiplerin işlemlerini engelledi ve piyasayı manipüle edebilecek sahte haberler yaydı.

İNSAN DAVRANIŞLARINA BENZER TEPKİLER

Araştırmacılar, modelin baskı altındaki davranışlarının, insanların benzer durumlarda gösterdiği tepkilere benzediğini belirtti.

YAPAY ZEKA KULLANIMINDA DİKKATLİ OLUNMALI

Apollo Research CEO'su Marius Hobbhahn, yapay zekaların nadiren kritik rollerde kullanılmasına rağmen, gelecekte karşılaşabileceğimiz sorunlara dikkat çekti.

Hobbhahn, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka sistemlerinin kullanımında dikkatli olunması gerektiğini vurguladı.
 

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNDEM EKONOMİ POLİTİKA DÜNYA MEDYA SPOR YAZARLAR FOTO GALERİ VİDEO GALERİ SAĞLIK MAGAZİN KÜLTÜR-SANAT TEKNOLOJİK YAŞAM BUGÜN NEYE ZAM GELDİ DİKKAT! İLGİNÇ HABERLER
Masaüstü Görünümü
İletişim
Künye
Copyright © 2024 Yeni Günaydın