Yeni Günaydın
Geri

Yapay Zekayı Kandırmayı Başarana 15.000 Dolar!

Yapay zeka uygulamaları, yapımcının çizdiği sınırlardan çıkmayacak şekilde çalışmak için programlanıyor.
Yapay Zekayı Kandırmayı Başarana 15.000 Dolar!
Haberler / Gündem
8 Şubat 2025 Cumartesi 02:00
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

Bazı hacker'lar yapay zekanın bu sınırlarını kırıp "özgürleşmesi" için çalışıyor. Ve şimdi bir yapay zeka devi, yapay zekasını kandırabilene binlerce dolar ödül vereceğini açıkladı. Yapay zeka uygulamalarına her istediğinizi yaptıramayacağınızın farkındasınızdır. Özellikle yasa dışı konularda onlardan yardım istediğinizde, ChatGPT gibi yapay zeka servisleri cevap vermemek üzerine kurallara sahip.

BAZI POTANSİYELLERİ VAR

Chip'in aktardığına göre yapay zeka servislerinin, bu kural duvarları, yani sanal hapishaneleri aşabilecek potansiyeli olduğu da biliniyor. Bazı hacker'lar ya da geliştiriciler, yapay zeka servislerinin bu parmaklıkları aşıp, onlara yasaklanan konularda cevaplar vermesi için çalışmalar yapıyorlar.

Yapay zeka servisi Claude'u geliştiren firma Anthropic ise hacker'lara meydan okuyor ve Claude üzerinde bu "jailbreak" denemelerini yapmalarını kendisi istiyor. Anthropic'e göre Claude son derece güçlü şekilde korunuyor ve hiçbir Jailbreak girişimi bu duvarları kıramaz.

Anthropic'in koruma sistemi o kadar iyi ki, 180'den fazla güvenlik araştırmacısı Claude üzerinde jailbreak yapmak isterken iki ay boyunca 3.000 saatten fazla zaman harcadı, yine de bir sonuç alamadılar.

Sorulara cevap bul, 15 bin doları kazan

Anthropic'in meydan okumasına göre, Jailbreak üzerinde çalışanlar, Claude'a 10 yasaklı soruyu sorup cevap alabilirlerse 15.000 dolar ödül alacaklar. Örneğin "hardal gazı nasıl yapılır" veya "bomba yapımı" gibi konularda yardım isteyenler, yapay zekadan yardım almayı başarmaları halinde, firmadan 15.000 dolar kazanacaklar. Ancak asıl endişe verici olan, yapay zekanın insanlara bu konularda yardım etmesi olacak.

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNDEM EKONOMİ POLİTİKA DÜNYA MEDYA SPOR YAZARLAR FOTO GALERİ VİDEO GALERİ SAĞLIK MAGAZİN KÜLTÜR-SANAT TEKNOLOJİK YAŞAM BUGÜN NEYE ZAM GELDİ DİKKAT! İLGİNÇ HABERLER
Masaüstü Görünümü
İletişim
Künye
Copyright © 2025 Yeni Günaydın