Yeni Günaydın
Geri

Yapay Zeka Sistemleri 'Saçmalığa' Dönüşebilir!

Araştırmacılar "model çöküşünün" ChatGPT gibi sistemleri daha az kullanışlı kılabileceğini söylüyor
Yapay Zeka Sistemleri 'Saçmalığa' Dönüşebilir!
Haberler / Teknolojik
26 Temmuz 2024 Cuma 14:00
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

Araştırmacılar internet yapay zekanın ürettiği içeriklerle dolmasıyla, yapay zeka sistemlerinin saçmalığa dönüşebileceğine dair uyarıda bulundu.

OpenAI'ın ChatGPT'si gibi metin üreten sistemlere duyulan heyecan son yıllarda giderek arttı. Bu heyecan, pek çok kişiyi sistemler tarafından yaratılan blog yazıları ve çeşitli içerikler yayımlamaya teşvik etti,  böylelikle yapay zekanın ürettiği içerikler, internetin giderek daha büyük bir kısmını kapladı.

Fakat bu sistemleri üreten şirketlerin çoğu, sistemleri eğitmek için internetteki metinlerden yararlanıyor. Bu, metinleri üretmek için kullanılan yapay zeka sistemlerinin aynı metinlerle eğitildiği bir döngüye yol açabilir.

Yeni bir çalışmada araştırmacılar, bunun yapay zeka araçlarını hızlıca anlamsızlığa ve saçmalığa sürükleyebileceği konusunda uyardı. Uyarıları, internetin giderek büyüyen bir kısmının kısır döngüye girerek otomatikleştiğini öne süren daha geniş "ölü internet teorisi" kaygısının bir parçası.    

Araştırmaya göre, sistemin içerik ürettiği ve ürettiği içeriklerle eğitildiği döngünün yalnızca birkaç kez yaşanması, sistemin saçmalık üretmeye başlaması için yeterli.

Örneğin araştırmacılar, ortaçağ mimarisi hakkındaki metinlerle test edilen bir sistemde, sadece 9 üretimde çıktının kendini tekrarlayan bir kır tavşanı çeşitleri listesine dönüştüğünü gözlemledi.

Yapay zekanın yine yapay zeka tarafından üretilen veri setleriyle eğitilmesi ve çıktıları kirletmesine "model çöküşü" denmişti. Araştırmacılar, yapay zeka sistemleri internette daha sık kullanıldıkça bu durumun yaygınlaşabileceği konusunda uyarıyor.

Sistemler ürettikleri verilerle eğitildikçe, verinin daha az yaygın kısımlarını dışarıda bırakmaya eğilimli olduğu için bu sorun yaşanıyor. Bu çalışmada yer almayan araştırmacı Emily Wenger, farklı köpek cinsleriyle eğitilen bir sistemi örnek vermişti: asıl veride golden retriever daha çok varsa sistem veriden onları seçerek süreç ilerledikçe diğer köpekleri dışarda bırakıyor ve sonunda çökerek yalnızca saçmalık üretmeye başlıyor.

Araştırmacılar, ChatGPT ve Google'ın Gemini'ı çalıştıran büyük dil modellerinde de aynı sonucun ortaya çıktığını gözlemledi.

Bu, yalnızca sistemler giderek işlevini yitireceği için değil, çıktılarındaki çeşitlilik giderek azalacağı için de sorun teşkil edebilir. Veri üretilip geri dönüştürüldükçe sistemler, dünyadaki farklılıkları yansıtmakta zorlanabilir ve daha küçük gruplar ve bakış açıları tamamen silinebilir.

Araştırmacılar, makalede "eğitimde internetteki büyük ölçekli verileri temizlemenin faydalarını sürdürmek isteniyorsa sorunun ciddiye alınması gerektiğini" yazıyor. Bu durum, halihazırda sistemlerini eğitmek üzere veri kazımış şirketlerin, geçmişte toplanan verilerde gerçek insan çıktısı daha fazla bulunduğu için avantajlı olduğu anlamına da gelebilir.

Bu sorun, çıktıyı filigranla işaretleyip otomatik sistemler tarafından tespit edilerek eğitim kümelerinin dışında tutulmasını sağlamak da dahil birçok farklı yolla çözülebilir. Ama filigranları silmenin kolay olması ve yapay zeka şirketlerinin filigran kullanmakta işbirliğine direnmesi gibi başka problemler de bulunuyor.

"Yapay zeka modelleri özyineleyerek üretilen verilerle eğitildiğinde çöküyor (AI models collapse when trained on recursively generated data)" isimli çalışma Nature'da yayımlandı.

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNDEM EKONOMİ POLİTİKA DÜNYA MEDYA SPOR YAZARLAR FOTO GALERİ VİDEO GALERİ SAĞLIK MAGAZİN KÜLTÜR-SANAT TEKNOLOJİK YAŞAM BUGÜN NEYE ZAM GELDİ DİKKAT! İLGİNÇ HABERLER
Masaüstü Görünümü
İletişim
Künye
Copyright © 2024 Yeni Günaydın