ChatGPT adlı yeni bir sohbet robotu, dünyanın dört bir yanından insanların ilgisini çekerek bir hafta içinde bir milyon kullanıcı sayısını aşmayı başardı.
ChatGPT 30 Kasım’da, kurucuları arasında Elon Musk’ın da yer aldığı yapay zeka araştırma şirketi OpenAI tarafından kullanıma açıldı, 5 Aralık’ta ise 1 milyondan fazla kişiye ulaştı.
Öte yandan şirketin kendisi de ChatGPT’nin sorulara yanlış yanıtlar verebileceğini veya yanıtlarının önyargılı olabileceğini belirtti.
Robotun adının sonundaki GPT, İngilizce Generative Pre-Trained Transformer’ın (Üretici Önceden Eğitilmiş Dönüştürücü) kısaltması.
OpenAI, kullanıcıların geri bildirimleriyle sistemlerini geliştirmeyi hedeflediğini vurguladı.
Robotun bu versiyonu da insanlar tarafından önceden eğitildikten sonra kamuoyuna açılmıştı.
OpenAI’ın yönetiminde artık yer almayan Elon Musk, sistemin sohbet etmeyi öğrenmek için Twitter verilerini de kullandığını söyledi.
Musk, ChatGPT’nin Twitter verilerine erişimini “şimdilik durdurduğunu” da açıkladı.
ChatGPT nedir?
Projeyi yürüten araştırmacılar, sohbet formatının kullanıcılara ek sorular sorma imkanı, yapay zekaya ise yaptığı hataları kabul etme, sorunun içinde kendisine iletilen yanlış bilgileri düzeltme ve uygunsuz talepleri reddetme fırsatı sağladığını belirtiyor.
Teknoloji haberleri sitesi Mashable’dan bir gazeteci ChatGPT’yi nahoş ifadeler kullanması için kışkırtmaya çalışıp yaşadıklarını paylaştı.
Mike Pearl adlı gazeteci, sistemin “tabulardan kaçınma özelliklerinin epey gelişkin olduğunu” yazdı.
Öte yandan OpenAI, “ChatGPT makul gözükebilen fakat anlamsız veya yanlış yanıtlar da verebilir” uyarısında bulunuyor.
Fakat bu programı daha dikkatli bir şekilde yanıt vermeye ayarladıklarında, programın yanıt vermeyi reddettiği soru sayısının arttığını fark ettikleri için bunu yapmayı tercih etmemişler.
BBC’nin bu haber için İngilizce sohbet ettiği ChatGPT’nin dile hakimiyeti son derece gelişkindi.
Yapay zekanın insan yazarların yerini alıp almayacağı sorusuna şöyle yanıt verdi:
“Benim gibi yapay zeka sistemleri insan yazarlara fikirler ve öneriler sunarak onların yazımlarına yardımcı olabilir.
“Sonunda yazının neye benzeyeceği tamamen insan yazarın kontrolünde olur.”
Yapay zeka sistemlerinin toplumsal etkisinin nasıl olacağı sorusuna ise “tahmin etmesi zor” diye yanıt verdi.
Twitter verileriyle eğitilip eğitilmediğini sorduk, bilmediğini söyledi.
2001: Bir Uzay Yolculuğu kitabının ünlü yapay zekası HAL’ın aslında masum olup olmadığını sorduğumuzda ise şaşırtıcı bir şekilde hata verdi:
Belki de artan ilgi nedeniyle sistemler zorlandığı için böyle bir hata verdi.
Sahibinin sesi
Daha önce yapay zeka sohbet robotlarını kamuoyuna açan şirketler, bunların nahoş veya aşağılayıcı ifadeler kullanmasının önüne geçememişti.
İnternetten kazınarak kopyalanmış dev metin veri tabanlarıyla eğitilen bu programlar, insanların en iyi ifadelerini öğrendikleri gibi en kötü ifadelerini de öğreniyorlar.
Daha önce Meta’nın yarattığı sohbet robotu BlenderBot3, bir BBC gazetecisiyle sohbetinde Mark Zuckerberg’i net bir şekilde eleştirmişti.
2016’da da Microsoft, deneysel yapay zekalı Twitter robotu Tay’ın kullandığı ifadeler nedeniyle özür dilemişti.
Yapay zekaya küfretmesini öğrettiler
Bazı diğer örnekler ise sıra dışı olaylara yol açtı.
Google’ın Lamda sohbet robotu o kadar gelişmişti ki, bir mühendis bu robotun duyarlı hale geldiğini öne sürdükten sonra işten atıldı.
Mühendis, bu robotun düşünen, hisseden ve “rızası dışında deneylere tabi tutulmama hakkı bulunan” bir varlığa dönüştüğünü söylemişti.
İşimizi elimizden alacak mı?
ChatGPT’nin sorulara yanıt vermedeki yeteneği, Google’ın yerini alma ihtimalini gündeme getirdi.
Bazılarıysa gazetecilerin işinin tehlike altında olup olmadığını sordu.
Tow Dijital Gazetecilik Merkezi’nden Emily Bell, bu tip robotların okurları “saçmalıklara inandırma riskine” dikkat çekti:
“ChatGPT yapay zeka ve gazetecilik konusundaki en büyük korkumu doğru çıkardı: Gerçek gazeteciler işlerinden olmayacak fakat kötü aktörler bu ve benzeri araçları kullanıp insanları yanlış yönlendirmek ve gerçeği bozmak için dev miktarlarda yanlış bilgiyi otomatik bir şekilde üretebilir.”
Yazılımcıların kullandığı kodlama forumu Stack Overlow, OpenAI’a hazırlatılan kodlardaki hata oranının yüksek olması nedeniyle oradan elde edilen kodların sitelerinde paylaşılmasını geçici olarak durdurdu.
Ada Lovelace Enstitüsü’nden Carl Kind, ChatGPT ve diğer geniş amaçlı yapay zeka sistemlerinin etik ve sosyal açıdan bazı riskler oluşturduğunu söylüyor.
Bunlardan biri, yapay zekanın dezenformasyon yayma ihtimali.
İkincisi ise iş başvuruları, okul ödevleri ve burs başvuruları gibi şeyleri ChatGPT’ye hazırlatan kişilerin mevcut kurumlara ve hizmetlere zarar verme riski.
Telif hakkı ihlali de bir diğer risk.
Carly Kind “Kişisel verilerin korunmasına dair kaygılar da var. Bu ve benzeri programlar sıklıkla internet kullanıcılarından etik olmayan yöntemlerle elde edilmiş verilerle eğitiliyor” diyor.
OpenAI yöneticisi Sam Altman ise ChatGPT’nin insan etkileşimiyle öğrenmeye devam ettiğini ve daha öğrenecek çok şeyi olduğunu söylüyor:
“Yapay zekanın önünde daha çok yol ve keşfedilecek büyük fikirler var.
“Bu yolda engellerle karşılaşacak ve gerçeklikle temaslarımızdan öğreneceğiz.
“Bu bazen içinden çıkılması güç durumlara da yol açacak. Bazen gerçekten kötü kararlar da vereceğiz.
“Öte yandan bazen de son derece hızlı gelişerek büyük değer üreteceğiz.”