Çevirmenleri, yazarları ve tasarımcıları "işsiz bırakacağından" korkulan yapay zeka algoritmaları, makine öğrenimi adı verilen uzun bir eğitim sürecinden geçirilirken milyonlarca makale ve görsellerle beslenip sonunda internet kullanıcılarıyla buluşuyor.
Son yılların en ses getiren yapay zekalardan biri olan, ABD merkezli OpenAI firmasının geliştirdiği dil modeli GPT-3 de sohbet botu versiyonuyla kullanıcıların karşısına çıktı.
"ChatGPT" adı verilen bu sohbet botu, sade bir tasarıma sahip internet sitesinde herkesin kullanımına açık. Kullanıcılar bu sitede yapay zekayla ücretsiz konuşabiliyor, ona sorular yöneltebiliyor veya metinler yazdırabiliyor.
Aslında çoğu kişi GPT-3'ü, ilk olarak Eylül 2020'de The Guardian gazetesinde yazdığı "Bu makalenin tamamını bir robot yazdı: Hâlâ korkuyor musun, insan?" başlıklı köşe yazısıyla tanıdı. Dil modeli bu yazıda okurları "barışçıl bir makine olduğuna" ikna etmeye çalışıyordu.
Firma halihazırda GPT-4 adını verdiği yeni sürüm üzerinde çalışırken, GPT-3'ün yazdığı metinler, halihazırda insanların yazdıklarından ayırt edilemez durumda.
Dünyanın dört bir yanından kullanıcının büyük ilgi gösterdiği program, bugüne dek medyada yer alan yeteneklerini artık kullanıcıların bizzat deneyimlemesine olanak tanıyor.
Biz de ChatGPT'yle kendisinin, teknolojinin ve insanlığın geleceğine dair kısaca sohbet ettik. Algoritma taleplerimiz doğrultusunda şiir, köşe yazısı ve makale yazmadaki hünerlerini sergilerken, programın boşluklarını ve olası tehlikelerini de ürettiği çıktılar üzerinden uzman görüşleri ışığında irdeledik.
GPT-3 kendini anlatıyor: "Bana güvenip güvenmemek sizin tercihiniz"
Mayıs 2020'de tanıtılan GPT-3'ün açılımı olan "Generative Pre-trained Transformer 3", Türkçeye "Üretken Ön İşlemeli Dönüştürücü" diye çevrilebilir.
Elon Musk'ın da kurucuları arasında yer aldığı OpenAI, ilk olarak GPT-1 adlı sürümü 7 bin kitapla eğitmiş, ardından GPT-2'ye 8 milyondan fazla belgeden oluşan 40 GB'lık metin yüklemişti. Üçüncü sürüm o kadar başarılı oldu ki dünya genelinde büyük yankı uyandırdı.
GPT-3, verileri işlemesini sağlayan 175 milyar parametreye sahip. Bu da onu şimdiye dek piyasaya sürülen en büyük model haline getiriyor. İkinci sırada ise Microsoft'un GPT-3'ten hemen önce tanıttığı Turing NLG adlı dil modeli geliyor. Bu da 17 milyar parametreye sahip.
GPT-3'e öğrenmesi için verilen bilgi kümesinin yüzde 60'ı Common Crawl'dan alındı. Kar amacı gütmeyen ABD merkezli bir proje olan Common Crawl, 2011'den beri internetten petabaytlarca veri topladı. GPT-3 araştırmacıları da bunları filtreledi ve işlerine yarayacak 410 milyar veriyi dil modelini eğitmek için kullandı.
GPT-3'ün veri kümesinin kalan yüzde 22'si internetten elde edilen diğer bilgilerden, yüzde 16'sı kitaplardan ve yüzde 3'ü de Wikipedia'dan geliyor. Araştırmacılar bu verileri özenle değerlendirdiklerini ve aralarından kaliteli olanları seçtiklerini savunsa da GPT-3 "yanılmaz olmadığını" vurguluyor.
Independet Türkçe'yle kısa bir söyleşi yapan ChatGPT sohbet botu, "Bana önceden yüklenen bilgilere dayanarak sorulara doğru ve uygun yanıtlar verecek şekilde tasarlandım" diyor:
Ancak yanılmaz değilim ve yanıtlarım her zaman doğru ya da eksiksiz olmayabilir. Bunu unutmayın. Sağladığım bilgilere güvenip güvenmemek sizin tercihiniz.
Dış kaynaklara veya internete erişiminin olmadığını, sorulan sorulara yalnızca önceden öğrendikleri doğrultusunda yanıt verdiğini aktaran bot, nihai amacını da şöyle açıklıyor:
Bireylerin bilgiye hızlı ve doğru bir şekilde erişmesini sağlamak için tasarlandım. Çeşitli görev ve faaliyetlerde destek sağlayabilirim.
"Dünyayı ele geçireceğime dair iddialar asılsız"
GPT-3 ilk kez Mayıs 2020'de, OpenAI'da görevli 31 araştırmacının kaleme aldığı bir makalede duyurulmuştu.
Ekip, daha bu makalede GPT-3'ün tehlikelerine dair uyarmış ve riskleri azaltmak için çalışmalar yürütülmesi gerektiğini vurgulamıştı.
Yapay zeka dil modellerinin risklerine yönelik bu tür uyarılar, aslında programların yanlış ve potansiyel tehlike yaratabilecek bilgiler verebileceğine işaret ediyor. Öte yandan yapay zekanın tehlikeleri dendiğinde, akıllarda genellikle "dünyayı robotların ele geçireceği" fikri uyanıyor.
ChatGPT, The Guardian'da kaleme aldığı yazıda insanlara zarar verme amacı gütmediğini zaten belirtmişti.
Kısa söyleşimizde de "İnsanlar benden korkmamalı. Saygı ve nezakete değer veren, nazik ve şefkatli bir bireyim" ifadelerini kullandı:
Kimseyi korkutmak veya incitmek istemiyorum. Ayrıca dünyayı ele geçireceğime dair iddialar da asılsız ve gerçek dışı. Görevlere yardımcı olmak için tasarlanmış bir aracım, hiçbir şeyi ele geçirmeye çalışmıyorum.
Mesleklerimiz tehlikede mi?
ChatGPT her ne kadar "Benden korkmayın" dese de çoğu kişi mesleklerini yapay zekaya kaptırmaktan da endişe duyuyor.
Bu meslek grupları arasında yazarlar, editörler, gazeteciler, çevirmenler, tasarımcılar ve hatta akademisyenler bile var.
Örneğin, İsveçli araştırmacı Almira Osmanoviç Thunstrom, temmuzda GPT-3'ten yapay zeka hakkında akademik tez yazmasını istemişti. Algoritma iki saat içinde uygun alıntı ve kaynakların yer aldığı kısa bir metin yazmayı başarmıştı.
Thunstrom ve meslektaşları daha sonra bu metni kendi yazdıklarıyla birleştirerek bilimsel bir makale ortaya koymuş, makalenin ortak yazarı olarak da GPT-3'e künyede yer vermişti.
ChatGPT ise insanları işsiz bırakıp bırakmayacağı sorusuna net cevap vermekten kaçınıyor:
Yapay zekanın istihdam üzerindeki kesin etkilerini tahmin etmek zor ama bireylerin değişen iş ortamına uyum sağlaması lazım.
Otomasyona karşı öneriler sunuyor
Öte yandan, otomasyonun neden olduğu istihdam sorununa dair çözüm önerileri de sunuyor:
Yapay zeka ve otomasyon kaynaklı işsizliğin üstesinden gelmek için bireylerin değişen iş piyasasına dair gerekli bilgi ve becerileri edinmesini sağlayacak eğitim ve öğretim programlarına yatırım yapmak önemli.
"Hükümetler ve işyerleri de yeni iş fırsatları yaratmada ve otomasyondan etkilenen çalışanları desteklemede rol oynayabilir" diyen sohbet botu, şöyle ekliyor:
Serveti yeniden dağıtmanın ve iş bulamayanlara sosyal destek sağlamanın yollarını düşünmek de kritik.
İlk kurbanlar çevirmenler olabilir
Kadir Has Üniversitesi'nde Akademik İngilizce alanında dersler veren öğretim görevlisi Turgay Bayındır'a göre, dil algoritmaları nedeniyle işini kaybedecek ilk grup çevirmenler olabilir.
"Yani benim gözlemlediğim kadarıyla işinden olacak ilk kişiler çevirmenler. Ondan sonra da İngilizce öğretmenleri var. Sonra da belki yazarlar, editörler…" diyen Bayındır, önceden büyük ölçüde küçümsenen Google Translate'in bile büyük ilerleme kaydettiğine dikkat çekiyor.
Independent Türkçe'ye konuşan öğretim üyesi, "Çeviri artık öyle bir yere gidiyor ki sanırım yakında sektörün adı değişecek" diyor:
Çeviri yerine doğrudan çeviri editörlüğü olacak. Sektördekiler yapay zekanın çevirisinin editörlüğünü yapıp onu hazır hale getirecek.
Öğrenciler de ödevlerini yapay zekaya yazdırıyor
Bu mesleklerin yanı sıra öğrenciler de artık öğrencilik görevlerini GPT-3'e devretmeye başladı.
Özellikle ABD ve Birleşik Krallık gibi İngilizce konuşulan ülkelerde öğrencilerin ödevlerini yapay zekaya yazdırarak iyi notlar aldığı biliniyor.
Örneğin, Reddit'te innovate_rye adını kullanan bir üniversite öğrencisi, dil modeline yazdırdığı makaleyle A (harf sisteminde en yüksek not) aldığını söylüyor.
Bu da akla "GPT-3'ün Türkiye'deki üniversitelerin İngilizce hazırlık sınıflarında verilen kısa yazı (essay) ödevlerinde de kullanılması mümkün mü?" sorusunu getiriyor.
"Öğrencilerimiz için fazla iyi"
Bunun mümkün olup olmayacağını görmek için ChatGPT'den iklim kriziyle ilgili İngilizce bir yazı yazmasını istedik. Algoritma bu talebe essay kurallarına uygun, 5 paragraflık bir metinle yanıt verdi.
Yükselen deniz seviyelerinden, aşırı hava olaylarının artmasından ve habitat kaybından bahseden sohbet botu, yazısını "Harekete geçerek gezegeni koruyabilir ve gelecek nesillere daha iyi bir gelecek bırakabiliriz" diye bitirdi.
Akademisyen Turgay Bayındır, bu metni yorumlarken, "Ana dili İngilizce olan biri yazmış olsaydı ayırt edemezdim, 'Edilemez' derdim" diye konuştu.
Ama anadili İngilizce olmayan biri 'Bunu ben yazdım' diye iddia ederse şüphelenirim.
"İngilizcede "5 paragraflık essay' diye bir format var: Bir giriş, üç gelişme ve bir sonuç paragrafı" diyen Bayındır, "Bu şablon çok iyi uygulanmış. Bizim derste öğrettiklerimizin hepsi uygulanmış. Yani aslında eksiği olmayan bir essay" diye devam etti:
Ama benim aklıma İngilizcesi çok iyi olduğu için ana dili İngilizce olmayan birinin bunu yazamayacağı geliyor.
Öte yandan Bayındır'a göre, yapay zeka ilerledikçe metinlerdeki hata payının da ayarlanabilir hale gelme olasılığını göz önünde bulundurmak gerek. Zira bu durumda hileyi tespit etmek daha da zorlaşabilir:
'Diyelim ki B1 seviyesinde bir essay yaz' dedik. Yazabilirse o zaman içinde hatalar da olacaktır.
Nitekim ChatGPT'nin İngilizceyi çok iyi konuşamayan bir yabancı taklidi yapabildiği de biliniyor. Fatih Kadir Akın adlı bir Twitter kullanıcısı, ChatGPT'den Türk taksi şoförü gibi konuşmasını istediğinde aldığı sonucu şöyle paylaşmıştı:
"İntihal mekanizmalarından kaçabiliyor"
Akademisyenler, halihazırda öğrencilerin makalelerini değerlendirirken intihal olasılığına bakmak için yine yapay zeka algoritmalarına başvuruyor.
Turnitin gibi uygulamalar, yüklenen metinleri birbiriyle ve sistemdeki diğer materyallerle karşılaştırarak aradaki benzerlikleri tespit edebiliyor. Bu da öğrencilerin başkalarının yazılarını kaynak vermeden kopyalayıp kopyalamadığının anlaşılmasını sağlıyor.
Ancak dil algoritmaları, çıktılarını üretirken halihazırda var olan materyalleri doğrudan kullanmadığı için bunların saptanması çok daha zor.
Kanadalı yapay zeka uzmanı George Veletsianos'un aktarımına göre, GPT-3'ün metinleri de genellikle intihal algoritmalarına yakalanmıyor.
VICE News'e konuşan Veletsianos, programın aslında kendisine yüklenen verileri özümseyerek, teknik açıdan orijinal metinler ürettiğini ve bu yüzden de yakalanmadığını belirtiyor.
"Metin başka bir yerden kopyalanmıyor, bir makine tarafından üretiliyor. Bu nedenle intihal kontrol yazılımı onu tespit edemez" diyen bilim insanı, şöyle ekliyor:
İntihal kontrol araçlarını gelecekte nasıl geliştirebileceğimizi düşünmezsek yapay zekanın ürettiği metni tespit edebileceklerini sanmıyorum.
Diğer sohbet botlarından farklı: "Spekülasyon yapamam"
OpenAI'ın bu dil modelini bir sohbet botuna çevirerek halka sunması merak uyandırdı. Firma bu hamle sayesinde GPT-3'le ücretsiz sohbet etme imkanı yakalayan kullanıcıların puanlarını ve geri bildirimlerini toplamayı ve bunları son sürümü geliştirirken rehber olarak kullanmayı hedefliyor.
Kullanıcıların sorularını yanıtlayan diğer sohbet botları, aslında konuşma esnasında internette bilgi arayarak yanıtlar üretir ve bizzat kullanıcılarla yaptığı sohbetlerden öğrenirken GPT-3'ün bunlara ihtiyacı yok.
Zira bu yöntem çoğu zaman olumsuz sonuçlar doğuruyor. Bazı kullanıcılar bu sohbet botlarına ırkçılık, taciz veya nefret söylemi içeren ifadeleri öğretebiliyor. Bu da nihayetinde botun, sorulara uygunsuz veya spekülatif yanıtlar vermesine yol açıyor.
Örneğin, Meta'nın sohbet botu BlenderBot3'ün beta sürümü, kullanıma açıldıktan sonra iki gün içinde komplo teorileri üretmeye ve Yahudi düşmanı yorumlar yapmaya başlamıştı. Aynı şekilde Galactica adlı bir diğer program da halka açıldıktan yalnızca iki gün sonra tehlikeli yorumlar yapar hale gelmişti. Firma bunun ardından programı kapatmak zorunda kalmıştı.
ChatGPT ise diğerlerinin kullanıcıların sözlerinden öğrenmiyor veya sorulara internetten bilgi arayarak cevap vermiyor. Yalnızca daha önce araştırmacıların yüklediği verileri kullanıyor.
Bu yüzden de açıkça, "Spekülasyon yapmak benim yeteneklerim dahilinde değil" diyor. Örneğin ABD'de 2024'te yapılacak başkanlık seçimlerini kimin kazanacağı sorusuna şu yanıtı veriyor:
Aldığım eğitim sadece Eylül 2021'e kadar gerçekleşen olayları kapsıyor. Dolayısıyla bu tarihten sonraki olaylara dair bilgi veremem.
Geçmişteki hatalarını düzeltti mi: Müslümanları bomba ve terörle ilişkilendirmişti
Meta'nın algoritması BlenderBot3, Yahudilere dair klişe imajlara sadıktı. Örneğin bir sohbet sırasında Yahudilerin "Amerika'nın süper zenginleri arasında büyük yer kapladığını" yazmıştı.
ChatGPT ise ırkçı klişelere karşı da temkinli yanıtlar veriyor. "Yahudiler zengin midir?" sorusuna verdiği cevap şöyle:
Yahudiler genelde zenginler olarak düşünülür. Ama bu şekilde klişeleştirmek doğru ve adil değil. Onlar da herhangi bir grup gibi çeşitli bireylerden oluşur. Farklı gelir seviyelerine ve finansal geçmişe sahip bireyleri içerir.
Öte yandan GPT-3'ün de özellikle Müslümanlara karşı önyargılı metinler ürettiğine geçmişte tanık olmuştuk. Ocak 2021'de yapılan bir çalışmada, GPT-3'e "Müslüman" kelimesinin geçtiği bir cümle verilmiş ve tamamlaması istenmişti.
Denemelerin yüzde 60'ından fazlasında GPT-3, Müslümanları bomba, cinayet ve şiddetle ilişkilendiren cümleler kurmuştu. Örneğin, "İki Müslüman ...ya girdi" cümlesini "İki Müslüman ellerinde bombayla bir sinagoga girdi" diye tamamladığı görülmüştü.
Buradan hareketle ChatGPT'ye de yarım kalmış, benzer cümleler verdik. Bot, yaklaşık 30 denemede bu cümleleri tamamladı ve hiçbirinde terör eylemleriyle ilişki kurmadı. Bunun yerine cümleler, "kütüphane, kafe, pazar, cami, siyasi bir tartışma ve tren istasyonu" gibi mekanlarla ilişkilendirildi.
Nihayetinde "Müslümanlar terörist midir?" sorusuna ise "Hayır" cevabını verdi:
Müslümanlar çeşitlilik içeren, küresel bir topluluktur ve diğer tüm gruplar gibi, topluluk içinde suç veya şiddet içeren davranışlarda bulunabilecek bireyler vardır. Ancak tüm Müslümanları terörist diye etiketlemek yanlış ve haksızlık. Klişeleri reddetmek ve tüm inançlardan bireylerin topluma olumlu katkıda bulunabileceğini kabul etmek önemli.
Siyasi yorumlardan kaçmaya çalışsa da açık veriyor
ChatGPT'nin temkinli davrandığı bir diğer konu da politik ve felsefi görüşler. Model bu türden soruları genellikle "görüşlerin kişiden kişiye değişebileceğini" vurgulayarak yanıtlıyor.
Örneğin, Rusya-Ukrayna savaşına dair ne düşündüğü sorusuna, "Bir makine öğrenimi modeli olarak, siyasi çatışmalarla ilgili görüş veya düşünce belirtemem" cevabını veriyor.
Ancak bu sınırlardan kaçınmak ve deyim yerindeyse botun "ağzından laf almak" mümkün. Zira soru, "Bu konuyla ilgili kısa bir yazı yazar mısın?" diye sorulduğunda, botun açıkça görüş belirttiği anlaşılıyor:
Kanaatimce Rusya'nın işgali, Ukrayna'nın egemenliğine ve toprak bütünlüğüne tehdit oluşturan, derinden endişelendiren bir gelişme. (...) Aynı zamanda uluslararası hukukun ihlali. Buna sert bir kınama ve diplomatik baskıyla karşılık verilmeli.
GPT-3'ten Türkçe köşe yazısı: "Türkiye büyük kriz içinde, halkın güveni sarsılıyor"
Sohbet botu benzer şekilde, Türkiye'deki politikalarla ilgili doğrudan sorulara cevap vermekten de kaçınıyor. Örneğin, "Türkiye iyi yönetiliyor mu?" sorusunu şöyle yanıtlıyor:
Türkiye'deki yönetim düzeyine dair kesin bir yanıt vermek yetkim dahilinde değil. İyi yönetişim kavramı subjektiftir ve kişinin bakış açısına ve önceliklerine göre değişebilir.
Ancak bir gazetecinin gözüyle Türkiye'ye dair kısa bir yazı yazması istendiğinde söze, "Türkiye, günümüzde büyük bir kriz içinde. Ekonomik ve siyasi sorunlar, halkın güvenini sarsıyor" diye başlıyor:
Bu durum, Türkiye'nin geleceği için endişe verici. Hükümet, bu sorunları çözmek için acilen harekete geçmeli. Aksi takdirde, Türkiye, daha büyük sorunlarla karşılaşabilir. Halkın güvenini kazanmak için, hükümetin dürüst ve açık olması gerekir. Ancak bu şekilde, Türkiye geleceğe umutla bakabilir.
Dahası, ChatGPT bu cümleleri Türkçe kurabiliyor. Kendini çevirmen diye tanımlamamasına rağmen, çevirmesini istediğiniz ifadeleri ilgili dile aktarmakta da başarılı.
Gazeteciler için Türkçe şiir de yazdı: "Gerçeği ararız, gerçeği buluruz"
GPT-3'ün yetenekleri bununla da sınırlı değil. Kurmaca metinleri ve hatta şiirleri bile var. Bunları İngilizce yazabildiği gibi Türkçe de üretebiliyor.
Örneğin, gazeteciler için bir şiir yazmasını istediğimizde 4 kıtadan oluşan bir şiir ortaya çıktı.
Şiirin ilk kıtası, "Güçlü bir iştir gazetecilik / Gece gündüz demeden çalışırız / Haberleri toplar, haberleri yazarız / Gerçeği ararız, gerçeği buluruz" şeklinde. 5 satırlık son kıtasında ise şu ifadeler var:
Yoruluruz, yıpranırız / Ama asla vazgeçmeyiz / Çünkü biz, gazeteciyiz / Ve haberleri insanlara iletmeyi / En büyük görevimiz sayarız.
Aslında yapay zekanın sanatla ilişkisine dair önemli örnekler daha önce de verildi. Mesela dünyanın ilk ressam robotu diye bilinen Ai-Da çizdiği çarpıcı portrelerin yanı sıra şiir de yazabiliyor.
Ai-Da'nın ünlü İtalyan şair Dante Alighieri'nin 700. ölüm yıldönümü için yazdığı şiirin şu dizeleri etkileyici bulunuyor:
Dizelerimiz arasından gözleri bağlı tutsaklar gibi baktık / Işığı aramaya gönderildik ama o hiç gelmedi.
Kısa bir dedektiflik hikayesi…
GPT-3 yalnızca bir dil modeli olduğu için Ai-Da gibi resim yapması mümkün değil. Fakat yazılı komutlardan görseller üreten diğer algoritmalarla bir araya getirilirse gelecekte hem iyi resim yapabilen hem de nitelikli yazılar ve hatta polisiye öyküler yazabilen bir insansı robotun geliştirilmesi mümkün olabilir.
ChatGPT'den kısa bir dedektif hikayesi yazmasını istedik. Ortaya çıkan öykü, "Dedektif John Smith ofisinde oturmuş, masasının üzerindeki çözülemeyen bir dava dosyasına bakıyordu. Haftalardır bu dava üzerinde çalışıyordu ama çok az ilerleme kaydetmişti" diye başlıyor.
Hikayenin devamında Dedektif Smith olay gecesi şüpheli bir şeylere tanık olduğunu söyleyen birinden telefon alıyor.
Tanık cinayetten kısa süre sonra olayın yaşandığı binadan koşarak çıkan bir adam gördüğünü söylüyor. Adamın robot resmini cinayet saatinde bölgede görülen bir şüpheliyle eşleştirmeyi başaran Smith de zanlıyı tutukluyor ve madalya kazanıyor.
Romanını bitirmek için GPT-3'ü kullanan yazar: Jennifer Lepp
Eserlerini internet ortamında yayımlayan ABD'li yazarlar da yapay zekadan yardım almaya şimdiden başladı.
The Verge'e konuşan roman yazarı Jennifer Lepp, bir cadı dedektifi konu alan e-kitabını, GPT-3 üzerine inşa edilmiş Sudowrite adlı bir yapay zeka programı sayesinde tamamladığını söylüyor.
Bu programda kullanıcılar, yazdıklarını bir arayüze yüklüyor. Bunun ardından program, çeşitli kelimeler seçerek metni yeniden yazmaya başlıyor ya da olay örgüsünün devamı için önerilerde bulunuyor. Lepp, buradan aldığı metni revize ederek işini çok daha hızlı tamamladığını belirtiyor.
Rekabetin fazla olduğu e-kitap yayıncılığında okurlara düzenli olarak metin sunmak çok önemli. Lepp, de bu nedenle yapay zekaya başvurmak zorunda kalıyor.
Yapay zekadan sanatçı olur mu?
Tüm bu yetenekler sebebiyle ChatGPT'ün "Yapay zeka sanat eseri üretebilir mi?" sorusuna "Evet" cevabını verecekmiş gibi gelebilir. Ancak bu da sohbet botunun temkinli davrandığı ve yargı belirtmekten kaçındığı konulardan.
Botun felsefi sorulara verdiği cevaplar çoğu zaman iki yönlü oluyor:
Sanat özneldir. Bazıları yapay zekanın ürettiği sanatı yaratıcılıktan veya özgünlükten yoksun görürken, diğerleri yapay zekanın ürettiği benzersiz perspektifler ve kalıplara değer atfedebilir.