Yeni Günaydın
Geri

'Deepfake' Talebinde Artış!

Bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor.
'Deepfake' Talebinde Artış!
Haberler / Teknolojik
11 Eylül 2023 Pazartesi 01:00
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

Kaspersky uzmanlarına göre, bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor.

Şirketten yapılan açıklamaya göre, Kaspersky'nin Kazakistan'da bu yıl 8.'sini düzenlediği Siber Güvenlik Hafta Sonu-META 2023'te uzman isimler, Orta Doğu, Türkiye ve Afrika (META) bölgesi ile dünya çapında dijital tehdit ortamındaki gelişmeleri paylaştı.

Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor. Deepfake oluşturma veya satın alma fiyatları, projenin karmaşıklığına ve nihai ürünün kalitesine bağlı olarak değişebiliyor.

Kaspersky uzmanlarının tahminlerine göre, bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor.

Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebiliyor.

Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluşturmak için deepfake örnekleri tercih edebiliyor. Örneğin, bir üst yöneticinin (CEO) banka havalesi talep ettiği veya bir ödemeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanılabiliyor.

Sahte videolar, kişilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluşturmak için de tercih edilebiliyor. Siber suçlular ayrıca, yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake'lerden faydalanabiliyor. Bu kişiler, örneğin, bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabiliyor.

Deepfake teknolojisi, meşru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama aşamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak, böylece hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.

‘Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğinde’

Açıklamada görüşlerine yer verilen Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, deepfake'lerin giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanıldığını belirterek, şunları kaydetti:

"Örneğin, bir İngiliz enerji firmasının CEO'su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake'i ile 243 bin dolar dolandırıldı. Neticede fonlar, dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu başka bir transfer talebinde bulununca ortaya çıktı. O zamana kadar zaten transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE'de rapor edildi ve burada da ses deepfake'i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake'lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan başka birinin kimliğine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir."

Verilen bilgiyegöre, darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor.

Araştırmacılar, darknet'i izleyerek deepfake'lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içeriyor.

Deepfake ile ilgili tehditlerden korunmak için öneriler

Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları öneriyor:

"Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın.
Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın. Kurumsal 'insan güvenlik duvarınızı' güçlendirin.
Çalışanların deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını sağlayın. Çalışanlara bir deepfake'i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları yapın.

Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan önemli bir etken olmaya devam ediyor. 'Güven ama doğrula' gibi iyi protokollere sahip olun. Sesli mesaj ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.

Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır."

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNDEM EKONOMİ POLİTİKA DÜNYA MEDYA SPOR YAZARLAR FOTO GALERİ VİDEO GALERİ SAĞLIK MAGAZİN KÜLTÜR-SANAT TEKNOLOJİK YAŞAM BUGÜN NEYE ZAM GELDİ DİKKAT! İLGİNÇ HABERLER
Masaüstü Görünümü
İletişim
Künye
Copyright © 2024 Yeni Günaydın