Yeni Günaydın
Geri

Yapay Zeka İle Çocuk Kaçırma Dolandırıcılığı!

Annesi, "O olduğundan bir an bile şüphe etmedim" diyor
Yapay Zeka İle Çocuk Kaçırma Dolandırıcılığı!
Haberler / Yaşam
16 Nisan 2023 Pazar 06:00
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

Bir anne, dolandırıcıların sahte bir kaçırma girişiminde kullandıkları, kızının sesinin yapay zeka tarafından oluşturulan kopyasına "yüzde 100" inandığını söyledi.

Arizonalı Jennifer DeStefano, bilinmeyen bir numaradan gelen telefonu açtı ve 15 yaşındaki kızı Brie olduğuna inandığı kişinin "hıçkıra hıçkıra ağladığını" duydu.

Hattın diğer ucundaki ses "Anne, her şeyi berbat ettim" dedikten sonra bir erkek sesi devreye girerek tehditkar taleplerde bulundu.

Yerel haber kanalı WKYT'ye konuşan DeStefano, "Bu adam telefona çıktı ve 'Dinle beni, kızın elimde' gibi şeyler söyledi" diye belirtti.

Çocuğu kaçırmış gibi yapan kişi anneye, "Polisi ararsan, herhangi birini ararsan, onu uyuşturucuya boğacağım, onunla işimi göreceğim ve onu Meksika'ya bırakacağım" dedi.

DeStefano, arkadan kızının "Yardım et anne, lütfen yardım et" dediğini ve ağladığını duyabildiğini söyledi.

DeStefano, "Yüzde 100 onun sesiydi" dedi.

Hiç bu kim diye düşünmedim. Tamamen onun sesiydi, onun tonlamasıydı, onun ağlama şekliydi; o olduğundan bir an bile şüphe etmedim. Beni gerçekten derinden etkileyen tuhaf kısım buydu.

Çocuğu kaçırmış gibi yapan kişi, kızı serbest bırakmak için önce 1 milyon dolar talep etti, daha sonra bu rakamı 50 bin dolara indirdi. DeStefano, kızının kaçırılmadığını ancak bir arkadaşı eşini arayıp güvende olduğunu teyit edince anladı.

Polisin halen soruşturduğu dolandırıcı, yapay zeka ses kopyalama teknolojisini kullanıyor gibi görünüyor. Bu teknoloji son yıllarda insanların seslerini taklit etmekte giderek daha başarılı hale geliyor.

Ayrıca internette ücretsiz olarak bulunan yapay zeka araçlarına erişmek ve kullanmak da nispeten kolay.

Yapay zeka tarafından üretilen sesler, Star Wars serisinde orijinal Darth Vader karakterini seslendiren James Earl Jones gibi oyuncuları taklit etmek için filmlerde halihazırda kullanılıyor.

Ayrıca, yazarların stüdyoda saatlerini harcayıp eserlerini okumadan sesli kitap üretmelerinin bir yolu olarak da tanıtılıyor.

Bu teknoloji aynı zamanda dolandırıcılar ya da deepfake videolar yaratmaya çalışan kişiler tarafından kötüye kullanılabileceği korkusunu da beraberinde getirdi ve bir ses klonlama girişimi, bu teknolojinin "yanlış ellerde zararlı olabileceği" uyarısında bulundu.

Respeecher firması, geçen yıl yaptığı bir basın açıklamasında "Deepfake teknolojilerinin yaygın şekilde ilgi görmesi ve benimsenmesi, bu teknolojinin kullanımının düzenlenmesi ihtiyacını hızlandıracak" ifadelerini kullandı.
 

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNDEM EKONOMİ POLİTİKA DÜNYA MEDYA SPOR YAZARLAR FOTO GALERİ VİDEO GALERİ SAĞLIK MAGAZİN KÜLTÜR-SANAT TEKNOLOJİK YAŞAM BUGÜN NEYE ZAM GELDİ DİKKAT! İLGİNÇ HABERLER
Masaüstü Görünümü
İletişim
Künye
Copyright © 2024 Yeni Günaydın