Polis memurları, 2003’te Rotterdam metro istasyonunun otoparkında vurularak öldürülen 13 yaşındaki Sedar Soares'in taklit edildiği bir deepfake videosu hazırladı.
Deepfake, bir fotoğraf ya da videodaki görüntünün yapay zeka ve derin öğrenme (bilgisayarları eğitmek için kullanılan algoritmik öğrenme metodu) kullanılarak değiştirildiği teknoloji anlamına geliyor.
Rotterdam yetkilileri, Soares'in taklit edildiği görüntülerin kullanıldığı soruşturmayı "dünyada ilk" diye niteledi.
Yayımlanan videoda Soares akrabaları, arkadaşları ve eski öğretmenlerinin de yer aldığı bir futbol sahasında yürürken görülüyor ve halkı faili meçhul cinayete dair bildiklerini polise anlatmaya çağırıyor.
Video, Sedar'ın kameraya seslenerek, "Daha fazlasını biliyor musun? O zaman şimdi konuş" demesiyle sona eriyor.
Yetkililer organize bir suç çetesinin metro istasyonunun yakınında çatışmaya girdiğine ve Sedar'ın yanlış zamanda yanlış yerde olduğu için "yeraltı dünyasının kurbanı" olduğuna inanıyor.
Hollanda polisi bu videoyu aslında suç çetesine dair yeni bilgiler toplamak için hazırladı. Görüntülerin geçen hafta ilk kez yayınlanmasının ardından birçok ihbar geldiği ve bir dizi yeni ipucu toplandığı bildirildi.
Ancak bu ipuçlarının doğru olup olmadığı henüz netleşmedi.
Ulusal Suç Soruşturma Ekibi’nden Daan Annegarn, "Yaklaşık 20 yıl sonra yeni tanıklara veya cinayetin faillerine nasıl ulaşıyorsunuz? Kalplere dokunarak" dedi: Deepfake kullanımının suç ortamında kalplere dokunabileceğine inanıyoruz.
ETİK SORUNLARI BERABERİNDE GETİRİYOR
Deepfake teknolojisi, Hollanda polisinin hazırladığı video gibi iyi amaçlar doğrultusunda kullanılabiliyor.
Ancak aynı teknolojinin sahtecilik, dolandırıcılık ve şantaj amaçlı da kullanılabilmesi etik sorunları beraberinde getiriyor.
Seattle Üniversitesi araştırmacıları 2020’de yayımladıkları bir makalede, "Deepfake’in potansiyel faydaları, potansiyel zararları karşısında gölgede kalıyor" diye yazmıştı:
Sonuçta, bunlar aldatmayla ilgili. Bu çabanın amacı, gerçeklikten ayırt edilemeyen fanteziler yaratmak.