Deepfake teknolojisi: İsrail merkezli soyağacı sitesi, ölmüş kişilerin sahte videolarını üretiyor

İsrail merkezli soyağacı sitesi MyHeritage, kullanıcıların ölmüş yakınlarını deepfake teknolojisiyle "canlandıran" bir uygulama geliştirdi. Deepfake teknolojisi, yapay zeka yardımıyla yüz fotoğraflarından yüksek gerçekliğe sahip sahte videolar üretilmesine olanak sağlıyor.

İsrail merkezli soyağacı sitesi MyHeritage, kullanıcıların ölmüş yakınlarını deepfake teknolojisiyle "canlandıran" bir uygulama geliştirdi.

Deepfake teknolojisi, yapay zeka yardımıyla yüz fotoğraflarından yüksek gerçekliğe sahip sahte videolar üretilmesine olanak sağlıyor.

MyHeritage, DeepNostalgia (Derin Nostalji) adlı uygulamada "yaşayan kişilerin sahte videolarının yaratılması gibi amaç dışı kullanımları önlemek" için videolara ses konulmadığını açıkladı.

'Bu teknolojiye kayıtsız kalamazdık'

MyHeritage'ın sitesinin sıkça sorulan sorular bölümünde, yeni uygulamanın "nostalji" amaçlı olduğu belirtilerek şöyle deniliyor:

Reklam
Reklam

"Sevdiklerimizi hayata döndüren bu özellik bazı kişiler tarafından 'sihirli' bazı kişiler tarafından da 'ürkütücü' bulunabilir. Sonuçlar tartışmalı olabilir ama bu teknolojiye kayıtsız kalmak zor."

Deep Nostalgia teknolojisi, İsrail şirketi D-ID tarafından geliştirildi. Yapay zekanın kullanıldığı bu teknolojinin canlı kişilerin yüz ve vücut hareketlerini temel alıyor.

Sitede Kraliçe Victoria ve Florence Nightingale gibi tarihi figürlerin "canlandırılmış" videoları bulunuyor.

Şirket bu ayın başında doğum yıldönümünde YouTube'da 16. ABD Başkanı Abraham Lincoln'ün videosunu yayımlamıştı.

1865'te bir suikast sonucu hayatını kaybeden Lincoln bu videoda "konuşuyor".

Tartışma yaratan bu videonun ardından bazı kullanıcılar Twitter'da kaybettikleri yakınlarının videolarını yayımlamaya başlamışlardı.

'Kraliçe'den sahte Noel mesajı'

İngiltere'de Channel 4 Televizyonu, deepfake teknolojisinin yalan haber yaymak için kullanılması tehlikesine dikkat çekmek için bu yöntemle hazırlanmış sahte bir Kraliçe videosu hazırlamıştı.

Reklam
Reklam

Videoda Kraliçe halka alternatif bir "Noel mesajı" vermişti.

İngiltere hükümeti, deepfake teknolojisiyle ilgili bir mevzuat hazırlığı içinde.

Parlamento Komisyonu, deepfake teknolojisiyle videoları yapılan kişilerin rızasının alınması şartının getirilmesini istiyor.