Vice'ın haberine göre; Singapur Ulusal Üniversitesi ve Hong Kong Çin Üniversitesi'nden araştırmacılar Jiaxin Qing, Zijiao Chen ve Juan Helen Zhou, beyin okumalarından video üreten MinD-Video adlı bir model oluşturmak için fMRI verilerini ve metinden görüntüye yapay zeka modeli Stable Diffusion'ı kullandılar.
Çalışmayla ilgili web sitesinde, deneklere gösterilen videolar ile beyin aktivitelerine dayalı olarak yapay zeka tarafından üretilen videolar arasında bir paralellik olduğu, iki video arasındaki farkların çok az olduğu ve çoğunlukla benzer konular ve renk paletleri içerdikleri belirtildi.
Araştırmacılar tarafından yayınlanan videolarda, bir tarladaki atların orijinal videosu ve ardından atların daha canlı renklere sahip bir versiyonunun yeniden oluşturulmuş bir videosu gösteriliyor.
Bir başka videoda ise bir araba ormanlık bir alanda ilerliyor. Bu videonun yeniden oluşturulan videosunda ise virajlı bir yolda ilerleyen bir kişinin birinci şahıs bakış açısı gösteriliyor.
Araştırmacılar, yeniden yapılandırılan videoların hareketler ve sahne dinamikleri açısından "yüksek kaliteli" olduğunu tespit etti.
Ayrıca araştırmacılar, videoların yüzde 85'lik bir doğruluğa sahip olduğunu öne sürdü.
Daha önce Osaka Üniversitesi'ndeki araştırmacılar, fMRI verilerini ve Stable Diffusion'u da kullanan bir teknikle beyin aktivitesinden yüksek çözünürlüklü görüntülerin yeniden oluşturulabileceğini keşfetmişlerdi.
(Görsel kaynağı: Mind-Video)