DHA DIŞ - Robotlar görerek ve dokunarak hissetmeyi öğrendi

Massachusetts Teknoloji Enstitüsü’nün (MIT) Bilgisayar Bilimleri ve Yapay Zekâ Laboratuvarı’nda (CSAIL) çalışan araştırmacılar, görerek ve dokunarak objeleri hissedebilen yeni bir yapay zekâ geliştirdiğini açıkladı.

Erkan Öz, (DHA) - Massachusetts Teknoloji Enstitüsü’nün (MIT) Bilgisayar Bilimleri ve Yapay Zekâ Laboratuvarı’nda (CSAIL) çalışan araştırmacılar, görerek ve dokunarak objeleri hissedebilen yeni bir yapay zekâ geliştirdiğini açıkladı.

Thenextweb.com’un haberine göre üretilen yapay zekâ yalnızca bakarak bir objeye dokunmanın nasıl hissettirebileceğini tahmin edebiliyor. Yeni yazılım yine sadece dokunarak bir objeden elde ettiği verilerle söz konusu objenin temsili bir görsel imajını da oluşturabiliyor.

Reklam
Reklam

CSAIL’de doktora çalışmasını yürüten ve yeni sistem hakkında kaleme alınan makalenin başyazarı Yunzhu Li, ürettikleri modelin robotlara gerçek dünyadaki objeleri daha iyi anlamaları ve yönetmeleri açısından yardımcı olabileceğini belirtti.

“ÖNÜNDEKİ GÖRÜNTÜYE BAKARAK DUYGULARI TAHMİN EDEBİLİYOR”

Li, “Modelimiz, önündeki görüntüye bakarak düz bir yüzeye veya keskin bir köşeye dokunmanın nasıl duygular uyandırabileceğini hayal edebiliyor. Yine görmeden sadece etrafa dokunarak çevre ile etkileşimde neler yaşayabileceğini tahmin edebiliyor. Bu iki duyu yeteneğini bir araya getirerek, robotları daha kuvvetli hale getirebilir ve onların objeleri kavramak ve yönlendirmek için ihtiyaç duyacakları veri miktarını azaltabiliriz” dedi.

Araştırmacılar modeli eğitmek için bir KUKA robot-kol ve GelSight isimli özel dokunmatik bir sensör kullandı. Robot kolun evlerde kullanılan 200 objeye 12 bin defa dokunması sağlandı. Bu esnada elde edilen görsel ve dokunmatik veriler kaydedildi. Model bu deneyimlere dayanarak 3 milyon görsel ve dokunsal imaja dayalı bir veri seti oluşturdu.

Reklam
Reklam

Berkeley’de bulunan Kaliforniya Üniversitesi’nden araştırmacı Andrew Owens ise yeni yapay zekânın çok zor bir görevi başarıyla gerçekleştirdiğini vurguladı.

Owens şöyle konuştu: “Bu görsel ve dokunsal sinyalleri birbirleri arasında ikna edici bir biçimde çevirebilen ilk yöntem. Bu tip modeller robotlar için çok faydalı olma potansiyeli taşıyor. Özellikle şu tip sorular karşısında: Bu obje sert mi yoksa yumuşak mı? Bu kupayı bu kolla kaldırırsam, kavrayışım ne kadar iyi olabilir? vb. Sinyaller çok değişik olduğu için bunlar çok zorlayıcı problemler. Fakat bu model büyük bir başarı gösterdi.”

Araştırmacıların makalelerini Amerikan Bilgisayar ile Görme ve Model Tanıma Konferansı’na sunmaları bekleniyor.