Kullanıcılarla sohbet etmek ve soruları yanıtlamak için yapay zekayı kullanan sohbet botları arasında Google Bard ve ChatGPT bulunuyor. Özellikle ChatGPT'nin kullanımı giderek yaygınlaşıyor. ChatGPT'ye ödev yaptıran bile oluyor. Bard ise yeni yetenekler kazanarak yoluna devam ediyor. Ancak sohbet botlarının kullanımı ve gizliliği konusunda son dönemde yoğun bir tartışma var. Şimdi ise bu konuyla ilgili yeni bir gelişme yaşandı.
Reuters'ın 4 kaynağa dayandırdığı haberine göre, Google'ın çatı şirketi Alphabet, çalışanlarını sohbet robotlarının kullanımı konusunda uyardı; üstelik buna şirketin kendi sohbet botu Bard da dahil.
Söz konusu kişiler, çalışanlara gizli materyalleri yapay zeka sohbet botlarına girmemelerinin tavsiye edildiğini söyledi. Bunun nedeni ise iddialara bakılırsa sızıntı riski.
Habere göre, şirket de bunu doğrulayarak uzun süredir devam eden bilgi koruma politikasını gerekçe gösterdi.
Bazı kişiler, Alphabet'in mühendislerini sohbet botlarının üretebileceği bilgisayar kodlarını doğrudan kullanmaktan kaçınmaları konusunda uyardığını da öne sürdü.
Habere göre, yorum istendiğinde şirket, Bard'ın istenmeyen kod önerilerinde bulunabileceğini, ancak yine de programcılara yardımcı olduğunu söyledi. Google ayrıca teknolojisinin sınırlamaları konusunda şeffaf olmayı amaçladığını belirtti.
Öte yandan Samsung, Amazon ve Deutsche Bank'ın da bulunduğu, dünya çapında sayısı giderek artan işletmenin yapay zeka sohbet robotları konusunda güvenlik önlemleri aldığı söylenirken, Apple'ın da bu konuda birtakım önlemler aldığı iddia edildi.