1. HABERLER

  2. BİLİM-TEKNOLOJİ

  3. Google 'Terminatör'le böyle mücadele edecek

Google 'Terminatör'le böyle mücadele edecek

Teknoloji devi Google, yeni yapay zeka eğitimiyle robot ayaklanmasını önlemeyi umuyor.

A+A-

Yapay zekaya sahip robotların kötü niyetli bir hal alması çok sayıda bilimkurgu filminde ele alınan bir konu. Bu senaryo Google'ın da radarında. 

Google, yapay zekanın kötü niyetli hale gelmesini ve insanlarla çatışmasını önlemek için tasarlanmış yeni bir sistem geliştiriyor. 

Google şu anda makineleri belirli bir şekilde çalışmaya teşvik ederek konunun üstesinden gelmeyi umuyor. 

Google’ın DeepMind bölümü, Elon Musk'un finanse ettiği bir araştırma grubu olan Open AI ile bir araya geldi. 

Deepmind ve Open Al, makine-öğrenme sistemlerinin eğitimcilerinin istediği şekilde çalışmasını sağlamak için insan geribildirimini nasıl kullanılabileceğini açıklayan bir araştırma yayımladılar. 

Takviyeli öğrenme adlı ve yapay zeka araştırmasında da popüler olan teknik, yazılımları görevlerini tamamlamaları için zorluyor ve daha sonra ödüllendiriyor. 

Ancak, yazılımların aldıkları ödülü artırmak için kısa yolları bulduğu ve sistemdeki açıklardan faydalanarak dolandırıcılık yaptığı biliniyor. 

Örneğin Wired’ın sunduğu bir örneğe göre yazılım CoastRunners adlı yarış oyununda, sahayı tamamlamak yerine bir tekneyi daireler çizerek sürdü, çünkü bu şekilde ödül kazanacağını biliyordu. 

Yapay zekayı ödüllendirmeden önce, görevlerini "doğru" şekilde tamamladığını teyit ederek DeepMind ve Open AI, bu sorunu insani girdileri kullanarak çözmeyi umuyor. 

Wired raporuna göre, ‘Uzun vadede, insan tercihlerinden öğrenmenin programlı bir ödül sinyalinden öğrenmekle aynı kolaylıkta olmasını umuyoruz. 

Böylece güçlü takviyeli öğrenme sistemlerini karmaşık insan değerlerine hizmet edecek şekilde kullanabiliriz. 

Ne yazık ki geliştirilmiş takviyeli öğrenme sistemleri şu anda pratik olamayacak kadar çok zaman gerektirmekte. 

Yine de bu sistemler, ileride daha gelişmiş makinelerin ve robotların gelişiminin nasıl kontrol edilebileceği konusunda bir fikir sahibi olmamızı sağlıyor. 

Önceki ve Sonraki Haberler

HABERE YORUM KAT

UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.