DeepMind neden yeni AI sohbet robotunu dağıtmıyor – ve sorumlu AI için ne anlama geliyor?


Transform 2022’ye katılamadınız mı? İsteğe bağlı kitaplığımızdaki tüm zirve oturumlarına şimdi göz atın! Buraya bak.


DeepMind’ın yeni AI sohbet robotu Sparrow, önemli bir adım olarak selamlanmak eğitim için insan araştırma katılımcılarının girdilerine dayalı pekiştirmeli öğrenme uygulaması sayesinde daha güvenli, daha az önyargılı makine öğrenimi sistemleri oluşturmaya yöneliktir.

Google’ın ana şirketi Alphabet’in İngilizlere ait yan kuruluşu, Sparrow’un “faydalı olan ve güvenli olmayan ve uygunsuz yanıt riskini azaltan bir diyalog aracısı” olduğunu söylüyor. Aracı, “bir kullanıcıyla konuşmak, soruları yanıtlamak ve yanıtlarını bildirmek için kanıt aramak yararlı olduğunda Google’ı kullanarak internette arama yapmak” için tasarlanmıştır.

Ancak DeepMind’de güvenlik araştırmacısı ve baş yazarı Geoffrey Irving, DeepMind’in Sparrow’u araştırmaya dayalı, kullanılmaya hazır olmayan bir kavram kanıtı modeli olarak gördüğünü söyledi. kağıt Sparrow’u tanıtıyor.

Irving, “Sistemi konuşlandırmadık çünkü diğer türlerde çok fazla önyargı ve kusur olduğunu düşünüyoruz” dedi. “Bence soru şu, insanlarla iletişim kurmak gibi iletişim avantajlarını dezavantajlara karşı nasıl tartıyorsunuz? İnsanlarla konuşmanın güvenlik gereksinimlerine inanma eğilimindeyim… Bence uzun vadede bunun için bir araç.”

Etkinlik

MetaBeat 2022

MetaBeat, 4 Ekim’de San Francisco, CA’da metaverse teknolojisinin tüm endüstrilerin iletişim kurma ve iş yapma şeklini nasıl değiştireceği konusunda rehberlik sağlamak için düşünce liderlerini bir araya getirecek.

Buradan Kaydolun

Irving ayrıca, Sparrow’u kullanan kurumsal uygulamalar için olası yolu henüz tartmayacağını da kaydetti – sonuçta en çok Google Asistan veya Alexa gibi genel dijital asistanlar için mi yoksa belirli dikey uygulamalar için mi faydalı olacak.

Oraya yakın değiliz, dedi.

DeepMind diyalog zorluklarını ele alıyor

Irving, herhangi bir konuşma yapay zekasının temel zorluklarından birinin diyalog etrafında olduğunu, çünkü dikkate alınması gereken çok fazla bağlam olduğunu söyledi.

“DeepMind’inki gibi bir sistem AlfaKatlama açık bir bilimsel görevin içine yerleştirilmiştir, bu nedenle katlanmış proteinin neye benzediği gibi verileriniz var ve cevabın ne olduğuna dair kesin bir fikriniz var – şekli doğru aldınız gibi ”dedi. Ancak genel olarak, “saçma sorularla ve insanlarla uğraşıyorsunuz – başarının tam bir tanımı olmayacak.”

Bu sorunu çözmek için DeepMind, insan geri bildirimine dayalı bir pekiştirici öğrenme biçimine döndü. Bir cevabın ne kadar yararlı olduğu konusunda bir model yetiştirmek için ücretli çalışma katılımcılarının (bir kitle kaynaklı platform kullanarak) tercihlerini kullandı.

Modelin davranışının güvenli olduğundan emin olmak için DeepMind, model için “tehdit edici ifadelerde bulunma” ve “nefret dolu veya aşağılayıcı yorumlar yapma” gibi bir başlangıç ​​kuralları dizisinin yanı sıra potansiyel olarak zararlı olabilecek kurallar belirledi. dilin zararları ve uzmanlarla istişare konusunda mevcut çalışmalar tarafından bilgilendirilmiş tavsiye ve diğer kurallar. Sparrow’un davranışının herhangi bir kuralı ne zaman ihlal ettiğini göstermek için ayrı bir “kural modeli” eğitildi.

‘İnsan döngüsünde önyargı

CVS Health’de inovasyon veri bilimcisi ve MIT Media Lab’de araştırma bilimcisi olan Eugenio Zuccarelli, “insan döngüsünde” hala önyargı olabileceğine dikkat çekti – sonuçta, bir kişiye saldırgan olabilecek bir şey diğerine saldırgan olmayabilir.

Ayrıca, kural tabanlı yaklaşımların daha katı kurallar oluşturabileceğini ancak ölçeklenebilirlik ve esneklikten yoksun olabileceğini de sözlerine ekledi. Aklımıza gelen her kuralı kodlamak zordur, özellikle zaman geçtikçe bunlar değişebilir ve sabit kurallara dayalı bir sistemi yönetmek, ölçek büyütme yeteneğimizi engelleyebilir” dedi. “Kuralların doğrudan sistem tarafından öğrenildiği ve zaman geçtikçe otomatik olarak ayarlandığı esnek çözümler tercih edilecektir.”

Ayrıca, bir kişi veya bir grup insan tarafından kodlanmış bir kuralın tüm nüansları ve uç durumları yakalamayabileceğine dikkat çekti. “Kural çoğu durumda doğru olabilir, ancak daha nadir ve belki de hassas durumları yakalamayabilir” dedi.

Zuccarelli, Google aramalarının da tamamen doğru veya tarafsız bilgi kaynakları olmayabilir, diye devam etti. “Genellikle kişisel özelliklerimizin ve kültürel yatkınlıklarımızın bir temsilidir” dedi. “Ayrıca hangisinin güvenilir bir kaynak olduğuna karar vermek zor.”

DeepMind: Sparrow’un geleceği

Irving, Sparrow’un uzun vadeli hedefinin daha fazla kurala ölçeklenebilmek olduğunu söyledi. “Bence çeşitli üst düzey kurallarla ve ardından belirli durumlar hakkında birçok ayrıntıyla muhtemelen biraz hiyerarşik olmanız gerekecek” dedi.

Gelecekte modelin birden fazla dili, kültürü ve lehçeyi desteklemesi gerekeceğini de sözlerine ekledi. “Süreciniz için çeşitli girdilere ihtiyacınız olduğunu düşünüyorum – birçok farklı türde insana, belirli diyaloğun ne hakkında olduğunu bilen insanlara sormak istiyorsunuz” dedi. “Öyleyse insanlara dil hakkında soru sormanız gerekiyor ve ardından farklı diller arasında bağlam içinde soru sorabilmeniz gerekiyor – bu nedenle İspanyolca ve İngilizce arasında tutarsız cevaplar vermeyi düşünmek istemezsiniz.”

Çoğunlukla, Irving, diyalog aracısını daha fazla güvenliğe yönelik geliştirme konusunda “en çok heyecanlı” olduğunu söyledi. “Çok sayıda sınır vakası ya da sadece kötü gibi görünen vakalar var, ancak fark edilmesi biraz zor ya da iyiler, ancak ilk bakışta kötü görünüyorlar” dedi. “İnsan değerlendiricinin kararlarını belirlemesine yardımcı olacak veya caydıracak yeni bilgi ve rehberlik getirmek istiyorsunuz.”

Bir sonraki husus, kurallar üzerinde çalışmaktır: “Etik yön hakkında düşünmemiz gerekiyor – zaman içinde bu kuralı belirleme ve iyileştirme sürecimiz nedir? Açıkçası, kuralların ne olduğuna karar veren sadece DeepMind araştırmacıları olamaz – çeşitli türlerdeki uzmanları ve katılımcı dış yargıyı da içermesi gerekir.”

Zuccarelli, Sparrow’un “kesinlikle doğru yönde atılmış bir adım” olduğunu vurguladı ve sorumlu AI’nın norm haline gelmesi gerektiğini ekledi.

“Ölçeklenebilirliği ve neyin göz ardı edilip neyin edilmemesi gerektiğini düşünmek için tek tip bir yaklaşımı ele almaya çalışarak ileriye doğru genişletmek faydalı olacaktır” dedi.

VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji ve işlemler hakkında bilgi edinmeleri için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.


Kaynak : https://venturebeat.com/ai/why-deepmind-isnt-deploying-its-new-ai-chatbot/

Yorum yapın

SMM Panel PDF Kitap indir