Doomer AI danışmanı, Musk’ın AI kıyametine odaklanan 4. en iyi araştırma laboratuvarı olan xAI’ye katıldı


VB Transform 2023 oturumlarını görüntülemek için isteğe bağlı kitaplığımıza gidin. Buradan Kaydolun


Elon Musk devreye girdi Dan Hendrickskâr amacı gütmeyen kuruluşun yöneticisi olarak görev yapan bir makine öğrenimi araştırmacısı Yapay Zeka Güvenliği Merkeziyeni girişiminin danışmanı olarak, xAI.

Organizasyonu sponsor olan Hendrycks, Yapay Zeka Riski Beyanı OpenAI, DeepMind, Anthropic ve diğer yüzlerce AI uzmanının CEO’ları tarafından imzalanan Mayıs ayında, alır finansmanının %90’ından fazlası Açık Hayırseverliktartışmalı bir dönemde önde gelen bir çift (Dustin Moskovitz ve Cari Tuna) tarafından yönetilen kar amacı gütmeyen bir kuruluştur. Etkili Fedakarlık (EA) hareketi. EA tarafından tanımlanır Etkili Özgecilik Merkezi “Başkalarına mümkün olduğunca çok nasıl fayda sağlanacağını anlamak için kanıt ve akıl kullanan entelektüel bir proje” olarak. Çok sayıda EA taraftarına göre, büyük endişe İnsanlıkla yüzleşmek, insanlar tarafından yaratılan bir AGI’nin türümüzü yok ettiği bir felaket senaryosunu önleme etrafında dönüyor.

Musk’ın Hendrycks’i ataması önemlidir çünkü bu, dünyanın en ünlü ve iyi finanse edilen AI araştırma laboratuvarlarından dördünün – OpenAI, DeepMind, Anthropic ve şimdi xAI – AI sistemleri hakkında bu tür varoluşsal risk veya x-risk fikirlerini ana akım halka getirdiğinin en açık işaretidir.

Birçok AI uzmanı, x-risk odağı hakkında şikayette bulundu

Pek çok üst düzey AI araştırmacısı ve bilgisayar bilimcisi, bu “felaket” anlatısının bu kadar çok ilgiyi hak ettiği konusunda hemfikir olmasa da durum budur.

Etkinlik

VB Transform 2023 İsteğe Bağlı

VB Transform 2023’ten bir oturumu kaçırdınız mı? Öne çıkan tüm oturumlarımız için isteğe bağlı kitaplığa erişmek için kaydolun.

Şimdi üye Ol

Örneğin, Sara Hooker, başkanı AI için Tutarlılık, VentureBeat’e söyledi Mayıs ayında bu x-riski “yan bir konuydu.” Georgia Institute of Technology’de profesör olan Mark Riedl, varoluşsal tehditlerin “genellikle gerçekmiş gibi rapor edildiğini” söyledi ve “yalnızca medeniyeti bir bütün olarak tehlikeye atan senaryoların olduğu ve diğer zararların meydana gelmediği veya önemli olmadığı inancını tekrarlama yoluyla normalleştirmenin uzun bir yolunu buluyor” dedi.

NYU AI araştırmacısı ve profesörü Kyunghyun Cho, Haziran ayında VentureBeat’e bu “kıyamet anlatılarının” günümüzün yapay zekasının ortaya koyduğu hem olumlu hem de olumsuz gerçek sorunlardan dikkati dağıttığına inandığını söyleyerek aynı fikirdeydi.

“Varoluşsal risk hakkındaki bu tartışmaların çoğu beni hayal kırıklığına uğrattı; şimdi buna kelimenin tam anlamıyla ‘yok olma’ diyorlar” dedi. “Odanın havasını emiyor.”

Diğer AI uzmanları da, hem kamuya açık hem de özel olarak, şirketlerin FTX’ler gibi lekelenmiş teknoloji figürleri tarafından desteklenen EA topluluğuyla kamuoyu tarafından kabul edilen bağlarından endişe duyduklarına dikkat çekti. Sam Bankman-Fried – yanı sıra çeşitli TESKREAL gibi hareketler uzun vadecilik Ve transhümanizm.

Cho, VentureBeat’e “EA hareketinin aslında AGI ve varoluşsal risk etrafındaki her şeyi yönlendiren hareket olduğunun çok farkındayım” dedi. “Silikon Vadisi’nde bu tür bir kurtarıcı kompleksi olan çok fazla insan olduğunu düşünüyorum. Hepsi bizi, sadece kendilerinin gördüğü ve sadece kendilerinin çözebileceğini düşündükleri kaçınılmaz sondan kurtarmak istiyor.”

Timnit Gebru, bir kablolu makale Geçen yıl, SBF’nin bunlardan biri olduğuna dikkat çekti. EA’nın en büyük fon sağlayıcıları FTX kripto para platformunun son iflasına kadar. EA’ya ve x-risk nedenlerine büyük para katkıda bulunan diğer milyarderler şunları içerir: Elon Musk, Vitalik Buterin, Ben Delo, Jan Tallinn, Peter ThielVe Dustin Muskovitz.

Sonuç olarak, “tüm bu para, insanlığa tekno ütopya getirecek ‘faydalı yapay genel zeka’ üzerinde çalıştığını iddia ederken, marjinal gruplardaki insanlara zarar verecek şekilde yapay zeka alanını ve önceliklerini şekillendirdi. Bu, teknolojik geleceğimizin ilerlemeye doğru doğrusal bir yürüyüş değil, onu kontrol edecek paraya ve nüfuza sahip olanlar tarafından belirlendiğinin bir başka örneğidir.”

AGI, x-risk ve Etkili Fedakarlık söz konusu olduğunda bu teknoloji dörtlüsünün nerede durduğunun bir özetini burada bulabilirsiniz:

xAI: “Evrenin gerçek doğasını anlayın”

Misyon: “Evreni anlamak” için bir AGI tasarlayın

AGI ve x-riskine odaklanın: 2015 yılında OpenAI’nin kurulmasına yardımcı olan Elon Musk’ın başlangıçtan ayrıldı çünkü AGI’yi güvenli bir şekilde geliştirmek için yeterli olmadığını hissetti. Ayrıca, AI liderlerini Hendrycks’in imzasını imzalamaya ikna etmede önemli bir rol oynadı. Yapay Zeka Riski Beyanı “Yapay zekanın neden olduğu yok olma riskini azaltmak, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır” diyor. Musk, xAI’yi geliştirdi. söz konusu, çünkü daha akıllı bir AGI’nin insanlığı yok etme olasılığının düşük olacağına inanıyor. “Bir yapay zeka oluşturmanın en güvenli yolu, aslında azami derecede meraklı ve gerçeği arayan bir yapay zeka oluşturmaktır.” söz konusu yakın tarihli bir Twitter Spaces konuşmasında.

Etkili Özgecilikle Bağlar: Musk’ın kendisi, yaratıcılarından biri olan filozof William MacAskill’in EA hakkındaki yazılarının “felsefem için yakın bir eşleşme” Yakın tarihli bir habere göre Hendrycks’e gelince. boston küre Röportajda, “harekete karşı çıksa bile asla bir EA taraftarı olmadığını iddia ediyor” ve “AI güvenliği, etkili özgecilikten ayrı durabilen ve duran bir disiplindir” diyor. Yine de Hendrycks, Açık Hayırsevery ve katıldığı için AI güvenliği ile ilgilenmeye başladığını söyledi. 80.000 SaatEA hareketi ile ilişkili bir kariyer keşif programı.

OpenAI: ‘Tüm insanlığa fayda sağlayan güvenli AGI oluşturmak’

Misyon: 2015 yılında OpenAI “yapay genel zekanın tüm insanlığa fayda sağlamasını sağlamak” misyonuyla kuruldu. OpenAI’nin web sitesi notlar: “Doğrudan güvenli ve yararlı AGI oluşturmaya çalışacağız, ancak çalışmalarımız başkalarının bu sonuca ulaşmasına yardımcı olursa, misyonumuzu yerine getirmiş sayacağız.”

AGI ve x-riskine odaklanın: OpenAI, kuruluşundan bu yana AGI odaklı misyonundan asla vazgeçmedi. Geçtiğimiz yıl boyunca “Yönetim Süper Zekası”, “Yapay Zeka Güvenliğine Yaklaşımımız” ve “AGI ve Ötesi için Planlama” gibi başlıklarla birçok blog gönderisi yayınladı. Bu ayın başlarında, OpenAI ilan edildi “süper zeka hizalamasının temel teknik zorluklarını dört yıl içinde çözme” hedefiyle yeni bir “süper hizalama ekibi”. Şirket, kurucu ortağı ve baş bilim adamı Ilya Sutskever’in bu araştırmayı ana odak noktası yapacağını ve bilgi işlem kaynaklarının %20’sini süper hizalama ekibine ayıracağını söyledi. Geçenlerde bir ekip üyesi onu “herkese öldürmeme” ekibi olarak adlandırdı:

Etkili Özgecilikle Bağlar: Mart 2017’de OpenAI, 30 milyon dolarlık bir hibe aldı. Açık Hayırseverlik. 2020’de MIT Technology Review’den Karen Hao bildirildi “Şirketin etkileyici bir şekilde tekdüze bir kültürü var. Çalışanlar uzun saatler çalışmakta, yemeklerde ve sosyalleşme saatlerinde durmadan işleri hakkında konuşmaktadırlar; birçoğu aynı partilere gidiyor ve rasyonel felsefeyi benimsiyor. etkili özgecilik” Bu günlerde, üst hizalama ekibine liderlik eden şirketin hizalama başkanı Jan Leike’nin bildirildiğine göre tanımlar EA hareketi ile. Ve OpenAI CEO’su Sam Altman geçmişte, özellikle Sam Bankman-Fried skandalının ardından EA’yı eleştirirken, tamamlamak EA yaratıcısı William MacAskill tarafından oluşturulan 80.000 Saat kursu.

Google DeepMind: ‘Bilimi ilerletmek ve insanlığa fayda sağlamak için zekayı çözüyor’

Misyon: “İle Kilidini aç zekanın kendisini anlayıp yeniden yaratarak dünyanın en büyük sorularına yanıt veriyor.”

AGI ve x-riskine odaklanın: DeepMind, 2010 yılında Demis Hassabis, Shane Legg ve Mustafa Süleyman tarafından kuruldu ve 2014 yılında şirket Google tarafından satın alındı. 2023’te DeepMind, Google Brain ile birleşerek Google DerinMind. Genellikle oyun zorlukları yoluyla pekiştirici öğrenmeye odaklanan AI araştırma çabaları, AlfaGo programı, her zaman bir AGI geleceğine güçlü bir şekilde odaklanmıştır: “AGI inşa ederek ve onunla işbirliği yaparak, dünyamız hakkında daha derin bir anlayış kazanabilmeli ve insanlık için önemli ilerlemeler sağlamalıyız.” diyor şirket web sitesinde. Verge’de CEO Hassabis ile yakın zamanda yapılan bir röportaj söz konusu “Demis, amacının bir AGI inşa etmek olduğu konusunda çekingen değil ve hangi risklerin ve düzenlemelerin hangi zaman çizelgesinde yürürlükte olması gerektiğini konuştuk.”

Etkili Özgecilikle Bağlar: DeepMind araştırmacıları gibi Rohin Şan Ve Sebastian Farquar Etkili Fedakarlar olarak tanımlarken, Hassabis konuşulmuş EA konferanslarında ve DeepMind gruplarında katıldı Etkili Özgecilik Küresel Konferansı. DeepMind’de baş bilim adamı ve araştırma ekibi lideri olan Pushmeet Kohli, ayrıca röportaj yapıldı 80.000 Saat podcast’inde AI güvenliği hakkında.

Antropik: “Güvenliği sınıra getiren AI araştırmaları ve ürünleri”

Misyon: Anthropic’in web sitesine göre, misyon “dönüştürücü AI’nın insanların ve toplumun gelişmesine yardımcı olmasını sağlamaktır. Bu on yılda ilerleme hızlı olabilir ve giderek daha yetenekli sistemlerin yeni zorluklar ortaya çıkarmasını bekliyoruz. Sınır sistemleri kurarak, davranışlarını inceleyerek, bunları sorumlu bir şekilde devreye almak için çalışarak ve güvenlik içgörülerimizi düzenli olarak paylaşarak misyonumuzu sürdürüyoruz. Benzer bir sonuç arayan diğer projeler ve paydaşlarla işbirliği yapıyoruz.”

AGI ve x-riskine odaklanın: Anthropic, 2021’de OpenAI’nin araştırmadan sorumlu başkan yardımcısı olarak görev yapan ve şu anda Anthropic’in CEO’su olan Dario Amodei de dahil olmak üzere OpenAI’nin yönüne (Microsoft ile ilişkisi gibi) itiraz eden birkaç eski OpenAI çalışanı tarafından kuruldu. Yakın tarihli bir derinliğe göre New York Times “Inside the White-Hot Center of AI Doomerism” başlıklı makale, Anthropic çalışanları x-riski konusunda çok endişeli: “Birçoğu, AI modellerinin yapay genel zeka veya insan düzeyinde makine zekası için endüstri terimi olan AGI olarak değerlendirilebilecekleri bir düzeye hızla yaklaştığına inanıyor. Ve dikkatli bir şekilde kontrol edilmezlerse bu sistemlerin bizi ele geçirip yok edebileceğinden korkuyorlar.”

Etkili Özgecilikle Bağlar: Antropik, büyük yapay zeka laboratuvarlarından herhangi birinin EA topluluğuyla en net bağlarından bazılarına sahiptir. “Hiçbir büyük AI laboratuvarı, EA ahlakını Antropik kadar tam olarak somutlaştıramaz” dedi. New York Times parça. “Şirketin ilk işe alınanlarının çoğu etkili fedakar kişilerdi ve başlangıç ​​finansmanının çoğu, Facebook’un kurucu ortaklarından Dustin Moskovitz ve Skype’ın kurucu ortaklarından Jaan Tallinn de dahil olmak üzere EA’ya bağlı zengin teknoloji yöneticilerinden geldi.”

VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji ve işlemler hakkında bilgi edinmeleri için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.




Kaynak : https://venturebeat.com/ai/doomer-advisor-joins-musks-xai-the-4th-top-research-lab-focused-on-ai-apocalypse/

Yorum yapın

SMM Panel PDF Kitap indir