Ama benim için gerçekten öne çıkan şey, Meta’nın kapılarını ne kadar açtığı. Daha geniş AI topluluğunun modeli indirmesine ve düzenlemesine izin verecek. Bu, daha güvenli ve daha verimli olmasına yardımcı olabilir. Ve en önemlisi, AI modellerinin iç işleyişi söz konusu olduğunda şeffaflığın gizliliğe göre faydalarını gösterebilir. Bu daha zamanında ve daha önemli olamazdı.
Teknoloji şirketleri yapay zeka modellerini doğaya salmak için acele ediyor ve üretken yapay zekanın giderek daha fazla ürüne gömülü olduğunu görüyoruz. Ancak OpenAI’nin GPT-4’ü gibi en güçlü modeller, yaratıcıları tarafından sıkı bir şekilde korunmaktadır. Geliştiriciler ve araştırmacılar, bir web sitesi aracılığıyla bu tür modellere sınırlı erişim elde etmek için para ödüyorlar ve iç işleyişinin ayrıntılarını bilmiyorlar.
Bu opaklık, yeni bir bölümde vurgulandığı gibi, hat boyunca sorunlara yol açabilir. hakemli olmayan kağıt bu geçen hafta bazı söylentilere neden oldu. Stanford Üniversitesi ve UC Berkeley’deki araştırmacılar, GPT-3.5 ve GPT-4’ün matematik problemlerini çözmede, hassas soruları yanıtlamada, kod üretmede ve görsel akıl yürütmede birkaç ay öncesine göre daha kötü performans gösterdiğini buldu.
Princeton bilgisayar bilimleri profesörü Arvind Narayanan, bu modellerin şeffaf olmaması, bunun tam olarak neden olabileceğini söylemeyi zorlaştırıyor, ancak ne olursa olsun, sonuçlar bir tutam tuzla alınmalıdır. yazar yaptığı değerlendirmede. OpenAI’nin modelleri daha da kötüleştirdiğinin kanıtlarından çok “yazarların değerlendirmesinin tuhaflıklarından” kaynaklanıyor olmaları muhtemeldir. Araştırmacıların, OpenAI’nin modellerde daha iyi performans gösterecek şekilde ince ayar yaptığını ve bunun istemeden bazı yönlendirme tekniklerinin geçmişte olduğu gibi çalışmamasına neden olduğunu hesaba katmadığını düşünüyor.
Bunun bazı ciddi etkileri var. Hugging Face girişiminde yapay zeka araştırmacısı olan Sasha Luccioni, ürünlerini OpenAI modellerinin belirli bir yinelemesiyle çalışacak şekilde geliştiren ve optimize eden şirketlerin “%100” ürünlerin aniden arızalanıp bozulduğunu görebileceğini söylüyor. OpenAI, modellerinde bu şekilde ince ayar yaptığında, örneğin çok özel istemler kullanılarak oluşturulmuş ürünler, daha önce olduğu gibi çalışmayı durdurabilir. Kapalı modellerin sorumluluktan yoksun olduğunu da ekliyor. “Eğer bir ürününüz varsa ve üründe bir değişiklik yaparsanız, bunu müşterilerinize söylemeniz gerekir.”
LLaMA 2 gibi açık bir model, en azından şirketin modeli nasıl tasarladığını ve hangi eğitim tekniklerini kullandığını netleştirecektir. OpenAI’den farklı olarak Meta, nasıl eğitildiğine, hangi donanımın kullanıldığına, verilere nasıl açıklama eklendiğine ve zararı azaltmak için hangi tekniklerin kullanıldığına ilişkin ayrıntılar da dahil olmak üzere LLaMA 2’nin tüm tarifini paylaştı. Luccioni, araştırma yapan ve modelin üzerinde ürünler geliştiren kişilerin tam olarak ne üzerinde çalıştıklarını bildiklerini söylüyor.
“Modele eriştiğinizde, daha iyi performans elde ettiğinizden veya daha az önyargı elde ettiğinizden veya aradığınız her neyse onu elde ettiğinizden emin olmak için her türlü deneyi yapabilirsiniz” diyor.
Nihayetinde, yapay zeka etrafındaki açık ve kapalı tartışma, kararları kimin verdiğine bağlı. Açık modellerde kullanıcılar daha fazla güce ve kontrole sahip olur. Kapalı modellerle yaratıcılarının insafına kalırsınız.
Meta gibi büyük bir şirketin bu kadar açık, şeffaf bir AI modeli yayınlaması, üretken AI altına hücumda potansiyel bir dönüm noktası gibi geliyor.
Kaynak : https://www.technologyreview.com/2023/07/25/1076698/its-high-time-for-more-ai-transparency/