Bu yeni araçlarla yapay zeka görüntü modellerinin kendiniz için ne kadar önyargılı olduğunu görün


Bunun neden olabileceğine dair bir teori, ikili olmayan kahverengi insanların son zamanlarda basında daha fazla görünürlüğe sahip olabileceği, yani görüntülerinin AI modellerinin eğitim için kullandığı veri setlerinde yer aldığı anlamına geliyor, diyor Jernite.

Stable Diffusion’ı kuran şirket OpenAI ve Stability.AI, sistemlerine yerleşmiş önyargıları azaltmak için, rahatsız edici görüntüler oluşturması muhtemel görünen belirli istemleri engellemek gibi düzeltmeler getirdiklerini söylüyor. Ancak Hugging Face’in bu yeni araçları, bu düzeltmelerin ne kadar sınırlı olduğunu gösteriyor.

Stability.AI sözcüsü bize şirketin modellerini “farklı ülke ve kültürlere özgü veri kümeleri” üzerinde eğittiğini söyledi ve bunun “genel veri kümelerinde aşırı temsilin neden olduğu önyargıları hafifletmeye hizmet etmesi” gerektiğini ekledi.

OpenAI sözcüsü, araçlar hakkında özel olarak yorum yapmadı, ancak bizi bir noktaya işaret etti. Blog yazısı şirketin önyargıyı, cinsel ve şiddet içeren görüntüleri filtrelemek için DALL-E 2’ye nasıl çeşitli teknikler eklediğini açıklıyor.

Bu AI modelleri daha yaygın bir şekilde benimsendikçe ve her zamankinden daha gerçekçi görüntüler ürettikçe önyargı daha acil bir sorun haline geliyor. Halihazırda bir dizi üründe kullanıma sunuluyorlar, örneğin: Hazır fotoğraflar. Luccioni, modellerin büyük ölçekte zararlı önyargıları pekiştirme riskinden endişe duyduğunu söylüyor. Kendisinin ve ekibinin oluşturduğu araçların, görüntü oluşturan yapay zeka sistemlerine daha fazla şeffaflık getireceğini ve onları daha az önyargılı hale getirmenin önemini vurgulayacağını umuyor.

Washington Üniversitesi’nde doçent olan Aylin Çalışkan, sorunun bir kısmının bu modellerin ağırlıklı olarak ABD merkezli verilerle eğitilmiş olması, yani çoğunlukla Amerikan derneklerini, önyargılarını, değerlerini ve kültürünü yansıtması olduğunu söylüyor. yapay zeka sistemlerindeki yanlılığı inceler ve bu araştırmaya katılmadı.

Çalışkan, “Sonuçta bu çevrimiçi Amerikan kültürünün parmak izi … dünya çapında sürdürülüyor” diyor.

Çalışkan, Hugging Face’in araçlarının, AI geliştiricilerinin AI modellerindeki önyargıları daha iyi anlamalarına ve azaltmalarına yardımcı olacağını söylüyor. “İnsanlar bu örnekleri doğrudan gördüklerinde, bu önyargıların önemini daha iyi anlayabileceklerine inanıyorum” diyor.


Kaynak : https://www.technologyreview.com/2023/03/22/1070167/these-news-tool-let-you-see-for-yourself-how-biased-ai-image-models-are/

Yorum yapın

SMM Panel PDF Kitap indir