Yeni ACM özetine göre yapay zeka patlarken, algoritmik sistemlerin risklerini azaltmak bir zorunluluktur


Intelligent Security Summit’teki tüm isteğe bağlı oturumlara göz atın burada.


AI patlama yaşıyor olabilir, ancak yarın yayınlanacak olan Computing Machinery Derneği’nin (ACM) küresel Teknoloji Politikası Konseyi’nden yeni bir özet, algoritmik sistemlerin her yerde bulunmasının “yeterince ele alınmayan ciddi riskler yarattığını” belirtiyor.

Kuruluşun sistemler ve güven üzerine bir serinin ilki olduğunu söylediği ACM özetine göre, tamamen güvenli algoritmik sistemler mümkün değil. Ancak, onları daha güvenli hale getirmek için ulaşılabilir adımlar atılabilir ve hükümetler ve tüm paydaşlar için yüksek bir araştırma ve politika önceliği olmalıdır.

Özetin ana sonuçları:

  • Daha güvenli algoritmik sistemleri teşvik etmek için hem insan merkezli hem de teknik yazılım geliştirme yöntemleri, iyileştirilmiş testler, denetim izleri ve izleme mekanizmalarının yanı sıra eğitim ve yönetişim konusunda araştırmaya ihtiyaç vardır.
  • Örgütsel güvenlik kültürleri oluşturmak, yönetim liderliği, işe alma ve eğitime odaklanma, güvenlikle ilgili uygulamaların benimsenmesi ve sürekli dikkat gerektirir.
  • Daha güvenli algoritmik sistemleri teşvik etmek için hem hükümet hem de kuruluşlar içinde dahili ve bağımsız insan merkezli gözetim mekanizmaları gereklidir.

Yapay zeka sistemlerinin güvenlik önlemlerine ve titiz bir incelemeye ihtiyacı var

Bilgisayar bilimcisi Ben Shneiderman, Maryland Üniversitesi’nde Fahri Profesör ve şu kitabın yazarı: İnsan-ortalanmış AI, belirli teknolojik gelişmelerin etkisi ve politika sonuçları hakkında bir dizi kısa teknik bültenin en sonuncusu olan brief’in baş yazarıydı.

Etkinlik

İsteğe Bağlı Akıllı Güvenlik Zirvesi

Yapay zeka ve makine öğreniminin siber güvenlikteki kritik rolünü ve sektöre özel vaka incelemelerini öğrenin. İsteğe bağlı oturumları bugün izleyin.

Buraya bak

Yapay zeka ve makine öğrenimi teknolojisinin ötesine geçen ve insanları, kuruluşları ve yönetim yapılarını içeren algoritmik sistemler çok sayıda ürün ve süreci geliştirirken, güvenli olmayan sistemlerin çok büyük zararlara neden olabileceğini belirtti (sürücüsüz arabaları veya yüz tanımayı düşünün).

Hükümetlerin ve paydaşların, tıpkı yeni bir gıda ürünü veya ilacın halka sunulmadan önce titiz bir inceleme sürecinden geçmesi gerektiği gibi, güvenlik önlemlerini önceliklendirmesi ve uygulaması gerektiğini açıkladı.

Yapay zekayı sivil havacılık modeliyle karşılaştırma

Shneiderman, daha güvenli algoritmik sistemler yaratmayı, hala riskleri olan ancak genel olarak güvenli olduğu kabul edilen sivil havacılığa benzetti.

VentureBeat ile yaptığı bir röportajda “Yapay zeka için istediğimiz bu” dedi. “Yapması zor. Oraya varmak biraz zaman alıyor. Kaynak, çaba ve odaklanma gerektirir, ancak insanların şirketlerini rekabetçi ve dayanıklı kılacak olan da budur. Aksi takdirde varlıklarını potansiyel olarak tehdit edecek bir başarısızlığa yenik düşeceklerdir.”

Daha güvenli algoritmik sistemlere yönelik çaba, AI etiğine odaklanmaktan bir geçiştir, diye ekledi.

“Etik iyidir, hepimiz onların iyi bir temel oluşturmasını isteriz, ancak değişim ne yapacağımız yönündedir?” dedi. “Bunları nasıl pratik hale getiririz?”

Bu, hafif olmayan AI uygulamalarıyla, yani finansal ticaret, yasal sorunlar ve işe alma ve işten çıkarma gibi önemli kararların yanı sıra hayati önem taşıyan tıbbi, ulaşım veya askeri uygulamalarla uğraşırken özellikle önemlidir.

Shneiderman, “Yapay zekanın Çernobil’inden veya Üç Mil Adasından kaçınmak istiyoruz” dedi. Güvenlik için gösterdiğimiz çabanın derecesi, riskler büyüdükçe artmalıdır.”

Örgütsel bir güvenlik kültürü geliştirmek

ACM özetine göre kuruluşların, algoritmik sistem tasarımına “örülmesi” gereken “insan faktörleri mühendisliğini” kucaklayan bir güvenlik kültürü – yani sistemlerin gerçek uygulamada, kontrollerde insanlar ile nasıl çalıştığı – geliştirmesi gerekiyor.

Özet ayrıca, uzman kullanıcıların sistemi kırmaya çalıştığı düşmanca “kırmızı ekip” testleri ve büyük arızalara yol açabilecek eksiklikleri ve hataları bildiren kullanıcılara “hata ödülleri” sunma dahil olmak üzere, etkili siber güvenlik olduğu kanıtlanmış yöntemlere de dikkat çekti. — daha güvenli algoritmik sistemler yapmakta faydalı olabilir.

Yapay Zeka İnsan Hakları Beyannamesi Planı ile ABD ve Avrupa Birliği ile Avrupa Birliği gibi birçok hükümet bu konular üzerinde zaten çalışıyor. AB AI Yasası. Ancak Shneiderman, kurumsal işletmeler için bu çabaların rekabet avantajı sağlayabileceğini vurguladı.

“Bu sadece iyi adam işi değil,” dedi. “Bu, sizin için iyi bir iş kararı ve güvenlik kavramına ve daha geniş bir güvenlik kültürü kavramına yatırım yapmanız için iyi bir karar.”

VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji ve işlemler hakkında bilgi edinmeleri için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.


Kaynak : https://venturebeat.com/ai/as-ai-booms-reducing-risks-of-algorithmic-systems-is-a-must-says-new-acm-brief/

Yorum yapın

SMM Panel PDF Kitap indir