Yapay Zekada Güvenlik ve Etik - Meltwater'ın Yaklaşımı
Yayınlanan: 2023-08-16Yapay zeka, bize otomatik içerik oluşturma ve veri analizi ve kişiselleştirilmiş yapay zeka asistanları gibi harika yeni yetenekler sunarak dünyamızı dönüştürüyor. Bu teknoloji benzeri görülmemiş fırsatlar sunarken, aynı zamanda güvenilir ve hakkaniyete uygun kullanımını sağlamak için ele alınması gereken önemli güvenlik endişelerini de beraberinde getiriyor.
Meltwater'da, bu yapay zeka güvenlik zorluklarını anlamanın ve bunlarla mücadele etmenin, bu dönüştürücü teknolojinin sorumlu bir şekilde ilerlemesi için çok önemli olduğuna inanıyoruz.
Yapay zeka güvenliğine ilişkin temel kaygılar, bu sistemleri nasıl güvenilir, etik ve herkes için faydalı hale getirdiğimiz etrafında döner. Bu, AI sistemlerinin istenmeyen zararlara yol açma, insani değerlerle bağdaşmayan kararlar verme, kötü amaçlarla kullanılma veya kontrol edilemez hale gelecek kadar güçlü olma olasılığından kaynaklanmaktadır.
İçindekiler
sağlamlık
Hizalama
Önyargı ve Adalet
yorumlanabilirlik
sürüklenme
Yapay Zeka Güvenliği için Önümüzdeki Yol
sağlamlık
AI sağlamlığı, değişken veya beklenmedik koşullar altında bile tutarlı bir şekilde iyi performans gösterme yeteneğini ifade eder.
Bir yapay zeka modeli sağlam değilse, üzerinde eğitildiği örneklerin dışındaki yeni verilere veya senaryolara maruz kaldığında kolayca başarısız olabilir veya yanlış sonuçlar verebilir. Bu nedenle, AI güvenliğinin temel bir yönü, çeşitli koşullarda yüksek performans seviyelerini koruyabilen sağlam modeller oluşturmaktır.
Meltwater'da, AI sağlamlığını hem eğitim hem de çıkarım aşamalarında ele alıyoruz. Belirsiz veya çekişmeli durumlarda AI sistemlerinin dayanıklılığını artırmak için çekişmeli eğitim, belirsizlik ölçümü ve birleşik öğrenme gibi çoklu teknikler kullanılır.
Hizalama
Bu bağlamda “uyumlama”, yapay zeka sistemlerinin hedef ve kararlarının insani değerlerle uyumlu olmasını sağlama sürecini ifade eder ve bu kavram, değer uyumu olarak bilinir.
Yanlış hizalanmış yapay zeka, sistemin öğrenme parametrelerine göre optimal olmasına rağmen, insanların istenmeyen veya zararlı bulduğu kararlar verebilir. Güvenli yapay zekaya ulaşmak için araştırmacılar, karar verme süreçlerinde, öğrenip gelişirken bile insani değerleri anlayan ve bunlara saygı duyan sistemler üzerinde çalışıyorlar.
Değer odaklı yapay zeka sistemleri oluşturmak, insanlardan sürekli etkileşim ve geri bildirim almayı gerektirir. Meltwater, model performansının çevrimiçi izlenmesi de dahil olmak üzere yapay zeka geliştirme iş akışlarımızın farklı aşamalarında insan geri bildirimlerini bir araya getirerek Döngüdeki İnsan (HITL) tekniklerini kapsamlı bir şekilde kullanır.
İnsani değerleri ve tercihleri öğrenmek ve bunlara saygı duymak için ters pekiştirmeli öğrenme, işbirlikli ters pekiştirmeli öğrenme ve yardım oyunları gibi teknikler benimseniyor. Farklı insanlar arasındaki çelişen değerleri ele almak için toplama ve sosyal seçim teorisinden de yararlanıyoruz.
Önyargı ve Adalet
Yapay zeka ile ilgili kritik sorunlardan biri, mevcut önyargıları güçlendirerek haksız sonuçlara yol açma potansiyelidir.
Yapay zekadaki sapma, sistemleri eğitmek için kullanılan veriler, algoritmaların tasarımı veya uygulandıkları bağlam dahil (ancak bunlarla sınırlı olmamak üzere) çeşitli faktörlerden kaynaklanabilir. Bir yapay zeka sistemi, önyargılı kararlar içeren geçmiş veriler üzerinde eğitilirse, sistem istemeden bu önyargıları devam ettirebilir.
Bir örnek, önyargılı olan geçmiş işe alma kararları üzerine eğitildiği için belirli bir cinsiyeti haksız yere kayırabilen iş seçimi yapay zekasıdır. Adaleti ele almak, AI'daki önyargıyı en aza indirmek için kasıtlı çaba sarf etmek, böylece tüm bireylere ve gruplara eşit davranmasını sağlamak anlamına gelir.
Meltwater, hem kurum içi hem de açık kaynak olmak üzere tüm eğitim veri setlerimizde önyargı analizi gerçekleştirir ve önyargıyı belirlemek için tüm Büyük Dil Modellerini (LLM'ler) düşmanca yönlendirir. Duyarlılık modellerimizdeki sistemik sorunları belirlemek için Davranışsal Testi kapsamlı bir şekilde kullanıyoruz ve AI asistanlarımız tarafından kullanılan tüm LLM'lerde en katı içerik denetleme ayarlarını uyguluyoruz. Yapay zeka önyargısının ürünlerimizdeki etkisini en aza indirmek için demografik eşitlik, fırsat eşitliği ve bireysel adalet dahil (ancak bunlarla sınırlı olmamak üzere) çoklu istatistiksel ve hesaplamalı adalet tanımlarından yararlanılmaktadır.
yorumlanabilirlik
Genellikle yorumlanabilirlik veya açıklanabilirlik olarak adlandırılan yapay zekadaki şeffaflık, çok önemli bir güvenlik hususudur. Yapay zeka sistemlerinin nasıl karar verdiğini anlama ve açıklama becerisini içerir.
Yorumlanabilirlik olmadan, bir yapay zeka sisteminin önerileri bir kara kutu gibi görünerek hataların veya ön yargıların tespit edilmesini, teşhis edilmesini ve düzeltilmesini zorlaştırabilir. Sonuç olarak, yapay zeka sistemlerinde yorumlanabilirliği teşvik etmek hesap verebilirliği artırır, kullanıcı güvenini artırır ve yapay zekanın daha güvenli kullanımını teşvik eder. Meltwater, AI sistemlerimizin altında yatan davranışları anlamak ve onları daha şeffaf hale getirmek için LIME ve SHAP gibi standart teknikleri kullanır.
sürüklenme
AI kayması veya kavram kayması, zaman içinde girdi veri modellerindeki değişikliği ifade eder. Bu değişiklik, yapay zeka modelinin performansında düşüşe yol açarak tahminlerinin veya tavsiyelerinin güvenilirliğini ve güvenliğini etkileyebilir.
Kaymanın algılanması ve yönetilmesi, dinamik bir dünyada yapay zeka sistemlerinin güvenliğini ve sağlamlığını korumak için çok önemlidir. Kaymanın etkili bir şekilde ele alınması, sistem performansının sürekli olarak izlenmesini ve gerektiğinde modelin güncellenmesini gerektirir.
Meltwater, model kaymasını ve ortaya çıkan veri kalitesi sorunlarını tespit etmek için yapay zeka modellerimiz tarafından yapılan çıkarımların dağılımlarını gerçek zamanlı olarak izler.
Yapay Zeka Güvenliği için Önümüzdeki Yol
AI güvenliği, araştırmacıların, AI geliştiricilerinin, politika yapıcıların ve genel olarak toplumun ortak çabasını gerektiren çok yönlü bir zorluktur.
Bir şirket olarak yapay zeka güvenliğine öncelik verilen bir kültür oluşturmaya katkıda bulunmalıyız. Bu, endüstri çapında güvenlik normları belirlemeyi, bir açıklık ve hesap verebilirlik kültürünü teşvik etmeyi ve yeteneklerimizi Meltwater'ın en derinden sahip olunan değerleriyle uyumlu bir şekilde artırmak için yapay zekayı kullanmaya yönelik kararlı bir taahhüdü içerir.
Devam eden bu bağlılık sorumluluk getirir ve Meltwater'ın yapay zeka ekipleri, Google ve OECD'den ilham alan bir dizi Meltwater Etik Yapay Zeka İlkesi oluşturdu. Bu ilkeler, Meltwater'ın Yapay Zeka, Makine Öğrenimi ve Veri Bilimi alanlarında araştırma ve geliştirme yürütme şeklinin temelini oluşturur.
- Kapsayıcı ve sürdürülebilir yollarla fırsatlar ortaya çıktığında topluma fayda sağlayın.
- Önyargı ve sapmalar kusurlardır. İşi ve müşterilerimizi başarısızlığa uğratıyorlar.
- Birinci sınıf vatandaşlar olarak emniyet, mahremiyet ve emniyet.
- Her şeyi takip et ve sorumlu ol. Şeffaflık anahtardır.
- Biz bilim adamı ve mühendisiz; her şey kanıtlanmalı ve test edilmelidir.
- Mümkün olduğunda açık kaynak kullanın; diğer her şeyi inceleyin ve güvensiz olduğunu varsayın.
Meltwater, etik AI uygulamalarını teşvik etme taahhüdünü daha da güçlendirmek için ortaklıklar ve üyelikler kurmuştur.
- Meltwater, Meltwater'ın AI stratejisi hakkında rehberlik sunan seçkin bilimsel araştırmacılar ve profesyonellerden oluşan bir ekip olan bir Bilimsel Danışma Kurulu (SAB) kurdu.
- Meltwater, Halkla İlişkiler Konseyi'nin Nisan 2023'te tanıtılan Üretken Yapay Zeka yönergesine bağlı kalıyor
- Meltwater, Newsguard ortaklığımız aracılığıyla yanlış bilgi kullanım durumları da dahil olmak üzere metin, ses, resim ve videolardaki zararlı, taciz edici ve güvenli olmayan içeriği tespit etmek için birden fazla AI modeli sağlayarak WAF GARM'nin Marka Güvenliği Tabanı ve Uygunluk Çerçevesine bağlı kalan markalara yardımcı olur.
Meltwater'ın müşterilere etik yapay zeka sunma konusunda ne kadar ilerlediğinden son derece gurur duyuyoruz. Meltwater'ın gelecekte istihbarat yolculuğunu kolaylaştırmak için çığır açan yenilikler sağlamaya hazır olduğuna inanıyoruz ve müşteriler arasında daha fazla güvene yol açan sürekli şeffaflığı teşvik ederek AI geliştirmedeki ilkelerimizi sorumlu bir şekilde savunmada liderlik rolü üstlenmeye devam etmekten heyecan duyuyoruz.