Sicurezza ed etica nell'IA: l'approccio di Meltwater
Pubblicato: 2023-08-16L'intelligenza artificiale sta trasformando il nostro mondo, offrendoci nuove straordinarie funzionalità come la creazione automatizzata di contenuti e l'analisi dei dati e assistenti personalizzati di intelligenza artificiale. Sebbene questa tecnologia offra opportunità senza precedenti, pone anche notevoli problemi di sicurezza che devono essere affrontati per garantirne un uso affidabile ed equo.
In Meltwater, crediamo che comprendere e affrontare queste sfide alla sicurezza dell'IA sia fondamentale per il progresso responsabile di questa tecnologia trasformativa.
Le principali preoccupazioni per la sicurezza dell'IA ruotano attorno al modo in cui rendiamo questi sistemi affidabili, etici e vantaggiosi per tutti. Ciò deriva dalla possibilità che i sistemi di intelligenza artificiale causino danni involontari, prendano decisioni non in linea con i valori umani, vengano utilizzati in modo dannoso o diventino così potenti da diventare incontrollabili.
Sommario
Robustezza
Allineamento
Pregiudizio ed equità
Interpretabilità
Deriva
La strada da percorrere per la sicurezza dell'IA
Robustezza
La robustezza dell'IA si riferisce alla sua capacità di funzionare costantemente bene anche in condizioni mutevoli o impreviste.
Se un modello di intelligenza artificiale non è robusto, può facilmente fallire o fornire risultati imprecisi se esposto a nuovi dati o scenari al di fuori dei campioni su cui è stato addestrato. Un aspetto fondamentale della sicurezza dell'IA, quindi, è la creazione di modelli robusti in grado di mantenere livelli di prestazioni elevate in condizioni diverse.
In Meltwater, affrontiamo la robustezza dell'IA sia nelle fasi di addestramento che di inferenza. Molteplici tecniche come la formazione avversaria, la quantificazione dell'incertezza e l'apprendimento federato vengono impiegate per migliorare la resilienza dei sistemi di intelligenza artificiale in situazioni incerte o contraddittorie.
Allineamento
In questo contesto, "allineamento" si riferisce al processo per garantire che gli obiettivi e le decisioni dei sistemi di intelligenza artificiale siano sincronizzati con i valori umani, un concetto noto come allineamento dei valori.
L'IA disallineata potrebbe prendere decisioni che gli esseri umani trovano indesiderabili o dannose, nonostante siano ottimali in base ai parametri di apprendimento del sistema. Per ottenere un'IA sicura, i ricercatori stanno lavorando su sistemi che comprendono e rispettano i valori umani durante i loro processi decisionali, anche mentre apprendono ed evolvono.
Costruire sistemi di intelligenza artificiale allineati al valore richiede un'interazione e un feedback continui da parte degli esseri umani. Meltwater fa ampio uso delle tecniche Human In The Loop (HITL), incorporando il feedback umano in diverse fasi dei nostri flussi di lavoro di sviluppo AI, incluso il monitoraggio online delle prestazioni del modello.
Tecniche come l'apprendimento per rinforzo inverso, l'apprendimento per rinforzo inverso cooperativo e i giochi di assistenza vengono adottati per apprendere e rispettare i valori e le preferenze umane. Sfruttiamo anche l'aggregazione e la teoria della scelta sociale per gestire valori contrastanti tra diversi esseri umani.
Pregiudizio ed equità
Un problema critico con l'intelligenza artificiale è il suo potenziale per amplificare i pregiudizi esistenti, portando a risultati ingiusti.
Il pregiudizio nell'IA può derivare da vari fattori, inclusi (ma non limitati a) i dati utilizzati per addestrare i sistemi, la progettazione degli algoritmi o il contesto in cui vengono applicati. Se un sistema di intelligenza artificiale viene addestrato su dati storici che contengono decisioni distorte, il sistema potrebbe inavvertitamente perpetuare tali pregiudizi.
Un esempio è l'intelligenza artificiale per la selezione del lavoro che può favorire ingiustamente un particolare genere perché è stata addestrata su decisioni di assunzione passate che erano di parte. Affrontare l'equità significa compiere sforzi deliberati per ridurre al minimo i pregiudizi nell'IA, garantendo così che tratti tutti gli individui e i gruppi in modo equo.
Meltwater esegue l'analisi dei bias su tutti i nostri set di dati di addestramento, sia interni che open source, e richiede in modo contraddittorio a tutti i Large Language Models (LLM) di identificare i bias. Facciamo ampio uso di test comportamentali per identificare problemi sistemici nei nostri modelli di sentiment e applichiamo le impostazioni di moderazione dei contenuti più rigorose su tutti gli LLM utilizzati dai nostri assistenti AI. Molteplici definizioni di equità statistica e computazionale, incluse (ma non limitate a) parità demografica, pari opportunità ed equità individuale, vengono sfruttate per ridurre al minimo l'impatto della distorsione dell'IA nei nostri prodotti.
Interpretabilità
La trasparenza nell'IA, spesso indicata come interpretabilità o spiegabilità, è una considerazione cruciale per la sicurezza. Implica la capacità di comprendere e spiegare come i sistemi di IA prendono le decisioni.
Senza interpretabilità, le raccomandazioni di un sistema di intelligenza artificiale possono sembrare una scatola nera, rendendo difficile rilevare, diagnosticare e correggere errori o pregiudizi. Di conseguenza, promuovere l'interpretazione nei sistemi di intelligenza artificiale migliora la responsabilità, migliora la fiducia degli utenti e promuove un uso più sicuro dell'IA. Meltwater adotta tecniche standard, come LIME e SHAP, per comprendere i comportamenti alla base dei nostri sistemi di intelligenza artificiale e renderli più trasparenti.
Deriva
La deriva dell'IA, o deriva del concetto, si riferisce al cambiamento dei modelli di dati di input nel tempo. Questo cambiamento potrebbe portare a un calo delle prestazioni del modello di intelligenza artificiale, con un impatto sull'affidabilità e sulla sicurezza delle sue previsioni o raccomandazioni.
Rilevare e gestire la deriva è fondamentale per mantenere la sicurezza e la robustezza dei sistemi di intelligenza artificiale in un mondo dinamico. Una gestione efficace della deriva richiede un monitoraggio continuo delle prestazioni del sistema e l'aggiornamento del modello se e quando necessario.
Meltwater monitora in tempo reale le distribuzioni delle inferenze fatte dai nostri modelli di intelligenza artificiale per rilevare la deriva del modello e problemi di qualità dei dati emergenti.
La strada da percorrere per la sicurezza dell'IA
La sicurezza dell'IA è una sfida sfaccettata che richiede lo sforzo collettivo di ricercatori, sviluppatori di intelligenza artificiale, responsabili politici e società in generale.
Come azienda, dobbiamo contribuire a creare una cultura in cui la sicurezza dell'IA abbia la priorità. Ciò include la definizione di norme di sicurezza a livello di settore, la promozione di una cultura di apertura e responsabilità e un fermo impegno a utilizzare l'intelligenza artificiale per aumentare le nostre capacità in linea con i valori più profondamente radicati di Meltwater.
Con questo impegno costante deriva la responsabilità e i team di intelligenza artificiale di Meltwater hanno stabilito una serie di principi etici di intelligenza artificiale di Meltwater ispirati a quelli di Google e dell'OCSE. Questi principi costituiscono la base per il modo in cui Meltwater conduce ricerca e sviluppo in Intelligenza Artificiale, Machine Learning e Data Science.
- Beneficiare la società ogni volta che si presentano opportunità in modi inclusivi e sostenibili.
- Bias e derive sono difetti. Falliscono l'azienda e i nostri clienti.
- Sicurezza, privacy e sicurezza come cittadini di prima classe.
- Traccia tutto e sii responsabile. La trasparenza è fondamentale.
- Siamo scienziati e ingegneri; tutto deve essere provato e testato.
- Utilizzare l'open source quando possibile; controllare tutto il resto e presumere che non sia sicuro.
Meltwater ha stabilito partnership e adesioni per rafforzare ulteriormente il proprio impegno a promuovere pratiche di IA etiche.
- Meltwater ha istituito uno Scientific Advisory Board (SAB), che è un team di illustri ricercatori e professionisti scientifici che offrono indicazioni sulla strategia AI di Meltwater
- Meltwater aderisce alla guida del PR Council per l'IA generativa introdotta nell'aprile 2023
- Meltwater aiuta i brand che aderiscono al Brand Safety Floor & Suitability Framework di WAF GARM fornendo più modelli di intelligenza artificiale per rilevare contenuti dannosi, offensivi e non sicuri in testo, audio, immagini e video, inclusi i casi d'uso di disinformazione attraverso la nostra partnership con Newsguard.
Siamo estremamente orgogliosi dei progressi compiuti da Meltwater nel fornire ai clienti un'intelligenza artificiale etica. Riteniamo che Meltwater sia pronta a continuare a fornire innovazioni rivoluzionarie per semplificare il viaggio dell'intelligence in futuro e siamo entusiasti di continuare ad assumere un ruolo di leadership nel difendere responsabilmente i nostri principi nello sviluppo dell'IA, promuovendo la trasparenza continua, che porta a una maggiore fiducia tra i clienti.