Non perdere le novità del settore del marketing di domani

Pubblicato: 2023-06-21

Quello che segue è un pezzo ospite di John Villafranco, un partner di Kelley Drye che fornisce servizi di contenzioso e consulenza a marchi domestici e aziende Fortune 500 con particolare attenzione alla legge sulla pubblicità e alla protezione dei consumatori. Le opinioni sono quelle dell'autore.

Poiché la tecnologia dell'intelligenza artificiale (AI) si sviluppa rapidamente, la legge lavora per tenere il passo al fine di mitigare i rischi di modelli sempre più potenti. Le aziende che utilizzano l'intelligenza artificiale stanno rapidamente realizzando le numerose opportunità offerte dalla tecnologia, ma stanno anche imparando le preoccupazioni legali associate in aree come la protezione dei consumatori, la privacy e l'etica.

Ad esempio, ChatGPT e altri Large Language Models (LLM) possono generare output falsi, fuorvianti, prevenuti, illegali o imprecisi e potrebbe essere difficile risalire alla fonte dell'errore o ritenere qualcuno responsabile delle conseguenze. Questi problemi richiedono un intervento normativo, un fatto riconosciuto anche da Sam Altman, amministratore delegato di OpenAI. E qualsiasi intervento di questo tipo creerà rischi e potenziali responsabilità per inserzionisti e operatori di marketing, dando priorità alla sicurezza.

Linee guida della Federal Trade Commission

La Federal Trade Commission ha affermato che, laddove la condotta sia di natura commerciale, ritiene che la regolamentazione rientri nel suo dominio. Laddove tale condotta causi danni ai consumatori, le imprese dovrebbero aspettarsi che la FTC agisca. Questo vale per l'intelligenza artificiale tanto quanto per qualsiasi altra forma di pubblicità e marketing tradizionali.

In una guida recentemente pubblicata, la FTC ha ricordato agli utenti dell'intelligenza artificiale che non dovrebbero impegnarsi in pratiche che fanno più male che bene e che la tecnologia non dovrebbe essere utilizzata per guidare le persone in modo ingiusto o ingannevole verso decisioni dannose. Le aree di preoccupazione che sono state identificate includono la finanza, la sanità, l'istruzione, l'alloggio e l'occupazione.

La guida FTC ha anche osservato che la manipolazione può essere una pratica ingannevole o sleale ai sensi della Sezione 5 della legge FTC quando l'output dell'IA generativa sta guidando un consumatore verso un particolare sito Web, fornitore di servizi o prodotto a causa di una relazione commerciale. La guida è coerente con la recente attenzione della FTC sui cosiddetti "modelli oscuri" - pratiche o formati di design sofisticati che manipolano o inducono in errore i consumatori a compiere azioni che altrimenti non farebbero.

Il mese scorso, con riferimento al thriller psicologico del 2014 "Ex Machina", la FTC ha messo in guardia le aziende sull'eccessivo affidamento sui chatbot e sull'intelligenza artificiale generativa per fornire assistenza ai clienti e risolvere le richieste dei consumatori. La FTC ha espresso preoccupazione per la limitata capacità della tecnologia di risolvere problemi complessi, la possibilità di informazioni imprecise o insufficienti e i rischi per la sicurezza associati.

In un recente parere pubblicato sul New York Times, la presidente della FTC Lina Khan ha affermato che la FTC sta esaminando da vicino il modo migliore per realizzare il suo duplice mandato di promuovere una concorrenza leale e proteggere gli americani da pratiche pubblicitarie sleali o ingannevoli. La sua preoccupazione principale quando si tratta di intelligenza artificiale è impedire che blocchi il dominio del mercato di grandi aziende tecnologiche storiche, ma le pratiche pubblicitarie sleali e ingannevoli legate all'IA sono chiaramente sul radar dell'agenzia.

Maggiori problemi di privacy

L'uso di LLM nei prodotti aziendali aumenta anche i problemi di privacy esistenti, che possono compromettere la reputazione di un'azienda o altrimenti mettere in discussione la sua integrità con i consumatori e le autorità di regolamentazione del governo. Ad esempio, ChatGPT può:

  • Utilizzare intenzionalmente o inavvertitamente informazioni personali ottenute senza base legale o senza adeguata trasparenza e preavviso;
  • Esporre i dati personali degli utenti o i riferimenti a terzi, che possono accedere o analizzare gli input e gli output dello strumento, compromettendo potenzialmente la protezione dei dati o gli obblighi di riservatezza; E
  • Rivelare informazioni sensibili che gli utenti forniscono allo strumento, intenzionalmente o meno, come dati finanziari, cartelle cliniche o segreti commerciali, che potrebbero comportare responsabilità derivanti da violazioni dei dati.

Ognuno di questi risultati potrebbe esporre una società alla responsabilità ai sensi della legge FTC e degli statuti statali che vietano atti e pratiche sleali e ingannevoli.

Attuali denunce e azioni legali contro l'IA

Le parti interessate stanno guardando e sono pronte a prendere provvedimenti per ritenere le società responsabili. Ad esempio, il Center for Artificial Intelligence and Digital Policy (CAIDP) ha recentemente presentato un reclamo alla FTC, esortando l'agenzia a indagare su OpenAI, sostenendo che le sue pratiche commerciali sono sleali e ingannevoli in violazione della legge FTC e sollevando seri interrogativi riguardo pregiudizi, sicurezza dei bambini, protezione dei consumatori, sicurezza informatica, inganno, privacy, trasparenza e sicurezza pubblica.

Sono state inoltre intentate numerose azioni legali private per presunte violazioni del copyright dovute all'intelligenza artificiale. Ad esempio, Microsoft, GitHub e Open AI sono attualmente gli imputati in un'azione collettiva fuori dalla California che afferma che il loro prodotto di intelligenza artificiale che genera codice viola la legge sul copyright emettendo codice concesso in licenza senza fornire credito. Getty Images ha anche intentato una causa contro Stability AI, sostenendo che il loro strumento artistico AI ha cancellato le immagini dal suo sito.

E la preoccupazione è globale, non solo interna. Nel marzo 2023, il Garante, l'autorità italiana di controllo dei dati personali, ha ordinato a OpenAI di interrompere l'elaborazione dei dati degli utenti italiani con un divieto temporaneo, affermando che ChatGPT probabilmente viola il GDPR (mancanza di preavviso agli utenti, nessuna base legale per l'elaborazione, mancata verifica dell'età degli utenti o impedire ai bambini di utilizzare il servizio). Inoltre, l'Office of the Privacy Commissioner canadese ha avviato un'indagine su OpenAI in merito alla "raccolta, utilizzo e divulgazione di informazioni personali senza consenso". L'ufficio del commissario per la privacy Philippe Dufresne ha dichiarato che stare al passo con i "progressi tecnologici in rapido movimento" è un'area chiave di attenzione.

Considerazioni per i marketer

Con così tanti occhi puntati sull'intelligenza artificiale, si consiglia agli inserzionisti e agli esperti di marketing di procedere con cautela. Per ora, mentre inizia a realizzarsi il potenziale di impatto positivo di questi sistemi avanzati, ciò significa garantire che la sicurezza sia integrata nei sistemi, che i dati vengano utilizzati in modo responsabile, che le pratiche siano trasparenti e che l'accuratezza dei fatti venga promossa attraverso la supervisione umana e l'opportunità di intervento.