Nu ratați știrile din industria de marketing de mâine

Publicat: 2023-06-21

Următoarea este o lucrare invitată a lui John Villafranco, un partener cu Kelley Drye, care oferă servicii de litigii și consiliere mărcilor casnice și companiilor din Fortune 500, cu accent pe legea publicității și protecția consumatorilor. Opiniile sunt ale autorului.

Pe măsură ce tehnologia inteligenței artificiale (AI) se dezvoltă rapid, legea lucrează pentru a ține pasul pentru a atenua riscurile modelelor din ce în ce mai puternice. Corporațiile care folosesc AI realizează rapid numeroasele oportunități oferite de tehnologie, dar învață și despre preocupările legale asociate în domenii precum protecția consumatorilor, confidențialitatea și etica.

De exemplu, ChatGPT și alte modele de limbaj mari (LLM) pot genera rezultate false, înșelătoare, părtinitoare, ilegale sau inexacte și poate fi dificil de urmărit sursa erorii sau de a face pe cineva responsabil pentru consecințe. Aceste probleme necesită intervenție de reglementare - un fapt recunoscut chiar și de Sam Altman, directorul executiv al OpenAI. Și orice astfel de intervenție va crea riscuri și potențiale răspundere pentru agenții de publicitate și agenții de marketing, acordând în același timp prioritate siguranței.

Îndrumări ale Comisiei Federale de Comerț

Comisia Federală pentru Comerț a declarat, în cazul în care comportamentul este de natură comercială, consideră reglementarea ca fiind de domeniul său. În cazul în care acest comportament dăunează consumatorilor, întreprinderile ar trebui să se aștepte ca FTC să acționeze. Acest lucru se aplică AI la fel de mult ca și oricărei alte forme de publicitate și marketing tradițional.

În ghidul publicat recent, FTC le-a reamintit utilizatorilor AI că nu ar trebui să se implice în practici care fac mai mult rău decât bine și că tehnologia nu ar trebui să fie folosită pentru a conduce oamenii în mod nedrept sau înșelător către decizii dăunătoare. Domeniile de îngrijorare identificate includ finanțe, sănătate, educație, locuințe și ocuparea forței de muncă.

Ghidul FTC a remarcat, de asemenea, că manipularea poate fi o practică înșelătoare sau neloială în conformitate cu Secțiunea 5 din Legea FTC, atunci când producția generativă de IA conduce un consumator către un anumit site web, furnizor de servicii sau produs din cauza unei relații comerciale. Îndrumarea este în concordanță cu focalizarea recentă a FTC asupra așa-numitelor „modele întunecate” – practici de design sofisticate sau formate care manipulează sau induc în eroare consumatorii să ia măsuri pe care altfel nu le-ar lua.

Luna trecută, cu referire la thrillerul psihologic din 2014 „Ex Machina”, FTC a avertizat companiile cu privire la bazarea excesivă pe chatbot și AI generativă pentru a oferi servicii clienților și a rezolva întrebările consumatorilor. FTC și-a exprimat îngrijorarea cu privire la capacitatea limitată a tehnologiei de a rezolva probleme complexe, potențialul de informații inexacte sau insuficiente și riscurile de securitate asociate.

Într-o opinie recentă publicată în New York Times, președintele FTC, Lina Khan, a declarat că FTC analizează îndeaproape modul în care își pot îndeplini cel mai bine mandatul dublu de a promova concurența loială și de a proteja americanii de practicile publicitare neloiale sau înșelătoare. Preocuparea ei predominantă când vine vorba de AI este să împiedice aceasta să-și blocheze dominația pe piață a marilor firme de tehnologie existente, dar practicile publicitare neloiale și înșelătoare legate de AI sunt în mod clar pe radarul agenției.

Creșterea preocupărilor legate de confidențialitate

Utilizarea LLM-urilor în produsele de afaceri crește, de asemenea, preocupările existente privind confidențialitatea, ceea ce poate afecta reputația unei companii sau poate pune sub semnul întrebării integritatea acesteia față de consumatori și autoritățile de reglementare guvernamentale. De exemplu, ChatGPT poate:

  • Utilizați în mod intenționat sau din neatenție informațiile personale obținute fără temei legal sau fără transparență și notificare adecvate;
  • Expuneți datele personale sau referințele utilizatorilor către terți, care pot accesa sau analiza intrările și ieșirile instrumentului, putând compromite obligațiile de protecție a datelor sau de confidențialitate; și
  • Dezvăluie informațiile sensibile pe care utilizatorii le furnizează instrumentului, intenționat sau neintenționat, cum ar fi date financiare, înregistrări medicale sau secrete comerciale, care ar putea duce la răspundere ca urmare a încălcării datelor.

Oricare dintre aceste rezultate ar putea expune o companie la răspundere conform Legii FTC și a statutelor de stat care interzic actele și practicile neloiale și înșelătoare.

Plângeri și procese curente privind AI

Părțile interesate urmăresc și sunt pregătite să ia măsuri pentru a trage corporațiile la răspundere. De exemplu, Centrul pentru Inteligență Artificială și Politică Digitală (CAIDP) a depus recent o plângere la FTC, îndemnând agenția să investigheze OpenAI, susținând că practicile sale de afaceri sunt neloiale și înșelătoare, încălcând Legea FTC și ridică întrebări serioase cu privire la părtinire, siguranța copiilor, protecția consumatorilor, securitate cibernetică, înșelăciune, confidențialitate, transparență și siguranță publică.

De asemenea, au fost depuse o serie de procese private pentru încălcări ale drepturilor de autor din cauza AI. De exemplu, Microsoft, GitHub și Open AI sunt în prezent pârâții într-o acțiune colectivă din California, care susține că produsul lor AI generator de cod încalcă legea drepturilor de autor prin emiterea de cod licențiat fără a acorda credit. De asemenea, Getty Images a intentat un proces împotriva Stability AI, acuzând că instrumentul lor de artă AI a răzuit imagini de pe site-ul său.

Iar preocuparea este globală, nu doar internă. În martie 2023, Garante, Autoritatea de Supraveghere a Datelor din Italia, a ordonat OpenAI să înceteze prelucrarea datelor utilizatorilor italieni în temeiul unei interdicții temporare, afirmând că ChatGPT încalcă probabil GDPR (lipsa de notificare pentru utilizatori, nicio bază legală pentru procesare, neverificarea vârstei utilizatorilor). sau împiedică copiii să folosească serviciul). În plus, Biroul Comisarului pentru confidențialitate din Canada a deschis o investigație asupra OpenAI cu privire la „colectarea, utilizarea și dezvăluirea informațiilor personale fără consimțământ”. Biroul comisarului pentru confidențialitate Philippe Dufresne a declarat că rămânerea în fața „progreselor tehnologice în mișcare rapidă” este un domeniu cheie de atenție.

Considerații pentru marketeri

Cu atât de mulți ochi pe AI, agenții de publicitate și agenții de marketing sunt bine sfătuiți să procedeze cu atenție. Deocamdată, pe măsură ce potențialul de impact pozitiv al acestor sisteme avansate începe să fie realizat, asta înseamnă că asigurarea siguranței este integrată în sisteme, datele sunt utilizate în mod responsabil, practicile sunt transparente și acuratețea faptelor este promovată prin supravegherea umană și oportunitatea de intervenție.