Nie przegap jutrzejszych wiadomości z branży marketingowej
Opublikowany: 2023-06-21Poniżej znajduje się gościnny artykuł Johna Villafranco, partnera Kelley Drye, który świadczy usługi sądowe i doradcze dla marek gospodarstwa domowego i firm z listy Fortune 500, ze szczególnym uwzględnieniem prawa reklamy i ochrony konsumentów. Opinie są własnością autora.
Ponieważ technologia sztucznej inteligencji (AI) rozwija się szybko, prawo stara się nadążyć za tym tempem, aby ograniczyć ryzyko związane z coraz potężniejszymi modelami. Korporacje wykorzystujące sztuczną inteligencję szybko zdają sobie sprawę z wielu możliwości, jakie daje ta technologia, ale jednocześnie dowiadują się o związanych z tym kwestiach prawnych w takich obszarach, jak ochrona konsumentów, prywatność i etyka.
Na przykład ChatGPT i inne modele dużych języków (LLM) mogą generować dane wyjściowe, które są fałszywe, wprowadzające w błąd, stronnicze, nielegalne lub niedokładne, a wyśledzenie źródła błędu lub pociągnięcie kogokolwiek do odpowiedzialności za konsekwencje może być trudne. Kwestie te wymagają interwencji regulacyjnej — fakt ten przyznał nawet Sam Altman, dyrektor generalny OpenAI. A każda taka interwencja stworzy ryzyko i potencjalną odpowiedzialność reklamodawców i marketerów, przy jednoczesnym priorytetowym traktowaniu bezpieczeństwa.
Wytyczne Federalnej Komisji Handlu
Federalna Komisja Handlu stwierdziła, że jeśli zachowanie ma charakter handlowy, uważa regulacje za leżące w jej domenie. Jeżeli takie postępowanie wyrządza szkodę konsumentom, przedsiębiorstwa powinny oczekiwać podjęcia działań przez FTC. Dotyczy to sztucznej inteligencji w takim samym stopniu, jak każdej innej formy tradycyjnej reklamy i marketingu.
W niedawno wydanych wytycznych FTC przypomniała użytkownikom sztucznej inteligencji, że nie powinni angażować się w praktyki, które wyrządzają więcej szkody niż pożytku, a technologia nie powinna być wykorzystywana do niesprawiedliwego lub oszukańczego kierowania ludzi do szkodliwych decyzji. Zidentyfikowane obszary budzące niepokój to finanse, zdrowie, edukacja, mieszkalnictwo i zatrudnienie.
W wytycznych FTC zauważono również, że manipulacja może być oszukańczą lub nieuczciwą praktyką zgodnie z sekcją 5 ustawy o FKH, gdy generatywne dane wyjściowe AI kierują konsumenta do określonej strony internetowej, usługodawcy lub produktu z powodu relacji handlowej. Wytyczne są zgodne z niedawnym skupieniem się FTC na tak zwanych „ciemnych wzorcach” — wyrafinowanych praktykach projektowych lub formatach, które manipulują lub wprowadzają konsumentów w błąd, aby podejmowali działania, których inaczej by nie podjęli.
W zeszłym miesiącu, w odniesieniu do thrillera psychologicznego „Ex Machina” z 2014 r., FTC ostrzegła firmy przed nadmiernym poleganiem na chatbotach i generatywnej sztucznej inteligencji w celu zapewnienia obsługi klienta i rozwiązywania zapytań konsumentów. FTC wyraziła zaniepokojenie ograniczoną zdolnością technologii do rozwiązywania złożonych problemów, możliwością uzyskania niedokładnych lub niewystarczających informacji oraz związanymi z tym zagrożeniami dla bezpieczeństwa.
W niedawnej opinii opublikowanej w New York Times przewodnicząca FTC, Lina Khan, stwierdziła, że FTC uważnie przygląda się, w jaki sposób może najlepiej realizować swój podwójny mandat w zakresie promowania uczciwej konkurencji i ochrony Amerykanów przed nieuczciwymi lub oszukańczymi praktykami reklamowymi. Jej głównym zmartwieniem, jeśli chodzi o sztuczną inteligencję, jest zapobieżenie zablokowaniu dominacji rynkowej dużych, obecnych firm technologicznych, ale nieuczciwe i oszukańcze praktyki reklamowe związane z sztuczną inteligencją są wyraźnie na radarze agencji.
Zwiększone obawy dotyczące prywatności
Wykorzystanie LLM w produktach biznesowych zwiększa również istniejące obawy dotyczące prywatności, co może zaszkodzić reputacji firmy lub w inny sposób podważyć jej integralność wobec konsumentów i rządowych organów regulacyjnych. Na przykład ChatGPT może:
- Celowo lub nieumyślnie wykorzystywać dane osobowe uzyskane bez podstawy prawnej lub bez odpowiedniej przejrzystości i powiadomienia;
- Ujawniać danych osobowych użytkowników lub odnośników stronom trzecim, które mogą uzyskiwać dostęp do danych wejściowych i wyjściowych narzędzia lub je analizować, co potencjalnie zagraża ochronie danych lub zobowiązaniom do zachowania poufności; I
- Ujawniaj poufne informacje, które użytkownicy przekazują do narzędzia celowo lub nieumyślnie, takie jak dane finansowe, dokumentacja medyczna lub tajemnice handlowe, co może skutkować odpowiedzialnością wynikającą z naruszenia danych.
Każdy z tych wyników może narazić firmę na odpowiedzialność wynikającą z ustawy o FTC i ustaw stanowych zakazujących nieuczciwych i oszukańczych działań i praktyk.
Bieżące skargi i pozwy AI
Zainteresowane strony obserwują i są gotowe podjąć kroki w celu pociągnięcia korporacji do odpowiedzialności. Na przykład Centrum Sztucznej Inteligencji i Polityki Cyfrowej (CAIDP) niedawno złożyło skargę do FTC, wzywając agencję do zbadania OpenAI, twierdząc, że jej praktyki biznesowe są nieuczciwe i oszukańcze, co stanowi naruszenie ustawy o FTC, oraz podnosząc poważne pytania dotyczące stronniczość, bezpieczeństwo dzieci, ochrona konsumentów, cyberbezpieczeństwo, oszustwo, prywatność, przejrzystość i bezpieczeństwo publiczne.
Złożono również szereg pozwów prywatnych, w których zarzuca się naruszenie praw autorskich przez sztuczną inteligencję. Na przykład Microsoft, GitHub i Open AI są obecnie pozwanymi w pozwie zbiorowym z Kalifornii, który twierdzi, że ich produkt AI do generowania kodu narusza prawa autorskie, generując licencjonowany kod bez podania źródła. Getty Images złożyło również pozew przeciwko Stability AI, twierdząc, że ich narzędzie AI zeskrobało obrazy ze swojej strony.
A troska ma charakter globalny, a nie tylko krajowy. W marcu 2023 roku Garante, włoski organ nadzoru danych, nakazał OpenAI zaprzestanie przetwarzania danych włoskich użytkowników w ramach tymczasowego zakazu, stwierdzając, że ChatGPT prawdopodobnie narusza RODO (brak powiadomienia użytkowników, brak podstawy prawnej do przetwarzania, brak weryfikacji wieku użytkowników lub uniemożliwić dzieciom korzystanie z usługi). Ponadto kanadyjskie Biuro Komisarza ds. Prywatności wszczęło dochodzenie w sprawie OpenAI w sprawie „gromadzenia, wykorzystywania i ujawniania danych osobowych bez zgody”. Biuro komisarza ds. prywatności Philippe'a Dufresne'a stwierdziło, że kluczowym obszarem zainteresowania jest wyprzedzanie „szybko poruszających się postępów technologicznych”.
Uwagi dla marketerów
Przy tak wielu oczach AI, reklamodawcom i marketerom zaleca się ostrożne postępowanie. Na razie, gdy zaczyna się realizować potencjał pozytywnego wpływu tych zaawansowanych systemów, oznacza to zapewnienie bezpieczeństwa wbudowanego w systemy, odpowiedzialne wykorzystywanie danych, przejrzyste praktyki i promowanie dokładności faktów poprzez nadzór ludzki i możliwość interwencji.