Verpassen Sie nicht die Neuigkeiten aus der Marketingbranche von morgen

Veröffentlicht: 2023-06-21

Das Folgende ist ein Gastbeitrag von John Villafranco, einem Partner von Kelley Drye, der Haushaltsmarken und Fortune-500-Unternehmen Rechtsstreitigkeiten und Beratungsdienste mit Schwerpunkt auf Werberecht und Verbraucherschutz anbietet. Die Meinungen sind die eigenen des Autors.

Da sich die Technologie der künstlichen Intelligenz (KI) rasant weiterentwickelt, versucht das Gesetz, Schritt zu halten, um die Risiken immer leistungsfähigerer Modelle zu mindern. Unternehmen, die KI einsetzen, erkennen schnell die vielen Möglichkeiten, die die Technologie bietet, lernen aber auch die damit verbundenen rechtlichen Bedenken in Bereichen wie Verbraucherschutz, Privatsphäre und Ethik kennen.

Beispielsweise können ChatGPT und andere Large Language Models (LLMs) falsche, irreführende, voreingenommene, illegale oder ungenaue Ausgaben generieren, und es kann schwierig sein, die Fehlerquelle zu ermitteln oder jemanden für die Folgen verantwortlich zu machen. Diese Probleme erfordern ein Eingreifen der Regulierungsbehörden – eine Tatsache, die sogar Sam Altman, CEO von OpenAI, anerkannt hat. Und jeder derartige Eingriff birgt Risiken und eine potenzielle Haftung für Werbetreibende und Vermarkter, wobei die Sicherheit Vorrang hat.

Leitlinien der Federal Trade Commission

Die Federal Trade Commission hat erklärt, dass die Regulierung in ihrem Zuständigkeitsbereich liegt, wenn das Verhalten kommerzieller Natur ist. Wenn dieses Verhalten den Verbrauchern schadet, sollten Unternehmen damit rechnen, dass die FTC tätig wird. Dies gilt für KI genauso wie für jede andere Form der traditionellen Werbung und des Marketings.

In kürzlich veröffentlichten Leitlinien erinnerte die FTC Nutzer von KI daran, dass sie sich nicht an Praktiken beteiligen sollten, die mehr schaden als nützen, und dass die Technologie nicht dazu genutzt werden sollte, Menschen auf unfaire oder irreführende Weise zu schädlichen Entscheidungen zu verleiten. Zu den identifizierten Problembereichen zählen Finanzen, Gesundheit, Bildung, Wohnen und Beschäftigung.

In den Leitlinien der FTC wurde außerdem darauf hingewiesen, dass Manipulation gemäß Abschnitt 5 des FTC-Gesetzes eine betrügerische oder unlautere Praxis sein kann, wenn generative KI-Ausgaben einen Verbraucher aufgrund einer Geschäftsbeziehung zu einer bestimmten Website, einem bestimmten Dienstanbieter oder einem bestimmten Produkt führen. Die Leitlinien stehen im Einklang mit der jüngsten Fokussierung der FTC auf sogenannte „dunkle Muster“ – ausgefeilte Designpraktiken oder -formate, die Verbraucher manipulieren oder irreführen, damit sie Maßnahmen ergreifen, die sie sonst nicht ergreifen würden.

Letzten Monat warnte die FTC Unternehmen mit Bezug auf den Psychothriller „Ex Machina“ aus dem Jahr 2014 davor, sich zu sehr auf Chatbots und generative KI zu verlassen, um Kundenservice zu bieten und Verbraucheranfragen zu beantworten. Die FTC äußerte Bedenken hinsichtlich der begrenzten Fähigkeit der Technologie zur Lösung komplexer Probleme, der Möglichkeit ungenauer oder unzureichender Informationen und der damit verbundenen Sicherheitsrisiken.

In einer kürzlich in der New York Times veröffentlichten Stellungnahme erklärte FTC-Vorsitzende Lina Khan, dass die FTC genau prüft, wie sie ihr Doppelmandat, fairen Wettbewerb zu fördern und Amerikaner vor unfairen oder irreführenden Werbepraktiken zu schützen, am besten erfüllen kann. Beim Thema KI geht es ihr vor allem darum, zu verhindern, dass sie die Marktbeherrschung großer etablierter Technologieunternehmen an sich reißt, doch unlautere und irreführende Werbepraktiken im Zusammenhang mit KI sind eindeutig auf dem Radar der Agentur.

Erhöhte Bedenken hinsichtlich der Privatsphäre

Der Einsatz von LLMs in Unternehmensprodukten erhöht auch bestehende Datenschutzbedenken, die den Ruf eines Unternehmens schädigen oder seine Integrität bei Verbrauchern und staatlichen Regulierungsbehörden auf andere Weise in Frage stellen können. ChatGPT kann beispielsweise:

  • Absichtlich oder unabsichtlich erhaltene personenbezogene Daten ohne Rechtsgrundlage oder ohne angemessene Transparenz und Benachrichtigung nutzen;
  • Geben Sie die persönlichen Daten oder Verweise der Benutzer an Dritte weiter, die auf die Eingaben und Ausgaben des Tools zugreifen oder diese analysieren können, was möglicherweise den Datenschutz oder die Vertraulichkeitspflichten beeinträchtigt. Und
  • Geben Sie vertrauliche Informationen preis, die Benutzer dem Tool absichtlich oder unabsichtlich zur Verfügung stellen, wie z. B. Finanzdaten, Gesundheitsakten oder Geschäftsgeheimnisse, was zu einer Haftung aufgrund von Datenschutzverletzungen führen kann.

Jedes dieser Ergebnisse könnte dazu führen, dass ein Unternehmen gemäß dem FTC-Gesetz und den staatlichen Gesetzen haftbar gemacht wird, die unlautere und betrügerische Handlungen und Praktiken verbieten.

Aktuelle KI-Beschwerden und Klagen

Interessierte Parteien schauen zu und sind bereit, Schritte zu unternehmen, um Unternehmen zur Rechenschaft zu ziehen. Beispielsweise reichte das Center for Artificial Intelligence and Digital Policy (CAIDP) kürzlich eine Beschwerde bei der FTC ein und forderte die Behörde auf, OpenAI zu untersuchen. Es wurde behauptet, dass seine Geschäftspraktiken unfair und irreführend seien und gegen das FTC-Gesetz verstoßen, und wirft ernsthafte Fragen dazu auf Voreingenommenheit, Kindersicherheit, Verbraucherschutz, Cybersicherheit, Täuschung, Privatsphäre, Transparenz und öffentliche Sicherheit.

Es wurden auch mehrere Privatklagen wegen angeblicher Urheberrechtsverletzungen durch KI eingereicht. Beispielsweise sind Microsoft, GitHub und Open AI derzeit Beklagte in einer Sammelklage aus Kalifornien, in der behauptet wird, dass ihr codegenerierendes KI-Produkt gegen das Urheberrecht verstößt, indem es lizenzierten Code ohne Quellenangabe ausgibt. Getty Images reichte außerdem eine Klage gegen Stability AI ein und behauptete, ihr KI-Kunsttool habe Bilder von seiner Website entfernt.

Und die Sorge ist global und nicht nur national. Im März 2023 ordnete Garante, die italienische Datenaufsichtsbehörde, OpenAI an, die Verarbeitung italienischer Benutzerdaten im Rahmen eines vorübergehenden Verbots einzustellen, mit der Begründung, dass ChatGPT wahrscheinlich gegen die DSGVO verstößt (fehlende Benachrichtigung der Benutzer, keine Rechtsgrundlage für die Verarbeitung, fehlende Überprüfung des Alters der Benutzer). oder verhindern, dass Kinder den Dienst nutzen). Darüber hinaus leitete das Büro des Datenschutzbeauftragten Kanadas eine Untersuchung gegen OpenAI über die „Erhebung, Verwendung und Offenlegung personenbezogener Daten ohne Zustimmung“ ein. Das Büro des Datenschutzbeauftragten Philippe Dufresne hat erklärt, dass es ein zentraler Schwerpunkt sei, dem „rasanten technologischen Fortschritt“ immer einen Schritt voraus zu sein.

Überlegungen für Vermarkter

Bei so vielen Augen auf KI sind Werbetreibende und Vermarkter gut beraten, vorsichtig vorzugehen. Da das Potenzial für positive Auswirkungen dieser fortschrittlichen Systeme allmählich erkannt wird, bedeutet dies, sicherzustellen, dass Sicherheit in die Systeme integriert ist, Daten verantwortungsvoll genutzt werden, Praktiken transparent sind und die sachliche Genauigkeit durch menschliche Aufsicht und Interventionsmöglichkeiten gefördert wird.