Ne manquez pas l'actualité marketing de demain
Publié: 2023-06-21Ce qui suit est un article invité de John Villafranco, un partenaire de Kelley Drye qui fournit des services de contentieux et de conseil aux marques domestiques et aux entreprises du Fortune 500 en mettant l'accent sur le droit de la publicité et la protection des consommateurs. Les opinions sont celles de l'auteur.
Alors que la technologie de l'intelligence artificielle (IA) se développe rapidement, la loi s'efforce de suivre le rythme afin d'atténuer les risques de modèles de plus en plus puissants. Les entreprises qui utilisent l'IA réalisent rapidement les nombreuses opportunités offertes par la technologie, mais prennent également connaissance des préoccupations juridiques associées dans des domaines tels que la protection des consommateurs, la confidentialité et l'éthique.
Par exemple, ChatGPT et d'autres grands modèles de langage (LLM) peuvent générer des sorties fausses, trompeuses, biaisées, illégales ou inexactes, et il peut être difficile de retracer la source de l'erreur ou de tenir quiconque responsable des conséquences. Ces problèmes nécessitent une intervention réglementaire - un fait reconnu même par Sam Altman, directeur général d'OpenAI. Et toute intervention de ce type créera des risques et une responsabilité potentielle pour les annonceurs et les spécialistes du marketing, tout en donnant la priorité à la sécurité.
Directives de la Commission fédérale du commerce
La Federal Trade Commission a déclaré que lorsque la conduite est de nature commerciale, elle considère que la réglementation relève de son domaine. Lorsque cette conduite cause un préjudice aux consommateurs, les entreprises doivent s'attendre à ce que la FTC agisse. Cela s'applique autant à l'IA qu'à toute autre forme de publicité et de marketing traditionnels.
Dans des directives récemment publiées, la FTC a rappelé aux utilisateurs de l'IA qu'ils ne devraient pas s'engager dans des pratiques qui font plus de mal que de bien et que la technologie ne devrait pas être utilisée pour orienter les gens de manière injuste ou trompeuse vers des décisions nuisibles. Les domaines de préoccupation qui ont été identifiés comprennent les finances, la santé, l'éducation, le logement et l'emploi.
Les directives de la FTC ont également noté que la manipulation peut être une pratique trompeuse ou déloyale en vertu de l'article 5 de la loi FTC lorsque la sortie de l'IA générative conduit un consommateur vers un site Web, un fournisseur de services ou un produit particulier en raison d'une relation commerciale. Les directives sont conformes à l'accent mis récemment par la FTC sur les soi-disant «modèles sombres» - des pratiques ou des formats de conception sophistiqués qui manipulent ou induisent les consommateurs en erreur pour qu'ils prennent des mesures qu'ils ne prendraient pas autrement.
Le mois dernier, en référence au thriller psychologique "Ex Machina" de 2014, la FTC a mis en garde les entreprises contre le recours excessif aux chatbots et à l'IA générative pour fournir un service client et résoudre les demandes des consommateurs. La FTC s'est dite préoccupée par la capacité limitée de la technologie à résoudre des problèmes complexes, le potentiel d'informations inexactes ou insuffisantes et les risques de sécurité associés.
Dans un récent avis publié dans le New York Times, la présidente de la FTC, Lina Khan, a déclaré que la FTC examinait de près la meilleure façon de remplir son double mandat de promouvoir une concurrence loyale et de protéger les Américains contre les pratiques publicitaires déloyales ou trompeuses. Sa principale préoccupation en matière d'IA est de l'empêcher de verrouiller la domination du marché des grandes entreprises technologiques en place, mais les pratiques publicitaires déloyales et trompeuses liées à l'IA sont clairement sur le radar de l'agence.
Augmentation des problèmes de confidentialité
L'utilisation de LLM dans les produits commerciaux augmente également les problèmes de confidentialité existants, ce qui peut nuire à la réputation d'une entreprise ou remettre en question son intégrité auprès des consommateurs et des autorités de réglementation gouvernementales. Par exemple, ChatGPT peut :
- Utiliser intentionnellement ou par inadvertance des informations personnelles obtenues sans base légale ou sans transparence et préavis adéquats ;
- exposer les données personnelles ou les références des utilisateurs à des tiers, qui peuvent accéder ou analyser les entrées et les sorties de l'outil, compromettant potentiellement la protection des données ou les obligations de confidentialité ; et
- Révéler les informations sensibles que les utilisateurs fournissent à l'outil, intentionnellement ou non, telles que des données financières, des dossiers de santé ou des secrets commerciaux, ce qui pourrait entraîner une responsabilité résultant de violations de données.
N'importe lequel de ces résultats pourrait exposer une entreprise à une responsabilité en vertu de la loi FTC et des lois des États interdisant les actes et pratiques déloyaux et trompeurs.
Plaintes et poursuites en cours contre l'IA
Les parties intéressées regardent et sont prêtes à prendre des mesures pour tenir les entreprises responsables. Par exemple, le Center for Artificial Intelligence and Digital Policy (CAIDP) a récemment déposé une plainte auprès de la FTC, exhortant l'agence à enquêter sur OpenAI, alléguant que ses pratiques commerciales sont déloyales et trompeuses en violation de la loi FTC, et soulevant de sérieuses questions concernant préjugés, sécurité des enfants, protection des consommateurs, cybersécurité, tromperie, vie privée, transparence et sécurité publique.
Un certain nombre de poursuites privées ont également été déposées alléguant des violations du droit d'auteur dues à l'IA. Par exemple, Microsoft, GitHub et Open AI sont actuellement les défendeurs dans un recours collectif en Californie qui prétend que leur produit d'IA générant du code viole la loi sur le droit d'auteur en produisant du code sous licence sans fournir de crédit. Getty Images a également intenté une action en justice contre Stability AI, alléguant que leur outil d'art IA a récupéré des images de son site.
Et l'inquiétude est mondiale, pas seulement nationale. En mars 2023, Garante, l'autorité italienne de surveillance des données, a ordonné à OpenAI de cesser de traiter les données des utilisateurs italiens dans le cadre d'une interdiction temporaire, déclarant que ChatGPT violait probablement le RGPD (absence d'avis aux utilisateurs, pas de base légale pour le traitement, défaut de vérification de l'âge des utilisateurs ou empêcher les enfants d'utiliser le service). De plus, le Commissariat à la protection de la vie privée du Canada a ouvert une enquête sur OpenAI concernant la « collecte, l'utilisation et la divulgation de renseignements personnels sans consentement ». Le bureau du commissaire à la protection de la vie privée, Philippe Dufresne, a déclaré que rester à l'avant-garde des « progrès technologiques rapides » est un domaine d'intérêt clé.
Considérations pour les spécialistes du marketing
Avec autant d'attention sur l'IA, les annonceurs et les spécialistes du marketing sont bien avisés de procéder avec prudence. Pour l'instant, alors que le potentiel d'impact positif de ces systèmes avancés commence à se réaliser, cela signifie qu'il faut s'assurer que la sécurité est intégrée aux systèmes, que les données sont utilisées de manière responsable, que les pratiques sont transparentes et que l'exactitude factuelle est promue grâce à une surveillance humaine et à des possibilités d'intervention.