Não perca as notícias do setor de marketing de amanhã

Publicados: 2023-06-21

A seguir, um artigo de John Villafranco, sócio de Kelley Drye, que fornece serviços de contencioso e aconselhamento para marcas domésticas e empresas da Fortune 500 com foco em leis de publicidade e proteção ao consumidor. As opiniões são do próprio autor.

À medida que a tecnologia de inteligência artificial (IA) se desenvolve rapidamente, a lei trabalha para acompanhar o ritmo, a fim de mitigar os riscos de modelos cada vez mais poderosos. As corporações que usam IA estão percebendo rapidamente as muitas oportunidades oferecidas pela tecnologia, mas também estão aprendendo sobre as preocupações legais associadas em áreas como proteção ao consumidor, privacidade e ética.

Por exemplo, ChatGPT e outros Large Language Models (LLMs) podem gerar saídas que são falsas, enganosas, tendenciosas, ilegais ou imprecisas, e pode ser difícil rastrear a origem do erro ou responsabilizar alguém pelas consequências. Essas questões requerem intervenção regulatória – um fato reconhecido até mesmo por Sam Altman, executivo-chefe da OpenAI. E qualquer intervenção desse tipo criará riscos e possíveis responsabilidades para anunciantes e profissionais de marketing, priorizando a segurança.

Orientação da Comissão Federal de Comércio

A Federal Trade Commission declarou que, quando a conduta é de natureza comercial, considera que a regulamentação está dentro de seu domínio. Quando essa conduta causar danos aos consumidores, as empresas devem esperar que a FTC aja. Isso se aplica à IA tanto quanto a qualquer outra forma de publicidade e marketing tradicional.

Em orientação divulgada recentemente, a FTC lembrou aos usuários de IA que eles não devem se envolver em práticas que façam mais mal do que bem e que a tecnologia não deve ser usada para conduzir as pessoas de forma injusta ou enganosa a decisões prejudiciais. As áreas de preocupação identificadas incluem finanças, saúde, educação, habitação e emprego.

A orientação da FTC também observou que a manipulação pode ser uma prática enganosa ou injusta de acordo com a Seção 5 da Lei da FTC quando a saída de IA generativa está levando um consumidor a um determinado site, provedor de serviços ou produto por causa de uma relação comercial. A orientação é consistente com o foco recente da FTC nos chamados “padrões obscuros” – práticas ou formatos sofisticados de design que manipulam ou induzem os consumidores a tomar ações que de outra forma não tomariam.

No mês passado, com referência ao thriller psicológico de 2014 “Ex Machina”, a FTC alertou as empresas sobre o excesso de confiança em chatbots e IA generativa para fornecer atendimento ao cliente e resolver dúvidas do consumidor. A FTC expressou preocupação com a capacidade limitada da tecnologia para resolver problemas complexos, o potencial de informações imprecisas ou insuficientes e os riscos de segurança associados.

Em uma opinião recente publicada no New York Times, a presidente da FTC, Lina Khan, afirmou que a FTC está analisando de perto a melhor forma de cumprir seu duplo mandato de promover a concorrência justa e proteger os americanos de práticas de publicidade injustas ou enganosas. Sua preocupação predominante quando se trata de IA é impedir que ela bloqueie o domínio do mercado de grandes empresas de tecnologia estabelecidas, mas as práticas de publicidade injustas e enganosas relacionadas à IA estão claramente no radar da agência.

Aumento das preocupações com a privacidade

O uso de LLMs em produtos comerciais também aumenta as preocupações de privacidade existentes, o que pode prejudicar a reputação de uma empresa ou colocar em questão sua integridade com consumidores e reguladores governamentais. Por exemplo, o ChatGPT pode:

  • Usar intencionalmente ou inadvertidamente informações pessoais obtidas sem base legal ou sem transparência e aviso adequados;
  • Expor dados pessoais ou referências dos usuários a terceiros, que possam acessar ou analisar as entradas e saídas da ferramenta, podendo comprometer a proteção de dados ou as obrigações de confidencialidade; e
  • Revelar informações confidenciais que os usuários fornecem à ferramenta, intencionalmente ou não, como dados financeiros, registros de saúde ou segredos comerciais, o que pode resultar em responsabilidade decorrente de violações de dados.

Qualquer um desses resultados pode expor uma empresa à responsabilidade de acordo com a Lei da FTC e os estatutos estaduais que proíbem atos e práticas injustas e enganosas.

Reclamações e ações judiciais atuais de IA

Os interessados ​​estão atentos e preparados para tomar medidas para responsabilizar as empresas. Por exemplo, o Centro de Inteligência Artificial e Política Digital (CAIDP) apresentou recentemente uma reclamação junto à FTC, instando a agência a investigar a OpenAI, alegando que suas práticas comerciais são injustas e enganosas em violação da Lei FTC e levantam sérias questões sobre preconceito, segurança infantil, proteção ao consumidor, segurança cibernética, fraude, privacidade, transparência e segurança pública.

Uma série de ações judiciais privadas também foram movidas alegando violações de direitos autorais devido à IA. Por exemplo, Microsoft, GitHub e Open AI são atualmente os réus em uma ação coletiva na Califórnia que alega que seu produto de IA gerador de código viola a lei de direitos autorais ao fornecer código licenciado sem fornecer crédito. A Getty Images também entrou com uma ação contra a Stability AI, alegando que sua ferramenta de arte AI raspou imagens de seu site.

E a preocupação é global, não meramente doméstica. Em março de 2023, Garante, Autoridade Supervisora ​​de Dados da Itália, ordenou que a OpenAI parasse de processar os dados dos usuários italianos sob uma proibição temporária, afirmando que o ChatGPT provavelmente viola o GDPR (falta de aviso aos usuários, sem base legal para o processamento, falha na verificação da idade dos usuários ou impedir que crianças usem o serviço). Além disso, o Gabinete do Comissário de Privacidade do Canadá abriu uma investigação sobre a OpenAI sobre a “coleta, uso e divulgação de informações pessoais sem consentimento”. O escritório do comissário de privacidade Philippe Dufresne afirmou que ficar à frente dos “avanços tecnológicos em rápida evolução” é uma área-chave de foco.

Considerações para profissionais de marketing

Com tantos olhos na IA, os anunciantes e profissionais de marketing são aconselhados a proceder com cuidado. Por enquanto, à medida que o potencial de impacto positivo desses sistemas avançados começa a ser percebido, isso significa garantir que a segurança seja incorporada aos sistemas, os dados sejam usados ​​com responsabilidade, as práticas sejam transparentes e a precisão factual seja promovida por meio de supervisão humana e oportunidade de intervenção.