No te pierdas las noticias de la industria del marketing de mañana

Publicado: 2023-06-21

El siguiente es un artículo invitado de John Villafranco, socio de Kelley Drye, que brinda servicios de asesoramiento y litigios a marcas domésticas y compañías Fortune 500 con un enfoque en la ley de publicidad y la protección del consumidor. Las opiniones son propias del autor.

A medida que la tecnología de inteligencia artificial (IA) se desarrolla rápidamente, la ley trabaja para mantener el ritmo a fin de mitigar los riesgos de modelos cada vez más potentes. Las corporaciones que utilizan IA se están dando cuenta rápidamente de las muchas oportunidades que brinda la tecnología, pero también están aprendiendo sobre las preocupaciones legales asociadas en áreas como la protección del consumidor, la privacidad y la ética.

Por ejemplo, ChatGPT y otros modelos de lenguaje extenso (LLM) pueden generar resultados falsos, engañosos, sesgados, ilegales o inexactos, y puede ser difícil rastrear el origen del error o responsabilizar a alguien por las consecuencias. Estos problemas requieren una intervención regulatoria, un hecho reconocido incluso por Sam Altman, director ejecutivo de OpenAI. Y cualquier intervención de este tipo creará riesgos y posibles responsabilidades para los anunciantes y vendedores, al tiempo que priorizará la seguridad.

Orientación de la Comisión Federal de Comercio

La Comisión Federal de Comercio ha declarado que, cuando la conducta es de naturaleza comercial, considera que la regulación está dentro de su dominio. Cuando esa conducta cause daño a los consumidores, las empresas deben esperar que la FTC actúe. Esto se aplica tanto a la IA como a cualquier otra forma de publicidad y marketing tradicional.

En una guía publicada recientemente, la FTC recordó a los usuarios de IA que no deben participar en prácticas que causen más daño que bien y que la tecnología no debe usarse para guiar a las personas de manera injusta o engañosa hacia decisiones dañinas. Las áreas de preocupación que se identificaron incluyen finanzas, salud, educación, vivienda y empleo.

La guía de la FTC también señaló que la manipulación puede ser una práctica engañosa o desleal según la Sección 5 de la Ley de la FTC cuando la salida de IA generativa lleva a un consumidor a un sitio web, proveedor de servicios o producto en particular debido a una relación comercial. La guía es consistente con el enfoque reciente de la FTC en los llamados "patrones oscuros": prácticas o formatos de diseño sofisticados que manipulan o engañan a los consumidores para que tomen medidas que de otro modo no tomarían.

El mes pasado, con referencia al thriller psicológico de 2014 “Ex Machina”, la FTC advirtió a las empresas sobre la dependencia excesiva de los chatbots y la IA generativa para brindar servicio al cliente y resolver las consultas de los consumidores. La FTC expresó su preocupación por la capacidad limitada de la tecnología para resolver problemas complejos, el potencial de información inexacta o insuficiente y los riesgos de seguridad asociados.

En una opinión reciente publicada en el New York Times, la presidenta de la FTC, Lina Khan, afirmó que la FTC está analizando de cerca cómo pueden cumplir mejor su doble mandato de promover la competencia justa y proteger a los estadounidenses de las prácticas publicitarias desleales o engañosas. Su principal preocupación cuando se trata de IA es evitar que bloquee el dominio del mercado de las grandes empresas tecnológicas establecidas, pero las prácticas publicitarias engañosas e injustas relacionadas con la IA están claramente en el radar de la agencia.

Mayores preocupaciones sobre la privacidad

El uso de LLM en productos comerciales también aumenta las preocupaciones de privacidad existentes, lo que puede dañar la reputación de una empresa o poner en duda su integridad con los consumidores y los reguladores gubernamentales. Por ejemplo, ChatGPT puede:

  • Utilizar de manera intencional o inadvertida la información personal obtenida sin base legal o sin la transparencia y notificación adecuadas;
  • Exponer datos personales de los usuarios o referencias a terceros, que pueden acceder o analizar las entradas y salidas de la herramienta, comprometiendo potencialmente la protección de datos o las obligaciones de confidencialidad; y
  • Revelar información confidencial que los usuarios proporcionan a la herramienta, ya sea intencionalmente o no, como datos financieros, registros de salud o secretos comerciales, lo que podría dar lugar a responsabilidades derivadas de violaciones de datos.

Cualquiera de estos resultados podría exponer a una empresa a la responsabilidad en virtud de la Ley de la FTC y los estatutos estatales que prohíben las prácticas y los actos desleales y engañosos.

Quejas y demandas actuales de AI

Las partes interesadas están observando y preparadas para tomar medidas para responsabilizar a las corporaciones. Por ejemplo, el Centro de Inteligencia Artificial y Política Digital (CAIDP) presentó recientemente una queja ante la FTC, instando a la agencia a investigar OpenAI, alegando que sus prácticas comerciales son injustas y engañosas en violación de la Ley de la FTC, y plantea serias dudas con respecto a parcialidad, seguridad infantil, protección al consumidor, ciberseguridad, engaño, privacidad, transparencia y seguridad ciudadana.

También se han presentado varias demandas privadas alegando violaciones de derechos de autor debido a la IA. Por ejemplo, Microsoft, GitHub y Open AI son actualmente los demandados en una demanda colectiva fuera de California que afirma que su producto de inteligencia artificial generadora de código viola la ley de derechos de autor al generar código con licencia sin proporcionar crédito. Getty Images también presentó una demanda contra Stability AI, alegando que su herramienta de arte AI extrajo imágenes de su sitio.

Y la preocupación es global, no meramente doméstica. En marzo de 2023, Garante, la Autoridad de Supervisión de Datos de Italia, ordenó a OpenAI que dejara de procesar los datos de los usuarios italianos bajo una prohibición temporal, afirmando que es probable que ChatGPT infrinja el RGPD (falta de notificación a los usuarios, sin base legal para el procesamiento, falta de verificación de la edad de los usuarios o impedir que los niños utilicen el servicio). Además, la Oficina del Comisionado de Privacidad de Canadá abrió una investigación sobre OpenAI sobre la "recopilación, uso y divulgación de información personal sin consentimiento". La oficina del Comisionado de Privacidad, Philippe Dufresne, ha declarado que mantenerse a la vanguardia de los "avances tecnológicos de rápido movimiento" es un área clave de enfoque.

Consideraciones para los vendedores

Con tantos ojos puestos en la IA, se aconseja a los anunciantes y vendedores que procedan con cuidado. Por ahora, a medida que comienza a materializarse el potencial de impacto positivo de estos sistemas avanzados, eso significa garantizar que la seguridad esté integrada en los sistemas, que los datos se usen de manera responsable, que las prácticas sean transparentes y que se promueva la precisión de los hechos a través de la supervisión humana y la oportunidad de intervención.