Не пропустите завтрашние новости маркетинговой индустрии
Опубликовано: 2023-06-21Ниже приводится гостевая статья Джона Виллафранко, партнера Келли Драй, который предоставляет судебные и консультационные услуги бытовым брендам и компаниям из списка Fortune 500, уделяя особое внимание законодательству о рекламе и защите прав потребителей. Мнения принадлежат автору.
Поскольку технология искусственного интеллекта (ИИ) быстро развивается, закон работает, чтобы идти в ногу со временем, чтобы снизить риски, связанные со все более мощными моделями. Корпорации, использующие ИИ, быстро осознают множество возможностей, предоставляемых этой технологией, но также узнают о связанных с этим юридических проблемах в таких областях, как защита прав потребителей, конфиденциальность и этика.
Например, ChatGPT и другие модели больших языков (LLM) могут генерировать результаты, которые являются ложными, вводящими в заблуждение, предвзятыми, незаконными или неточными, и может быть трудно отследить источник ошибки или привлечь кого-либо к ответственности за последствия. Эти проблемы требуют вмешательства регулирующих органов — факт, признанный даже Сэмом Альтманом, исполнительным директором OpenAI. И любое такое вмешательство создаст риски и потенциальную ответственность для рекламодателей и маркетологов, при этом безопасность будет отдаваться в первую очередь.
Руководство Федеральной торговой комиссии
Федеральная торговая комиссия заявила, что в тех случаях, когда поведение носит коммерческий характер, она считает, что регулирование находится в ее компетенции. В тех случаях, когда такое поведение причиняет вред потребителям, предприятия должны ожидать действий FTC. Это относится к ИИ так же, как и к любой другой форме традиционной рекламы и маркетинга.
В недавно выпущенном руководстве FTC напомнила пользователям ИИ, что они не должны заниматься методами, которые приносят больше вреда, чем пользы, и что технология не должна использоваться для того, чтобы несправедливо или обманным путем подтолкнуть людей к принятию вредных решений. Выявленные проблемные области включают финансы, здравоохранение, образование, жилье и занятость.
В руководстве FTC также отмечается, что манипуляция может быть обманчивой или недобросовестной практикой в соответствии с разделом 5 Закона о FTC, когда генеративный вывод ИИ приводит потребителя к определенному веб-сайту, поставщику услуг или продукту из-за коммерческих отношений. Руководство согласуется с недавним вниманием FTC к так называемым «темным шаблонам» — сложным методам проектирования или форматам, которые манипулируют потребителями или вводят их в заблуждение, заставляя совершать действия, которые они в противном случае не предприняли бы.
В прошлом месяце, ссылаясь на психологический триллер 2014 года «Из машины», Федеральная торговая комиссия предупредила компании о чрезмерной зависимости от чат-ботов и генеративного ИИ для обслуживания клиентов и решения запросов потребителей. FTC выразила обеспокоенность по поводу ограниченных возможностей технологии для решения сложных проблем, возможности получения неточной или недостаточной информации и связанных с этим угроз безопасности.
В недавнем мнении, опубликованном в New York Times, председатель Федеральной торговой комиссии Лина Хан заявила, что Федеральная торговая комиссия внимательно изучает, как они могут наилучшим образом выполнить свои двойные полномочия по содействию честной конкуренции и защите американцев от недобросовестной или вводящей в заблуждение рекламы. Когда дело доходит до ИИ, ее главная забота состоит в том, чтобы не допустить, чтобы он зафиксировал господство на рынке крупных действующих технологических компаний, но недобросовестная и вводящая в заблуждение рекламная практика, связанная с ИИ, явно находится на радаре агентства.
Повышенные опасения по поводу конфиденциальности
Использование LLM в бизнес-продуктах также усиливает существующие опасения в отношении конфиденциальности, что может нанести ущерб репутации компании или иным образом поставить под сомнение ее честность перед потребителями и государственными регулирующими органами. Например, ChatGPT может:
- Намеренно или непреднамеренно использовать личную информацию, полученную без законных оснований или без надлежащей прозрачности и уведомления;
- Разглашать личные данные пользователей или ссылки на них третьим лицам, которые могут получить доступ к входным и выходным данным инструмента или проанализировать их, потенциально нарушая обязательства по защите данных или конфиденциальности; и
- Раскрывать конфиденциальную информацию, которую пользователи предоставляют инструменту намеренно или непреднамеренно, например финансовые данные, медицинские записи или коммерческую тайну, что может привести к ответственности в результате утечки данных.
Любой из этих результатов может подвергнуть компанию ответственности в соответствии с Законом о FTC и законами штата, запрещающими недобросовестные и вводящие в заблуждение действия и методы.
Текущие жалобы и судебные процессы, связанные с ИИ
Заинтересованные стороны наблюдают за происходящим и готовы принять меры для привлечения корпораций к ответственности. Например, Центр искусственного интеллекта и цифровой политики (CAIDP) недавно подал жалобу в FTC, призывая агентство провести расследование в отношении OpenAI, утверждая, что его деловая практика является несправедливой и вводящей в заблуждение в нарушение Закона о FTC, и вызывает серьезные вопросы относительно предвзятость, безопасность детей, защита потребителей, кибербезопасность, обман, конфиденциальность, прозрачность и общественная безопасность.
Также был подан ряд частных исков о нарушении авторских прав из-за ИИ. Например, Microsoft, GitHub и Open AI в настоящее время являются ответчиками в коллективном иске из Калифорнии, в котором утверждается, что их продукт искусственного интеллекта, генерирующий код, нарушает закон об авторском праве, выводя лицензионный код без указания авторства. Getty Images также подала иск против Stability AI, утверждая, что их художественный инструмент искусственного интеллекта скопировал изображения со своего сайта.
И озабоченность носит глобальный, а не только внутренний характер. В марте 2023 года Garante, итальянский орган по надзору за данными, приказал OpenAI прекратить обработку данных итальянских пользователей в рамках временного запрета, заявив, что ChatGPT, вероятно, нарушает GDPR (отсутствие уведомления пользователей, отсутствие правовых оснований для обработки, неспособность проверить возраст пользователей). или запретить детям пользоваться услугой). Кроме того, Управление уполномоченного по вопросам конфиденциальности Канады начало расследование в отношении OpenAI по поводу «сбора, использования и раскрытия личной информации без согласия». Офис уполномоченного по вопросам конфиденциальности Филиппа Дюфрена заявил, что опережать «стремительные технологические достижения» является ключевой задачей.
Рекомендации для маркетологов
С таким большим вниманием к ИИ рекламодателям и маркетологам рекомендуется действовать осторожно. На данный момент, когда начинает реализовываться потенциал положительного воздействия этих передовых систем, это означает, что безопасность встроена в системы, данные используются ответственно, методы прозрачны, а фактическая точность обеспечивается за счет человеческого надзора и возможности вмешательства.