Рекомендации по этике ИИ: проблемы и направление использования ИИ

Опубликовано: 2019-07-27

Государственные учреждения и корпорации создают основу для этичного использования ИИ

В апреле Европейская комиссия представила этические принципы ИИ для ответственности за искусственный интеллект в технологиях. Это всего лишь последнее в длинной череде политических и корпоративных организаций, готовящихся к реализации стратегий будущего использования ИИ.

Ссылаясь на проблемы с принятием решений и подотчетностью, звучат призывы к усилению подотчетности и акценту на этических соображениях по мере того, как мир продвигается вперед с новыми появляющимися технологиями искусственного интеллекта.

Как мы видели на примере GDPR, технологические регламенты, принятые во всем мире, могут очень быстро оказать сильное влияние на бизнес. По прогнозам, американские компании потратят в общей сложности почти 42 миллиарда долларов на соблюдение законодательства ЕС.

ИИ становится основным продуктом современного бизнеса, поскольку все больше и больше компаний осознают его ценность. От автоматизации до углубленной аналитики ИИ станет центральным элементом планов трансформации многих предприятий малого и среднего бизнеса, поскольку комплексные варианты автоматизации становятся более доступными для небольших организаций.

Последствия этих рекомендаций по использованию и внедрению ИИ — вопрос, который у всех на устах. Страны с ведущими технологическими секторами, такие как Канада и Япония, уже разработали обширные планы для ИИ, которые включают принципы его этического использования.

Правительство США приступило к изучению этических соображений ИИ и ранее в этом году заявило о своей цели по развитию индустрии технологий ИИ. Корпорации также приняли участие в акции, хотя попытка Google сформировать комиссию по этике прошлой весной потерпела серьезную неудачу.

ИИ в технологиях: преимущества автоматизации

Вопрос этики и ответственности особенно актуален для ИИ в бизнесе. ИИ чаще всего применяется в рутинных, ручных задачах. Часто это малоценные, рутинные ручные задачи, которые отвлекают сотрудников от более важных задач. Во многих из них люди могут наблюдать за процессом, но обычно требуется ограниченный контроль. ИИ обычно используется из-за преимуществ, которые он приносит в приложениях, включая:

  • Киберугрозы: алгоритмы отслеживают поведение, обнаруживают аномалии в шаблонах и работают в нерабочее время. ИИ может выполнять повседневные рутинные ИТ-задачи, автоматизировать резервное копирование данных и защищать данные от взлома. Вместо этого специалисты могут сосредоточиться на инициативах более высокого уровня и более сложных проектах, требующих участия человека.
  • Автоматизация процессов: например, ввод данных, сопоставление или индексирование. Сотрудники тратят меньше времени на регистрацию и больше времени на построение отношений или разработку идей, которые помогут бизнесу добиться успеха.
  • Текущая аналитика : как для изучения клиентов, так и для анализа аспектов бизнес-операций. В настоящее время его использование здесь позволяет лучше понять опыт клиентов и то, как работают сотрудники.

Проблемы

Быстрое развитие систем искусственного интеллекта среди крупных организаций и малых и средних предприятий вызвало повышенную озабоченность. Помимо сбоя в начале года, Google наметил разумный список целей этического использования ИИ, который имеет сходство с темами, общими для других руководств. В списке учитываются:

  • Социальные льготы: соблюдение культурных, социальных и правовых норм
  • Предвзятость : предотвращение несправедливого отражения алгоритмами и базами данных предубеждений, связанных с такими характеристиками, как раса, пол и национальность.
  • Подотчетность : Предоставляйте возможности для отзывов и апелляций. Подчините технологии искусственного интеллекта управлению и контролю со стороны человека
  • Конфиденциальность: создайте технологию искусственного интеллекта с гарантиями конфиденциальности и соответствующей прозрачностью.

Установка стандартов

В своем Руководстве по этике для надежного ИИ ЕС изложил семь аналогичных основных требований, которые, как он надеется, станут основой для этического руководства, которое будет формировать отрасль во всем мире.

Он идет по пятам за прошлогодним GDPR, который до сих пор пользовался популярностью, определяя конфиденциальность данных как основное право граждан. Эти руководящие принципы по этике также были направлены на то, чтобы сформулировать фундаментальные человеческие принципы, лежащие в основе систем ИИ.

Ключевые элементы подчеркивают человеческий надзор, конфиденциальность данных и подотчетность, отмечая, что по мере того, как технологии ИИ становятся все более распространенными, должны быть предприняты согласованные усилия для учета основных общественных опасений.

Неконтролируемый ИИ

Эти рекомендации важны, потому что они проливают свет на борьбу за превосходство в ИИ. Европа заметно отстает от Китая и США с точки зрения инвестиций в технологии, но нашла глобальную поддержку для введения руководящих принципов в других областях, таких как законы о выбросах и стандарты пищевых продуктов.

Этот новый толчок можно рассматривать как попытку возглавить тему, которая быстро набирает обороты. Выделив себя, они могут возглавить мировую дискуссию об этике в индустрии искусственного интеллекта.

Такой подход не является ни необоснованным, ни неискренним; приоритеты стратегий ИИ по всему миру сильно различаются по своим целям. США, например, в настоящее время возглавляют оппозицию всемирному запрету роботов-убийц. Китай, с другой стороны, в первую очередь сосредоточился на своей неоднозначной системе социального кредита, которая пытается использовать в своих интересах его полный доступ к данным граждан.

Оба подчеркивают использование неконтролируемого искусственного интеллекта, то есть полностью автоматизированной технологии практически без человеческого контроля, которая принимает решения о том, как обращаться с людьми. Основное беспокойство европейцев заключается в том, что такие технологии могут в конечном итоге позволить предприятиям — и, возможно, правительствам — отказаться от ответственности за принятие решений или использовать ИИ в спорных целях.

Как это повлияет на бизнес в США?

Конечно, эти рекомендации не закреплены законодательно, как и большинство подходов к ИИ со стороны органов власти. Тем не менее, они служат основой для будущего обсуждения этой темы и могут сформировать структуру будущего регулирования, а тестирование руководящих принципов с организациями начнется в 2020 году.

С учетом того, что в следующем году вступит в силу калифорнийский закон о конфиденциальности потребителей — «GDPR в США», вполне разумно предположить, что будущие законы о технологиях также будут черпать вдохновение со всего мира. США вместе с 41 другой страной уже поддержали недавний шаг Организации экономического сотрудничества и развития (ОЭСР) по установлению необязательных принципов ИИ.

После подготовки и затрат, которые должны были быть сделаны после вступления в силу GDPR, американские компании будут с любопытством смотреть, как эти рекомендации повлияют на организации в будущем.

Учитывая плохую прессу, которую уже получили некоторые крупные американские компании, и, несмотря на отдельные усилия по продвижению технологий ИИ, предприятия могут рано или поздно адаптироваться к постановлениям законодателей.

По сути, это может означать, что, как и в случае с GDPR, организациям будет полезно оценить, как лучше всего подготовиться к возможным препятствиям на пути. Например, использование больших данных в массовом порядке для улучшения возможностей технологий искусственного интеллекта — это практика, которая может оказаться на линии огня из-за проблем с прозрачностью данных.

Будущее ИИ и автоматизации

ИИ в технологиях дает предприятиям множество преимуществ, оптимизируя процессы и избавляя от рутинной работы по низкоуровневым повторяющимся задачам. Однако эти же преимущества могут быстро стать проблематичными из-за средств их достижения.

Это особенно касается таких практик, как сбор огромного количества данных о клиентах для улучшения реакции человека на ИИ. Будут ли потребители довольны этим в ближайшем будущем? Если нет, малым и средним предприятиям, которые применяют обширные стратегии ИИ в своих организациях, придется серьезно рассмотреть план, чтобы предвидеть предстоящие проблемы, которые может создать использование ИИ с более жесткими этическими нормами.

Нельзя отрицать, что ИИ помогает бизнесу, и в ближайшем будущем его использование будет продолжать расти. Однако мы уже почувствовали, как люди реагируют на передовые технологии, когда речь идет о конфиденциальности.

Этические методы ИИ подвергаются такому же тщательному анализу, как и защита данных и конфиденциальность, поэтому лицам, принимающим решения в малом и среднем бизнесе, полезно знать о соображениях, которые им, скорее всего, придется учитывать по мере того, как технология становится все более сложной.

Хотите узнать больше?

Искусственный интеллект — это мощный инструмент, который организации могут использовать для повышения производительности и эффективности. Узнайте больше об интеллектуальной автоматизации процессов и свяжитесь с нами, чтобы начать разговор сегодня.