AI 윤리 지침: AI 사용의 우려와 방향

게시 됨: 2019-07-27

정부 기관과 기업은 윤리적 AI 사용을 위한 프레임워크를 구축하고 있습니다.

지난 4월 유럽 위원회는 기술 분야에서 인공 지능의 책임에 대한 윤리적 AI 지침을 도입했습니다. 이것은 AI 사용의 미래를 위한 전략을 구현하기 위해 준비하는 정치 및 기업 조직의 긴 라인 중 가장 최근에 나온 것입니다.

의사 결정과 책무성의 문제를 언급하면서, 세계가 새롭게 부상하는 AI 기술로 발전함에 따라 책무성을 높이고 윤리적 고려 사항을 강조해야 한다는 요구가 있습니다.

GDPR에서 보았듯이 전 세계에서 만들어진 기술 규정은 비즈니스에 매우 빠르게 큰 영향을 미칠 수 있습니다. 미국 기업은 EU 기반 법률을 준수하는 데 총 420억 달러를 지출할 것으로 예상됩니다.

AI는 현대 비즈니스의 필수 요소가 되고 있으며 점점 더 많은 기업에서 AI의 가치를 인식하고 있습니다. 자동화에서 심층 분석에 이르기까지 AI는 소규모 조직에서 자동화를 위한 포괄적인 옵션이 더 저렴해짐에 따라 많은 SMB의 혁신 로드맵의 중심이 될 것입니다.

AI가 어떻게 사용되고 구현되는지에 대한 이러한 지침의 의미는 모든 사람의 입에서 나오는 질문입니다. 캐나다와 일본과 같은 기술 분야를 선도하는 국가에서는 윤리적 사용 원칙을 포함하는 광범위한 AI 계획을 이미 마련했습니다.

미국 정부는 AI에 대한 윤리적 고려에 대한 탐색적 조사를 시작했으며 올해 초 AI 기술 산업 성장 목표를 밝혔습니다. 지난 봄에 이 문제에 대해 윤리 위원회를 구성하려는 Google의 시도는 주목할만한 재앙이었지만 기업들도 이 행동에 동참했습니다.

기술 분야의 AI: 자동화의 이점

윤리와 책임에 대한 질문은 특히 비즈니스의 AI와 관련이 있습니다. AI는 일상적인 수동 작업에 가장 일반적으로 적용됩니다. 이들은 종종 가치가 낮고 일상적인 수동 작업으로 직원을 더 가치 있는 작업에서 멀어지게 합니다. 대부분의 경우 사람이 프로세스를 감독할 수 있지만 일반적으로 제한된 감독이 필요합니다. AI는 일반적으로 다음과 같은 애플리케이션에 제공하는 이점에 활용됩니다.

  • 사이버 위협: 알고리즘은 행동을 추적하고 패턴의 이상을 감지하며 업무 시간 외에 작동합니다. AI는 일상적인 IT 작업을 처리하고 데이터 백업을 자동화하며 해킹으로부터 데이터를 보호할 수 있습니다. 대신 전문가는 더 높은 수준의 이니셔티브와 인간의 손길이 필요한 더 복잡한 프로젝트에 집중할 수 있습니다.
  • 프로세스 자동화: 데이터 입력, 데이터 정렬 또는 인덱싱과 같은. 직원들은 서류 제출 시간을 줄이고 관계를 구축하거나 비즈니스를 성공으로 이끄는 아이디어를 개발하는 데 더 많은 시간을 할애합니다.
  • 지속적인 분석 : 고객을 연구하고 비즈니스 운영 측면을 분석합니다. 현재 여기에서 사용하면 고객 경험과 직원이 일하는 방식을 더 잘 이해할 수 있습니다.

우려 사항

대규모 조직과 SMB 사이에서 AI 시스템의 급속한 발전으로 인해 우려가 증가했습니다. 올해 초의 딸꾹질을 제외하고 Google은 다른 지침에서 흔히 볼 수 있는 주제와 유사한 AI의 윤리적 사용을 위한 합리적인 목표 목록을 설명했습니다. 이 목록에서는 다음 사항을 고려합니다.

  • 사회적 혜택: 문화적, 사회적, 법적 규범 존중
  • Bias : 인종, 성별, 국적 등의 특성과 관련된 편견이 알고리즘 및 데이터베이스에 부당하게 반영되는 것을 방지
  • 책임성 : 피드백과 호소의 기회를 제공합니다. AI 기술을 인간의 지시와 통제에 따르게 하라
  • 개인 정보 보호: 개인 정보 보호 및 적절한 투명성을 갖춘 AI 기술 생성

기준 설정

신뢰할 수 있는 AI에 대한 윤리 지침에서 EU는 7가지 유사한 필수 요구 사항을 제시했으며 이것이 전 세계적으로 업계를 형성할 윤리적 지침의 기초가 되기를 희망합니다.

이는 데이터 프라이버시를 시민의 기본 권리로 규정함으로써 지금까지 인기를 얻은 작년 GDPR에 뒤이어 뜨겁습니다. 이러한 윤리 지침은 AI 시스템의 중심이 되는 인간의 기본 원칙을 구성하려고 유사하게 추구해 왔습니다.

핵심 요소는 인간의 감독, 데이터 개인 정보 보호 및 책임을 강조하며, AI 기술이 더 널리 보급됨에 따라 주요 대중의 우려를 고려하기 위한 공동의 노력이 있어야 한다는 점에 주목합니다.

모니터링되지 않는 AI

이러한 지침은 AI의 패권 경쟁을 조명하기 때문에 중요합니다. 유럽은 기술 투자 측면에서 중국과 미국에 비해 현저히 뒤떨어져 있지만 배기 가스 법규 및 식품 표준과 같은 다른 영역에서 가이드라인 도입에 대한 전 세계적인 지지를 받았습니다.

이번 새로운 추진은 빠르게 화제를 모으고 있는 주제에 앞장서려는 시도로 볼 수 있습니다. 자신을 차별화함으로써 AI 산업에서 전 세계적으로 윤리 토론을 주도하는 데 우위를 점할 수 있습니다.

그러한 접근 방식은 부당하지도 않고 부정직하지도 않습니다. 전 세계 AI 전략의 우선 순위는 목표에 따라 매우 다양합니다. 예를 들어 미국은 현재 전 세계적으로 킬러 로봇을 금지하는 반대를 주도하고 있습니다. 반면에 중국은 시민 데이터에 대한 전체 액세스를 이용하려는 논란의 여지가 있는 사회 신용 시스템에 주로 초점을 맞추었습니다.

둘 다 모니터링되지 않는 AI의 사용, 즉 사람을 다루는 방법에 대한 결정을 내리는 사람의 감독이 거의 또는 전혀 없는 완전 자동화된 기술의 사용을 강조합니다. 유럽의 우려의 핵심은 그러한 기술이 결국 기업(아마도 정부)이 의사 결정에 대한 책임을 포기하거나 논란의 여지가 있는 목적으로 AI를 사용할 수 있게 할 수 있다는 것입니다.

미국 기업은 어떤 영향을 받을까요?

물론 이러한 지침은 대부분의 정부 기관이 AI에 접근할 때와 마찬가지로 법률에 명시되어 있지 않습니다. 그러나 이는 해당 주제에 대한 향후 대화의 기초 역할을 하며 2020년부터 조직과 지침을 테스트하여 미래 규정의 구조를 형성할 수 있습니다.

캘리포니아의 소비자 개인 정보 보호법("미국의 GDPR")이 내년에 발효됨에 따라 미래의 기술 법률도 연못 전체에서 영감을 받을 것이라고 가정하는 것은 무리가 아닙니다. 미국은 다른 41개국과 함께 최근 경제협력개발기구(OECD)가 AI의 구속력이 없는 원칙을 수립하려는 움직임을 이미 지지했습니다.

GDPR이 발효된 후 준비와 비용이 발생한 후, 미국 기업은 이 지침이 조직에 어떤 영향을 미칠지 호기심을 가지고 살펴볼 것입니다.

일부 미국 대기업이 이미 받은 나쁜 언론과 AI 기술과 관련하여 독자적 노력에도 불구하고 기업은 조만간 의원 규정에 적응할 수 있습니다.

이는 본질적으로 GDPR과 마찬가지로 조직이 앞으로 발생할 수 있는 문제에 가장 잘 대비할 수 있는 방법을 평가하는 것이 좋습니다. 예를 들어, AI 기술의 역량을 향상시키기 위해 대규모로 활용하는 빅 데이터의 사용은 데이터 투명성 문제의 발화선에서 찾을 수 있는 관행입니다.

AI와 자동화의 미래

기술 분야의 AI는 프로세스를 간소화하고 저수준의 반복적인 작업을 제거함으로써 비즈니스에 많은 이점을 제공합니다. 그러나 이러한 동일한 이점을 달성하는 수단으로 인해 빠르게 문제가 될 수 있습니다.

AI-인간 응답을 개선하기 위해 방대한 양의 고객 데이터를 수집하는 것과 같은 관행의 경우 특히 그렇습니다. 소비자들은 가까운 장래에 여전히 이에 대해 편안함을 느낄 것입니까? 그렇지 않다면 조직에 광범위한 AI 전략을 적용하고 있는 SMB는 AI 사용이 더 엄격한 윤리 규정으로 제기할 수 있는 다가오는 문제를 예상하기 위한 계획을 진지하게 고려해야 합니다.

AI가 기업에 어떻게 도움이 되는지 부인할 수 없으며 가까운 장래에 AI의 사용이 계속 증가할 것입니다. 그러나 우리는 개인 정보 보호와 관련하여 사람들이 첨단 기술에 어떻게 반응하는지 이미 맛보았습니다.

윤리적인 AI 관행은 데이터 보호 및 개인 정보 보호와 마찬가지로 유사한 조사를 받고 있으므로 SMB 의사 결정권자는 기술이 더욱 정교해짐에 따라 고려해야 할 사항보다 더 많은 고려 사항을 인식하는 것이 좋습니다.

자세히 알아보시겠습니까?

인공 지능은 조직이 생산성과 효율성을 높이기 위해 활용할 수 있는 강력한 도구입니다. 지능형 프로세스 자동화 에 대해 자세히 알아보고 지금 연락 하여 대화 시작하십시오 .