AI 제품을 개발하는 동안 규정 위반을 피하는 방법
게시 됨: 2023-06-12인공 지능은 제조, 의료 및 금융과 같은 데이터 및 기계 집약적 부문에 대한 기여를 통해 수년 동안 최고의 기술 트렌드로 남아 있습니다. 그러나 이 기술이 최종 사용자로부터 높은 관심을 받은 것은 불과 2년 전입니다. 이미지 및 텍스트 생성기와 같은 애플리케이션을 통해 사람들은 이제 클릭 한 번으로 시각 자료와 텍스트를 생성할 수 있습니다.
이러한 AI 플랫폼이 처음부터 자료를 생성하는 것처럼 보이지만 실제로는 그렇지 않습니다. 이러한 AI 플랫폼은 인터넷에서 텍스트 및 이미지 아카이브를 처리하여 작동하는 질문 스니펫 및 데이터 레이크에 대해 교육을 받았습니다. 최종 사용자에게는 유용하지만 이 접근 방식에는 저작권 침해, 오픈 소스 라이선스 비준수, 지적 재산권 침해 등과 같은 법적 위험이 따릅니다. 생성 AI가 제기하는 이러한 위험은 지속적으로 발생하는 전 세계 정부에서 볼 수 있습니다. 비윤리적인 AI 모델에 대한 새로운 규칙과 처벌을 적용합니다.
AI 프로젝트를 시작하려고 준비하는 회사의 경우 위험을 이해하고 이러한 윤리적 문제의 배후에서 법적 레이더에 속하지 않는 시스템을 구축하는 것이 중요합니다. 이 기사에서는 법적 문제의 유형, AI 규제에 대비하는 방법, 다른 지역에서 따르는 AI 행위 등 소프트웨어 개발 중 AI 준수의 여러 측면에 대해 자세히 살펴보겠습니다.
AI 컴플라이언스란?
AI 기반 애플리케이션이 운영 중인 지역의 규정 및 법률을 준수하는지 확인하는 프로세스입니다. 다음은 AI 규정 준수 검사가 구성하는 다양한 요소입니다.
인공 지능의 법적 문제
미시적 수준에서 최종 사용자의 AI 사용 문제는 표절이나 공유할 수 없는 데이터에 대한 액세스로 제한되는 것처럼 보일 수 있지만 거시적 수준에서 AI 비준수는 더 큰 문제를 야기합니다.
제대로 구축되지 않은 AI 시스템을 사용함으로써 발생하는 위협은 공정한 경쟁, 사이버 보안, 소비자 보호, 심지어 시민권에도 영향을 미칠 수 있습니다. 따라서 기업과 정부가 공정하고 윤리적인 모델을 구축하는 것이 중요합니다.
저작권
제너레이티브 AI가 시작되면서 기업들은 기술을 통해 저작권 자료를 만들기 시작했습니다. 이것의 문제는 데이터가 작성자의 독창성으로 생성되었는지 또는 작성자가 AI인지 여부를 이해할 수 없다는 것입니다.
이에 법적 준수 조치를 취하기 위해 저작권청은 AI 생성 자료를 포함하는 저작물의 심사 및 등록에 대한 지침을 발표했습니다. 다음과 같이 명시되어 있습니다.
- 저작권은 인간의 창의성으로 생산된 자료만 보호할 수 있습니다.
- AI 기반 소재를 사용한 작품의 경우 AI 기여가 '기계적 복제'의 결과인지, 아니면 작가 자신이 AI를 통해 가시적인 형태를 부여한 '독창적인 구상'인지를 고려할 것이다.
- 지원자는 등록을 위해 제출한 자료에 AI 기반 콘텐츠가 포함되어 있음을 공개할 의무가 있습니다.
또한 읽기: 2023년 AI 콘텐츠 감지 도구 개발 비용
오픈 소스
AI 기반 코드 생성기는 종종 AI를 사용하여 개발자가 자동 완성하거나 개발자 테스트 또는 입력 뒤에 코드를 제안하도록 지원합니다. 다음은 코드 생성기 주변의 규정 준수 AI 모델 개발과 관련된 몇 가지 과제입니다.
- 오픈 소스 코드로 AI 모델을 훈련시키는 것이 침해를 의미합니까?
- 개발자 또는 사용자 중 누가 오픈 소스 규정 준수 기준을 충족해야 합니까?
- 새 소프트웨어를 만드는 개발자가 AI 기반 코드를 사용하려면 애플리케이션에 오픈 소스 라이선스가 필요합니까?
IP 침해
전 세계적으로 AI 도구에 대해 여러 침해 소송이 제기되어 타사 IP 보호 콘텐츠를 기반으로 모델을 교육하거나 출력을 생성한다는 사실을 비난했습니다.
윤리적 편견
AI 안면인식 기술이 인종차별로 이어지는 사건은 수없이 많다. 2020년에 컴퓨터 오류로 흑인이 체포된 경우든, 구글 포토에서 흑인을 “고릴라”로 분류한 경우든. 기술이 아무리 똑똑해도 편견을 가진 인간이 만든 것이라는 점을 무시할 수 없다.
유사한 솔루션을 구축하려는 회사의 경우 이러한 편견이 시스템에 들어오지 않도록 하는 것이 중요합니다.
AI 프로젝트에 대한 GDPR 준수
따라서 기업이 엄격한 규정에도 불구하고 규정을 준수하는 AI 모델을 구축하지 못하는 이유를 이해하는 것이 중요합니다. 컴플라이언스를 알 수 없는 것, 개발자의 이해 부족, 때로는 단순한 무지 등 여러 가지 이유가 있을 수 있습니다. 그러나 그 뒤에는 몇 가지 기능적인 이유가 있을 수 있습니다.
AI 프로젝트에 대한 GDPR 준수 전망에서 몇 가지를 살펴보겠습니다.
목적의 제한
GDPR 원칙에 따라 기업은 데이터 주체에게 정보가 수집되고 처리되는 목적을 알릴 필요가 있습니다. 이것의 문제는 기술이 데이터를 사용하여 패턴을 찾고 새로운 통찰력을 얻지만 그것이 해당 데이터의 실제 목적이 아닐 수 있다는 것입니다.
차별
GDPR은 AI 개발자가 기술이 가져올 수 있는 차별적인 영향에 대해 조치를 취하도록 요구합니다. 시대의 윤리적 요구 사항이지만 빠르게 변화하는 사회적 시나리오를 운영하는 개발자에게는 모든 차별과 부도덕한 결과에 대비하여 AI 모델을 준비하는 것이 어려울 수 있습니다.
데이터 최소화
GDPR은 수집된 정보가 "적절하고 제한적이며 관련성이 있어야" 한다고 말합니다. 즉, AI 개발 팀은 모델에 데이터를 사용할 때 매우 주의해야 하며 프로젝트에 필요한 데이터의 양을 명확히 해야 합니다.
그러나 이것은 예측할 수 없으므로 팀은 데이터 최소화 요구 사항을 해결하는 데 필요한 데이터 유형과 양을 정기적으로 평가해야 합니다.
투명도
마지막으로 사용자는 자신의 데이터가 제3자에 의해 어떻게 사용되고 있는지에 대해 발언권을 가져야 합니다. 이를 위해 기업은 자신이 어떤 데이터를 어떻게 사용하고 있는지 명확히 해야 합니다.
이것의 문제는 대부분의 AI 모델이 블랙박스에서 작동하고 특히 고급 소프트웨어에 대해 이야기할 때 결정을 내리는 방법이 명확하지 않다는 것입니다.
이것들은 모두 진정한 기술적 문제이지만 IT 윤리와 관련하여 기업이 결함 있는 AI 모델을 개발하기 위한 방패로 사용하지 않는 것이 중요합니다. 관행이 주류가 되지 않도록 하기 위해 몇 가지 AI 법률이 전 세계적으로 제정되었습니다.
거의 60개국이 2017년부터 새로운 AI 모델이 구현되는 속도와 일치하는 행동 라인인 인공 지능 법률 및 규정을 도입했습니다.
다음은 해당 법률에 대한 간략한 정보를 제공하는 인포그래픽입니다.
법적 관점에서 AI 개발의 과제와 글로벌 수준에서 적용 가능한 법률의 초안을 살펴보았으므로 이제 규정을 준수하는 AI 애플리케이션을 구축할 수 있는 방법에 대해 알아보겠습니다.
또한 읽기: ChatGPT와 같이 법적으로 준수하는 챗봇을 개발하는 데 드는 비용
컴플라이언스 친화적인 AI 모델을 개발하는 방법
글로벌 수준에서 AI 규제가 증가함에 따라 기업이 AI 모델을 구축할 때 법률 준수에 중점을 두는 것이 중요해졌습니다. 다음은 기업이 AI 개발 서비스에 투자할 때 프로젝트가 법적 규정을 준수하는지 확인할 수 있는 몇 가지 방법입니다.
- 데이터 사용이 허용되었는지 확인
AI 규정 준수는 사용자의 개인 정보 보호가 모델 설계의 기본 원칙이어야 한다고 명시합니다. 즉, 수집해야 하는 데이터의 양을 최소한으로 유지하고 데이터를 사용할 때까지의 시간과 함께 데이터 수집에 대한 정확한 이유를 지정해야 합니다. 궁극적으로 사용자가 데이터 수집에 동의해야 한다는 점에 유의해야 합니다.
- 설명 가능한 AI 방법
이 접근 방식은 인간이 AI 시스템 내부에 무엇이 있고 모델이 결정을 내리는 방식을 이해하도록 도와 블랙박스 효과를 해결하는 데 도움이 됩니다. 이를 통해 연구원은 데이터 최소화 요구 사항을 충족하기 위해 모델 정확도를 개선하는 데 필요한 데이터의 정확한 양을 알 수 있습니다.
- 수집된 데이터 추적
AI 준수를 위해서는 기업이 수집된 PII의 위치와 사용을 알아야 합니다. 보호된 정보에 대한 사용자의 권리를 준수하기 위해 올바른 데이터 분류가 필요합니다. 또한 기업은 정확한 보안 대책을 마련하기 위해 어떤 정보가 어떤 데이터에 저장되어 있는지 파악하는 접근 방식이 필요합니다.
- 국가 간 데이터 전송 규칙 이해
AI 시스템에서 국경 간 데이터 전송이 있는 경우 개발자는 수신 국가에 적용될 규정을 고려하고 그에 따라 적절한 데이터 전송 메커니즘을 구축해야 합니다. 예를 들어 GDPR이 데이터 처리에 적용되고 개인 데이터가 비EEA 국가로 전송되는 경우 적절한 전송 영향 평가를 수행해야 합니다.
AI 애플리케이션을 개발할 때 이러한 접근 방식을 사용하면 기술과 관련된 위험을 적절하게 해결하는 데 큰 도움이 됩니다. 그러나 기업과 규제 당국은 업계 상황이 사례별로 작용하기 때문에 모든 잠재적 위험으로부터 애플리케이션을 보호하는 것은 불가능하다는 사실을 염두에 두어야 합니다. 이 때문에 AI 위험 관리자의 역할은 언제 개입이 필요한지 판단할 수 있기 때문에 여전히 중요합니다.
이 기사가 향후 AI 기술을 둘러싼 법적 구조에서 무엇을 기대해야 하는지 이해하고 규정을 준수하는 AI 모델에 대비하는 방법을 이해하는 데 도움이 되었기를 바랍니다.
FAQ
Q. 인공지능 관련 법적 문제는 없나요?
A. 예. 제대로 구축되지 않은 인공 지능 모델과 관련된 많은 법적 및 윤리적 문제가 있을 수 있습니다.
- 저작권
- 오픈소스 라이선스 오용
- IP 침해
- 인종차별과 같은 윤리적 편견.
Q. 법적으로 적합한 AI 모델을 만들기 어려운 이유는 무엇인가요?
A. 기술적 측면에서 법적으로 준수하는 AI를 구축하는 것은 어려울 수 있습니다. 기술이 고객의 데이터를 사용하여 패턴을 찾고 새로운 통찰력을 얻는 동안 해당 데이터의 실제 목적을 확인하기 어려워지기 때문입니다. 다음으로, AI 개발 팀은 프로젝트에 필요한 데이터의 양을 확신할 수 없습니다. 마지막으로, 대부분의 AI 모델은 블랙박스에서 작동하며 특히 고급 소프트웨어에 대해 이야기할 때 결정을 내리는 방법이 명확하지 않습니다.
Q. AI에서 법적 준수를 보장하려면 어떻게 해야 합니까?
A. AI 법률 준수에 관한 법률 및 규정이 지속적으로 발전하고 있지만 모델이 준수에 가장 근접하도록 하기 위해 수행할 수 있는 몇 가지 작업은 다음과 같습니다.
- 데이터 사용이 허용되었는지 확인
- 설명 가능한 AI 방법
- 수집된 데이터 추적
- 국가 간 데이터 전송 규칙 이해