AI 데이터를 합법적으로 수집하는 방법
ICO의 지침은 AI 활용이 부인할 수 없는 이점이 있지만 데이터 보호가 심각하게 고려되지 않을 때 사람들의 자유와 권리를 위험에 빠뜨릴 수도 있음을 인정합니다. 이를 위해 지침은 기업이 이러한 위험을 평가하고 완화하는 방법에 대한 유용한 프레임워크를 제공합니다.
이 가이드는 기업이 AI 및 개인 데이터를 처리하는 방법을 개선하기 위해 채택할 수 있는 8가지 전략적 요소를 다룹니다.
1. AI 생성 및 구현 시 위험 기반 절차 사용
AI를 사용할 때는 상황에 필요한지 판단해야 합니다. AI는 일반적으로 개인 정보와 상호 작용할 때 고위험 기술로 간주됩니다. 회사는 시스템이 제대로 작동하도록 개선하기 위해 많은 양의 데이터가 필요하며 데이터가 재판매될 수 있으므로 데이터를 받는 사람이나 사용 방법을 알지 못할 수 있습니다.
따라서 보다 효율적이고 프라이버시를 보호하는 대체품이 있을 수 있습니다.
ICO에서 명시한 대로 위험을 평가하고 위험을 줄이기 위해 필요한 조직적 및 기술적 안전 장치를 마련해야 합니다. 현실적으로 모든 위험을 완전히 제거하는 것은 불가능하며 데이터 보호법에서는 그렇게 하도록 의무화하지 않지만 다음을 확인하십시오.
- DPIA(데이터 보호 영향 평가)를 사용하여 AI 사용으로 인해 발생하는 데이터 보호법을 준수하지 않을 위험을 확인 및 줄이고 개인에 대한 피해를 방지합니다.
- 위험을 더 잘 이해하기 위해 AI 사용이 잠재적으로 영향을 미칠 수 있는 많은 그룹의 의견을 구하십시오.
법적으로 DPIA가 필요한 경우 AI 시스템을 배포하기 전에 DPIA를 수행하고 발견한 위험을 줄이거나 관리하는 데 도움이 되는 적절한 조직 및 기술 안전 장치를 도입해야 합니다. 처리가 이루어지기 전에 적절하게 완화할 수 없는 위험을 식별하는 경우 법적으로 ICO와 대화해야 합니다.
2. AI 시스템의 결정을 영향을 받는 사람들에게 설명하는 방법 고려
ICO에 따르면, 특히 기계 학습 및 복잡한 알고리즘과 관련하여 AI가 특정 결정 및 결과를 생성하는 방법을 설명하는 것은 어려울 수 있지만 그렇다고 해서 사람들에게 설명을 제공해서는 안 된다는 의미는 아닙니다.