AI データを合法的に収集する方法
ICO のガイダンスは、AI の利用には否定できない利点がある一方で、データ保護が真剣に受け止められない場合、人々の自由と権利を危険にさらす可能性があることを認めています。 この目的のために、彼らのガイダンスは、企業がこれらのリスクを評価および軽減する方法について有用なフレームワークを提供します。
このガイドでは、企業が AI と個人データの処理方法を改善するために採用できる 8 つの戦略的要素について説明しています。
1. AI の作成および実装時にリスクベースの手順を使用する
AI を使用する場合は、状況に応じて必要かどうかを判断する必要があります。 AI は通常、個人情報とやり取りする場合、リスクの高いテクノロジと見なされます。 企業は、システムが適切に機能するように改善するために大量のデータを必要とし、データが転売される可能性があり、誰がデータを受け取っているか、またはデータがどのように使用されているかを認識できません。
したがって、より効率的でプライバシーを保護する代替手段が存在する可能性があります。
ICO が述べているように、リスクを評価し、リスクを軽減するために必要な組織的および技術的な保護手段を講じる必要があります。 現実的には、すべてのリスクを完全に排除することは不可能であり、データ保護法はそうするように義務付けているわけではありませんが、次のことを確認してください。
- データ保護影響評価 (DPIA) を採用して、AI の使用がもたらすデータ保護法を順守しないリスクを特定して軽減し、個人への危害を防止します。
- 危険性をよりよく理解するために、AI の使用が潜在的に影響を与える多くのグループから意見を求める
法的に DPIA が必要な場合は、AI システムを展開する前に DPIA を実施し、見つかったリスクを軽減または管理するのに役立つ適切な組織的および技術的な保護手段を導入する必要があります。 処理が行われる前に、十分に軽減できないリスクを特定した場合は、法的に ICO と話す必要があります。
2.影響を受ける人々にAIシステムの決定をどのように説明するかを検討してください
ICO によると、特に機械学習や複雑なアルゴリズムに関しては、AI が特定の決定や結果をどのように生成するかを説明するのは難しい場合がありますが、それは人々に説明をするべきではないという意味ではありません。