Comment collecter légalement des données d'IA
Les directives de l'ICO reconnaissent que si l'utilisation de l'IA présente des avantages indéniables, elle peut également mettre en danger les libertés et les droits des personnes lorsque la protection des données n'est pas prise au sérieux. À cette fin, leurs orientations fournissent un cadre utile sur la manière dont les entreprises doivent évaluer et atténuer ces risques.
Le guide couvre huit éléments stratégiques que les entreprises peuvent adopter pour améliorer leur gestion de l'IA et des données personnelles :
1. Utilisez une procédure basée sur les risques lors de la création et de la mise en œuvre de l'IA
Lorsque vous utilisez l'IA, vous devez déterminer si cela est nécessaire pour la situation. L'IA est généralement considérée comme une technologie à haut risque lorsqu'elle interagit avec des informations personnelles. Une entreprise a besoin de grandes quantités de données afin d'améliorer le bon fonctionnement de ses systèmes et nos données peuvent être revendues, sans savoir qui les reçoit ni comment elles sont utilisées.
Ainsi, il peut y avoir un substitut plus efficace et plus respectueux de la vie privée.
Comme l'indique l'ICO, vous devez évaluer les risques et mettre en place les garanties organisationnelles et techniques nécessaires pour les réduire. De manière réaliste, il est impossible d'éliminer complètement tous les risques, et les lois sur la protection des données ne vous obligent pas à le faire, mais assurez-vous de :
- Utilisez une évaluation d'impact sur la protection des données (DPIA) pour déterminer et réduire le risque de non-respect des lois sur la protection des données que votre utilisation de l'IA pose, ainsi que pour prévenir les dommages aux individus
- Demandez l'avis de nombreux groupes que votre utilisation de l'IA a potentiellement un impact afin de mieux comprendre le danger
Lorsqu'une DPIA est légalement requise, vous devez en mener une avant de déployer un système d'IA, et introduire des garanties organisationnelles et techniques appropriées qui aideront à réduire ou à gérer les risques que vous trouvez. Avant tout traitement, vous êtes légalement tenu de parler avec l'ICO si vous identifiez un risque que vous n'êtes pas en mesure d'atténuer de manière adéquate.
2. Réfléchissez à la manière dont vous expliquerez les décisions de votre système d'IA aux personnes concernées
Selon l'ICO, il peut être difficile d'expliquer comment l'IA génère certaines décisions et certains résultats, en particulier en ce qui concerne l'apprentissage automatique et les algorithmes complexes - mais cela ne signifie pas que vous ne devriez pas fournir d'explications aux gens.