Jak legalnie zbierać dane AI
Wytyczne ICO potwierdzają, że chociaż wykorzystanie sztucznej inteligencji ma niezaprzeczalne zalety, może również zagrażać wolnościom i prawom ludzi, gdy ochrona danych nie jest traktowana poważnie. W tym celu ich wytyczne zapewniają użyteczne ramy dla tego, jak przedsiębiorstwa powinny oceniać i ograniczać te zagrożenia.
Przewodnik obejmuje osiem strategicznych elementów, które firmy mogą zastosować, aby poprawić sposób obsługi sztucznej inteligencji i danych osobowych:
1. Podczas tworzenia i wdrażania sztucznej inteligencji stosuj procedurę opartą na ryzyku
Podczas korzystania z AI należy ustalić, czy jest to konieczne w danej sytuacji. Sztuczna inteligencja jest zwykle uważana za technologię wysokiego ryzyka, gdy wchodzi w interakcję z danymi osobowymi. Firma potrzebuje dużych ilości danych, aby ulepszyć swoje systemy, aby działały poprawnie, a nasze dane mogą zostać odsprzedane, nie wiedząc, kto je otrzymuje ani jak są wykorzystywane.
W związku z tym może istnieć bardziej wydajny i chroniący prywatność substytut.
Jak stwierdza ICO, należy ocenić ryzyko i wprowadzić niezbędne zabezpieczenia organizacyjne i techniczne, aby je zmniejszyć. Realistycznie rzecz biorąc, niemożliwe jest całkowite wyeliminowanie wszystkich zagrożeń, a przepisy o ochronie danych nie wymagają tego, ale upewnij się, że:
- Zastosuj ocenę wpływu na ochronę danych (DPIA), aby określić i zmniejszyć ryzyko nieprzestrzegania przepisów o ochronie danych, które stwarza korzystanie z sztucznej inteligencji, a także zapobiegać szkodom wyrządzonym osobom
- Poszukaj informacji od wielu grup, na które potencjalnie może mieć wpływ korzystanie z sztucznej inteligencji, aby lepiej zrozumieć niebezpieczeństwo
Jeśli DPIA jest prawnie wymagana, musisz ją przeprowadzić przed wdrożeniem systemu sztucznej inteligencji oraz wprowadzić odpowiednie zabezpieczenia organizacyjne i techniczne, które pomogą zmniejszyć wykryte ryzyko lub zarządzać nim. Przed jakimkolwiek przetwarzaniem jesteś prawnie zobowiązany do rozmowy z ICO, jeśli zidentyfikujesz ryzyko, którego nie jesteś w stanie odpowiednio złagodzić.
2. Zastanów się, jak wyjaśnisz decyzje swojego systemu AI tym, których to dotyczy
Według ICO wyjaśnienie, w jaki sposób sztuczna inteligencja generuje określone decyzje i wyniki, może być trudne, zwłaszcza jeśli chodzi o uczenie maszynowe i skomplikowane algorytmy – ale to nie znaczy, że nie należy udzielać ludziom wyjaśnień.