Diretrizes de ética da IA: as preocupações e a direção do uso da IA

Publicados: 2019-07-27

Agências governamentais e corporações estão construindo estruturas para uso ético de IA

Em abril, a Comissão Europeia introduziu diretrizes éticas de IA para a responsabilidade da Inteligência Artificial na tecnologia. Este é apenas o mais recente de uma longa linha de organizações políticas e corporativas que se preparam para implementar estratégias para o futuro do uso da IA.

Citando problemas na tomada de decisões e responsabilidade, há pedidos de maior responsabilidade e ênfase em considerações éticas à medida que o mundo avança com a nova tecnologia de IA emergente.

Como vimos com o GDPR, as regulamentações de tecnologia feitas em todo o mundo podem ter efeitos profundos nas empresas muito rapidamente. Prevê-se que as empresas dos EUA gastem um total de quase US$ 42 bilhões em conformidade com a lei baseada na UE.

A IA está se tornando um elemento básico dos negócios modernos, à medida que mais e mais empresas reconhecem seu valor. Da automação à análise aprofundada, a IA se tornará central para os roteiros de transformação de muitas PMEs, à medida que as opções abrangentes de automação se tornarem mais acessíveis para organizações menores.

As implicações dessas diretrizes sobre como a IA é usada e implementada é a questão na boca de todos. Países com setores de tecnologia líderes, como Canadá e Japão, já estabeleceram extensos planos para IA que incluem princípios de seu uso ético.

O governo dos EUA iniciou análises exploratórias sobre a consideração ética da IA ​​e, no início deste ano, declarou seu objetivo de aumentar a indústria de tecnologia de IA. As corporações também entraram em ação, embora a tentativa do Google de formar um painel de ética sobre o assunto na primavera passada tenha sido um desastre notável.

IA na tecnologia: os benefícios da automação

A questão da ética e da responsabilidade é particularmente pertinente para a IA nos negócios. A IA é mais comumente aplicada em tarefas mundanas e manuais. Geralmente, são tarefas manuais rotineiras e de baixo valor que afastam os funcionários de tarefas mais valiosas. Em muitos deles, os humanos podem supervisionar o processo, mas geralmente é necessária uma supervisão limitada. A IA é comumente aproveitada pelos benefícios que traz em aplicativos, incluindo:

  • Ameaças cibernéticas: os algoritmos rastreiam o comportamento, detectam anomalias nos padrões e operam fora do horário comercial. A IA pode lidar com as tarefas de rotina diárias de TI, automatizar o backup de dados e proteger os dados contra hacks. Os especialistas podem se concentrar em iniciativas de nível superior e projetos mais complicados que exigem um toque humano.
  • Automação de processos: como entrada de dados, agrupamento ou indexação. Os funcionários gastam menos tempo arquivando e mais tempo construindo relacionamentos ou desenvolvendo ideias para impulsionar o negócio para o sucesso.
  • Análise contínua : tanto para estudar os clientes quanto para analisar aspectos das operações comerciais. Atualmente, seu uso aqui possibilita um melhor entendimento da experiência do cliente e de como os funcionários trabalham.

As preocupações

O rápido desenvolvimento de sistemas de IA entre grandes organizações e pequenas e médias empresas levou ao aumento da preocupação. Além de seu soluço no início do ano, o Google delineou uma lista razoável de metas para o uso ético da IA ​​que se assemelha a temas comuns em outras diretrizes. A lista faz considerações para:

  • Benefícios sociais: Respeitar as normas culturais, sociais e legais
  • Viés : Impedir que algoritmos e bancos de dados reflitam injustamente vieses relacionados a características como raça, gênero e nacionalidade
  • Responsabilidade : Fornecer oportunidades para feedback e apelação. Tornar a tecnologia de IA sujeita à direção e controle humanos
  • Privacidade: crie tecnologia de IA com salvaguardas de privacidade e transparência apropriada

Estabelecimento de padrões

Em suas Diretrizes de Ética para IA Confiável, a UE estabeleceu sete requisitos essenciais semelhantes que espera que se tornem a base de uma diretriz ética para moldar o setor globalmente.

Ele vem logo após o GDPR do ano passado, que até agora encontrou popularidade ao enquadrar a privacidade de dados como um direito fundamental dos cidadãos. Essas diretrizes de ética também procuraram enquadrar os princípios humanos fundamentais como o centro dos sistemas de IA.

Os elementos-chave enfatizam a supervisão humana, privacidade de dados e responsabilidade - observando que, à medida que as tecnologias de IA se tornam mais prevalentes, deve haver um esforço conjunto para levar em consideração as principais preocupações do público.

IA não monitorada

Essas diretrizes são importantes porque lançam luz sobre a corrida pela supremacia na IA. A Europa está notavelmente atrasada em relação à China e aos EUA em termos de investimento em tecnologia, mas encontrou apoio global para a introdução de diretrizes em outras áreas, como leis de emissões e padrões alimentares.

Este novo impulso pode ser visto como uma tentativa de liderar o caminho em um tópico que está ganhando força rapidamente. Ao se diferenciar, eles podem ganhar vantagem na liderança da discussão mundial sobre ética na indústria de IA.

Tal abordagem não é injustificada nem falsa; as prioridades das estratégias de IA em todo o mundo variam muito em seus objetivos. Os EUA, por exemplo, estão atualmente liderando a oposição à proibição mundial de robôs assassinos. A China, por outro lado, concentrou-se principalmente em seu controverso sistema de crédito social, que procura tirar proveito de seu acesso total aos dados dos cidadãos.

Ambos enfatizam o uso de IA não monitorada – ou seja, tecnologia totalmente automatizada com pouca ou nenhuma supervisão humana que está tomando decisões sobre como lidar com as pessoas. O cerne da preocupação europeia é que essa tecnologia possa eventualmente permitir que empresas – e talvez governos – abdiquem da responsabilidade de tomar decisões ou usem a IA para fins controversos.

Como as empresas americanas serão afetadas?

Obviamente, essas diretrizes não estão consagradas na lei, como acontece com a maioria das abordagens de IA por órgãos governamentais. No entanto, eles servem como base para conversas futuras sobre o tema e podem formar a estrutura de regulamentação futura, com testes das diretrizes com organizações a partir de 2020.

Com a Lei de Privacidade do Consumidor da Califórnia – “GDPR nos EUA” – entrando em vigor no próximo ano, não é irracional supor que as futuras leis de tecnologia também se inspirarão do outro lado do oceano. Os EUA, juntamente com outros 41 países, já endossaram um movimento recente da Organização para Cooperação e Desenvolvimento Econômico (OCDE) para estabelecer princípios não vinculativos de IA.

Após os preparativos e custos que tiveram que ser feitos após a entrada em vigor do GDPR, as empresas dos EUA estarão olhando com curiosidade para ver como essas diretrizes afetarão as organizações no futuro.

Considerando a má imprensa que algumas grandes empresas dos EUA já receberam, e apesar dos esforços individuais para fazer incursões em relação à tecnologia de IA, as empresas podem se adaptar às regulamentações dos legisladores mais cedo ou mais tarde.

Isso pode significar essencialmente que, assim como no GDPR, as organizações seriam aconselhadas a avaliar a melhor forma de se preparar para possíveis obstáculos no caminho à frente. O uso de big data, por exemplo, utilizado em massa para melhorar os recursos da tecnologia de IA, é uma prática que pode se encontrar na linha de fogo das preocupações com a transparência de dados.

O futuro da IA ​​e automação

A IA em tecnologia oferece muitas vantagens para as empresas, simplificando processos e eliminando a tarefa de tarefas repetitivas de baixo nível. No entanto, esses mesmos benefícios podem rapidamente se tornar problemáticos devido aos meios para alcançá-los.

Esse é particularmente o caso de práticas como a coleta de grandes quantidades de dados de clientes para melhorar a resposta humana da IA. Os consumidores ainda se sentirão confortáveis ​​com isso no futuro próximo? Caso contrário, as PMEs que estão empregando extensas estratégias de IA em suas organizações terão que considerar seriamente um plano para antecipar os próximos desafios que o uso da IA ​​pode representar com regulamentações éticas mais rígidas.

Não há como negar como a IA ajuda as empresas, e seu uso continuará a crescer no futuro próximo. No entanto, já tivemos um gostinho de como as pessoas reagem à tecnologia avançada quando se trata de privacidade.

As práticas éticas de IA estão recebendo um escrutínio semelhante ao da proteção de dados e da privacidade, portanto, é uma boa ideia que os tomadores de decisão de SMB estejam cientes das considerações que provavelmente terão que fazer à medida que a tecnologia se tornar mais sofisticada.

Quer Saber Mais?

A inteligência artificial é uma ferramenta poderosa que as organizações podem aproveitar para aumentar a produtividade e a eficiência. Leia mais sobre automação inteligente de processos e entre em contato para iniciar uma conversa hoje.