Pautas de ética de la IA: preocupaciones y dirección del uso de la IA

Publicado: 2019-07-27

Las agencias gubernamentales y las corporaciones están creando marcos para el uso ético de la IA

En abril, la Comisión Europea presentó pautas éticas de inteligencia artificial para la responsabilidad de la inteligencia artificial en tecnología. Esta es solo la última de una larga lista de organizaciones políticas y corporativas que se preparan para implementar estrategias para el futuro del uso de la IA.

Citando problemas en la toma de decisiones y la responsabilidad, se pide una mayor responsabilidad y un énfasis en las consideraciones éticas a medida que el mundo avanza con la nueva tecnología de IA emergente.

Como vimos con GDPR, las regulaciones tecnológicas hechas en todo el mundo pueden tener efectos profundos muy rápidamente en las empresas. Se prevé que las empresas estadounidenses gasten un total de casi $ 42 mil millones en el cumplimiento de la ley basada en la UE.

La IA se está convirtiendo en un elemento básico de los negocios modernos a medida que más y más empresas reconocen su valor. Desde la automatización hasta el análisis en profundidad, la IA se convertirá en un elemento central de las hojas de ruta de transformación de muchas PYMES a medida que las opciones integrales de automatización se vuelvan más asequibles para las organizaciones más pequeñas.

Las implicaciones de estas pautas sobre cómo se usa e implementa la IA es la pregunta en boca de todos. Los países con sectores tecnológicos líderes como Canadá y Japón ya han presentado planes extensos para la IA que incluyen principios de su uso ético.

El gobierno de EE. UU. ha iniciado investigaciones exploratorias sobre la consideración ética de la IA y, a principios de este año, declaró su objetivo de hacer crecer la industria tecnológica de la IA. Las corporaciones también se han metido en el acto, aunque el intento de Google de formar un panel de ética sobre el tema la primavera pasada fue un desastre notable.

IA en tecnología: los beneficios de la automatización

La cuestión de la ética y la responsabilidad es particularmente pertinente para la IA en los negocios. La IA se aplica más comúnmente en tareas manuales mundanas. Estas son a menudo tareas manuales rutinarias de bajo valor que alejan a los empleados de tareas más valiosas. En muchos de ellos, los humanos pueden supervisar el proceso, pero generalmente se requiere una supervisión limitada. La IA se aprovecha comúnmente por los beneficios que aporta en aplicaciones que incluyen:

  • Amenazas cibernéticas: los algoritmos rastrean el comportamiento, detectan anomalías en los patrones y operan fuera del horario comercial. AI puede manejar las tareas de TI de rutina diaria, automatizar la copia de seguridad de datos y proteger los datos de los piratas informáticos. En cambio, los especialistas pueden concentrarse en iniciativas de alto nivel y proyectos más complicados que requieren un toque humano.
  • Automatización de procesos: como la entrada de datos, la recopilación o la indexación. Los empleados pasan menos tiempo archivando y más tiempo construyendo relaciones o desarrollando ideas para impulsar el negocio hacia el éxito.
  • Analítica continua : Tanto para estudiar a los clientes como para analizar aspectos de las operaciones comerciales. Actualmente, su uso aquí permite una mejor comprensión de la experiencia del cliente y cómo trabajan los empleados.

Las preocupaciones

El rápido desarrollo de los sistemas de IA entre las grandes organizaciones y las PYMES ha generado una mayor preocupación. Aparte de su contratiempo a principios de año, Google ha esbozado una lista razonable de objetivos para el uso ético de la IA que se asemeja a temas comunes en otras pautas. La lista hace consideraciones para:

  • Beneficios sociales: Respeto de las normas culturales, sociales y legales
  • Sesgo : Evitar que los algoritmos y las bases de datos reflejen injustamente los sesgos relacionados con características como la raza, el género y la nacionalidad.
  • Rendición de cuentas: Proporcione oportunidades para comentarios y apelaciones. Hacer que la tecnología de IA esté sujeta a la dirección y el control humanos
  • Privacidad: cree tecnología de IA con garantías de privacidad y transparencia adecuada

Establecen normas

En sus Pautas de ética para una IA confiable, la UE ha establecido siete requisitos esenciales similares que espera se conviertan en la base de una pauta ética que dará forma a la industria a nivel mundial.

Viene inmediatamente después del RGPD del año pasado, que hasta ahora ha ganado popularidad al enmarcar la privacidad de los datos como un derecho fundamental de los ciudadanos. Estas pautas éticas también han buscado enmarcar los principios humanos fundamentales como el centro de los sistemas de IA.

Los elementos clave enfatizan la supervisión humana, la privacidad de los datos y la responsabilidad, señalando que a medida que las tecnologías de IA se vuelven más predominantes, debe haber un esfuerzo concertado para tener en cuenta las principales preocupaciones del público.

IA no supervisada

Estas pautas son importantes porque arrojan luz sobre la carrera por la supremacía en IA. Europa está notablemente rezagada con respecto a China y EE. UU. en términos de inversión en tecnología, pero ha encontrado apoyo mundial para la introducción de pautas en otras áreas, como las leyes de emisiones y los estándares alimentarios.

Este nuevo impulso puede verse como un intento de liderar un tema que está cobrando fuerza rápidamente. Al diferenciarse, pueden ganar ventaja al liderar la discusión mundial sobre la ética en la industria de la IA.

Tal enfoque no es injustificado ni falso; las prioridades de las estrategias de IA en todo el mundo varían enormemente en sus objetivos. Estados Unidos, por ejemplo, lidera actualmente la oposición a una prohibición mundial de los robots asesinos. China, por otro lado, se ha centrado principalmente en su controvertido sistema de crédito social que busca aprovechar su acceso total a los datos de los ciudadanos.

Ambos enfatizan el uso de IA no supervisada, es decir, tecnología completamente automatizada con poca o ninguna supervisión humana que toma decisiones sobre cómo tratar con las personas. El núcleo de la preocupación europea es que dicha tecnología podría eventualmente permitir a las empresas, y quizás a los gobiernos, renunciar a la responsabilidad de tomar decisiones o utilizar la IA con fines controvertidos.

¿Cómo se verán afectadas las empresas estadounidenses?

Por supuesto, estas pautas no están consagradas en la ley, como ocurre con la mayoría de los enfoques de la IA por parte de los órganos rectores. Sin embargo, sirven como base para futuras conversaciones sobre el tema y podrían formar la estructura de una regulación futura, con pruebas de las pautas con organizaciones a partir de 2020.

Con la Ley de Privacidad del Consumidor de California, "GDPR en los EE. UU.", que entrará en vigencia el próximo año, no es descabellado suponer que las futuras leyes tecnológicas también se inspirarán al otro lado del charco. Estados Unidos, junto con otros 41 países, ya ha respaldado un movimiento reciente de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) para establecer principios no vinculantes de IA.

Después de los preparativos y los costos que se tuvieron que realizar después de la entrada en vigor del RGPD, las empresas de EE. UU. observarán con curiosidad cómo afectarán estas pautas a las organizaciones en el futuro.

Teniendo en cuenta la mala prensa que ya han recibido algunas grandes empresas de EE. UU., y a pesar de los esfuerzos individuales para avanzar con respecto a la tecnología de inteligencia artificial, es posible que las empresas se encuentren adaptándose a las regulaciones de los legisladores más temprano que tarde.

Básicamente, esto podría significar que, al igual que con el RGPD, las organizaciones harían bien en evaluar la mejor manera de prepararse para posibles obstáculos en el camino. El uso de big data, por ejemplo, utilizado en masa para mejorar las capacidades de la tecnología de inteligencia artificial, es una práctica que puede encontrarse en la línea de fuego de las preocupaciones sobre la transparencia de datos.

El futuro de la IA y la automatización

La IA en tecnología ofrece muchas ventajas a las empresas al optimizar los procesos y eliminar la tarea de las tareas repetitivas y de bajo nivel. Sin embargo, estos mismos beneficios podrían volverse problemáticos rápidamente debido a los medios para lograrlos.

Este es particularmente el caso de prácticas como la recopilación de grandes cantidades de datos de clientes para mejorar la respuesta humana de IA. ¿Los consumidores seguirán estando cómodos con esto en un futuro próximo? De lo contrario, las PYMES que están empleando estrategias extensivas de IA en sus organizaciones tendrán que considerar seriamente un plan para anticipar los próximos desafíos que el uso de IA podría plantear con regulaciones éticas más estrictas.

No se puede negar cómo la IA ayuda a las empresas, y su uso seguirá creciendo en el futuro cercano. Sin embargo, ya hemos probado cómo reacciona la gente a la tecnología avanzada cuando se trata de privacidad.

Las prácticas éticas de IA están recibiendo un escrutinio similar al que tienen la protección de datos y la privacidad, por lo que es una buena idea que los responsables de la toma de decisiones de las PYMES estén al tanto de las consideraciones que probablemente tendrán que hacer a medida que la tecnología se vuelve más sofisticada.

¿Querer aprender más?

La inteligencia artificial es una herramienta poderosa que las organizaciones pueden aprovechar para aumentar la productividad y la eficiencia. Lea más sobre la automatización inteligente de procesos y comuníquese para iniciar una conversación hoy.