人工智能道德准则:人工智能使用的关注点和方向
已发表: 2019-07-27政府机构和企业正在构建符合道德规范的 AI 使用框架
4 月,欧盟委员会为科技领域的人工智能问责制引入了道德 AI 指导方针。 这只是一系列准备实施人工智能未来战略的政治和企业组织中的最新一个。
以决策和问责制中的问题为由,随着世界在新兴人工智能技术的推动下向前发展,人们呼吁增加问责制并强调道德考虑。
正如我们在 GDPR 中看到的那样,世界各地制定的技术法规可以很快对企业产生深远影响。 美国公司预计将花费近 420 亿美元来遵守基于欧盟的法律。
随着越来越多的公司认识到人工智能的价值,人工智能正成为现代商业的主要内容。 从自动化到深度分析,人工智能将成为许多中小企业转型路线图的核心,因为自动化的综合选项对于小型组织来说变得更加实惠。
这些指南对如何使用和实施人工智能的影响是每个人都在谈论的问题。 加拿大和日本等拥有领先科技行业的国家已经制定了广泛的人工智能计划,其中包括其道德使用原则。
美国政府已开始对人工智能的伦理考虑进行探索性调查,并于今年早些时候表示其发展人工智能技术产业的目标。 公司也参与了这项行动,尽管谷歌去年春天试图就此事成立一个道德委员会是一场显着的灾难。
科技中的人工智能:自动化的好处
道德和责任问题对于商业中的人工智能尤为重要。 人工智能最常应用于平凡的手动任务。 这些通常是低价值的常规手动任务,使员工远离更有价值的任务。 在他们中的许多人中,人类可能会监督这个过程,但通常需要有限的监督。 人工智能通常因其在应用程序中带来的好处而被利用,包括:
- 网络威胁:算法跟踪行为、检测模式异常并在工作时间之外运行。 人工智能可以处理日常的 IT 任务、自动化数据备份以及保护数据免受黑客攻击。 相反,专家可以专注于更高级别的计划和需要人性化的更复杂的项目。
- 流程自动化:例如数据输入、整理或索引。 员工花费更少的时间提交文件,而将更多的时间用于建立关系或发展想法以推动业务取得成功。
- 持续分析:用于研究客户和分析业务运营的各个方面。 目前,在这里使用它可以更好地了解客户体验和员工的工作方式。
关注点
大型组织和 SMB 之间人工智能系统的快速发展导致了越来越多的关注。 除了今年早些时候的打嗝之外,谷歌还概述了一个合理的人工智能使用目标清单,这些目标与其他指南中的常见主题相似。 该列表考虑到:
- 社会福利:尊重文化、社会和法律规范
- 偏见:防止算法和数据库不公平地反映与种族、性别和国籍等特征相关的偏见
- 问责制:提供反馈和申诉的机会。 让人工智能技术受制于人类的指导和控制
- 隐私:创建具有隐私保护和适当透明度的人工智能技术
制定标准
欧盟在其《可信赖人工智能道德准则》中提出了七项类似的基本要求,希望这些要求将成为道德准则的基础,从而在全球范围内塑造行业。
它紧随去年的 GDPR 之后变得炙手可热,迄今为止,GDPR 通过将数据隐私视为公民的一项基本权利而广受欢迎。 这些道德准则同样试图将基本的人类原则构建为人工智能系统的中心。
关键要素强调人类监督、数据隐私和问责制——指出随着人工智能技术变得越来越流行,应该齐心协力考虑公众的主要关切。
不受监控的人工智能
这些指导方针很重要,因为它们阐明了人工智能的霸权竞争。 欧洲在技术投资方面明显落后于中国和美国,但在排放法和食品标准等其他领域引入指南得到了全球支持。
这种新的推动可以被看作是在一个迅速发展的话题上引领潮流的尝试。 通过让自己与众不同,他们可以在领导人工智能行业的全球伦理讨论中占据上风。
这种做法既不无根据,也不虚伪; 世界各地人工智能战略的优先级在其目标上差异很大。 例如,美国目前正在带头反对全球禁止杀手机器人。 另一方面,中国主要关注其有争议的社会信用体系,该体系希望利用其对公民数据的全面访问权。
两者都强调使用不受监控的人工智能——即完全自动化的技术,几乎没有人为监督来决定如何与人打交道。 欧洲关注的核心是,这种技术最终可能使企业——也许是政府——放弃决策责任或将人工智能用于有争议的目的。
美国企业将如何受到影响?
当然,这些指导方针并没有像管理机构对人工智能的大多数方法一样载入法律。 但是,它们确实可以作为未来关于该主题的对话的基础,并且可以形成未来监管的结构,并从 2020 年开始与组织一起测试这些指南。
随着加利福尼亚的消费者隐私法案——“美国 GDPR”——明年生效,假设未来的科技法律也将从整个池塘中汲取灵感并不是不合理的。 美国和其他 41 个国家已经支持经济合作与发展组织 (OECD) 最近采取的一项举措,即建立不具约束力的人工智能原则。
在 GDPR 生效后必须进行的准备工作和成本之后,美国企业将好奇地观察这些指导方针将如何影响未来的组织。
考虑到一些美国大公司已经收到了负面新闻,尽管在人工智能技术方面单独努力取得进展,但企业可能会发现自己迟早会适应立法者的规定。
这本质上可能意味着,与 GDPR 一样,建议组织评估如何最好地为未来道路上的潜在障碍做好准备。 例如,使用大数据来提高人工智能技术的能力,这种做法可能会发现自己处于数据透明度问题的火线上。
人工智能和自动化的未来
技术中的人工智能通过简化流程和消除低级重复性任务的繁琐,为企业带来了许多优势。 然而,由于实现这些好处的手段,这些相同的好处可能很快就会成为问题。
在收集大量客户数据以改善人工智能与人类的反应等实践中尤其如此。 在不久的将来,消费者还会对此感到满意吗? 如果不是这样,在其组织中采用广泛的人工智能战略的中小型企业将不得不认真考虑一项计划,以预测在更严格的道德法规下使用人工智能可能带来的即将到来的挑战。
不可否认,人工智能如何帮助企业,并且在不久的将来它的使用将继续增长。 但是,我们已经了解了人们对涉及隐私的先进技术的反应。
道德 AI 实践正在接受与数据保护和隐私类似的审查,因此对于 SMB 决策者来说,了解随着技术变得更加复杂,他们很可能不得不做出的考虑是一个好主意。