首页 资讯头条人工智能正文

人工智能研究人员提出“偏见悬赏”以将道德原则付诸实践

2020-04-18_211700.jpg

来自Google Brain,英特尔,OpenAI以及美国和欧洲顶级研究实验室的研究人员本周联手发布了该小组所谓的工具箱,该工具箱将AI道德原则转化为实践。用于创建AI模型的组织的工具包中的想法是,向开发人员付费以发现AI中的偏见,类似于安全软件中提供的错误赏金。

在本周发布的预印本中,详细介绍了此建议和其他确保AI赢得公众信任和社会福祉的想法。这组作者说,漏洞赏金狩猎社区可能太小而无法建立强有力的保证,但是与今天采取的措施相比,开发人员仍然可能发现更多的偏见。

文章写道:“偏差和安全赏金将把漏洞赏金的概念扩展到AI,并可以补充现有的工作,以更好地记录数据集和模型的性能限制和其他属性。” “我们将重点放在发现AI系统中的偏见和安全性问题的赏金上,以此作为分析和实验的起点,但请注意,还可以探索其他属性(例如安全性,隐私保护或可解释性)的赏金。”

该论文的作者周三发表,题为“迈向可信赖的AI发展:支持可验证索赔的机制”,   还建议“红队”以发现缺陷或漏洞,并将独立的第三方审计与政府政策联系起来以建立监管市场,以及其他技术。

共同作者JB Rubinovitz最初于2018年提出了AI偏见赏金的想法。同时,仅谷歌表示已向安全漏洞发现者支付了2100万美元,而像HackerOne和Bugcrowd这样的漏洞赏金平台在最近几个月中已经筹集了资金。

DARPA前局长里贾纳·杜甘(Regina Dugan)也提倡红队训练,以应对AI系统中的道德挑战。一个主要由著名的Google AI伦理研究者领导的团队发布了一个框架,供组织内部使用,以弥补他们认为伦理责任的差距。

本周分享的论文包括10条关于如何将AI伦理原则转化为实践的建议。近年来,80多个组织-包括OpenAI,谷歌,并且即使美军 -起草了AI的道德原则,但本文断言AI道德原则的作者是“只是第一步,以[确保]从有利于社会效果AI”,并说“行业和学术界的现行法规不足以确保负责任的AI开发。”

他们还提出了一些建议:

  • 作为社区共享AI事件,并可能创建集中的事件数据库

  • 建立审核跟踪以在AI系统的安全关键型应用程序的开发和部署过程中捕获信息

  • 提供商业AI系统的开源替代方案并加强对商业模型的审查

  • 增加政府对学术界研究人员的资助,以验证硬件性能要求

  • 支持近年来开发的以隐私为中心的机器学习技术,例如联合学习,差分隐私和加密计算

该论文是2019年4月在旧金山举行的研讨会上提出的想法的最高潮,该研讨会包括来自学术界,行业实验室和民间社会组织的约35名代表。提出这些建议是为了解决作者所谓的有效评估AI从业者提出的主张方面的空白,并提供“验证AI开发人员对负责任AI开发的承诺”的途径。

随着人工智能在企业,政府和社会中的不断扩散,作者表示,围绕AI的关注,研究和行动主义也在增加,特别是与偏见放大,道德规范清洗,隐私丧失,数字成瘾,面部护理等问题有关识别误用,虚假信息和失业。

人们发现,人工智能系统会加剧现有的种族和性别偏见,从而导致诸如警察工作中的面部识别偏见以及数百万非裔美国人的医疗保健等问题。举一个最近的例子,美国司法部最近因使用PATTERN风险评估工具而受到批评,该工具因种族偏见而因COVID-19问题而决定提前将哪些囚犯送回家以减少人口规模。

作者认为,有必要超越无法约束开发商的非约束性原则。谷歌大脑的联合创始人安德鲁·伍(Andrew Ng)去年在NeurIPS上描述了这个问题。他在12月的一个小组会议上说,他向与他一起工作的工程师们阅读了经合组织的道德原则,并回答说这种语言不会影响他们的工作方式。

“随着人工智能(AI)的快速技术进步以及基于AI的应用程序在过去几年中的普及,人们越来越关注如何确保AI的开发和部署对人类有益而不是无害,论文读到。“人工智能有可能以有益和有害的方式改变社会。如果AI开发人员获得而不是获得社会和彼此的信任,则更可能实现有益的应用程序,并且更有可能避免风险。本报告充实了一种赢得这种信任的方法,即通过各种机制对AI开发进行可验证的主张。”

在最近的其他AI伦理新闻中,IEEE标准协会是世界上最大的工程师组织之一,在2月发布了一份白皮书,呼吁向“对地球友好的AI”,保护在线儿童以及探索用于衡量社会福祉的新指标。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

Copyright © 2020 未知资讯 特别赞助:智慧城市 群晖NAS 苏ICP备19070053号-2