您的位置:首页 > 资讯 > 人工智能 > 行业动态 > 正文

美国布鲁金斯学会--人工智能是如何改变世界的?

2019-11-24 21:20 性质:翻译 作者:Mulang 来源:无人机网
免责声明:无人系统网(www.youuvs.com)尊重合法版权,反对侵权盗版。(凡是我网所转载之文章,文中所有文字内容和图片视频之知识产权均系原作者和机构所有。文章内容观点,与本网无关。如有需要删除,敬请来电商榷!)

创建一个联邦AI咨询委员会

联邦官员需要考虑如何处理人工智能。如前所述,存在许多问题,从需要改进的数据访问到解决偏见和歧视问题。考虑到这些和其他问题至关重要,这样我们才能充分利用这项新兴技术的全部利益。

为了在这一领域取得进展,几位国会议员提出了“人工智能的未来法”,该法案旨在为人工智能建立广泛的政策和法律原则。它建议商务部长成立一个有关人工智能开发和实施的联邦咨询委员会。该立法为联邦政府提供了一种机制,以就如何促进“投资和创新气候以确保美国的全球竞争力”,“优化人工智能的发展以应对潜在的增长,重组或发展”提出建议。美国劳动力的其他变化”,“支持人工智能的公正发展和应用”和“保护个人的隐私权。”

要求委员会解决的具体问题包括:竞争力、劳动力影响、教育背景,道德培训、数据共享、国际合作、责任制、机器学习偏见、农村影响、政府效率、投资环境、工作影响、偏见、和消费者的影响。委员会应在颁布后540天向国会和政府提交一份有关AI所需的任何立法或行政措施的报告。

这项立法是朝着正确方向迈出的一步,尽管该领域的发展如此之快,我们建议将报告时间表从540天缩短到180天。等待近两年的委员会报告肯定会导致机会错失,并且在重要问题上缺乏行动。鉴于该领域的快速发展,在委员会分析中有更快的周转时间将是非常有益的。

与州和地方官员接触

各州和地区也正在就AI采取行动。例如,纽约市议会一致通过了一项法案,指示市长组建一个工作组,“负责监视市政机构使用的算法的公平性和有效性。”纽约市采用算法来“确定是否需要较低的保释金”。将被分配给贫困的被告,在该处建立消防站,为公立学校布置学生,评估老师的表现,确定医疗补助欺诈,并确定接下来将发生犯罪的地方。”

根据法律的制定者,城市官员想知道这些算法如何工作,并确保有足够的AI透明度和责任感。此外,人们还担心AI算法的公平性和偏见,因此工作组已被指示分析这些问题并就未来的使用提出建议。计划在2019年底之前向市长报告一系列人工智能政策,法律和法规问题。

一些观察者已经担心该工作组在追究算法责任方面做得还不够。例如,康奈尔大学技术学院和纽约大学的朱莉亚·普勒斯(Julia Powles)辩称,该法案最初要求公司向公众提供AI源代码以供检查,并且需要使用实际数据模拟其决策。但是,在对这些规定提出批评之后,前议员詹姆斯·瓦卡(James Vacca)放弃了要求,转而成立了研究这些问题的工作队。他和其他城市官员担心,有关算法的专有信息的发布会减缓创新速度,并使得寻找与城市合作的AI供应商变得困难。这个地方工作队将如何平衡创新,隐私和透明度问题还有待观察。

规范广泛的目标而不是特定的算法

欧洲联盟对这些数据收集和分析问题采取了限制性立场。它的规则限制了公司收集道路状况数据和绘制街道视图的能力。由于这些国家中的许多国家担心未加密的Wi-Fi网络中的个人信息会席卷整个数据收集,因此欧盟对技术公司处以罚款,要求提供数据副本,并对收集的材料进行限制。这使得在那里经营的技术公司更难以开发自动驾驶汽车所需的高清地图。

在欧洲实施的GDPR严重限制了人工智能和机器学习的使用。根据已发布的准则,“法规禁止任何“重大影响”欧盟公民的自动决定。其中包括评估个人“在工作,经济状况,健康状况,个人喜好,兴趣,可靠性,行为,位置或动作方面的表现”的技术。”此外,这些新规定赋予公民查看数字化程度的权利。服务做出了影响人们的特定算法选择。

通过在数据收集和分析问题上采取限制性立场,欧盟使其制造商和软件设计师处于与世界其他国家相比明显的劣势。

如果严格解释,这些规则将使欧洲软件设计人员(以及与欧洲同行合作的美国设计人员)难以将人工智能和高清地图纳入自动驾驶汽车。这些汽车和卡车导航的中心是跟踪位置和运动。如果没有包含地理编码数据的高清地图以及利用这些信息的深度学习,那么全自动驾驶将在欧洲停滞不前。通过这项和其他数据保护措施,欧盟使其制造商和软件设计师对世界其他地区处于严重不利地位。

考虑到人工智能希望实现的广泛目标并制定可推进这些目标的政策,这与政府试图破解“黑匣子”并确切了解特定算法的运行方式的政府相比,更加有意义。规范单个算法将限制创新,并使公司难以利用人工智能。

认真对待AI出现的偏见

偏见和歧视是AI的严重问题。已经有许多与历史数据相关的不公平对待案例,需要采取措施以确保在人工智能中不普遍。有关实体经济中歧视的现行法规需要扩展到数字平台。这将有助于保护消费者并建立对这些系统整体的信心。

为了使这些进步得到广泛采用,人工智能系统的运行方式需要更高的透明度。Immuta的安德鲁·伯特(Andrew Burt)指出:“预测分析面临的关键问题实际上是透明度。我们处在一个数据科学运营正在承担越来越重要的任务的世界中,唯一使它们受阻的是训练模型的数据科学家能够很好地解释其模型在做什么。”

维持人类监督和控制机制

一些人认为,人类需要对AI系统进行监督和控制的途径。例如,艾伦人工智能研究所首席执行官Oren Etzioni认为应该有规则来规范这些系统。他说,首先,AI必须受制于已经针对人类行为而制定的所有法律,包括有关“网络攻击,股票操纵或恐怖主义威胁”的法规,以及“诱使人们实施犯罪”的法规。其次,他认为这些系统应该公开它们是自动化系统,而不是认为操纵。第三,他指出:“未经信息源的明确许可,人工智能系统无法保留或披露机密信息。”他的理由是这些工具存储了太多数据,因此人们必须意识到AI带来的隐私风险。

同样,IEEE(美国电气电子工程师学会)全球倡议组织拥有关于AI和自治系统的道德准则。它的专家建议对这些模型进行编程时要考虑到广泛接受的人类行为规范和规则。AI算法需要考虑这些规范的重要性,如何解决规范冲突以及这些系统对规范解决方案透明的方式。伦理专家称,软件设计应该针对“不欺骗”和“诚实”进行编程。发生故障时,必须有缓解机制来处理后果。尤其是,人工智能必须对偏见,歧视和公平等问题敏感。

一群机器学习专家声称可以自动进行道德决策。他们将电车问题视为道德困境,他们提出以下问题:如果自动驾驶汽车失控,是否应该对其编程以杀死自己的乘客或过马路的行人?他们设计了一个“基于投票的系统”,该系统要求130万人评估替代方案,总结总体选择,并将这些人的总体观点应用于各种交通工具。这使他们能够在考虑到公众偏好的情况下自动执行AI算法中的道德决策。当然,此程序不会减少任何形式的死亡所造成的悲剧,例如在Uber案中所见,但是它提供了一种机制,可以帮助AI开发人员将道德考虑纳入其计划中。

惩罚恶意行为并促进网络安全

与任何新兴技术一样,重要的是要阻止旨在诱骗软件或将其用于不良目的的恶意处理。考虑到AI的双重用途,这一点尤其重要,因为同一方面的工具可以用于有益或恶意目的。恶意使用AI会使个人和组织面临不必要的风险,并破坏了新兴技术的优点。这包括诸如黑客行为,操纵算法,损害隐私和机密性或窃取身份之类的行为。劫持AI以获取机密信息的行为应受到严惩,以制止此类行为。

在一个瞬息万变的世界中,许多实体都具有先进的计算功能,因此需要认真关注网络安全。各国必须谨慎保护自己的系统,并防止其他国家破坏其安全。根据美国国土安全部的资料,一家大型美国银行每周在其服务中心接听大约1100万个电话。为了保护其电话免遭拒绝服务攻击,它使用“基于机器学习的策略引擎,该引擎根据语音防火墙策略(包括骚扰呼叫者,自动化呼叫和潜在的欺诈性呼叫),每月阻止超过120,000个呼叫。”这代表了机器学习可以帮助防御恶意系统的技术系统的一种方式。

五、结论

总而言之,世界正处于通过AI和数据分析革新,使得许多行业处于风口浪尖。在金融、国家安全、医疗保健、刑事司法、交通和智慧城市中已经有大量部署,已经改变了决策,业务模型,风险缓解和系统性能。这些事态发展正在产生可观的经济和社会效益。

世界正处于通过人工智能使许多领域发生革命的时刻,但是由于这些技术将对整个社会产生重大影响,因此需要更好地理解AI系统的开发方式。

然而,人工智能系统的发展方式对整个社会都具有重大意义。重要的是如何解决政策问题,解决道德冲突,解决法律现实以及在AI和数据分析解决方案中需要多少透明度。人们对软件开发的选择会影响决策的方式以及将决策整合到组织例程中的方式。这些过程的确切执行方式需要更好地理解,因为它们将在不久的将来对公众产生重大影响。人工智能很可能是人类事务的一场革命,并且将成为历史上最有影响力的人类创新。

特别鸣谢:

Grace Gilberg,Jack Karsten,Hillaryary Schaub和Kristjan Tomasson在此项目上的研究帮助。

美国布鲁金斯学会是一家致力于独立研究和政策解决方案的非营利组织。它的任务是进行高质量的独立研究,并在此基础上为决策者和公众提供创新,实用性的建议。任何布鲁金斯出版物的结论和建议仅是其作者的结论和建议,并不代表该机构其管理层或其他学者的观点。


12345下一页

网友评论
文明上网,理性发言,拒绝广告

相关资讯

热点资讯
推荐图文

关注官方微信

手机扫码看新闻