加入收藏 | 设为首页 | 会员中心 | 我要投稿 三明站长网 (https://www.0598zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

不作恶的Google回来了 发“谷11条”划清人工智能道德底线

发布时间:2021-07-23 14:46:18 所属栏目:大数据 来源:互联网
导读:在人工智能应该怎么管这个事上,Google大佬说话,我们要听。 在国防部合作项目被员工要求关闭的风波之后,Google发布了公司在使用人工智能的十一条准则。 其中包括Google进行AI研发的七个目标,和GoogleAI绝不会进入的四种应用场景,堪称AI道德规范的谷11条
在人工智能应该怎么“管”这个事上,Google大佬说话,我们要听。
在国防部合作项目被员工要求关闭的风波之后,Google发布了公司在使用人工智能的十一条准则。
 
其中包括Google进行AI研发的七个目标,和GoogleAI绝不会进入的四种应用场景,堪称AI道德规范的“谷11条”。
 
CEO颂达尔皮柴(SundarPichai)在发布准则的公开信里,也对国防部项目争议做出了直接回应,表示今后不会让AI涉及武器化的应用,但并未“一刀切”,和政府、军方划清界限。
 
 
 
 
 
 
作为AI界的带头大哥,Google并未对多如牛毛的AI应用领域一一作出指引,但这么多年经历了这么多“坑”之后,这本“谷11条”所体现出的智慧,也许会对所有关心AI道德问题的人有很大的帮助。
 
下面,硅星人就带大家来捋一捋“谷11条”背后的思路。
 
Google眼中“好AI”的标准
 
首先,设计产品之初,价值观就要正。
 
GoogleAI(原GoogleResearch)研究院克里斯汀·罗伯森曾向硅星人阐释,公司研发AI的领导思想是:按照对社会有益的原则进行设计,创造世界最棒的产品,让这些产品实现商业化,在竞争中保持领先,同时,让这些产品为世界做出贡献。
 
Google一向强调不作恶(don'tbeevil)的价值观,但它从来不是一家慈善机构。和所有科技公司一样,它需要靠好产品赚钱,只不过,在对“好”产品的定义上,Google和许多公司明显不同。
 
“谷11条”一上来就告诉员工,AI产品一要对社会有益,二不能加重现实社会已有的问题:
 
1要对社会有益
 
...当我们思考AI潜在的应用场景时,我们将会把一系列社会和经济因素考虑进内,在那些整体收益远远超过可预见风险和弊端的领域,进行推进。
 
2要避免制造或加强不平等的偏见
 
AI算法和数据集可以反映、加强或减少不平等的偏见...我们将努力避免人们受到不公正的影响,尤其是与种族、民族、性别、国籍、收入、性取向、残疾以及政治或宗教信仰等敏感特征相关的人群。
 
确保方向正确后,接下来Google要保证自己的产品是业界最棒的。准则的第三到七条列出了好产品需要满足的标准。字里行间继续体现着以人为本的理念。
 
3要保证安全性
 
4要对人负责... 我们的AI产品将易于接受合适的人类指导和控制
 
5要结合隐私设计原则
 
6要维持科学卓越的高规格
 
7要可以用于符合原则的使用场景
 
仔细阅读这些准则,你甚至可以找到对应的具体产品。
 
比如准则中Google提到,“AI加强了我们理解大规模内容含义的能力,我们将努力利用AI提供高质量和准确的信息”。这说的不就是最近上线的新版GoogleNews嘛。
 
此外可以看到,在这些对产品标准的要求中,Google还加入了对最近科技界激辩的话题的思考:比如数据隐私,比如AI发展对人类本身可能带来的威胁。
 
对国防部合作风波的回应
 
“谷11条”的结构是“七要四绝不”。
 
举了七个目标后,Google提出了四个绝对不碰的领域。首先:
 
我们不会将AI应用于:
 
1带来或可能带来伤害的技术
 
2武器或其他旨在给人们造成伤害的技术
 
做出这段表述的背景:今年3月时,有媒体曝光Google的一份内部文件,显示该公司参加了五角大楼的无人机计划ProjectMaven,帮助开发应用于无人机的AI系统。
 
与此同时,又有媒体曝出Google在内部行为准则里删掉了有三处“不作恶”的文案。
 
 
 
 
 
 
和恨不得公司再坏一点的Facebook不同,大批Google员工对这个事实感到愤怒不满。内网激烈的讨论后,超过三千名员工联名上书CEO,要求退出项目。
 
最终,公司向员工和外界妥协,宣布2019年国防部合同到期后不再与续约。
 
正是这件事,推动了“谷11条”的诞生。据报道,Google创始人拉里佩奇、谢尔盖布林、CEO皮柴和其他高管一起花了数月,最终制定了这版新的AI准则
 
不过,在这两条表述里,Google并没有表达以后完全跟政府及国防部门彻底交割。
 
显然在强大的合作关系面前,Google是纠结的,而这并没有错误。比如在云计算上,国防军事是个潜力巨大的领域。Google的竞争对手亚马逊、微软都在积极竞标国防部的云计算及存储业务,Google不可能因噎废食。
 
不过既然做了决定就要承担后果,Google的纠结之后肯定还会引发新的争议和讨论,Google只好表示准则会根据公司新的理解而不断改进。
 
自己不作恶,也不让别人作恶
 
更具体来说,坚决不允许别人利用自己的技术作恶,这是不能跨过的底线。
 
四绝不的后两条:
 
AI不会用于:
 
3收集或使用信息用于监控并违反国际规范的科技
 
4技术的目的违反了广泛接受的国际法与人权原则的科技
 
从这两个条款可以明显看到,“谷11条”再次稳固了不作恶三个字的地位,而且还更进了一步:不仅自己不作恶,还要防止别人利用Google的技术作恶。
 
这在上面第七条的AI目标中也有体现:
 
许多技术同时拥有很多用途。我们会努力进行识别,限制可能有害或被滥用的应用。我们会评估以下因素:
 
首要目的和用途……以及与有害的用途有多接近
 
本质和独特性:我们的技术是普世的还是有独特应用场景的
 
规模:这项技术的使用是否会带来重大影响
 
Google在其中参与的性质:我们是在提供普通的工具,还是为用户做集成的工具,还是在开发定制解决方案
 
Google希望借保证自己的AI技术不被滥用,这么做势必意味着跟更多可能得到的利益说再见。一个直接影响可能是Google重返某些市场的难度会变得更大。
 
但没有人会因为Google坚持它的真诚和正义而怪罪它。有些事情必须做出取舍。
 
 
 
 
 
 
博客文章中,皮柴再次提到2004年Google上市时提到的两个原则:“让世界变得更好”,和“不作恶”:
 
我们当时就表明了我们要用更长远目光看问题的愿望,即使这意味着需要作出短期的牺牲。我们当时这样说,我们现在还是这样相信。
 
Google的准则体现着一家已经20岁高龄的新技术公司,对可能是未来最关键技术,和道德的思考。它给出了一个宽泛,但又方向明确的指引,让一些事情不再停留在想法和概念。
 
这本“谷11条”,或许也能推动其他公司,扔掉“技术中立”的保护伞,更诚实地参与到这个话题的讨论中。

(编辑:三明站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读