加入收藏 | 设为首页 | 会员中心 | 我要投稿 三明站长网 (https://www.0598zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

面临“两难抉择”专家建议开展场景化精细化治理

发布时间:2021-04-18 15:35:20 所属栏目:外闻 来源:互联网
导读:但随着人工智能技术及大数据的发展,它被应用于更多领域。广义上的算法是一种以构建社会秩序等目标而设定的一系列步骤。 我们常说的人工智能从某种意义上讲,就是一种能学习、判断和决策的算法。陈吉栋说,算法是一种人机交互场景下决策的新形态,在算法技术

但随着人工智能技术及大数据的发展,它被应用于更多领域。广义上的算法是一种以构建社会秩序等目标而设定的一系列步骤。

“我们常说的人工智能从某种意义上讲,就是一种能学习、判断和决策的算法。”陈吉栋说,算法是一种人机交互场景下决策的新形态,在算法技术下,人类可以通过代码设置、数据运算与机器自动化判断进行决策。这个过程人机共同参与,既有人的决策也有机器的自动化决断。

既然如此,算法歧视到底是人为还是机器所为?对外经济贸易大学数字经济与法律创新研究中心执行主任张欣说,这应从算法技术架构原理说起。

“导致算法歧视的原因很多,有模型设计原因,有数据本身存在歧视的问题。”张欣说,算法本身是一项纯粹的技术,但如今算法技术深度嵌入平台经济,依据不同场景运行,有些是完全自动化决策,有些需要人为干预,但最终产生的算法结果是批量、大规模、系统性的决策,这可能会使传统世界中存在的偏见和歧视问题被系统性放大。

陈吉栋也表示,运用算法技术进行决策可能会固化和放大偏见。这是由于算法数据采集于人类,其不可避免地在数据中会掺杂人的情感认知偏见。这些数据输入终端后使得算法在模型更新迭代过程中让偏见因素进一步固化,加深偏见和歧视,例如求职类App对应聘者进行筛选时可能包含一些性别和地域偏好。

这种基于人为偏见而导致的算法模型在多个场景深度嵌入后,会出现用户在多个场景中被屡次歧视的“锁定效应”。张欣举例称,如果某个用户不恰当地被打上了“信誉低”的数据标签,通过数据标签的共享,就可能产生歧视“锁定效应”。如用户在免押租金使用共享单车的场景下因为“信誉低”被拒绝,转而发现在保险费率核定、银行贷款等更多场景下,也会遇到类似情形。

陈吉栋说,因为算法机器学习和自身的复杂性,加之部分商业平台算法的商业秘密特征,使得大多数人无法理解算法的工作原理,由此导致算法使用者处于事实上的支配地位。

法律赋予用户拒绝个性化推荐的权利

除算法歧视问题外,近年来,个性化推荐、精准营销等引发公众对个人信息安全的担忧。同时,算法在用户画像越来越精准的同时,也让人们担心同质化内容会固化甚至引发人的思维退化,会阻碍人们通过网络获取多元化的信息。

陈吉栋说,算法的精准推荐使得个人信息自主选择受限,加剧“信息茧房”现象。网络的开放性给予了人们更多的信息选择机会,借助算法可以为人们量身打造符合自身喜好App内容,但也使用户陷于自身编织的“信息茧房”之中。

陈吉栋表示,目前,算法可能引发的法律风险在于其基于社会因素对个人进行分类、排序和决策,主要包括搜索结果竞价排序、精准广告营销、个性化推荐、保险或贷款评定、信用评级、图像识别和数据画像等活动场景。

张欣说,实际上,我国立法赋予了用户拒绝个性化推荐的权利,例如《中华人民共和国电子商务法》第十八条明确规定,电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。

陈吉栋表示,电子商务法第十八条规定了网络平台算法个性化推荐结果的消费者保护义务,并明确平台的推荐算法搜索结果应提供非个性化推荐的一般结果,即不针对消费者个人的普通搜索结果。但此条规定的立法目的不是限制定向提供搜索结果的行为和定向结果推送,仅对其加以限制。

此外,我国民法典、网络安全法、消费者权益保护法都从个人信息和数据处理的层面对算法进行了间接规制。比如网络安全法第四章“网络信息安全”中,对网络运营者收集、使用个人信息进行了详细的规定和严格的限制。其中,该法第四十一条规定,网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。网络运营者不得收集与其提供的服务无关的个人信息,不得违反法律、行政法规的规定和双方的约定收集、使用个人信息,并应当依照法律、行政法规的规定与用户约定处理其保存的个人信息。

(编辑:三明站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读