linuxsir首页 LinuxSir.Org | Linux、BSD、Solaris、Unix | 开源传万世,因有我参与欢迎您!
网站首页 | 设为首页 | 加入收藏
您所在的位置:主页 > Linux硬件及周边设备 >

万万没想到 人工智能竟存在五大“偏见”

时间:2016-12-21  来源:未知  作者:linuxsir首页

我们偏向于以为机器,尤其是智能机器,都有那么点高冷且坚持中立。我们相信,无人驾驶汽车在生死决议之间不会倾向于行人或者司机任何一方。同时我们信任执行信用评估的智能系统将疏忽真正有影响力的指标之外的所有事件,例如收入或FICO分数。而且我们的懂得是,学习系统会永远忠于真相,因为驱动它们的算法是中立无偏见的。

对于我们中的某些人来说,这是一个bug:在刚性观点之外,机器不应该存有任何恻隐之心。对于其余的人来说,这是一个特点:机器应该解脱人类的偏见。但是在这两者之间还有一种意见,机器将学会客观。

当然了真相远不是这样的,事实的情形是智能系统不仅少有公平无偏见的,且偏见的来源还是多种多样的。这些偏见来源包含我们用于训练系统的数据,我们同机器在“野生环境”下的交互,突发偏见,相似偏见以及摩擦性目标的偏见。这些起源中的大多数通常被疏忽,但是随着我们对于智能系统的构建和安排,懂得机器的偏见来源显得愈发重要,因为我们能够有意识地设计系统且有望防止潜在的问题。

数据驱动偏见

对于任何学习系统来说,输出的讯息取决于它接收的数据。这并不是一个多么新颖的观点,只是当我们看到那些被数百万例子驱动的系统时,这一点通常被遗忘了。宏大的例子会压倒任何人的偏见,但是假如训练集自身就是倾斜的,那么***终的成果也会带有成见。

***近这种类型的偏见已经出现在一些经过深度学习的图像识别系统之中,尼康面部识别软件中呈现的对于亚洲人面貌辨认以及HP皮肤色度的混杂问题好像就是这种倾斜的实例集学习的产物,黄大仙论坛。固然这两者都是固定的且无意识的,但是他们证明了如果我们不斟酌数据中存在的偏差的话,***终仍是会涌现问题的。

除了面部识别,还有其他一些令人不安的情况会对现实世界产生影响。用于构建预测假释犯的累犯率、犯罪模式或潜在雇员的学习系统或多或少都会有一些潜在的负面影响。当它们受训于有倾向性的数据、有的时候甚至是均衡数据,但系统还是会在决策时出现偏见,同时这种偏见还是***性的。

交互偏见

尽管有一些系统通过查看大批的示例组来学习,但其他类型的系统大多通过交互来学习,于是偏见随着驱动交互的用户所带的偏见而产生了。这种类型的偏见有一个很鲜明的例子,即微软的Tay,一个基于Twitter的聊天机器人,旨在通过与用户的交互中进行学习。然而可怜的是,Tay受到了一个用户社区的影响,在与这个社区的交互中Tay变成了一个种族主义者。从实质上说,这个社区重复地在同Tay的聊天中抒发了一些攻打性的言论,通过学习系统Tay***后学会了这些语句并用作日后交互中的回复。

Tay前前后后只存活了24小时,在成为一个极具袭击性的种族主义者之后就被微软强行封闭了。只管Tay的种族主义讥嘲仅仅局限在Twitter上,但是这一事件表明了它潜在的对于现实世界的影响。正是因为我们构建的智能系统是从人类那里学习如何交换沟通以及做决议,那么相似的因为训练而发生的问题以后会越来越多。

友情链接