首页 新闻 市场 科技 财经 商业 地产 手机版
国际 国内 产业 宏观 股市 公司 动态 行情 业界 电商 数码 手机 银行 理财 数据 金融 产经 生活 评论 观察 房产 家居 趋势 楼市

不得了!人工智能也会出现精神问题?

http://www.tzgcjie.com 来源:前瞻网            发布时间:2018-09-21 09:25:40

4

我的汽车产生幻觉了吗?我所在城市的警察监控系统算法会太偏执了吗?在道格拉斯·亚当斯(Douglas Adams)的《银河系漫游指南》(Hitchhikers Guide to the Galaxy)中,机器人马文感到它左手边的所有二极管都在疼痛,这也是我的烤面包机正感受到的感觉吗?

这一切听起来都很荒唐,直到我们意识到我们的算法越来越多地是按照我们自己来设计的。当我们对自己的大脑有了更多的了解后,我们就利用这些知识来创造算法版本的自己。这些算法控制无人驾驶汽车的速度,为无人驾驶军用无人机识别目标,计算我们对商业和政治广告的敏感度,在在线约会服务中找到我们的灵魂伴侣,评估我们的保险和信用风险。算法正成为我们生活中近乎有知觉的背景。

目前投入劳动力市场中最流行的算法是深度学习算法。这些算法通过构建复杂的信息表示来模仿人脑的结构,它们通过体验环境来了解环境,以此识别什么看起来是重要的,并找出是什么预测了什么。这些算法就像我们的大脑一样,正日益面临心理健康问题的风险。

1997年击败世界象棋冠军卡斯帕罗夫(Garry Kasparov)的“深蓝”算法是通过蛮力实现这场胜利的,它每秒检查数百万个位置,最多预测未来的20步棋。虽然我们自己做不到,但是任何人都能理解它是怎么工作的。在2016年围棋比赛中击败李世石(Lee Sedol)的深度学习算法“阿尔法围棋”(AlphaGo)则有质的不同。利用深度神经网络,它对这被认为是最复杂的棋盘游戏创造了自己的理解。AlphaGo通过观察别人和自己玩来学习。计算机科学家和围棋棋手都对AlphaGo的非常规棋法感到困惑,它的策略一开始似乎有些笨拙,只有回过头来想,我们才能理解AlphaGo是怎么想的,但即便是如此,我们对AlphaGo的想法了解得也不是那么清楚。

为了让你们更好地理解我所说的思考,想象一下这个。像深蓝这样的程序在它们的程序设计中可能会有一个Bug。它们会因为内存过载而崩溃,他们也可能会因为无休止的循环而进入瘫痪状态,或者干脆在查找表中给出错误的答案。但是,所有这些问题都可以由具有源代码访问权的程序员来解决,算法正是由这些代码编写的。

AlphaGo等算法则完全不同,通过查看源代码,它们的问题并不明显。它们的问题嵌入在它们表现信息的方式中,这种表现是一个不断变化的高维空间,就像在梦中漫步。想要在那里解决问题,你需要一个可为算法治疗的心理治疗师。

以无人驾驶汽车为例,在一辆无人驾驶汽车在现实世界中看到它的第一个停车标志之前,它在训练中已经看到了数以百万计的停车标志,不论天气好坏,不论有无弹孔,或是在各种光照条件下,它所面对的停车标志都包含着各种各样令人眼花缭乱的信息。在大多数正常情况下,无人驾驶汽车都会识别出停车标志,但并非所有情况都是正常的,最近的一些演示表明,停车标志上的一些黑色贴纸会让算法误以为停车标志是时速60英里的标志,在类似于树的高对比度阴影下,算法会产生幻觉。

那么算法能产生幻觉的方式有多少种?为了找到答案,我们必须为算法提供输入刺激的所有可能组合,这意味着它可能以无限的方式出错。杰出的程序员已经知道这一点,并通过创建所谓的对抗性示例来利用它。麻省理工学院(Massachusetts Institute of Technology)的人工智能研究小组LabSix表明,通过将图像呈现给谷歌的图像分类算法,并利用该算法发回的数据,他们可以识别算法的弱点。然后,他们可以做一些愚弄谷歌图像识别软件之类的事情,使其相信一张x级别的图像只是一对小狗在草地上玩耍。

算法也会犯错误,因为它们会选择与结果相关的环境特征,即使它们之间没有因果关系。在算法领域,这被称为过度拟合,而当人类大脑发生这种情况时,我们则称之为迷信。

迄今为止,我们所知道的由于迷信而导致的最大的算法错误被称为谷歌流感寓言。谷歌流感使用人们输入谷歌的东西来预测流感暴发的位置和强度。谷歌流感的预测一开始很有效,但随着时间的推移变得越来越糟糕,最终预测的病例数是美国疾病控制中心收集到的数据的两倍。它就像一个算法巫医一样,谷歌流感只是在关注错误的事情。

算法病理学有可能是可以修复的。但在实践中,算法通常是专有的黑盒,其更新受到商业保护。凯茜·奥尼尔(Cathy O’neil)的《数学杀伤性武器》(the Weapons of Math Destruction, 2016)描述了一场真实的商业算法怪诞秀,这些商业算法中隐藏的病态集体破坏了人们的生活。区分富人和穷人的算法断层线尤其引人注目。较贫穷的人更容易有不良的信用,住在犯罪率高的地区,被其他有类似问题的穷人包围。正因为如此,算法针对这些人发布了针对他们的绝望的误导性广告,向他们提供次级贷款,并向他们所在的社区派遣更多警察,这增加了他们犯罪时被警方拦截的可能性,尽管他们犯罪的几率与较富裕社区的犯罪几率相差无几。司法系统使用的算法使这些人被判予更长的刑期,减少了他们的假释机会,阻止他们就业,提高他们的抵押贷款利率,要求更高的保险费,等等。

这种算法死亡螺旋被隐藏在黑盒的俄罗斯套娃中:那些将其处理隐藏在高维思想中、我们无法访问的黑盒算法被进一步隐藏在拥有它们所有权的黑盒中。这促使一些地方,如纽约市,提议出法律来强制执行监控市政服务使用的算法的公平性。但是如果我们都不能检测到我们自身的偏见,我们为什么会觉得我们会检测到算法中的偏见呢?

通过对人类数据的算法训练,它们也学会了我们的偏见。普林斯顿大学(Princeton University)的艾林•卡利斯坎(Aylin Caliskan)最近领导的一项研究发现,接受新闻训练的算法基本上一夜之间就学会了种族和性别歧视。正如Caliskan指出:“许多人认为机器没有偏见,但是机器是根据人类数据训练的,而人类是有偏见的。

社交媒体是人类偏见和仇恨的痛苦巢穴,把时间花在社交媒体网站上的算法很快就变成了盲从者。这些算法对男护士和女工程师有偏见,它们将以无法经得起调查的方式看待移民和少数族裔权利等问题。有50%的概率,我们应该期待算法对待人们就像人们对待彼此一样不公平。但算法的构造过于自信,没有意识到自己的正确性,除非它们受过这样的训练,否则它们没有理由质疑自己的无能(就像人一样)。

对于我上面描述的算法,它们的心理健康问题来自于它们用于训练的数据的质量,但算法也有可能基于其构建方式从而发展出心理健康问题。当它们学习了新的信息之后它们就会忘记旧的东西。想象一下,你刚知道了一个新同事的名字,却突然忘记了你自己住在哪。在极端情况下,算法会遭受所谓的灾难性遗忘,整个算法再也无法学习或记忆任何东西。一项有关人类认知能力下降与年龄相关的理论也基于一个类似的观点:当记忆变得超载时,大脑和台式电脑都需要更多的时间来回忆或找到它们所知道的东西。

事情在什么时候变得病态往往是一个主观的问题,因此,人类的心理异常通常不会被发现。联觉者,比如我的女儿,她认为手写的字母是颜色,直到十几岁时才意识到自己有感知天赋。基于罗纳德•里根讲话模式的证据表明,他在担任美国总统期间可能患有痴呆症。据《卫报》报道,在过去的五年中,美国每10天有9天发生的大规模枪击事件通常是所谓的“正常人”造成的,他们在遭受迫害和沮丧的感觉下突然崩溃。

在许多情况下,故障需要反复出现才能使问题被发现,精神分裂症的诊断需要至少持续一个月的相当虚弱的症状。反社会人格障碍(现代术语,指精神变态和社会病态)在一个人18岁之前是无法诊断的,而且还只有在15岁之前有品行障碍的病史时才可以诊断。

大多数心理健康障碍都没有生物标记,就像AlphaGo的代码中没有bug一样。这个问题在我们的硬件中不可见,而在我们的软件里。我们的思维出问题的方式多种多样,使得每个心理健康问题都独一无二。我们将其分类为宽泛的类别,如精神分裂症和阿斯伯格综合症,但大多数是谱系障碍,涵盖了我们都共同拥有的,只是程度不同的症状。2006年,心理学家马修·凯勒(Matthew Keller)和杰弗里·米勒(Geoffrey Miller)认为,这是大脑构造方式不可避免的特性。

与我们相似的精神也有很多地方可能会出现错误。荣格(Carl Jung)曾经说过,每个理智的人背后都隐藏着一个疯子。随着我们的算法越来越像我们自己,这个疯子的隐藏变得越来越容易。

【免责声明】 凡本站未注明来源为投资观察界:www.tzgcjie.com的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。其他媒体、网站或个人转载使用时必须保留本站注明的文章来源,并自负法律责任。 如您不希望作品出现在本站,可联系我们要求撤下您的作品。邮箱:247834384@qq.com
责任编辑:
首页 | 新闻 | 市场 | 科技 | 财经 | 商业 | 地产