欢迎访问:沃派博客 每天不定时发布IT文章相关资讯
当前位置:沃派博客-沃派网 > IT文章 > 正文

人工智能要“撞墙”?无法理解语义将是巨大阻碍

11-14 IT文章

原标题:人工智能要“撞墙”?无法理解语义将是巨大阻碍

 编者按:AI已经在逐渐渗透生活的方方面面,算法的应用也越来越广。在许多公众人物公开担忧AI会发展出“超级智能”让人类失业,甚至主宰人类世界的时候,有些研究者却担心AI“太愚蠢”,“死板”,不灵活,给世界造成威胁。“机器学习驱动的算法还未能了解人类的行为方式,有时可能会带来灾难性后果。” 本文作者米切尔(Melanie Mitchell)是波特兰州立大学计算机科学系的教授,她就有这样的担忧。她的新书《人工智能:思考人类的向导》(Artificial Intelligence: A Guide for Thinking Humans)将于2019年出版面世。本文编译自the New York Times的原题为“Artificial Intelligence Hits the Barrier of Meaning”的文章。

人工智能要“撞墙”?无法理解语义将是巨大阻碍

九月份南非人工智能博览会的一名代表,图片来自Bothma/EPA, Shutterstock。

AI成为热词已经很久了,你可能听过这样的说法,“我们正处于一场AI革命之中。你可能还听说过“神经网络”,由深度学习算法驱动,利用海量数据训练出的复杂程序。机器智能发展的速度之快,可能远远超过我们的想象。

目前的AI程序可以识别人脸,可以将语音转录成文字。有些程序甚至可以发现小型的金融诈骗; 给出模糊的关键字,就能找到相关的信息所在网页; 给出目的地,就能找出两点之间最优的路径; 下棋能下过围棋和国际象棋世界冠军,还能在翻译几百种语言。重点是,AI在未来还有更多可能——自动驾驶汽车、自动化癌症检测工具、家居清洁机器人,甚至可能将科学发现也自动化...这些听起来很遥远,却逐渐成为AI领域的主流。

Facebook的创立者扎克伯格今日宣称,在接下来的五到十年,Facebook会继续发展AI,,让AI的“感官”比人类更灵敏,不管是视觉、听觉、语言还是一般认知方面。谷歌DeepMind团队的首席科学家列格(Shane Legg)预测,“在20世纪的第三个十年中期,人工智能会达到人类智能水平。”

我本人已经在AI领域工作数十年,听到过无数人预测“人工智能将与人类智能相当”的预测,见证一次又一次的失败后,我很确定,最新的这些预测也有不足之处,也难以实现。现在的AI系统最大的痛点、最缺乏的就是人类智能的实质——理解人类所处的境况,并了解其意义的能力。数学家、哲学家 Gian-Carlo Rota曾经问过,“我很想知道人工智能会不会跨越‘意义’的阻隔?什么时候才能理解事物背后的含义?”对我来说,这仍然是?人工智能发展过程中最重要的问题。

机器最大的问题就是缺乏人类的理解能力。这一点已经在现代人工智能基础的缺陷中显现出来。虽然现在的程序比起二三十年前复杂多了,功能也越来越强大,但是最近有一系列研究显示,深度学习系统的学习方式和人类有很大差别,其结果可能不可靠。

我来举几个例子。

如果你用手机的语音识别将下面这句话转成文字,“The bareheaded man needed a hat”(光头男人需要一顶帽子),手机可能给出不同的结果“The bear headed man needed a hat.”(熊头男人需要一顶帽子)。如果你用谷歌翻译将如下句子翻译成法语,“I put the pig in the pen”(我把猪放进猪圈),得到的结果中,“pen”(圈)会被误译成法语中的笔(“Je mets le cochon dans le stylo” )

研究发现,只要研究者在文本中加入一些“混淆视听”的小片段,文本读取程序就很容易被糊弄:有些可以“读取”文本、然后回答问题的程序,会因为加入的无关细节导致“阅读理解”有误。另外一项研究指出,有些识别人脸和物体的程序被誉为深度学习领域里程碑式的进步。但这些程序在光线不同、有无使用滤镜或者其他改变的不同情况下,也有可能出现严重失误。而人类的识别几乎不受这些)因素的影响。

最近一项研究显示,给人脸图像加上少量“底噪”就足以干扰最先进的人脸识别算法,使其表现水平大幅下跌。还有一项研究(花名“房中大象”,The Elephant in the Room,比喻显而易见的事物)发现,如果一张房间客厅的图像中,在某一个角落加入大象的图像,深度学习视觉程序在将图片中的物品归类时,就会出差错。

而且,很多程序已经“掌握”了某电子游戏或者某种棋类,水平远超人类,但只要对游戏内容(背景颜色或目标位置)做小小的改变,程序就会书输得一败涂地。

即使是最优秀的AI程序,在环境不同时,哪怕只是和训练数据有很小的差别,可靠程度也大大降低。不过,目前相关的例子并不多。这类系统犯错的时候,看起来无伤大雅,影响不大,但是后果有可能很严重:比如,你要登机了,机场的安检系统把你的脸和一个罪犯的脸相混淆; 或者你乘坐自动驾驶汽车,但由于光线原因,算法没有意识到车即将穿过马路...都有可能带来灾难性后果。

版权保护: 本文由 沃派博客-沃派网 编辑,转载请保留链接: http://www.bdice.cn/html/3132.html