人工智能大会在中国的哪一个城市举办,盘点2019世界人工智能大会的意义( 八 )


同样,说到电影情节或是报刊文章的中心思想,我们宁愿相信初中生的理解,也不敢相信AI系统的判断 。就算我们再不喜欢给宝宝换尿布,也不敢想象,如今正在开发中的机器人能帮我们做这件事并且足够可靠 。
理想与现实之间,存在着一个被称为AI鸿沟的大坑
构建有能力对世界进行推理的系统,有能力对周边世界形成深刻理解的系统,才是朝向值得我们信任的AI系统前进的正确方向 。
如何为机器赋予对世界产生更深刻理解的能力 。业界若想进步,这是个必须解决的问题 。没有更加深刻的理解能力,我们永远也无法获得真正值得信任的AI 。用技术行话来说,我们可能会陷入局部最大值,这种方法比已经尝试过的任何类似的方法都要好,但是没有好到可以将我们带到想去的地方 。
电影《机械姬》剧照 。
现在,理想与现实之间,存在着一个被称为AI鸿沟
(The AI Chasm)
的大坑 。追根溯源,此大坑可一分为三 。其中每一个都需要我们坦诚面对 。
第一个坑,我们称之为“轻信坑” 。人类在进化过程中,并没有发展出在人类和机器之间进行区分的辨别能力,这就让我们变得特别容易被愚弄 。我们之所以认为计算机可以拥有智慧,是因为人类的整个进化过程都是与人为伴,而人类本身的行为是以思想、信仰和欲望等抽象概念为基础的 。从表面看来,机器的行为常常与人类行为有相似之处,于是我们会不假思索地认为机器也拥有和人类一样的某种思维机制,而事实上,机器并不具备这样的能力 。我们总是控制不住自己,从认知的角度去看待机器
(“这台计算机认为我把文件删除了”)
,根本不在意机器实际遵从的规则是多么的简单通透 。但是,某些完全适合用在人类身上的推论,放到AI身上就会大错特错 。为向社会心理学表达敬意,我们参考其中一条中心原则的称谓,将此现象称为“基本超归因错误” 。
第二个坑,我们称之为“虚幻进步坑”:误以为AI解决了简单问题,就相当于在难题上取得了进步 。IBM对沃森的大肆吹捧,就属于此类 。沃森在Jeopardy!竞技节目中获胜,被认为是机器在语言理解方面走出了一大步,而实际上并非如此 。
第三个坑,就是我们所称的“鲁棒坑” 。在业界,我们时常目睹这样的现象:每当人们找到了在某些时候能发挥作用的AI解决方案,他们就会假定,只要再稍加努力,再多一点数据,此系统就能在所有的时刻发挥作用 。而事实并不见得如此 。
若想跨越“AI鸿沟”这个大坑向前走,我们需要做到三件事:搞清楚AI技术的利害关系;想明白当前的系统为什么解决不了问题;找到新策略 。

猜你喜欢