首页 > 技术文章 > 下一代人工智能:逻辑理解?物理理解?

sgzheng 2021-07-26 09:48 原文

近日,由开放原子开源基金会与 Linux 基金会联合开源中国共同举办的首届“GOTC 全球开源技术峰会”在上海世博中心圆满落幕。作为LF AI & Data子基金会的理事会成员之一,OPPO数智工程系统资深技术专家Liam Zheng在GOTC「AI大数据与数字经济」分论坛发表了名为《下一代人工智能:逻辑理解?物理理解?》的演讲。本文通过对Liam的访谈,向大家分享他对下一代人工智能的看法与理解。

Q1:在本次GOTC分论坛上发表《下一代人工智能的核心是逻辑理解和物理理解》这一演讲的背景是什么呢?
OPPO加入了LF AI &Data子基金会,我们期待与其合作开源项目,在我们的开源项目出来之前,我们也需要一些预热。此外,人工智能发展到当前阶段,大家发现在实际部署上线后遇到好多badcase,但是又无法很方便的去修改模型,通常需要大量标定数据,重新训练模型。为了解决上述问题,我的观点是人工智能下一代应该是从逻辑层面和物理层面去深度地改造算法,而不能只是简单的去添加数据或把模型做大。

Q2:那您主要从哪些方面去介绍这个问题呢?
当时主要是讲了4部分,第一部分是目前人工智能面临的瓶颈;第二部分是介绍了业内大咖对下一代人工智能的一些观点;第三部分是我针对人类智能和人工智能进行对比分析;最后得出下一代人工智能的核心应该是逻辑理解和物理理解的观点。

Q3:目前与人类智能相比,您认为人工智能处于哪个阶段呢?
人类智能其实是有八个领域,目前人工智能只涉及了其中2-3个领域的工作。大部分的领域的数据表征都还没有涉及到。所以现在的人工智能其实处于婴儿时期,它远远没有达到特别全面,特别完备的一个阶段。

Q4:刚刚提到了人工智能的瓶颈,您认为最大的瓶颈是什么呢?
最主要的两点,一个是鲁棒性差,我举了个例子:比如分类一张熊猫图片,加了些随机噪声就变成了其他类别。就是微小的扰动,模型判断的结果就会差异很大,甚至可以控制模型误判到某个特定类别。
另一点是可解释性欠缺。比如说有时候这个模型可能表现特别好,有些情况又表现比较糟糕,但是定位不到具体哪个特征哪个层造成这个模型表现差。
以上两点,在何积丰院士的《安全可信人工智能》讲演里也有提到。

Q5:对下一代人工智能业内是什么样的看法呢?
演讲中我介绍了几个大咖的看法。

一是Geoffrey E. Hinton提出了胶囊网络的这个视角,他认为cv模型不应该是Invariant,应该是equivariant,就是能反映出图像的结构;现在的卷积模型不能够反映出图像里面的结构信息,把某个部件放在任何一个位置,然后得出来的结果都不变,比如人的眼睛随便乱放也会得出是一张人脸。但如果人自己来看的话,人眼睛如果位置偏移的比较厉害的话,就完全不像一张脸。

二是Yan LeCun,他提出下一代人工智能主要依靠自监督学习;这个观点我是基本同意的,通过自监督学习来逻辑的物理的初始化模型空间,当前机器学习主要依靠监督学习,而在我看来,这只是机器学习中的一小部分

三是朱松纯教授的观点,他认为下一代人工智能应该是乌鸦范式,通过小样本多任务学习解决实际问题;

最后还有Yoshua Bengio,他认为人工智能目前是感知阶段,下一阶段是认知阶段,但我认为感知阶段还远没有结束。

Q6:为什么说“下一代人工智能的核心是逻辑理解和物理理解”?
机器学习训练集和测试集是基于IID(独立同分布)的假设,实际上线后预估的数据常常是OOD(与训练集分布不同)。IID和OOD都是指表征上的分布,好的表征会有好的OOD效果。虽然深度学习泛化能力比传统机器学习要好些,但是同样面临OOD问题。当样本空间很大时,训练集永远只是整体的微小部分,和总体的分布会有很大差异。在微小训练集上做简单的监督学习只会学会训练样本的局部模式,因为只靠局部模式表征就可以取得训练集和测试集的IID效果了,而局部模式表征和局部模式远远不能满足上线后的OOD情况。总之,OOD是造成当前人工智能鲁棒性差的本质原因。
下一代人工智能迫切要解决感知的鲁棒性,关键在于表征和训练的逻辑理解和物理理解,而不是超大模型超大数据。

推荐阅读