集微网消息,在往期的集微访谈栏目中,爱集微有幸采访了日本人工智能学会(JJSAI)正会员,人工智能首席科学家、工学博士顾泽苍先生。顾博士曾任南开大学教授,天津软件园驻日本首席代表。集微访谈就关于AI大小模型、AI智能与智慧、生成式AI侵权、仿生机器等一系列问题,收到了十分有启发的答复。
问:为何人工智能与自动控制不同?
答:人工智能和自动控制应该说是一个本质的不同。首先自动控制,主要还是有它独立的理论比如最典型的什么PID调节,闭环控制,另外咱们现在做自动驾驶,比如MPC调节,从自动控制本身的发展来讲,实际上因为这种理论是一个很经典的理论,很难有大的突破。
所以在这近二三十年,在我接触的现场来讲,几乎没什么太大的变化,自动控制,顾名思义它是对某一个对象实现一个控制精准控制。另外还有一些工业上的控制,比如PID调节什么的这是可以就属于传统的技术。
那么人工智能它本质来讲,它是如何通过把人的智慧赋予机械,让机械代替人来做一些工作,甚至它也会做的比人还好,也就是说现在大家所说的是吧,如何让机械的IQ超越人,它实际上初衷是这样一个核心理论,当然让机器在某种程度上超越人的智慧。在目前咱们所接触的人工智能模型还远远做不到,人工智能到至今发展了三个高潮。
第一个高潮是所谓的推论,第二个高潮就是知识库,到今天也仅仅是一个机械学习,是一个统计学的模型,在一些声音识别,图像识别还是很有作用的,但是它还不能直接的对机器通过这个算法是让机器产生智慧,当然了,到目前为止,如何让机器产生智慧,从研究的方向理论上还处于一种比较迷茫的状况,大家还没有一个主动的朝哪个方向研究,就能够让机器智慧超越人。
但是作为人工智能来讲,真正人工智能的核心理论就是让机器变聪明,要研究如何让机器变聪明。所以作为人工智能的发展到今天,虽然现在咱们看到只是机器学习,但是如何让机器产生智慧,我想这个问题从某种程度上已经解决了,这是我的一个观点。
问:如何正确评估人工智能的效能?
答:因为我们从事人工智能可以说将近30多年。而且我们不是一个纯理论的研究,一直是将理论和实际结合,而且是做具体的,现场要做具体的项目,通过具体项目来加深对我们对人工智能的理解。通过具体项目,把现场的有些现象上升到理论形成我们自己独特的理论,这是我们和一般的人工智能与研究人员的一个最大区别。在咱们现在的计算机的应用是一个什么情况?
那么让机器产生智慧又是怎么一个情况,他们之间怎么进行区分?其实这是一个很专业的思维方法。作为我们研究人员,我们要首先的就要把这个事要搞清楚。一个新的概念提出之后都是一个空洞的概念。必须有理论支持,有数学理论的基础理论支持,另外还要有一些严格的定义,才能够把这两个分清楚。那么具体怎么样看机器是智能的,怎么看机器是智慧的,其实在学术界最简单办法就是通过图灵测试。
当然50年代的图灵测试已经很比较原始,那么经过我们研究实事求是,本来刚才没想一下子就把我们推出来,只是说目前现状如何让机器变聪明,还处于一个迷茫状态,但是我们由于常年的研究至今可以说我们已经找到了如何让机器变聪明,然后如何判断机器变聪明,这个问题是不是我想到咱们后边的提问我会具体的介绍,这样好吗?
问:人工智能发展中仿生派与数学派的主要理论是什么?
答:作为人工智能的领域,大家都知道,网上也都有介绍,它是主要的是由两个学派组成的,一个学派叫做符号主义,它可以说它叫主流人工学派,学派的特点,它是基于一些数学的这一些基础理论,基于算法的研究和发展,简单讲它是站在了一个一定的严格的科学理论的基础上,产生了学派。
当然学派它主要还是一些注重于基础理论的人,用基础理论来解决人工智能的问题,严格讲就是学派特点,基于基础理论,基于算法,来解决人工智能这一个我们叫复杂性的问题。
那么神经网络学派是它是基于这种连接主义,它的特点就是说既然人工智能,是吧,应该从生物学的结构,是吧,或者是机理,根据这生物学的机理和它的结构,引发出计算论的算法,严格讲是这样定义的,我实际上属于主流,人工智能的学派一直是在按照这样一种思维在研究人工智能理论。
实事求是说,我对神经网络学派的初期的一些成果是抱有一定的想法的,但是我最近接触了一个美国的就是一个神经网络学派,一个专家,这个专家应该是很有水平的,是可以在人工智能的顶尖这一级,是吧,在做一些工作。
那么通过他,我产生了对神经网络学派一个完全新的认识。大家知道我经常在对外是对神经网络学派是采取一种批判主义,为什么?因为我发现现在我们接触的神经网络,实际上他所追求的最佳解离不开对一个大的组合空间,通过组合,是吧,得到最佳解,那么他最主要的问题一个是他需要大模型,而且这大模型是建在组合,是为了组合达到组合运算所用的,这个是一个很大的问题在我们看来。
再有说作为神经网络学派,特别是初期是吧,他就是把神经网络,在生物神经网络复杂连接看成是一个解决问题的一个算法,所以才产生了咱现在的神经网络都是很复杂的连接。那么通过很长的时间,大家在实际应用发现复杂连接并没产生什么特殊的效果,那么大家也问了咱们现在大家使用的咱们这次人工智能高超的主流算法,深度学习,大家觉得确实是比传统的在识别上,确实效果非常好,是不是这就是神经网络的这种理论的产生的结果。
但是站在我们现在角度来看,就是现在的深度学习,它所产生的效果是产生了一个非常好的算法。这个算法并不是依赖于神经网络的算法,它是利用了欧几里得空间,它每一个具体的数据是可以映射的,所以它通过一个算法,反向传播的算法,让欧基里德空间的数据,在咱们通过一个卷积的神经网络,它可以产生映射,而且通过反向传播的训练,能够调节它映射的位置,使得映射能够达到很好的分类效果。
站在我们观点来看就是说,作用还是应归于算法的问题,而且有的一些朋友就会说了,他也是建在神经网络基础上的算法,但是恰恰在我们角度来看,它实际上这反向传播他要找到一个GD的最佳解,那么这最佳解实际还是通过神经网络的组合,是吧,找到的。
那么也有的朋友说了,既然他信用效果好,是吧也无可非,我觉得我们的看法就是说从更深层的这种智能的研究,就说虽然它效果很好,但是它实际还是被组合最佳解绑架。
再有他实现全局最佳解还是很难做到的。这是它一个先天的问题。所以基于这情况,我总觉得目前看到神经网络好像在发展上有些问题很难发展,因为我已经接触将近40多年,最初我看到的神经网络和今天看到的神经网络,只是在算法上加了一些算法才使它产生作用,所以我有些偏见是来源于这个问题。
可是刚才又说到我见到一个我觉得他是真正研究神经网络,他就是神经网络学派,而且他也是数学家,我们俩一讨论好像一下子就有共同点,他也认为他说人大脑没有统计的作用,现在走统计,他不认为是神经网络学派的研究的成果,而且跟他讨论的时候,比如我们现在也在合作一个算法,然后他识别图像。不通过这些学习,直接通过他神经网络的算法来识别,但现在我们还没有老说还不好公开,
总的来讲,神经网络学派是咱们人工智能一开始就形成的,当然在漫长的将近60多年的过程当中,经历了很艰难,也经历很艰难的过程,也使咱人工智能的发展在这几个高潮当中实际上都不是特别理想。所以我想就是说咱们从事人工智能的研究者,不要基于一个主流,就认为一定是有前途的,是还要勇于认清主流的算法,它的特点在什么,它为什么能够有这么大的应用效果?另外它还有什么问题?只有这样既知道它好的地方,又知道它的问题点,那么我们才能够有我们的正确的研究方向,这是我的观点。
问:如何看待当前生成式大模型热和其发展前景?
答:应该说就是ChatGPT这种生成式的AI在算法方面有很大的或者可以说突出的进步。他进步在什么地方呢?其实就是咱们深度学习,大家都知道他训练数据的时候是通过人为的标注。通过ChatGPT他超越了这种,可以说他们说这种属于智慧密度低的数据的这种训练方法,ChatGPT它所以产生了突出效果,在算法上它冲破了这种低密度的智慧低密度智慧的数据训练,而采用的高密度的智慧的训练。高密度它包括几个,一个就是说它这种叫自回归自回归的这种训练方式。他是把现在我们输入这些个数据,是吧,拿到网上去训练出了他的在语义,是吧,这方面的关系,不是通过人来实现的。
传统的深度学习,比如CNN,它是把要训练的这些单词,比如苹果、压力、香蕉,这类的很近似的,它捆成一把,捆成一类,然后用人标注通过大数据训练让机器知道这么一个词它叫词向量,那么这种方法在训练时候实际是很庞大的,另外训练效果也不好。
他只能分出一类的单词,那么ChatGPT它就不一样了,他通过这种自回归的自律的学习,直接把各个语句语类到就是榜上到大,大数据里,通过在大数据里找到它们之间的关系,这是一个在算法上突出的一个效果。
因为我们也稍微做了一些这方面的工作,看到ChatGPT成果是很钦佩的,但是ChatGPT他所要实现的效果确实投入的硬件开销过于的庞大,比如他用了3万多个GPU。他每训的一个数据,需要把特斯拉的3000多辆的车的跑30万公里的能量,一个是硬件开销大,一个是它的所耗费的功率也过于庞大。
那么作为一个,我们在应用当中有各种各样应用,只是一个语言处理,就要这么大的开销,不得不让我们要想一下,这条路走下去,或许会有一天就像刚才您说的会遇到天花板走不下去如果咱们ChatGPT所要实现这种大智慧几千亿个训练的数据,一定要用这么大开销,或反过来说只有用这么大开销才能产生这么一个效果,有也就也是允许的,实际上。
但是要从我们现在研究来讲,我们很容易就看到它所以产生那么大开销,还是刚才我说的,它是被神经网络自身的问题所,可以说是绑架了,仔细想他这么大的功率需要这么大的硬件开销,主要还是用在他要求最佳解的时候,要在一个庞大的组合空间里要组合。
那么组合其实在数学上是一早就,就是早有对他的论断,就是他这样做是走不通的,为什么?因为他这种在庞大的组合空间中进行组合,在我们组合理论的这个行业里头有一个公理,就是你组合要素超过40个以上,就是咱们图灵机不可解的问题,可是面对图灵机不可解的问题,硬要做,自然这个代价是很可观的,不仅投入那么大代价,也是永远你得不到一个最佳解。
所以现在大家也看到就是说有些提的问题回答起来有些错误,这错误可能也是两个原因,一个是它不可能达到最佳解,第二个问题实际上因为它是用的是一个概念模型,所以说它有一个小概率的错误问题,这是目前的ChatGPT的问题。
今后从应用角度来讲有没有应用前景?我想这事我要也要谈一下。首先这也是在人工智能的领域当中能够稍微突出的人工智能算法的出现,被广大老百姓一下能够感知到,这个是很重要的。
ChatGPT出现是一般的我们老百姓或一般的非专业人员,马上就可以使用,马上就可以看到它效果,所以才引起社会的振奋。当然社会对上对人工智能都是过分的期待。只要它有一点好处,甚至不假思索的会一下子把它高潮就掀起来了,这是ChatGPT,所以一下子就成为这样一个轰动世界的这么一个效果,是跟他所做的结果是一般老百姓能体验到的,这也是给我们搞人工智能也是一个提示。
你做的太抽象了,只有学者们才知道,往往不会被社会认可,如果你做一个功能让大家能看明白,一般老百姓能看清楚,这是真是一个智能跟一般不一样的时候,这会引起全世界的关注,这是这一点我要谈的。
另外我也想谈一下ChatGPT是不是只是一个解决语言方面的问题,因为对我也没有参与ChatGPT的研究,这也就是通过一些资料了解到,我觉得现在ChatGPT本质来讲是很有前途的,它不仅是一个语言方面,比如现在我们在考虑就是说工业上如果对一个产品的设计,是吧,这个产品的当然不是,不光是一个外观性能,这比如我要设计一个高性能的汽车,那么在我的每一个机械结构或者一些技术上,如果我能够一下子把全世界的最好的资料拿到手,那么对你设计是很重要的一环,ChatGPT,这个今后我想很快就会在这领域就会用起来了。
类似这样的应用,我们还有很多是吧,不仅仅只是咱们语言对话,它可以派生出好多应用的场景,这是我要讲的。最后我也要谈谈我们在研究当中的一些看法。其实语音识别,不是语言处理,其实是一个词与词,句与句之间的一个关系,因果关系就刚才孙老师讲,这是严格的一种因果关系的这样的一个应用,用机器学习来做,当然即使咱们有一个 Transport的这种智力学习这样一个算法,但毕竟它求最佳解,要遇到一个图灵机不可解的问题。
既然它是个关系,那么其实我们可以抛开现在的神经网络,我们只要如果通过在网上,我们把它训练出来了,这些个语义,词与词,句与句之间这些关系之后,就说通过因果推理直接推理这个就不需要用机械学习的方法来找到机制,这将是一个用硬件会一下子降下来了,甚至能降到和人大脑相同的,相当的这样的功率是吧和开销,完全可以实现和目前ChatGPT相同的效果。
它的特点就是说我在训练就是语境训练出来语句的规模,规模和他用的投入的算力,不应该是一个这完全相等的。在这里我也呼吁我们年轻人勇于冲破现在的这种思维,应该是根据我几十年的经验是吧,是完全可以突破的。我们也曾经为某些国外公司做类似的这样的模型,供他们去评估,所以说我也想利用这个机会,也呼吁我们国家现在要赶上美国,大家都在拼命做大数据,都在研究大模型,我觉得可以把这种大模型怎么变成小模型。
而且能够跟它相同的效果,如果这样的系统做出来,那一定就是世界第一的,而且一定会被全世界所关注的。另外也是一定是有可能实现的,这是我的一个观点。
问:大模型和小模型区别在哪里?
答:对,要从直观来讲,大模型,超大模型其实就是指他神经网络的层数,所使用的 GPU的个数,从模型的硬件的构成。可以这么看。另外从数据上也就是说是大数据还是小数据,用它数据使用的量,一般的深度学习是吧,上万甚至几十万个数据才能训练出一个应用,这都是大模型的特征。
另外从最佳化的机理来讲,这是我们的观点了。就是说你获得最佳解的就是他基本的数学的方法,可以说大模型基本上都是依赖于组合,尽管他找不到最佳解,但是它的局域最佳解在目前来讲所产生一定的作用还是有的,这是从它的数学上来讲,小模型不外乎就是小数据,小的硬件系统,小算力应该是这么区分的,我们是常年研究的就是小数据小算力。所以我们对小模型是什么样的?是可以讲,是我们理解度最深最有资格谈的。
小数据小模型首先就要建在小数据,那么这里头很多人会问为什么目前这个算法它有大数据,刚才其实我也讲到,主要它的数据本身来源的是每个数据都独立的,这属于欧几里得空间的数据,它要实现统计学效果得有足够多的数据才能产生统计学效果。
那么小数据是不是它性能就差,不如大数据效果好,其实这种说法是不科学的,小数据它主要基本思想还是咱们高斯分布特别是我们主要就是借鉴于高斯过程,他的高斯发明高斯分布的最大的贡献,就是说可以通过小数据,我们把高斯分布算出来了,一个高斯分布,它是一个无穷的大数据,也就是说小数据可以实现大数据效果,这是从数学上来讲,从我们实际应用来讲是完全可以做到的。
甚至我们现在也让我们团队也做了一些实验,拿小数据是吧生成大数据,然后又拿大数据喂给深度学习,看看它应用效果怎么样,应该说就是说从小数据生成大数据,从数学上它就保证了你是完全可以实现的。
只是这里头一个核心的问题,就说你这种简单的高斯分布的求解公式算出来的方差、期望值它实际上严格讲它是你对你所给出小的数据的小的训练数据,是以这个为基础的一个大数据的最优解,数学上这是可以证明的,我们可以通过即时方法给证明的。
也就是说如果你抽样就是你训练数据,它在真实世界当中,它还不包不能完全包括你真实世界的这些数据,那么我们就有一个算法叫做概率尺度自组织。它可以把你只是反映局部小数据的这样的一个效果,通过迭代训练达到一个最佳的结果,而且在当中又产生了概率,这个理论当中的新的最佳的比如最大概率值,最大概率尺度。这是有了尺度了,就可以形成一个最大概率的空间,这就是小数据,它不是简简单单的应试用小数据,你必须有一个数学方法,一种算法,支持小数据等于大数据。
所以我也很希望说咱们感兴趣的可以拿我们这种小数据跟大数据的算法放在咱们现在的深度学习,我相信以后可能深度学习,大家不会指责它是大数据的。以后深度学习应该就是小数据的深度学习,这是小数据的研究的算法当中我们产生的成果。另外小数据它在某种程度上如何能够相当于大数据的效果,这也是我们搞人工智能算法的研究人员所必须解决的。因为我常说我们算法的研究者的使命是把大数据变小数据,把大模型变成小模型,把一个复杂算法变成一个简单算法,把不可能解的问题把它或者解了或者是绕过去,用一个另一种算法,我达到它不可解的是这个问题的目的。
首当其冲刚才讲,我们通过我们研究作为我们算法人员来讲,已经把大数据解决了,那么下一步我们要解决怎么把一个小算力小模型也做成能够相当于大模型,这样的一个应用效果。这里我们作为咱们现在的深度学习,它提高它的应用效果,通过不断的增加他的神经网络层数,也有他们说的要做到深度神经网络,才能够解决这一些问题。
那么我们从哪个角度出发,首先我们就看第一个刚才说了,我把欧几里得空间数据把它变成了概率空间数据,也就我们能够刚才讲了,通过概率尺度组织能够把一般欧几里得的空间数据通过训练以后,变成一个概率空间的数据这样的。
那么在怎么识别当中呢,还又出现一个问题,就是你把数据都放到概率空间了,我在识别时候都是单一的一个,比如是猫、狗,我可以取猫的一个特征,取狗的一个特征,看我猫特征是到底是属于猫还是属于狗,需要它用一个距离尺度去在它概率空间,猫的概率空间,狗的概率空间。
在这两个空间当中看,我这数据属于哪个空间,也就是它距离和哪个空间近,它就属于哪个空间。其实这个问题是咱们目前在数学界没有解决的问题,这个问题就是属于一个欧几里得的空间的数和概率空间的距离问题。
到目前来讲,虽然数学界给出了好多叫概率空间距离的算法,但是这些算法他都有个局限,它是把概率空间和欧几里得领域分隔开了,他所以说站在概率空间的数据和欧几里得空间找到一个尺度。
目前用现在的所谓的概率空间的距离都解决不了,因为我们解决了问题了,所以以后在机械学习当中就直接把数据通过聚类,是吧聚到概的空间。它的特点就是一个就是小数据,就可以实现大数据的效果,同时它也是小模型,可以产生最佳的分类结果,这是一个方法。
另外其实在我们小数据,小的sdm模型发明的初期,我们那时已经意识到了,就是说咱们的训练的数据要求用人的智慧,把人的智慧加进去,让它也是一个智慧密度高的数据,这是我们几十年所以取得好的效果,其实我们也是在这方面是非常注重于研究的。当然现在ChatGPT出来以后,他提出了要智慧密度高的数据,这是非常正确的一个研究的结果。
再有就说在目前国际上对于核函数是吧,Kindle函数,如何呢,用一个高维平面来进行分类,因为现在咱们的识别的特征向量与数据都是高维空间的数据,所以你在低维空间在分类的时候会出现它在高位空间是两个不同的类,但在低位空间会重合,也就是特斯拉在2021年6月推出的造价当中,就有一辆特拉的车,看见前面一个白色的集装箱的车,它识别时候就认为这是一个白云,所以撞上了产生的事故。
这里当然具体的咱还要深入的分析,应该说它很可能就是属于一个在低位空间重合的数据,而没有被正确的识别出来。作为站在高维空间的分类,对咱们分类效果突出的应用效果是很有作用的。
另外我们又进一步,因为我们团队我就曾经给他们一个模型,为了加深对神经网络在组合当中到底产生什么物理的效果,我给他们一个可以组合到最佳解的一个小模型,让他们去组合,他们很努力用了很长的时间就是拼命组,但是组合不是单纯为了找到一个全局最佳解,而是看在组合空间里这些个非线性的这种组合的效果是吧发现里边数据是极其非线性,大到非常大,小又很小。
另外所谓在这个时候的SGD的梯度下降法所得到那些解,也不是我们原来想象的是有限个,而是无限个成千上万的最佳解。
这个结果给我们一个结论,就是大家所迷信的ChatGPT,不是迷信的SGD的最佳解,其实它是有很多很多组成的,而每次我们通过一次迭代,只能找到其中的一个,他通过它达到最佳解,路程是漫长的,所以这也是我们能够真正的认识目前的神经网络一个最有效办法。
所以我想就是说咱们现在做人工智能,特别年轻人是吧有精力不妨你们也试一下,把一个神经网络,小的神经网络,神经网络的要素不超过40,它是可以最终找到最佳解的,你们可以做一下这方面实验就会加深对大模型的理解。
既然刚才说到的我们对现有的神经网络的模型有了更深入的理解了,所以我们发现现在的机器学习深度学习,它真正起的作用和它神经网络是没有关系的,完全是反向传播的算法解决。
所以后来我们就把反向传播也可以跟我们小数据小模型进行融合,融合的结果就是说我们的小数据小模型属于是函数分布模型,它属于是函数映射模型,各有好和坏,那么把融合起来就可以达到最好这也是我们所说的我们最次跟他融合比他还强,这也是一种方法。
当然了,有些研究人员听了4方面是都用上才有效果,还是说我只是其中的某几个组合就可以有效果,或者我们模型自己只靠概率空间的聚类就可以。
其实这是根据咱们应用的场景不同,这些不是一个机器把所有场景都适合的,在某些场景上你这么用合适,在某些场景下这么用合适比如和深度学习融合的时候,可以把深度学习大数据变成小数据,
另外就是说我们可以利用深度学习,通过他训练,是它有些特征值,人为介入很难的时候,就通过神经网络来训练它的特征,然后特征出来以后再用我们再聚类,这也是一种应用效果,就应用方法有些,你比如我们自动驾驶的红绿灯识别,可以通过人的智慧进入进去,然后实现识别红绿灯的效果,这个就不需要别的,一定是比深度学习识别的经络高,
所以这种情况下,很可能我们 Sdm模型的聚类,再加上智慧密度高的数据的产生,是吧来进行红绿灯的识别,就根据不同的用处,咱们有不同的组合方法,这是小数据的特点。
问:为什么小模型AI也可以产生类似大模型的功效?
答:我们说小数据小模型能够和大数据大模型在对比上,我想与其性能对比比较复杂,它对比需要好多条件,不如说在应用上对比就显出我们小数据小模型特点了,比如咱们现在工业控制大数据很难,现有模型很难进去。
2018年谷歌已经声明了,不参与工业控制的人工智能的应用,这个提法是有道理的。因为大数据大模型,不管它性能多大,它有一个它不可解决的两个问题,一个问题就是说它是不可解释的,工业控制一定要可解释,不可解释这里就会隐藏危险。再有就是出现问题之后无从解决,所以说他需要要可解释,我们做自动驾驶也一定要可解释。
我对我们的团队要求就是要具备至少是c++的程序的编程水平和最好是c语言的编程水平,不允许用开源程序,也就我们做的系统当中都是可解释的,出问题都能分析,如果你比如说用了一个不可解释的算法模型,出了问题之后你就没法分析,这是一个。
再有刚才也讲我们打开深度学习,打开深度网络之后,发现它一个极其非线性的一个运算结果,这意味着什么?就是意味着它是一个非常非线性的,它就会有一黑箱问题,黑箱问题往往咱们一般人理解为是不可解释就是黑箱,其实这只是黑箱一种,更严重黑箱我们都亲身经历过,早期我们在做组合理论的应用当中,通过这个人的智慧怎么绕开时候,当你还没有做到最佳解的时候,这样的系统在当时会突然间的就暴走,实际就崩溃。
计算机会整个死锁要关电以后开机再起来,很长时间我们就没有搞清楚它为什么组合理论,就是说组合的算法在没有达到最佳解的时候会崩溃,这什么物理现象,一直是对这个事是非常不可解。
当我们打开了黑箱之后,后来我发现他黑箱是因为他突然间在某一瞬间出现的一个超越了计算机的能力的溢出。在当时计算机它解决不了这一出问题,所以计算机死锁了,很可能是这么一个结果。所以作为工业控制来讲,他就不希望用这种有黑箱不可解释这样的模型,但是你比如要像咱们现在广泛应用的政府,一个城市里这种整个的人脸识别,确实是深度学习用在这种场景,我觉得比较好。
而我们现在还是个小模型,用我们的小模型来和大模型的人脸识别直接的比较,我们也做,可以说是不如100层以上的这样的深度学习识别效果好,但是你要是一个局部的,可能因为我们小数据与小模型它可以作为离线的一些识 别,也许我们会好一些,这就是人工智能的不管多好的模型,不管多次的模型,你稍微差一些模型,它根据不同的应用场景它需要咱们应用者自己来选择。
问:小模型的代表SDM有何大功效?
答:这里就是我想谈一谈,可能大家也头一次听说我们的 SDL模型有早期一个小数据小模型的机械学习模型,现在已经升华到了一个不仅是机械学习的功能能实现,而且还能实现如何让机器产生智慧,也就是把人的智慧转给机械的算法,我们找到和咱们继续再融合到一起,就形成了一个完全新的人工智能模型了。那么这个模型也就是说不是一个抽象概念,我们如何使这个机器变聪明,是来源于阿尔法狗的启发。
我本人实际在博士的时候就曾经研究过,而且在当时来讲,搞出了如何让集成电路通过组合让集成电路变小,但这组合是当时也是认为不可走的,但是我绕开它以后通过算法达到了它不可冲击不可解的组合,结果是跟它可以近似的,但是我并没有理解到它是一个人工智能的模型。当时导师也跟我说,他说这组合问题是IT的一个皇冠,它是统治整个IT领域的。
我不理解,我说仅仅一个组合,IT它有很多算法,各种各样算法,他不是拿你的一个组合就能解决的,直到阿尔法狗出来之后,因为他搞我算法是我们专业的,我很熟悉了,这个是一个很了不起的算法,但是它仅仅解决了一个围棋领域的,把全世界的围棋就是IQ最高的围棋的这些个选手都给打败了,这个事实是一个非常值得咱们深思的。
如果把图灵机不可解NP问题绕开之后,那么机器应该是变成,应该是产生对智慧的一个算法。后来我们研究就发现,为什么一开始没有引起咱们注意,因为咱一开始把人工智能的模型给限制为一个统一的人工智能模型这框架下。
咱们现在人工智能大家都说未来要实现一个统一的,但是通过咱们研究阿拉法狗之后,咱们发现图灵机不可解的NP问题,所以到今天没有解决,也是大家不知道,它不可能通过统一的一个方法来解决,这是第一个,就解的话它是没有统一的。
第二,他不能只建立在一种经典的数学理论上,他要用到现代数学,另外又要用到人的智慧。如果也就这么讲,针对冲击不可解的NP问题,只要我们按照不同的领域,然后又按不同领域的人的智慧,而再加上现代数学图灵不可解的NP的问题是可以绕开的,这是我们在最近这两三年是一个突破的成果了,找到了让机器变聪明的途径了。所以结合我们做自动驾驶,我们自动驾驶也是一个图灵机不可解的NP问题。
谷歌为什么它干了10年?路测他只要通过大量路测就能解决的决策问题,可是到最后还没有落地,这就也看出这是一个不会不能通过简单的方法规则的对接,甚至咱国内所谓采用一些状态机就能够绕开的。
所以通过我们找到之后,我们就发现确实过去我们自己不承认自动驾驶能够比人驾驶水平高,但是通过找到以后,确实是我们为了验证我们这不仅在路上做了一些简单测试,另外我们又做成一个仿真。
用暴力测试让人开着人的车,然后通过仿真和自动驾驶进行博弈。刚才我们说我们发现确实是机器产生智慧之后,跟它只是智能的阶段不一样了,它要下一步他是怎么走法事先不知道,所以你人驾驶的时候,你肯定会跟他撞上,你不知道他怎么走,你不可能绕开他。这是也就是我们在 SDM模型智慧AI这方面是吧,我们也是通过咱今天媒体也是正式的向社会做一介绍。
再有我们也在也研究了,就是说是不是这种智慧机器只能在一些具有图灵机不可解的这些问题,比如自动驾驶,咱们ChatGPT都属于这类的,它是肯定是可以用的,那么咱们工业控制有些它不一定有那么复杂,它也是复杂性问题,但不一定有那么复杂有用没用的,回答是有用的,为什么有用了?
因为通过我们一定要找到把人的智慧交给机器的算法了,解开它是在基础上我们又加的因果推理可以得到一个最佳解。但是有了算法之后,有了能够让机器变聪明的算法,在各种应用场景都能用。我们自己体会第一个就是我们自动驾驶的感知,光学识别图像识别过去只是一个单纯的图像识别,单纯的感知,现在我们就可以用我们的模型和感知这系统结合起来,我们叫智慧感知,它可以把人的在道路交通所识别的这些个目标也好,车道线等等。
把这些个智慧通过算法让机器都掌握了,那么掌握以后对咱们在识别上产生什么突破?过去识别都是要求百分之百的要准,包括特斯拉无限的他在那用他深度学习识别他目标,他要无限的训练,他用强化学习解决他决策问题,他也需要无穷的学习,但是无穷学习结果并没达到百分之百识别百分之百的正确决策的效果。
可是通过加入人的智慧之后,他不需要,它是由原来具体的识别上追求百分之百准确,变成了整体信息,道路上的整体信息,它说的是这样一个就真实世界的全部信息,那么会出现它局部信息即使是偶尔出现问题,他信,他整体信息可以互相补上,特别是利用了他的一些先知识等等,把过去不可能百分之百识别的效果变成了百分之百的识别效果。而且整个还可以通过我们小数据小算的机器模型和这样的一个算法结合起来,是吧得到非常好的一种应用效果。
这是咱们这种小模型的代表性的IDM智慧AI出现之后,在整个咱们应用上产生了突破,我想今后工业控制一些包括医疗影像识别等等,加入了咱们新的这样的算法之后,会有很大的提升。这是我所介绍的全新的SDM 模型,SDM智慧AI的模型的出现,将会对咱们AI今后在英文当中会有广泛的前景。
问:什么是人工智能复杂性问题?
答:是的,人工智能模型或者人工智能的领域所遇到的问题,可以讲是任何一种一个领域所没有遇到的这种复杂性,当然这复杂性大家从网上可以了解很多,比如它是一个,人的本身最复杂就是大脑,咱们要做的也是一个机器大脑的这样一个研究,所以他从这客观上是复杂的,是极其复杂的。
他首先数学模型所最基本的这种图灵机不可解的NP问题如何绕开,这也是一个问题,本身就是数学界世界七大难题的第一个难题,所以也是一个很难更难的,也就是我们大家现在所遇到的,就是说人工智能出现的模型或出现应用,它到底是不是人工智能的核心理论,是不是今后发展当中的一个过程当中的其中的一个阶段,这些东西可以说到目前来讲很难做出正确的回答
我们现在在评估人工智能好和坏或者是应用,我们习惯于就是说浓缩到一个应用,别讲太大,太大的话,后边还会产生什么也不好预测。但是就比如我们搞自动驾驶就自动驾驶需要什么?是大模型先进还小模型先进。那么自动驾驶是一个将来咱最终是实现一个产品,一个是我们每个人都需要买的一个产品,是一个也可以讲是个消费品,那么就有一个性价比的问题,你大模型和小模型比,如果同样效果,首先小模型是最好的。
况且如果小模型在我们现在应用当中,我们觉得它在很多场面,刚才我们讲了,就是说比如sdm、sdl智慧AI模型,你大模型就没有做不到,我们小模型能做到从这个角度来看,就说哪一种模型好,哪种模型不适合于咱们自我驾驶来采用,再有咱们现在自动驾驶领域当中,好像由于大家过分的崇拜这些个现有的这些个技术,就出现了不光是性能和价格比不匹配,还出现软件硬件不匹配,具体表现在哪呢?就说自动驾驶是一个要求比工业控制还要安全等级高的一种叫车规级,工业产品叫工业级,工业级的安全这和车规级的安全差一个很大的档次。
虽然咱现在所谓的设计出一种叫车规级的自动驾驶系统,他用的这些个芯片硬件确实是车规级,可是用的咱人工智能模型连工业级都不能弄,可是咱们还误认为这是车规级的系统,所以浓缩到具体的场景下好和坏都可以比较出来了。这是我们所提到的就是说人工智能的复杂性往往包括咱们一些很高级的科学家,还犯了一些简单的错误,这就是因为在人物上过分的复杂,另外就是说,也包括咱们有时候听了一些很多的专家,ChatGPT出来,好多专家蜂拥而上这么好那么好,但是他好是好,他问题在哪儿?很少有人能设计出来,甚至有人提出对他有反调意见,还会遭到社会的驳斥,说你骗人这些个你不能怪罪这些个专家,也不能怪罪这些个是不同意见的人,这也都说明他好和坏是不会轻易被人能判别的,这也是其中一个最复杂的问题。
甚至包括国家的战略,实际上都可能被误导,这也是一个非常重要的,也是它的所复杂的一个很重要的标志。再有更可怕的是现在还不能看出来,它是一直可以发展下去,就在这基础上它有提升它的版本的迭代,在这基础上,人工智能如果模型不行的话,会整个倒退重新走另一条路。
现在我们感觉是非常有可能,因为这条路最简单办法就是最简单问题,仅仅这么一个ChatGPT,居然要这么大的硬件,你怎么这条路下去让它变成一个小硬件,变成小硬件,必须得从它另开上重新寻求其他的一些算法,才能实现通过改造可能很难实现。60年了,仍然还离不开通过组合形成的最佳解,这是我不可相信的,开始我听说ChatGPT出来以后,我想到是首先这问题已经解决了,没想到根本没有解决,所以它的复杂性可能还会有很多,站在我所遇到的,另外是我自己体会出来的它的复杂性,我想就谈这些。
问:为何 AI 有时会分不清因果关系?
答:对,咱们现在深度学习仅仅就是一个统计学的模型,应该是这么说,他所以需要大数据,是因为他现在的数据是基于欧基里德空间的数据,那么它要形成统计学效果,一定要聚集大量的数据,这个是目前的问题。可以引用最近就特斯拉的马斯克他在2016年由于在自动驾驶推出以后出了好多问题,他就觉得这个东西很难。然后他出于自身的一种感受,他就说了巡河给出的这人工智能。这个不智能他说自动驾驶要像人那样聪明的智能,可是学术界也反驳他了,就是说基于统计,现在基于统计学的人工智能其实能做的东西不多,其实我想咱们可以看看,这个对话其实已经把现在的人工智能的定位非常准确的。他说是社会人们对现在的这个人工智能过于的想象,过于的期待。就是说这些东西在网上我们能找到是这个不是我编出来的这个对话就可以看出,现代人总是一个什么智能很清楚。
问:会有通用的人工智能么?
答:从人工智能领域,往往大家也知道,这个概念是一个爆发的这么一个领域,会产生出各种各样的概念,物理学和数学上每一个概念必须要坚持的一些理论基础,有数学基础或者物理学的基础,那么人工智能就没有像数学物理那样非常严谨的提出一些概念,反正我们就想不能随便的向社会去散布某些个概念,为特别是为了一些商业的需求,比如刚才我讲的我们提出一个智慧AI的这么一个概念,那么智慧AI的基础理论就是如何绕开图灵机不可解的NP问题,通过这种算法解决机器比人聪明,这是第一个我们有基础理论的支持。
第二我们必须还得分传统的是智能,机器智能,那么你智慧AI和智能的界限判别的依据让我提出了如何判别他机器产生智慧,要看他是不是他的行为是不是可以预测还是不可预测。所以我觉得另外它有它具体的场景,有基础理论又有一个判别它进步的界限,另外它有场景,自动驾驶,有了这样的算法以后,它可以让自动驾驶的驾驶水平超越人,它用在了工业上,比如AGV各种各样的机器人传动系统,用了这个东西之后,它会产生智慧,他会做出和传统技术做不到的这样的效果,这就是我们习惯的想法。
但是作为业界来讲,提出通用人工智能,我们觉得没有基础理论,既没有基础理论的依据,另外这也找不到一个必然要走通用人工智能的这样一个道路的必然性,特别是人工智能属于复杂性问题,复杂性问题,要通过具体问题具体对待,分散,把问题分散到具体问题上,从中得到具体解。所以我们现在看在现有的基础上,没有新的理论产生之前,这种通用人工智能在我们看来是一种美好的梦想,这是我们对通用人工智能的看法。
问:工业AI的特点和发展前景?
答:因为我过去实际上也是常年在工业控制上,像工业系统,包括机床控制,生产线的过程控制等等,也是有很长的应用的经验。按我讲,我应该在这方面要以工业控制为主下力量来做这件事,但是当时我们是因为觉得自动驾驶是验证人工智能模型的一个非常重要的这么一个,是一个人工智能模型的验证一个主战场,所以所以我就重点的实际还是在自动驾驶当中,来体验工业控制有可能用到哪些技术。首先咱们在工业控制里最其中一个应用就是搬运机器人这样的一种应用包括AGV是吧,等等这类的产品。
那么从传统的技术来讲,AGV它是有的通过激光雷达有的通过激光雷达就是识别一个叫slime的一种算法,大量训练从中得到一个他的行走的轨迹,更传统的方法,比如通过二维码在他行走过程当中要贴上好多二维码,他通过读二维码来知道自己的位置,更传统的通过词条他就顺着这词条来走等等。
那么用了人,导入人工智能之后,特别我们在自动驾驶上我们实现了可以不要 GPS,不要高清地图,让自动驾驶的光学识别像人那样通过我们人的眼,自己是吧得出一个我应该怎么行走轨迹,这也是在目前人工智能,在自动驾驶领域,大家都在在拼命的研究,包括特斯拉也在这方面还下力量的一个技术。
那么这个技术应用到现场就可以直接用到这种搬运机械,它就不再有繁琐的训练也好需要时间布置一些词条什么的,他就可以用通过演自由自在的,按照最佳的轨迹,另外作为大量的这样的设备在一起,他谁前先后左右互相都是属于通过程序事先指挥他们不可能做到最佳的,然后他们自己通过光学识别自律的按照现有的度,就是行为的行动的场景要自己作出决定,这就是自动驾驶其中的一个成果可以马上在工业上就可以用了。再有刚才也简单提到,就是说今后的产品设计,甚至包括不光是外观设计,产品的结构设计、性能设计等等,
都可以通过ChatGPT类似这样的,当然我相信很快就会有小数据小模型,大智慧的这样的系统,那么这种东西很容易就可以普及下去,而且由通用变专用汽车制造业它有汽车制造业的数据的环境,比如其他的领域各个领域有各种不同需要的这种数据的环境,按照这种环境实现的类似这种生成式AI的模型来解决这样的问题。
甚至因为工业控制,他也是从中央控制、分散控制分散集中到今天叫自律分散控制,也经过了很多年的技术更新,那么下一次下一代的工业过程控制很可能会产生一种叫虚拟的控制,再不是现在的PSC这种工业控制单元,再不是硬件了,很可能通过人工智能都是虚拟化的,通过服务器上它自己就可以产生出来,应该说也不是一个需要很长时间就能实现。
还有目前工业控制里头好多多目的的控制,还解决不了,传统的算法解决不了通过这特别我们能够让机器变聪明的这种算法,很适合于对多目的控制,把每一个目的看成是一个组合要素,然后不是通过组合来实现,通过绕开这NP问题,通过因果推理是吧,快速的使得到它的结果,这些个都会是在工业控制里头得到广泛的应用,当然我只是举个很窄的一个例子
还有很多是吧一句话,在工业控制领域,今后特别是如果我们导入小数据小模型,没有黑箱可解释,那么90%以上的工业控制的问题,都应该用咱们现有的人工智能的方法来解决。
问:生成式AI创作内容与传统意义上的知识产权应如何厘定?
答:我想您提的实际上应该从两个角度来回答您。第一个就是关于ChatGPT所训练的数据,在法律上它是不是存在问题,怎么掌握的问题。应该知道就是说在国际上,特别是在欧美发达国家,对法律,对知识产权是非常严格的,所以既然他有严格的法律,就不能有侥幸心理。
我举个例子,日本的奥林匹克,奥林匹克的徽实际是找个日本一个著名的设计家他来设计出来的,这位设计者他其实是在一个欧洲的国家的某一个标识,他产生灵感了,然后他就设计出了奥林匹克的徽,本想他也就是说这东西很难被人知道是模仿哪个设计的,可没想到在奥林匹克都几乎快召开的前一年才被检举,这东西是有知识产权的纠纷的。而且从几个角度来讲,可以界定他是侵犯知识产权的,当得到之后,日本政府是非常的被动,已经花了大量的广告把这些标这都散发出去,那么现在需要整个收回,需要整个重新再设计一个,造成了巨大的损失。这也是就是说在知识产权上一定要注意,不能稍微有些疏忽。
那么基于这种情况,咱们看看ChatGPT,他所产生的一些作品会不会侵犯知识产权,或者说我们怎么怎么能够知道哪些个容易侵犯知识产权,哪些不容易侵犯知识产权,对这个问题,我站在我们人工智能的角度上来做进一步分析。
首先咱就分析这ChatGPT它有没有智慧,刚才咱们一开始就谈到机械智慧,另外孙老师也提到了怎么鉴定机器产生智慧我们由于在做自动驾驶当中,是我们发现了一个可以让机器在自动驾驶领域当中能够产生智慧的这样一个算法,从中我们通过大量的人机博弈,就机器有智慧,那么人和机器博弈,在博弈当中,我们对新的一种图灵测试的一个判据,有了新的认识,就是说机器能不能产生智慧,机器是处在智能阶段还是智慧情况,要看机器的行为,人类能不能预先的预测,如果机器产生智慧了,它是处在一个各方都是最佳状态,人不可能在处理哪个问题上都是最佳。
另外在实施这一个最佳的结果,不可能让人马上就能够判别出来,预测出来。所以这是判别你是智能还是智慧的一个图灵测试的一个判据。那么拿这个判据咱再看ChatGPT就能看得非常清楚了,我们说 ChatGPT实际还都是在大网络当中通过大量的语料是吧来训练出来的结果,他这答案也是来源于已有的这些网络上的一些知识。当然它可以在这里有一些组合,有些个别地方会让我们感觉到他好像是创作,其实ChatGPT它所在最佳化这一块,它实际还是强化学习起的作用,强化学习它目前来讲还是绕不开图灵测试,不是图灵机不可解的NP问题,所以他不应该属于智慧的系统,是智能系统。既然是智能系统就是说他所得到的结果都是来源于是网上的,哪怕是一个网上的,可以讲是各方面知识的拼凑。
这里按照我们理论来讲,咱们通过ChatGPT产生了创作,应该是绝大多数是有侵犯知识产权的这样的可能性,这是由ChatGPT它是属于智能系统所决定的,如果它是智慧系统,它出来东西产生的创作的因素就多了,那么也不是说咱用ChatGPT都会产生侵犯知识产权的问题,那么怎么就做出来尽可能不侵犯知识产权呢?
这个问题其实日本在知识产权的鉴定上,他有一个非常好的资料,我看完资料之后也觉得很明确,咱们如果要是想利用ChatGPT创造一个,创作一个现在知识产权可能很小的这样一个作品,需要首先就是说我们尽可能把自己创作思想输给他,然后一些创关键性的 idea是吧也都输进去,如果这种成分越多,咱们出来的通过ChatGPT出来的成果,他会侵犯知识产权的这种可能性就越少,甚至是极少,是可以这样界定的。
问:生成式AI是否会对当前的知产体系产生冲击?
答:这个问题是非常复杂的,有关于知识产权的法律上的界定问题,甚至包括鉴定人的观点都不一样,那就像咱们申请专利一样,审查员他站在他不同的角度,他对你发明是吧都有不同的看法,如果你让他能够和你的想法能够达成一致,不是说一次两次的较量就能够统一的,所以一般申请专利至少要和申请审查员要较量三次以上,实际上才能够真正的搞清你这到底是不是发明,所以这块也是属于知识产权的鉴定的复杂性,另外还有咱们在应用ChatGPT的技巧上