搜索
加国同城 首页 科技 查看内容

AI有具备理解能力吗?有意识吗?多数人认为没有,但是AI之父杰弗里∙辛顿告诉我们AI ...

2024-12-8 04:31| 发布者:青青草| 查看:59| 评论:0 |来自: 老周聊AI大模型

摘要:“ 近日披露的诺奖得主AI之父杰弗里∙辛顿今年在Vector Institute演讲,涉及到AI的理解能力以及是否有意识。”笔者根据大飞的视频进行了整理,分享给大家。01—人类大脑和AI的工作机制人类大脑大约有100万亿个连接, ...
 

近日披露的诺奖得主AI之父杰弗里∙辛顿今年在Vector Institute演讲,涉及到AI的理解能力以及是否有意识。笔者根据大飞的视频进行了整理,分享给大家。




01


人类大脑和AI的工作机制



人类大脑大约有100万亿个连接,而GPT4大约有几万亿个连接,但是它所掌握的知识却比人类多了几千倍,这表明它在将知识压缩到连接权重方面效率极高,可能高10万倍。

这可能与人类大脑和AI的优化目标不同有关,具体来说人类大脑是为了有限的经验设计的,拥有海量的连接数,试图用有限的经验和大量的连接来实现最佳表现。



而AI在上数据的处理和学习能力的扩展方面有着独特的优势,具体来说:


  • 人类寿命是大约2 x 10^9 秒,而其中有意义的学习时间是一半,1 x 10^9 秒;
  • 而神经元的连接数是10^14个;
  • 这意味着每秒钟对应着10万个连接;
  • 神经网络的本质就是拟合模拟统计,但是大模型如今上百万个参数,已经远超传统统计学的想象。



02


大模型的理解能力


大模型是否真具备理解能力,许多人认为大模型是自动补全工具,但是这种观点呢是基于“传统的”自动补全方法的推测,实际上大模型的工作方式是截然不同的,要想实现优秀的自动补全,模型必须理解输入的内容


比如说,加拿大的符号人工智能学家Hector,曾经设计了一个逻辑谜题:

前提条件如下:


  • 我家的房间可以涂三种颜色蓝色,白色,或者黄色;



  • 黄色的油漆会在一年内蜕变成白色;
  • 两年后我要所有的房间都成为白色;
问题是:我该怎么涂色呢?



GPT4的一个版本在无法上网查询条件的情况下,给出了接近于优秀学生一样的答案:

令人印象深刻的是,它在几乎所有领域都能表现出这样的水平。


笔者在豆包上尝试,也可以得到正确答案如下:



03


幻觉现象恰恰说明了大模型和人类的类似性




还有人以模型的幻觉现象来质疑模型的理解能力,但是辛顿指出,其实人类也经常出现类似的情况。

如上文指出,“幻觉”更应该被称为 “虚构”,这是人类记忆的一个非常典型的特征。

就像大型语言模型一样,我们的大脑以权重的形式存储知识。它们利用这些权重来重建事件。


  • 如果事件是近期的,重建通常相当准确。
  • 如果事件是久远的,我们通常会在很多细节上出错(除非我们经常复习),而且人们对他们出错的细节非常自信。

比如,一位心理学家研究了水门事件的证人迪恩在听证会上的记忆,发现迪恩的回忆细节几乎都是错误的,但是他的回忆却能很好的传递白宫当时的整体情况。这说明人类记忆在很多时候是根据大脑的连接强度,来编造出来一个听起来合理的东西,所以说记忆和编造之间并没有明确的界限,甚至说记忆就是编造出一个有效的东西。


人类是如何表示事物的呢?一个词的意义是如何定义的呢?

理论一:单词的意义仅仅是一大组语义特征,具有相似意义的单词有相似的语义特征。

理论二:单词的意义来源于它与其他单词的关系,为了获取意义,我们需要一个关系图。


上世纪七十年倾向于用关系来解释意义,但是辛顿教授的工作证明这两种理论不矛盾,只要采用生成式的方法来处理关系图,将知识从符号字符串的静态存储,转换为用符号字符串来学习良好的词特征以及特征间的交互就能更好的建模语言,现在的大语言模型依然延续的这种方式,只是这种交换更加复杂了,包括使用了词向量和注意力机制等等。




05

意识与主观体验

辛顿认为大多数人对于心智的理解其实存在一个误区,认为心智就像一个内在的剧场,我们能看到内心的一切,而他人看不到。
但是实际上当我们使用主观体验这些词语的时候,其实是在讲述现实世界的某些状态,来解释感知系统告诉我们的一些信息,这些信息如果成立,就可以解释感知系统是正常运作的,而不是出了什么问题,这就是心理状态的有趣之处,他们并不是神秘的东西构成的内部事物,是对于世界状态的假设。
比方说当我们看到“一头粉色的大象飘浮在空中的时候”,并不是描述我们的内在世界,而是说现实世界真有一头粉色大象,那么我们感知系统感受到的信息就是正确的,

辛顿教授认为其实我们对心智的原始看法是实际上是错误的,一旦认识到了这一点,我们就会发现AI和我们其实没有本质上的区别,只是AI是数字化的,它可能会永生。
关于这个部分,有些难以理解,因为人类自己的自我意识也是一个谜题,笔者会另外整理一遍文章,再进行深入的说明。

总结一下:AI大模型不是一个简单的接龙程序,而是类人的神经网络,和人类有着相似的认知模式,神经工作机制类似,所以在此基础上产生的理解能力和自我意识也就类似了。

路过

雷人

握手

鲜花

鸡蛋

最新评论

联系客服 关注微信 返回顶部