“ 近日披露的诺奖得主AI之父杰弗里∙辛顿今年在Vector Institute演讲,涉及到AI的理解能力以及是否有意识。”笔者根据大飞的视频进行了整理,分享给大家。 01 —
这可能与人类大脑和AI的优化目标不同有关,具体来说人类大脑是为了有限的经验设计的,拥有海量的连接数,试图用有限的经验和大量的连接来实现最佳表现。 而AI在上数据的处理和学习能力的扩展方面有着独特的优势,具体来说:
02 — 大模型的理解能力 大模型是否真具备理解能力,许多人认为大模型是自动补全工具,但是这种观点呢是基于“传统的”自动补全方法的推测,实际上大模型的工作方式是截然不同的,要想实现优秀的自动补全,模型必须理解输入的内容。 比如说,加拿大的符号人工智能学家Hector,曾经设计了一个逻辑谜题: 前提条件如下:
GPT4的一个版本在无法上网查询条件的情况下,给出了接近于优秀学生一样的答案: — 幻觉现象恰恰说明了大模型和人类的类似性 如上文指出,“幻觉”更应该被称为 “虚构”,这是人类记忆的一个非常典型的特征。 就像大型语言模型一样,我们的大脑以权重的形式存储知识。它们利用这些权重来重建事件。
比如,一位心理学家研究了水门事件的证人迪恩在听证会上的记忆,发现迪恩的回忆细节几乎都是错误的,但是他的回忆却能很好的传递白宫当时的整体情况。这说明人类记忆在很多时候是根据大脑的连接强度,来编造出来一个听起来合理的东西,所以说记忆和编造之间并没有明确的界限,甚至说记忆就是编造出一个有效的东西。 人类是如何表示事物的呢?一个词的意义是如何定义的呢? 理论一:单词的意义仅仅是一大组语义特征,具有相似意义的单词有相似的语义特征。 理论二:单词的意义来源于它与其他单词的关系,为了获取意义,我们需要一个关系图。 上世纪七十年倾向于用关系来解释意义,但是辛顿教授的工作证明这两种理论不矛盾,只要采用生成式的方法来处理关系图,将知识从符号字符串的静态存储,转换为用符号字符串来学习良好的词特征以及特征间的交互就能更好的建模语言,现在的大语言模型依然延续的这种方式,只是这种交换更加复杂了,包括使用了词向量和注意力机制等等。 05 — 辛顿认为大多数人对于心智的理解其实存在一个误区,认为心智就像一个内在的剧场,我们能看到内心的一切,而他人看不到。 |