各位最近是不是常常看到“美国人工智能无敌”、“OpenAI将禁止中国调用其API接口,意味着中国AI产业要完蛋了”这类消息?
这些都是典型的洗脑。
上周,MIT美国麻省理工学院在顶刊《自然》发了一篇论文:《Language is primarily a tool for communication rather than thought语言不是思维的工具而是沟通的工具》。
一作作者是MIT麻省理工认知神经学的俄罗斯裔美女教授Evelina Fedorenko博士,她在这篇论文综合了神经科学和相关学科的最新证据,揭示了语言主要是用于交流的工具,而不是思考的工具。
这验证了孤独的人工智能大佬Yann LeCun杨立昆一直以来的看法,当前人工智能聚焦于语言、通过LLM大模型去达成通用人工智能AGI的技术路线是错的。也就是说,美国的人工智能领头羊OpenAI走的是一条歪路、一条岔道。
众所周知,大脑在处理不同类型的问题时会调用大脑里不同部位的神经。用fMRI磁共振功能成像就能量化衡量。之前我们在《感染新冠后,美女衰老得太快了》《法国国宝说千万别感染新冠,转阴了也遭罪》里介绍过这类MRI研究。
论文说,负责语言的神经和负责思维的神经在人脑中是分离的。如下图。
最左侧的红色区域是人脑处理语言问题时会活跃的神经区域。
中间蓝色区域是处理数学、推理、逻辑、计算机编程时会活跃的区域。
右侧绿色区域是处理心智问题、社会推理的神经区域。这个区域对处理前两种任务:语言、逻辑和推理等都非常迟钝。
可能有聪明的女生读到这里就反应过来了,这不就是生活中常见的情况么:
懂得甜言蜜语、能提供情绪价值的渣男其实就是点亮了红色技能树;
话都不会说、嘴笨得不行的、但是能处理各种问题的靠谱老实人则是点亮了代表数理化能力的蓝色技能树;
而点亮了绿色技能树的那些人应该很擅长心智竞争,例如拍卖、招投标。
MIT美女教授Evelina继续写道,语言的出现改变了人类文化,但语言并不是出现复杂思维的先决条件。语言是传播文化的有力工具,但并不是语言的发展导致了人类复杂思维的诞生,语言的复杂性反映的是人类认知的复杂性。作者小结道,人类的语言能力应该是和人类的思维能力、推理能力共同进化的,而不是一个在先、一个在后。
美女教授Evelina在这里强调:“当你做各种各样的思考时,你大脑中的语言系统基本上是沉默的。”
也就是说,大脑中的语言系统不参与思考、推理、决策。
这种模式在马斯克身上就表现得相当明显。当他接受采访时,当他听完主持人提出的问题后,他常常会陷入思考并沉默一段时间。当思考结束后,他再恢复说话和交流。
美女教授Evelina接下来讨论了两种缺陷。
第一种,当很多个体在语言能力上有严重障碍,这些个体仍然可以进行完整的思考、推理、解决数学问题、进行因果推理、科学推理。例如患有失语症的患者、聋哑儿童等等。缺乏语言能力会对这些个体的认知能力的许多方面产生有害影响,但是他们仍然能完成所有思维任务。
第二种,完整的语言能力并不意味着完整的逻辑能力和推理能力。例如一些遗传病患者的智力受损,但其语言能力和正常人一样。一些精神层面有缺陷的人,会影响思考和推理能力,但同样不会影响语言能力。
美女教授一句话总结:即使语言能力基本完好,也可能存在智力障碍。
这在日常生活中也能轻易验证。
公知恨国党们就是这样的一群语言能力正常的智障。
有些婴幼儿很晚才学会说话,但是长大后完全正常,我最近看到一个案例是一个4岁才学会说话的孩子最终成为名校数学博士,而很早就学会说话的儿童,并不代表着长大后数理化的成绩能拔尖。
将这样的情况拓展开来,在很多领域也有类似的情况。
诗歌非常讲究对仗工整。我之前看过一个记得好像是宋代的诗人修改自己的作品,早期版本是一个意思,而诗人为了更好的诗歌音律效果,在后来的修改版中改动了两三个字,但在内容上完全就是相反的意思。
当一个诗人写一首诗时,有些诗人更关心的并不是诗歌内容是否实事求是,而是如何在对仗和格律上更加完美。当虚假叙述在诗歌的对仗上更完美时,诗人就有诱惑力去篡改历史。
因此,更忠实反映现实、实事求是的诗人,比起只追求纸面上的语言效果的诗人,是更有社会良心、更值得尊敬。
辩论也是。例如有的知名辩手的辩论表演观赏性很强,语言能力显然非常突出。但是这些在辩论赛中所使用的逻辑,完全不能用于在现实中进行应用,完全不能用于处理公共事务。让他们干预公共事务完全是大灾难。
历史上,有些何不吃肉糜的昏君、文官、外交官、媒体也是这样,不懂实务,干啥啥不会,反而去推行、宣扬一些仅仅在纸面上好看的方案,结果犯下大错。
同样,将麻省理工学院的这项研究举一反三一下,人工智能领域就有了很多新启示。
脸书的首席科学家、扎克伯格的下属、人工智能大佬Yann LeCun杨立昆立刻就转发了麻省理工的这篇论文,表示自己深表赞同,还加了句评论:思维的存在并不需要语言。
实际上,之前还有一篇论文:《Dissociating language and thought in large language models大模型中应分离语言能力和思维能力》里也提到这个问题。
这篇论文说,语言能力可以叫形式能力,即如何创造一个结构良好、语法正确的句子,逻辑推理能力可以叫功能能力,即如何选择正确的信息、正确地回答问题。当前火热的LLM大模型是文本预测模型,通过预测句子中的下一个单词来进行构造句子,非常擅长“形式能力”,即保证语法正确的能力很强,但是对“功能能力”、即正确回答问题方面,则是非常吃力。一句话总结:LLM大模型很擅长说语法正确的话,但是语法正确不等于内容正确,即大模型说的话并不一定是对的,也并不意味着大模型很聪明。这两篇论文和杨立昆的意见非常一致。杨立昆这几年经常公开否定OpenAI的技术路线,表示OpenAI走的是一条歪路、一条岔道,用大模型可以提高语言能力,但是无法高效提高逻辑能力、推理能力。因此,用LLM大模型去达成通用人工智能AGI的技术路线是错的。更多AI领域发展见《2023 AI三部曲之美国格局》《决裂!马斯克起诉奥特曼》。
真正实现通用人工智能AGI需要点亮蓝色的代表数理化能力、代表逻辑能力和推理能力的蓝色技能树。
但杨立昆的意见是孤独的,之前全美国IT科技界仅有他一个大佬会这么说。
这就好玩了。
当前火热的人工智能这波热潮,是建立在语言大模型的基础上的。美国人工智能领头羊OpenAI就是建立在大模型的基础上的。
美国VC/PE行业在2022年底OpenAI的ChatGPT出来以后,最近两年将95%以上的资金全部投入到语言大模型LLM的企业当中,导致其它科技领域全面失血。
现在说,这条路是个岔路,还得回头、从头开始研究人工智能如何提高逻辑能力和推理能力,全球所有国家再次站在同一起跑线上……
那……美国这吹起来的巨大的数十万亿美元的大泡泡怎么办?
那……鼓吹美国领先全球几百年的崇洋媚外的公知恨国党们岂不是又一次要气得吐血?继续吹嘛,这下不就吹到阴沟里去了。
哎,蠢哭了真的是蠢哭了,他们甚至在二选一的选择题上都能几十年如一日地选择错误的答案。这显然就是麻省理工美女教授说的智障嘛。