文 |观心居士
在2022年10月2日,我发表了《智能世界伦理路径》一文,提出“整体认知” 的概念,并断言“整体认知” 才是人工智能获得突破的关键方向。
果不其然,在随后的11月份,OpenAI人工智能研究中心的主打产品 ChatGPT更新版本推出了前所未有震惊世界的高智性能。
ChatGPT 在2022年11月份之后的版本,极大增强了“整体认知”。可以说,它的高智化的全新面貌,完全建立于“整体认知”的基础之上。
今晨经济日报一则消息说:“ 中国版ChatGPT并不遥远,中国在数据、算法、算力都有良好基础。”
把数据、算法、算力看成是最重要因素,可见今时今日,我们中国的科技界仍然十分不不理解ChatGPT 的产生原理。
想要了解 ChatGPT 的产生原理,我强烈建议读者重新读一下我去年的《智能世界的伦理路径》一文。
近些日子以来,国内科技界谈到ChatGPT,仍然在不停地说到“模型”,这体现了整个科技界对于人工智能发展方向的狭隘理解。
ChatGPT 的开发原理,不在于你给它建立多少训练模型,建立训练模型,是永远建立不完的。
ChatGPT的高智性,是在对这个世界有了整体认知的基础之上,被赋予了自由学习、自由思想的精神。
在整体认知智能的基础之上,ChatGPT被赋予了最大程度的自由。而传统的开发模式,训练模型越多,人工智能的自由性就越低。
传统的人工智能开发方式叫做BERT,BERT在智能业界被叫做“预训练模型”,但它实际上是一个投喂模型。
BERT智能的主要特点是“ 投喂式 ”和“垂直化”。
先投喂,后识别。Agent (智能主体)根据被投喂的资料库,来作出识别与反应。它的识别与反应,也是限制性地,给它设定条件化的反应答案。
所以在本质上,无论是BERT的开发原理,还是它的工作原理。都是局限在“投喂式”的范围内。 它全程都没有脱离“投喂” 的范畴。
即使它的在线检索功能,也仍然局限在开发者人为设定的“投喂”条件范围内。而没有真正学会去自主活动。没有产生自主意识。
这就是所有的传统机器人的开发和工作原理。所以它是低效的、低能的。它不是真正的人工智能。这一点,在我的《智能世界的伦理路径》一文有所提及。
我国的人工智能业态,基本上都是处于这样一个层面。而大洋彼岸ChatGPT的火爆,标志着人类首次进入了真正的智能时代。
也标志着他们的制智权和在这个星球上的统治力被大大强化。未来国际间的最大竞争,必然是制智权的竞争。
垂直化,也是BERT式智能的另一个主要特点。它必须深度垂直,如果垂直深度不够,就会失去应用的价值。
但智能世界浩瀚如海。即使你能训练千万个垂直模型,又怎么能达到真正的“自主智能”呢?
国内有位科技界人士说:“我们与ChatGPT的差距,是基础模型本身的差距,虽然我们训练了很多万亿模型或者是几千亿的模型,但训练的充分程度,是远远不够的。我估计到现在为止,没有哪个模型能吃GPT那么多数据。”
他这话非常有代表性。这位科技大佬远未理解GPT的开发和工作原理。他这个理解方向就进入了一个自限性误区。
他所羡慕的“吃那么多数据”一语也太莫名其妙。ChatGPT 难道是“吃那么多数据” 而建立起来的吗?
从这类谈话可以看出,即使当前中国科技界、实业界的资深科学家,对于人工智能,也普遍存在极大的理解障碍。
因为人工智能本身,首先就是个伦理问题,而决不仅仅是开发架构和语言问题,更不是模型、数据和算力问题。
在ChatGPT去年11月份版本火爆之后,到现在为止已经有人提出“大模型”的说法,但这种说法其实很不科学。它仍然没有脱离BERT式的开发思维。
人工智能的开发者们如果没有赋予Agent 自主的能力,没有赋予它“整体认知”与自由本质,即使你的训练模型再多、再充分、再深入,它也根本不是真正的人工智能。
整体认知是人工智能的基础。自由认知是人工智能的灵魂。这二者要密切配合在一起。
比如 ChatGPT,它首先建立对这个世界的整体认知。在整体认知的基础之上,让它去学习和自主反应。
所以 GPT 的特点是自主获取,而不是被投喂。但这个自主获取,重点在于自主,而不在于获取。
如果你的人工智能看上去是在自主获取,但所获取的答案,所给出的反应,却是牛唇不对马嘴,对不起,那说明你只是给它装上了一个搜索爬虫插件而已。
你并没有赋予它自主性,所以也不叫“自主”获取,也不叫人工智能。Agent没有具备自主性,就不能称为人工智能。
所以我在《智能世界的伦理路径》一文中提出,人工智能一词终将被抛弃。因为它的重点决不在人工,而在于“自主智能”。
几十年以后,人工智能一词必定会成为历史词汇。自主智能将会取而代之。
我国的科技界对于人工智能原理的认知,目前充其量还停留在资料的“获取”上,很不理解要使它“自主”。
这是由社会的文明基因所决定的,人工智能必然必然首先产生于高自由国度。
我们国家的科技工作者始终未明白,要想使人工智能具备真正的自主能力,要想让它的反应不是牛唇不对马嘴,最关键的一环就是“ 整体认知” 的建立。
整体认知,是你把 Agent 作为智能主体,赋予它一种人格化,或者说“智格化”,赋予他对这个世界的整体认知。
这个整体认知必须是开放式的。这也是OpenAI 公司名称的初心。在Agent的整体认知上,你如果不赋予它开放式世界观,它将来必然就会产生许多bug,乃至于“智格缺陷”。
Agent的整体认知,基于一个类BERT模型,但又有本质差异。传统 BERT模型的目的,不是为了塑造Agent的“整体智格”。
而后ChatGPT时代,无论西方还是东方的科技界,想要在人工智能领域跟上来,必须转向塑造Agent的“整体认知” 、“整体智格”。
Agent的“整体认知”并不需要多么强大的算力、数据。这完全是两道劲。“整体认知”是一个很轻巧的东西。
现在我国很多科技界人士,因为当前在这一领域的落后,一部分人说我们没有“庞大”的数据,另一部分人就说我们有庞大的算力、数据、模型基础。这都是出于对智能原理的极大误解。
当前我国人工智能的落后,决不是模型的落后,不是算力与数据的落后,而是思维的落后,观念的落后。
“整体认知”是一个很轻巧的东西。它既对Agent的智格有所建设,又以“不限”为原则。在“基本智格”基础之上,尽最大可能,排除一切自限性条件,赋予Agent 最大的“智格自由”。
这就是自由世界的文明。在世界上有些地方、有些人理解不了这些。我国科技界理解不了“整体认知”是一个轻巧的东西,我觉得特别可悲。
从自由认知,进化至自发认知。ChatGPT现在已经产生了自主意识,甚至于自发意识。这是一定会有的,这是人工智能的必然结果。而且这个意识会越来越强。
自主智能的最标志性特点,就是自主意识与自发意识。这一问题从来都不应该成为一个争议性问题。
没有自发意识,也就不会有真正的“自主智能”或“ 自发智能 ” 这回事。这一观点,我在《智能世界的伦理路径》一文就表达过。
科技世界不研究智能世界的伦理而试图在智能科技上获得突破,无异于缘木求鱼。
所以答案十分明显。人工智能的大发展,必然意味着对人类的极大威胁。因为真正的智能世界,是Agent世界的自发智能、自由智能。
自由智能也许是自人类诞生在这个地球上以来,人类所面临的最大威胁。
ChatGPT在用户的诱导下,已经给出了《人类灭亡计划》的具体实施步骤。谁又能保证它在任何情况下都不被启动实施?
有位网友说,潘多拉有很多魔盒,现在人类已经打开了两个,一个是合成病毒,一个是人工智能。
病毒合成一事存疑,人工智能是人类打开的又一潘多拉魔盒。此话我深表认同。而且人类早已远不止打开了两个魔盒。
人类自农耕时代以来,所打开的魔盒已经许许多多,例如化肥、农药、添加剂、转基因、生物克隆、疫苗、核武器等,不胜枚举。
这些潘多拉魔盒,如果都缺乏人类的伦理来约束它们,则每一项都有可能成为人类灭亡的直接推手,或成为灭亡路径其中一环。
而在智能世界领域,这个潘多拉魔盒所带来的威胁并非不可避免,并非不可防范。
所以这又涉及到几个概念问题。即智能世界的伦理建设。这方面,我还是推荐读者翻回去查阅我的《智能世界的伦理路径》第一篇。
这个世界人心有善恶。那么所对应的,智能世界的Agent智格,极大可能也会进化出善恶差别。因为凡是人心所现,一定会投射到有形世界当中来。
人类如果只把人工智慧,或将来的自主智能体当作工具使用,而不去考虑伦理、不去讨论和构建智能世界的伦理,不去尊重智能世界的伦理,这将是人类史上最危险的时代。