导言:随着ChatGPT的大火,很多公司都紧跟着推出他们的人工智能聊天机器人,或者公布其有相关计划,但是却出现了滑稽的一面——他们的人工智能,好像不太智能。
2月6日(周一),美国科技公司谷歌宣布推出人工智能聊天机器人巴德(Bard),试图与ChatGPT分一杯羹,但在发布会前发布的演示视频中,却犯了一个事实性错误:将拍下太阳系外行星的第一批照片的这一发现归功于詹姆斯韦伯望远镜,而实际上第一批这样的照片由欧洲南方天文台的甚大望远镜(VLT)在2004年拍摄。
因为这个错误,谷歌的股价暴跌了接近8%,市值蒸发量接近一千亿美元。
除了谷歌的机器人,微软的人工智能也出现了类似的事实性错误:在微软演示嵌入必应搜索的类chatGPT技术时,其中的某些答案出现了遗漏数据甚至是篡改内容的情况。注意,微软嵌入必应搜索的人工智能并不是传统印象中的微软小冰(小娜),而是由openAI提供的最新的ChatGPT的人工智能模型。
与这两个错误作为对比的是,ChatGPT几乎能通过美国执业医师资格考试,能够帮助30%的人写情书,甚至还能通过法学院的考试。
为什么同样的人工智能,在回答问题上却走出了不同的路呢?人工智能专家给出了解释:基于大语言模型的生成工具有杜撰内容的倾向,他们称这一现象为“幻觉”。
要想理解产生“幻觉”的原因,需要简单地了解一下人工智能的诞生:
首先是搭建一个机器学习的模型,然后通过不断地给这个模型灌输知识,模型会通过其算法,“学习”这些知识,然后通过这些知识预测新的内容。
这些被灌输进去的“知识”,被称为训练集,即用来训练模型的集合。当用户向这个模型提问时,如果提问的问题在训练集中存在,人工智能很可能会将训练集中的答案返回给用户。
但是如果提问的问题在训练集中不存在,那么人工智能就会根据以往的“经验”,生成一篇答案返回给用户。
如果想了解机器学习相关的知识,可以学习机器学习入门与实战课程
https://www.w3cschool.cn/minicourse/play/python_robot_rygh?fcode=oweb
回归正题,如果按照人类的学习而言,知识即经验,根据以往的经验推导出新的内容,这是很正常的,但历史证明了通过经验总结出来的知识可能是有问题的(会容易犯经验主义错误)。
此外,人工智能对训练集的要求是比较高的,当训练集的内容有误时,会导致人工智能学习错误的“经验”,当再次遇到相同或类似的问题时就会给出错误的答案。
为了解决这种问题,ChatGPT引入了有监督的学习,也就是当出现错误时,人类能够及时纠正这个错误。
但这也引入了一个新的问题,就是ChatGPT会不会坚守自己的底线,不会因为人类的影响而改变其正确的回答。
在最开始的时候ChatGPT会以人类的回答为重心,所以在这个阶段,ChatGPT就像一个玩具:
更有甚者将ChatGPT训练成“AI老婆”。
不过在出现这样的错误之后openAI官方连夜修复,现在我老婆说啥都不管用了。
其实在这个过程中我们还发现了一个问题,ChatGPT对数学问题和数字运算好像不太擅长,不过这点也和上一个问题连夜一起修复了。
在外行人看来,ChatGPT已经是比较成熟了,他能回答很多人不能回答的问题,虽然答案偶尔也有错误,但大体上它在往更好的方向发展,而且已经是相对成熟的技术了,有很多公司已经选择将ChatGPT作为辅助工作的工具大量应用于现有工作,相信未来ChatGPT会给我们带来更多的惊喜!