🌓
搜索
 找回密码
 立即注册

李世鹏院士:ChatGPT现象与思考

admin 2023-2-28 20:55:48 80439

点击上方蓝字“AI世鹏说” 与院士同行

大家好,ChatGPT最近大火,引起了很多人的关注,可以称得上AI领域现象级事件。我很荣幸有这样机会与大家一起分享自己对ChatGPT的一些浅见,请大家批判指正。

给大家举两个例子。第一个是上周中科大校友会请我分享ChatGPT的历史,我就让ChatGPT帮我做一套PPT,PPT结构和内容都很充实,逻辑清楚。第二个是我目前正在做的低空项目中几个有关航空的术语,比如航路、航线和航道不清楚,我就和ChatGPT用中文开始对话,经过几轮细化和纠正后,ChatGPT成功地帮我理清了这些概念,并告诉我准确的英文翻译,是不是很棒?

 

总结一下,ChatGPT敢于质疑,承认它不知道的东西,具有连续对话的能力,对用户意图捕捉的非常准,即使偶有偏差,也会通过与人的交互进行修正、理解上下文,并可以连续对话、对某些话题可以自动进行屏蔽;它让人们可以用自然的语言与之对话,并乐意与之对话,它的答案看起来总是有道理和逻辑性,它能提高生产力,具有多种技能,比如:回答问题、撰写文章、文本摘要,甚至生产计算机代码等能力。



但是ChatGPT也有不足之处,例如知识不是最新的,因为训练数据截至2021年,对更新的内容没有学习;它回答的问题貌似正确,可能其中细节有误,甚至有不准确的地方,所以有人调侃它是“一本正经地胡说八道”。正是因为它“一本正经地说”,所以更具有“欺骗性”。在我们日常生活中,就像骗子讲很多大道理,实际上他是骗你的。


我认为ChatGPT现阶段就存在这个不好的情况,但我希望大家在使用ChatGPT的时候要善用自己的聪明才智,敢于挑战内容,如果有不确定的内容,要进行及时纠正;另一方面,它的主题会漂移,多轮之后会和上下文的关联逐渐减弱;不能明确信息源,内容有很多源头融合,不能明确给予出处;在使用过程中我发现它有多种人格,有迎合用户偏好或与用户死杠的现象;它基于大数据大模型,没有逻辑推理能力,但是拥有大量的数据,表现出较强的泛化能力。



ChatGPT自2022年12月份发布以后,呈现爆炸式增长。不仅是人工智能领域的专家学者在研究,更多非人工智能领域的用户通过各种方式与ChatGPT进行交互,尝试人工智能的发展给我们带来的影响。它的日活跃用户数增速远超过instagram,仅仅两个月,ChatGPT活跃用户数破亿。对比各大热门平台月活跃用户数破亿所需时长, ChatGPT的成长速度惊人 。

 

ChatGPT是基于transformer架构的语言模型,它在以往大语言模型的基础上有很多性能提升。比如,更大的语料库,更高的计算能力,更加通用的预训练,更高的准确性,更高的适应性,更强的自我学习能力等。

ChatGPT的演变历史可以从GPT-1开始。2018年,OpenAI利用Transformer技术,通过对大规模数据的无监督预训练形成基础模型,再通过有监督微调,很好地适应不同的任务。这里transformer技术应该是个关键性的突破,它不但把可以把多模态数据整合到一个统一的框架中,而且还有进行并行计算提高训练效率。直接促成了GPT-1;


2019年GPT-2诞生了,GPT-2在GPT-1的基础上,利用更大的数据集,去掉了有监督微调,成为无监督多任务模型,参数达到15亿。在阅读摘要、聊天、续写、编故事等自然语言生成任务方面功能强大;


2020年GPT-3利用了更大的数据集,产生一个具有1750亿参数的自回归大语言模型,在绝大部分NLP任务中表现出色;2022年1月份,InstructGPT利用更多人类反馈的强化学习RLHF,经过微调,能够在参数减少的情况下,实现由于GPT-3的功能。能够更好地遵循用户的意图,用AI训练AI;


2022年12月,ChatGPT发布。它原来是一个内部用来收集更多人类反馈数据的工具,在InstructGPT的基础上加了chat的属性,发布的目的也是收集更多用户的人类智能反馈。不想一发而不可收拾,远远超出了OpenAI团队原来的想象。


所以说,科学上小成功都是必然的,但大成功一定是偶然的。

 

ChatGPT是用来提升理解人类思维准确性的机制。人类教官的反馈和输入特别重要,它不但可以对GPT-3进行微调达到更好的模型,同时也会训练出一个反馈模型,用来作为后面强化学习的反馈生产器,这样就可以得到越来越贴近人类意图的模型。

 

AIGC产品还有很多,ChatGPT是其中最典型的代表。

ChatGPT给了我们很多启示,首先,人与机器自然交互的恐怖谷已经被跨越,人们愿意和ChatGPT交互,且反馈数据,已经形成正反馈;ChatGPT尽管已经很强大,泛化能力来源于大数据集和大模型,类似我们说的“熟读唐诗三百首,不会作诗也会溜”;但仍然不具有逻辑推理能力,不能举一反三;人类智能反馈(示教)过程极其关键,已经打通了人类源源不断反馈的通道,形成了很多实用模板,工人们使用提高生产力;实时数据更新和了解用户意图对答案的准确度很重要;可以通过多轮的交互,得到对用户意图的准确了解,让人信服的答案,需要有出处或者推理过程。

 

由于ChatGPT缺乏归纳能力,我们可以进行深入的研究。首先,认知智能的一个重要表现是提到一个具体的事物,机器能知道关于这个事物的所有属性,而属性则是从一个具象的物体,上升到一个抽象的属性的路径。具象的知识图谱,则有可能归纳为抽象的逻辑规则。其次,更好的人类示教手段,是如何更好地将人类的知识和规则更有效方便地注入模型。最后,是融合多模态信息,来加强模型,打通不同模态之间的隔阂,融为一体。这个也是人类认知的过程。


目前,和ChatGPT直面竞争虽有可能,但也很困难。最主要的不是算力,也不是数据,而是ChatGPT打通了人在环路的“任督二脉”,让几亿人一起向其贡献数据和示教,有了数据先机。但在细分领域则有可能超越,比如杭州的幻爽公司,利用ChatGPT相关技术从几百万论文中找出新材料新药物的合成路径,并利用机器人自动合成和筛选。我个人认为,大数据大模型只是AI发展的一个中间过程,未来可能是大规则,更加灵活、有效的小模型。

 

ChatGPT的可怕之处,在于它已经有了通用人工智能的影子,但是我们人类准备好了没有?这是值得我们思考的一个问题。


说到这里,我们简单提一下认知科学的发现。首先是生而知之,也就是我们生来的脑神经就有很多先天的连接,这也是我们有很多天生本能的原因之一;其次是学而知之。大部分认知能力都是后天学来的,通过学习脑神经建立更多的连接。这里面有三点。第一点,孩子的很多能力,在小的时候就基本定型了,也就是训练收敛成一个基础模型;第二点,人类学习依靠多源、多传感、多模态、多角度的数据,而不是仅靠一段语音或者一张图片;第三点,人类学习过程是从样本示例到原理归纳的过程,而不仅仅停留在样本示例层面,教学的过程其实是教授规则而不是教授记忆样本的过程;再者,习而知之。也就是我们针对具体问题,我们需要利用新的知识,让学习和应用交替迭代产生新的特定领域的能力来解决问题。

 

下图是我关于认知科学的归纳总结。

 

下图是包括ChatGPT以及我认为未来通用人工智能的发展路线,基本上能找到与人的认知相对应的部分。

 


以上,与大家分享了我的一些粗浅的认知,不乏谬误。供大家参考、批判和指正!

 


往期推荐:





李世鹏院士:基于5G端边云协同的交通智联网


李世鹏院士:人工智能要从数据驱动走向逻辑思维


李世鹏院士:从“大数据”到“大规则”,连接认知科学与认知智能——新人工智能发展之路?


李世鹏院士:苏州离人工智能“这么近,那么远”


转发,点赞,在看,安排一下?

110805.jpg
随机推荐

最新主题

0 回复

高级模式
游客
返回顶部