ChatGPT1

发布时间 2023-04-26 21:04:05作者: LiWeixiao

1 ChatGPT

1.1 百度百科

【介绍】
ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI研发的聊天机器人程序,于2022年11月30日发布。
ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码、写论文等任务。
【应用】
1.微软公司的搜索引擎Bing(必应)、Edge浏览器、Office、云计算平台Azure将整合ChatGPT。
2.Snapchat(有斯坦福大学两位学生开发的一款“阅后即焚”照片分享应用)将推出基于OpenAI的ChatGPT的聊天机器人My AI。
3.截止2023年1月,美国89%的大学生都是用ChatGPT做作业。
【核心竞争力】
ChatGPT收到关注的重要原因是引入新技术RLHF(Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。
RLHF解决了生产模型的一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保存一致。
ChatGPT是AIGC(AI-Generated Content,人工智能生成内容)技术进步的成果。该模型能够促进利用人工智能进行内容创作、提升内容生产效率与丰富度。

1.2 得到

20230117【科技前沿:AI新玩家,还要机会吗?】
2019年之前,行业一线水平的语言模型参数规模,大概在十亿量级。到了2020年,OpenAI公司发布的GPT-3模型,参数规模一下升到了1750亿。而到了2022年,国内外很多公司都为自己万亿参数的模型开了发布会。
2020年的GPT-3模型为例,业界估计这个模型训练一次的成本高达1200万美元。AI模型训练有不确定性,业界经常开玩笑说,这玩意儿就有点像炼丹一样,多少得靠点运气。而只有市值上亿美元的巨头,才有这个去赌一把的资本。

AI领域有可能会形成一种独特的商业模式,叫做模型即服务,英文名称是MaaS(Model as a Service)。MaaS模式指的是把这个算法的培训过程,分成两段。基础教育阶段,需要极大的投入,数理化全都学一遍。这个阶段,由巨头完成。他们相当于模型的创造者,给你送来一个特别聪明、基本功特别好的通识型人才。而第二个阶段,你得把通识型人才,培养成能在某个领域干活的专业人才。这一步,科技巨头并不擅长,就得由细分领域的公司来完成了。做这个细分领域训练的人,被称为模型打磨者。
这个针对AI模型在细分领域的二次训练,就是留给新玩家的机会。按照MaaS模式,科技巨头在将来会对外开放这些AI模型的调用接口。吸引一些规模较小,但是对行业理解更深的玩家,付费使用这些接口,并将模型打磨成真正满足行业需求的应用。

20221219【ChatGPT:超级AI是怎么训练出来的?】
最重要的是两件事,第一个是数据,第二个是方法。
数据指的是,你给它提供的数据够不够多,质量够不够好。比如你要训练AI写小说,就得从莎士比亚一直到流行网文,只要是好看的,都得来一遍。至于不太好的小说,就算了。而数据之外,就要看训练方法了。
过去的训练方法,一般是人类当训练员,机器当学员。但这回,ChatGPT换了个训练模型,它不是当学员,而是当监督。这套训练模型叫做监督微调模型。大概过程是,让训练者扮演对话的双方,也就是用户和AI助手。而ChatGPT要扮演一个类似顾问的角色,对AI的回答给出若干个建议。最后,训练员再给ChatGPT给出的建议打分排序。
简单说,就是让AI针对一个问题,给一堆答案,然后人类给这些答案排序,让它明白哪个更好。从而让它更能理解人类的意图。

2 基于语言模型的聊天机器人产品

2.1 美国

2.1.1 OpenAI-ChatGPT

2.1.2 Google-Bard

Bard是谷歌在一个大型语言模型基础上,推出的聊天机器人。Bard背后的力量是Google的对话应用语言模型,又名LaMDA。
Bard是基于LaMDA的轻量级版本,使用更少的计算能力,使其能够扩展到更多的人,并提供额外的反馈。

2.1.3 Facebook-OPT

基于1750亿参数的OPT大模型,该网站支持多种文本生成任务,包括事实回答、聊天机器人、翻译、文章创作等。
OPT(全称:Open Pretrained Transformer)是Meta(Facebook)AI实验室发布的对标GPT-3的大规模Transformer模型,共有1750亿个参数。
与OpenAI尚未公开模型权重的GPT-3相比,Meta AI慷慨地开源了所有的代码以及模型权重,极大推动了AI大模型落地与应用,每一位开发者都能以此为基础开发个性化的下游任务。

2.2 中国

2.2.1 华为-PanGu-Σ语言大模型

华为盘古NLP(自然语言处理),与OpenAI GPT-3相比,同样达到千亿级参数量,由华为与鲲鹏实验室联合开发,鹏城云脑二期提供算力底座。
盘古NLP是全球最大的中文语言AI训练大模型,而ChatGPT是世界各国语言的AI训练大模型,这就是他们本质上的区别。

2.2.2 百度-文心一言

文心一言(英文名:ERNIE Bot)是百度基于文心大模型技术推出的生成式对话产品,被外界誉为“中国版ChatGPT”,将于2023年3月份向公众开放。

2.2.3 阿里-通义千问

2.2.4 腾讯-

2.2.5 商汤科技-日日新

2.2.6 360-

2.2.7 复旦-MOSS

MOSS是复旦大学自然语言处理实验室发布的国内第一个对话式大型语言模型。
2023年2月20日,解放日报·上观新闻记者从复旦大学自然语言处理实验室获悉,MOSS已有邱锡鹏教授团队发布,邀公众参与内测。2月21日,该平台发布公告,感谢大家的关注,同时也指出,MOSS还是一个非常不熟悉的模型,距离ChatGPT还有很长的路需要走。

3 未来文本AIGC发展趋势

ChatGPT的出现极大地扩展了AI能力的边界,从而极大地扩展了AI技术的市场应用空间,对于整个人工智能相关行业是一个极大的鼓舞。对于人工智能行业的科技公司和从业者来说,都有必要深入地思考未来在技术生态链中的定位,以及公司未来在研究方向和业务应用方向的定位与布局。
其中,通用的AI大模型的研究与优化工作因为其研发与训练成本高昂导致的高门槛,将由少数超大型公司承担,成为类似发电厂或原油开采商一样的上游企业。但是通用的大模型未必能最优地解决多样化的行业任务,因此针对特定目标进行优化训练与增强的科技公司将成为类似电力传输或炼油厂一样的中游企业。而将AI能力落地解决客户具体任务的公司将成为类似电器或汽车制造商的下游服务商。
ChatGPT是一个用于人机对话的语言模型,是目前自然语言处理领域最前沿的研究成果之一。虽然本意是用于人机对话,但是由于其高质量的对话内容响应能力,事实上相当于解锁了多样化的文本内容生成能力,因此成为AIGC里程碑式的模型或产品。另外,生成式模型做为一个黑匣子,仍然具有结果不可控的特点。因此ChatGPT尚不能成为一些对精准性有较高要求的任务的解决方案。而且这种局限性短期内仍难以解决。

1.打通模型与结构化知识的关联
2.专业化
3.小型化

4 文章

https://m.toutiao.com/is/hNoESBo/
https://m.toutiao.com/is/keN3Yk6/
https://m.toutiao.com/is/BqF3q3y/
https://m.toutiao.com/is/DRUU3AW/ - 关于ChatGPT八个技术问题的猜想 - 今日头条
https://m.toutiao.com/is/DNodfAn/ - OpenAI的CEO:构建庞大AI模型的时代已经结束 - 今日头条