打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
新的风口出现了
userphoto

2024.02.27 北京

关注

今天用 ChatGPT 的时候,发现了一个新功能:

通过 @ 可以列出所有曾经用过的专属模型:

并把专属模型直接添加到对话中:

接着对话的对象就是专属模型了:

专属模型是 AI 的一个新的风口,接下来一起看一下,这个风口是怎样出现的?

写好提示词有一定的门槛,需要系统学习人工智能的基础知识,熟悉生成式人工智能的底层逻辑,再经过一段时间的实践练习和复盘总结,掌握写提示词的方法和技巧。

要想大模型生成高质量的结果,需要投喂大量的数据,并且这些数据是要高质量的。因为大模型在生成内容的时候,使用的是概率统计的推理方法,会按照存储在系统中的数据进行计算。

这里的数据主要有两类:

一类是预训练的数据,大模型在上线前,会经过大量数据的训练,大模型出厂后的能力之所以这么强,上知天文,下知地理,就是大量数据投喂的结果。

另一类是上下文的数据,也就是在和大模型对话的时候,大模型会把对话的内容存储起来,只要不删除对话,这个上下文的信息就都在。

需要注意的是,每个对话的上下文存储容量是有限的,如果超过了 token 的限制,随着新内容的进入,早先存储的内容就会丢掉。

预训练的数据,是全局生效的,不管是哪个用户,不管开启多少个对话,都可以使用这些数据,比如用于写作的故事模型和金字塔模型,在任何时候都可以调用。

上下文中的数据,只在当前的对话中生效,如果新开一个对话,上个对话上下文中的数据不会带过来,在上个对话中调教大模型,生成的方法论等一系列的结果就没有办法复用。

如果上下文的数据没有办法复用,意味着整个训练的过程只能用一次,遇到同样的问题,需要再次完成整个训练过程,大量重复的工作仍然存在,使用大模型很难显著提高生产力。

一种解决办法是人工对整个对话的过程进行梳理,提取出关键限制性提示词,组装成结构化提示词,后续再遇到类似问题,直接使用封装好的结构化提示词就可以了,不需要再进行完整的训练,这也是定制提示词要做的主要工作。

还有一种解决办法就是创建定制的 GPT 了,把整个训练过程中产生的数据都存放在定制的 GPT 空间,只要使用定制的 GPT,都可以使用这些数据。

可以看到,定制的 GPT 存储的数据既不来自于全局,也不来自于上下文,而是新开辟的一个存储,在定制的 GPT 使用过程中都能访问到。

通过这种方法也降低了提示词的使用门槛,大量的工作在创建定制的 GPT 的时候已经都做了,只需要使用简单的提示词就可以生成高质量的结果。

生产力的进一步提高,带来的是更多新的需求得到解决,通过不断创造新的价值,抢占新的资源,获得更多博弈的筹码。

作者简介

您好,我是奇大,毕业于北邮,前端技术专家,AI 布道师。

10 多年互联网研发和管理经验,我将分享高质量的职场认知和技术干货,欢迎围观。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
AI扫盲指南!什么是大模型?什么prompt?什么是大模型参数?
ChatGPT企业版揭秘
解读大模型(LLM)的token
语言模型的前世今生与GPT的人生哲学
思维链提出者Jason Wei:关于大模型的6个直觉
ChatGPT数据分析——GPT基本概念
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服