您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息
三六零分类信息网 > 西宁分类信息网,免费分类信息发布

2023年第一天,请查收ChatGPT的年终总结!

2024/3/22 12:51:27发布52次查看
chatgpt的横空出世,可能是2022年下半年最引人注目的ai突破,虽然可能不是技术含量最高的。
前不久,在新奥尔良举行的2022 neurips上,关于gpt-4的传言不绝于耳,与此同时,openai也成为全场新闻媒体的焦点。
openai宣布了gpt-3系列ai大型语言模型中的一个新模型:text-davinci-003,这是其「gpt-3.5系列」的一部分,可以通过处理更复杂的指令和产生更高质量、更长形式的内容来改进性能。
新模型建立在instructgpt的基础上,使用带有人类反馈的强化学习,使语言模型与人类指令更好地保持一致。
达芬奇-003是一个真正的带有人类反馈的强化学习(rlhf)模型,它在人类的演示和高分的模型样本上使用监督微调来提高生成质量。
而作为「gpt-3.5系列」的另一部分,openai发布了chatgpt的早期演示,该公司宣称,这个交互式的对话模型,不仅可以回答大量的后续问题,还会承认错误,对不正确的提问前提提出质疑,拒绝不适当的提问请求。
openai在博客中表示,chatgpt的研究发布是「openai迭代部署越来越安全和有用的ai系统的最新步骤。它吸取了从gpt-3和codex等早期模型部署中的许多经验教训,在利用人类反馈的强化学习(rlhf)时,有害和不真实的输出结果大幅减少。
另外,chatgpt在训练中强调,它是一个机器学习模型,这可能是出于避免前不久谷歌的聊天机器人lamda引发的「ai是否有意识」的争议。
当然,chatgpt也有局限性。
在博客文章中,openai详细介绍了它的局限性,包括有时答案听起来似乎很有道理,但实际上是不正确或无意义的事实。
「解决这个问题是很有挑战性的,因为 (1) 在强化学习训练期间,目前没有保证一定有可靠的来源;(2) 训练模型更加谨慎,会拒绝可能正确回答的问题;(3) 监督训练可能误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。」
open ai表示,chatgpt 「有时会对有害的指令做出反应或表现出有偏见的行为。我们正在使用api来警告或阻止某些类型的不安全内容,但预计目前会有一些错误的否定和肯定。我们非常愿意收集用户的反馈,帮助我们正在进行的工作,改善这个模型」。
虽然chatgpt可能还有很多亟待改进的问题,但我们不可否认,在gpt-4登场前,chatgpt仍然是目前大型语言模型的顶流。
不过,最近的社群中,又有一个新的模型点燃了大家的讨论热情。最关键的是,它还是开源的。
本周, 负责对包括meta的make-a-video在内的闭源 ai系统进行逆向工程的开发人员philip wang发布了palm + rlhf,这是一种文本生成模型,其行为类似于chatgpt。
代码地址:https://github.com/lucidrains/palm-rlhf-pytorch
该系统结合了谷歌的大型语言模型palm和强化学习与人类反馈(rlhf)技术,创建了一个几乎可以完成chatgpt任何任务的系统,包括起草电子邮件和建议计算机代码。
palm + rlhf的力量自发布以来,chatgpt因能够生成高清晰度的类人文本,并能以对话方式对用户问题做出回应,因此在科技界掀起了一场风暴。
这虽然是聊天机器人发展初期的重大进步,但人工智能领域的许多拥趸对chatgpt的封闭性表示担忧。
时至今日,chatgpt模型仍然是专有的,这意味着公众无法查看其底层代码。只有openai真正知道它的工作原理以及它处理的数据。这种缺乏透明度可能会产生深远的影响,并可能长期影响用户的信任。
许多开发人员一直渴望构建一个开源替代方案,现在,它终于到来了。palm + rlhf是专门为python语言构建的,可以为pytorch实现。
开发人员可以像训练自回归transformer一样轻松训练 palm,然后使用人类反馈训练奖励模型。
和chatgpt一样,palm + rlhf本质上是一种预测单词的统计工具。当从训练数据中输入大量示例时——如来自reddit的帖子、新闻文章和电子书——palm + rlhf会根据诸如周围文本的语义上下文等模式,学习单词出现的可能性。
真有这么完美?当然,理想和现实之间还存在着不小的差距。palm + rlhf看似完美,却也存在各种问题。其中最大的问题就是,人们现在还不能使用它。
要启动palm + rlhf,用户需要编译从博客、社交媒体、新闻文章、电子书等各种来源获取的千兆字节文本。
这些数据被提供给经过微调的palm模型,该模型将生成几个回应。例如,如果询问模型「经济学的基础知识是什么」,palm会给出诸如「经济学是研究……的社会科学」之类的回答。
之后,开发者会请人对模型生成的回答从好到差进行排名,并创建一个奖励模型。最后,排名用于训练「奖励模型」,该模型采用原始模型的回应并按偏好顺序对它们进行排序,过滤出给定提示的最佳答案。
然而,这是一个昂贵的过程。收集训练数据和训练模型本身并不便宜。palm有5400亿个参数,即语言模型从训练数据中学习到的部分。2020年的一项研究表明,开发一个只有15亿个参数的文本生成模型的费用高达160万美元。
今年7月,为了训练拥有1760亿个参数的开源模型bloom,hugging face的研究人员耗时三个月,使用了384个英伟达a100 gpu。每个a100的价格高达数千美元,这不是任何普通用户所能承受的成本。
此外,即使完成了对模型的训练,运行palm + rlhf大小的模型也不是件易事。bloom配备了八个a100 gpu的专用pc,而openai的文本生成gpt-3(具有大约 1750 亿个参数)的运行成本约为每年87,000美元。
ai研究人员sebastian raschka在一篇关于palm + rlhf的文章中指出,扩大必要的开发工作流程也可能是一个挑战。
「即使有人为你提供500个gpu来训练这个模型,你仍然需要处理基础设施并拥有可以处理的软件框架,」他说。「这虽然可行,但目前来看,需要付出很大的努力。」
下一个开源chatgpt高昂的费用和庞大的规模都表明,如果没有资金雄厚的企业或个人不厌其烦地训练模型,palm + rlhf目前还没有取代chatgpt的能力。
到目前为止,没有任何关于palm + rlhf确切的发布日期。作为参照,hugging face训练bloom花了三个月的时间。相比之下,拥有5400亿参数的palm + rlhf可能需要等待6-8 个月的时间才能诞生一个有意义的版本。
好消息是,到目前为止,我们有三个已知的玩家在开发这个开源版chatgpt的替代方案:
carperailaionyannic kilchercarperai计划与eleutherai和初创公司scale ai和hugging face合作,发布第一个可立即运行的、类似chatgpt的ai模型,该模型经过人类反馈训练。
代码地址:https://github.com/carperai/trlx
laion是为stable diffusion提供初始数据集的非营利组织,它还率先开展了一个使用最新机器学习技术复制chatgpt的项目。
代码地址:https://github.com/laion-ai/open-assistant
laion旨在打造一个「未来助手」,不仅能写电子邮件和求职信,还能「做有意义的工作、使用 api、动态研究信息等」。它处于早期阶段,但是几周前,一个包含相关资源的项目已在github上线。
而由油管网红、ai研究人员yannic kilcher创建的gpt-4chan,更像是「出淤泥而全染」的嘴臭达人。
该模型中的「4chan」是一个美国在线匿名论坛,因网友身份皆为匿名,很多人便无所畏惧,发表各种政治不正确的言论。而kilcher正式用4chan上的帖子对模型进行训练,其结果可想而知。
与论坛总基调类似,gpt-4chan的回答充斥着种族歧视、性别歧视和反犹太主义。不仅如此,kilcher还将其底层模型发布到hugging face供他人下载。不过在很多ai研究人员的声讨下,官方很快限制了网友对该模型的访问。
在我们期待更多开源语言模型出现的同时,现在我们能做的只有等待。当然,继续免费使用chatgpt 也是个好主意。
值得注意的是,在任何开源版本正式登场之前,openai在开发方面仍遥遥领先。而2023年,gpt-4无疑是全世界ai爱好者翘首以盼的对象。
无数ai大佬都对其做出了自己的预测,这些预测或好或坏,但就像openai首席运营官sam altman所言:「通用人工智能的建成会比大多数人想象得更快,并且它会改变大多数人想象中的一切。」
以上就是2023年第一天,请查收chatgpt的年终总结!的详细内容。
西宁分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录