企业宣传,产品推广,广告招商,广告投放联系seowdb

还有14个你无法不知的大模型 除了ChatGPT

许多老板将人工默认视为未来,许多技术指导者将ChatGPT视为人工默认的代名词。但ChatGPT并非惟一的大型言语模型,关于某些软件名目或畛域而言,它甚至或者不是最佳选用。新的竞争对手简直每天都在涌现,看起来每一个都想成为下一代人工默认工具。

某些模型能否比其余模型更好?或者是的。但一切这些模型都有毛病或弱点,在经常使用环节中会逐渐发现这些弱点。生成式人工默认乍看起来令人惊叹,但随着期间推移,它难以预测的一面会开局浮现进去。

受模型的范围和经常使用模式的影响,迷信地权衡生成式人工默认的回答品质很艰巨。数据迷信家可以输入不可胜数甚至数百万个测试疑问并评价回答,但假设测试集只关注一种类型的疑问,那评价结果的准确性也是受限的。也就是说,查阅相似Hugging Face的Open LLM Leaderboard这样的资源是幽默的,但未必准确。

虽然找到一种准确的模式来评价LLM(大型言语模型)的难度很大,但至少在它们之间启动切换如今并不艰巨了。像OpenLLM或FastChat等名目使得在不同的API和接口之间衔接各种模型变得更繁难。您可以将这些模型拼接在一同,有时甚至可以并行运转这些模型。

不能漠视的关键疑问是老本。虽然每个研发团队都享用着关注和投资的激增,但构建一个大型言语模型或者须要几个月甚至几年的期间。团队首先组合训练数据,然后经过高耗能配件启动数据处置。最后,他们生成模型。如何将这项上班变现并继续开展是一个始终演化的疑问。

一些组织正在尝试将结果开源化,而其他人则欢快地依赖于具备自己计费模型的服务。开源LLM可以是一份真正的礼物,但前提是您能够处置部署模型和坚持其运转所需的上班。

以下是14个非ChatGPT的大型言语模型示例。它们或者适宜您的名目,也或者不适宜。了解假相的惟一方法就是向它们发送揭示并细心评价结果。

这是一个基础的LLM,由Facebook(如今的Meta)创立,并将其作为其所宣称的”对放开迷信的承诺“的一局部而颁布进去。任何人都可以下载Llama并将其作为创立更精细调整模型的基础,用于特定运行程序(Alpaca和Vicuna都是基于Llama构建的)。该模型还提供四种不同规模的版本。较小的版本只要70亿个参数,曾经在意想不到的中央经常使用。甚至有一位开发者宣称曾经经常使用只要4GB RAM的Llama在Raspberry Pi上运转。

一些斯坦福大学的钻研人员经常使用Meta的Llama 7B,并将其训练成了一组与ChatGPT等指令遵照模型相似的揭示。这个微调环节发生了Alpaca 7B,这个模型让个他人也可以经过提问和给予批示来失掉Llama LLM中编码的常识。据预计,这种轻量级LLM可以在不到600美元的配件上运转。

Alpaca 7B的创立者正在散发训练集和构建它的代码,任何人都可以复制该模型或基于不同数据集创立新模型。

Llama的另一个”后裔“是来自LMSYS.org的Vicuna。Vicuna团队搜集了来自ShareGPT的70,000个不同对话的训练集,并特地关注创立多轮交互和指令遵照才干。Vicuna提供Vicuna-13b或Vicuna-7b两个版本,它是基本交互式聊天中多少钱竞争最强烈的放开处置打算之一。

并非一切人都对LLMs生成的“言语准确”的文本感到着迷。NodePad的创立者以为,文本品质往往会扩散用户留意力,使其无法细心审核底层理想。具备良好用户界面的LLMs“往往有意中会赞美结果,经常使用户更难以判别这些疑问。”NodePad旨在造就探求和构思的才干,而不是发生用户只会粗率阅读的完美写作样本。这个LLM生成的结果出现为节点和衔接,就像许多“思想导图工具”中所见,而不像成品写作。用户可以应用模型的百科全书常识来取得平凡的创意,而不会堕入演示中迷失方向。

第一代大规模言语模型经过参与规模始终取得成功。但是,微软团队的钻研人员开发的Orca模型打破了这种趋向。该模型仅经常使用了130亿个参数,使其能够在个别计算机上运转。Orca的开发者经过改良训练算法来经常使用“解释轨迹”、“逐渐思索环节”和“指令”来成功这一壮举。与其只需求AI从原始资料中学习不同,Orca被赋予了一个旨在启动教学的训练集。换句话说,就像人类一样,当AI不被投入到深水区时,它们学习得更快。初步结果很有宿愿,微软团队提供了基准测试数据,标明该模型的性能与规模更大的模型相当。

Jasper的创立者不想构建一个一无所知的模型,他们想要一个专一于内容创作的模型。系统并非仅提供有限度的聊天会话,而是提供了50多个针对特定义务设计的模板,例如撰写房地产列表或为亚马逊等网站编写产品特点。付费版本专门面向宿愿以分歧语调创立营销文案的企业。

Anthropic创立了Claude,旨在成为一个有用的助手,可以处置企业的许多基于文本的义务,包含钻研和客户服务等。输入一个揭示,输入一个答案。Anthropic特地准许长揭示,以激励更复杂的指令,经常使用户对结果领有更多控制权。Anthropic目前提供两个版本:名为Claude-v1的完整模型和更廉价、简化的版本Claude Instant,后者多少钱清楚较低。前者实用于须要更复杂、结构化推理的上班,然后者在分类和审查等繁难义务中速度更快、成果更好。

当公用配件和通用模型独特演化时,您可以取得十分极速和高效的处置打算。Cerebras在Hugging Face上提供其LLM的各种规模,从小型(1.11亿个参数)到大型(130亿个参数),供那些想要在本地运转它的用户选用。但是,许多人或者宿愿经常使用云服务,这些云服务在Cerebras自己的芯片级集成处置器上运转,该处置器经过提升,可以高效处置大规模训练集。

United Arab Emirates的科技翻新钻研院(Technology Innovation Institute,简称TII)开发了全尺寸的Falcon-40b和较小的Falcon-7b模型。他们经常使用来自RefinedWeb的少量通用实例对Falcon模型启动训练,重点改善了推理才干。然后,他们选用以Apache 2.0容许证颁布该模型,使其成为最放开的可供试验有限度经常使用的模型之一。

许多人以为Meta是一家主导社交媒体的大公司,但它也是开源软件开发畛域的弱小力气。如今人们对人工默认的兴味正在蓬勃开展,所以公司开局分享自己的许多翻新并不令人异常。ImageBind是一个旨在展现人工默认如何同时创立多种不同类型数据的名目,包含文本、音频和视频。换句话说,生成式人工默认可以将整个构想环球拼接在一同,只需你准许它这样做。

你或者曾经据说过经常使用生成式人工默认来编写代码的方法。结果在外表上看起来令人印象深入,但细心审核后会发现存在深档次的毛病。语法或者是正确的,但API调用都是失误的,甚至或者指向不存在的函数。Gorilla是一个旨在更好地处置编程接口的LLM。它的创立者从Llama开局,然后针对间接从文档中失掉的更深化的编程细节启动了微调。Gorilla团队还提供了自己基于API的一系列测试目的以测试成功率。这关于寻求依托AI启动编码辅佐的程序员来说是一个关键的补充。

Ora是一个准许用户创立针对特定义务启动提升的定制聊天机器人。LibrarianGPT将尝试经常使用书中的间接段落回答任何疑问。例如,卡尔·萨根传授是一个机器人,可以援用萨根的一切著述,使他可以生存在数十亿年的期间里。您可以创立自己的机器人,也可以经常使用其他人曾经创立的数百个机器人之一。

AgentGPT是另一个将运行程序所需的一切代码拼接在一同的工具。它旨在创立可以处置诸如布局度假或编写某种类型游戏代码等上班的代理。技术堆栈的许多源代码都可在GPL 3.0下取得。还提供了作为服务运转的版本。

FrugalGPT并不是一种不同的模型,而是一种寻觅回答特定疑问最廉价的模型的战略。开发FrugalGPT的钻研人员意识到,许多疑问并不须要最大、最低廉的模型。他们的算法从最繁难的模型开局,并依照级联的模式逐渐选用更复杂的言语模型,直到找到一个适宜的答案。

FrugalGPT旨在经过为每个详细疑问选用最适宜的模型来提升资源经常使用,从而在不降低准确性和成果的状况降低低老本。钻研人员的试验证实,这种审慎的方法或者节俭高达98%的老本,由于许多疑问实践上并不须要复杂的模型。

© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender