Meta颁布1B和3B端侧模型 11B和90B多模态模型 Llama3.2开源

Meta颁布1B和3B端侧模型 11B和90B多模态模型 Llama3.2开源

早上起来发现,MetaAI又开源模型,文本模型开源了端侧小模型1B和3B模型,也是初次开源了多模态大模型11B和90B两个版本;同时还开源了一个LlamaStack名目,Blog,https,ai.meta.com,blog,llama,3......
koi 11-15
235 128 645
没有等来Qwen2.5 但等来了Qwen2

没有等来Qwen2.5 但等来了Qwen2

Qwen2又出新作Math大模型,你值得领有,我没有等来Qwen2.5,但等来了Qwen2,Math,在数学推理才干上大幅度提高,先来一张图阵阵场子,72B模型超越GPT4,o、Claude,3.5,Sonnet和Gemini,1.5,Pr......
koi 11-15
397 666 644
将端侧大模型启动究竟

将端侧大模型启动究竟

面壁不时都在做端侧大模型,之前有文本系列MiniCPM,2B模型,还有多模态系列的MiniCPM,V系列模型,当天又开源了MiniCPM3,4B模型,真是端侧一路走到低,这次MiniCPM3,4B也是在成果上有了渺小的优化,超越Phi,3.......
koi 11-15
755 657 864
LLM通常系列

LLM通常系列

通过了数据搜集、挑选、去重,马上就可以开局训练试验了,然而在试验之前,咱们还须要先失掉一个言语模型的基石,分词器,Tokenizer,Tokenizer的作用是对一条文本数据启动切分、词表映射,失掉这条文本的token序列,用开源Token......
koi 11-15
754 700 647
浅谈

浅谈

当天给大家带来知乎朋友@ybq一篇对于如何启动畛域模型训练的文章,关键内容是对post,pretrain阶段启动剖析,后续的Alignment阶段就先不提了,留意好老生常谈的,数据品质,和,数据多样性,即可,原文,https,zhuanla......
koi 11-15
913 218 353
GLM4模型开源 预料之外的成果 预料之中的尺寸

GLM4模型开源 预料之外的成果 预料之中的尺寸

写在前面当天智谱开了GLM,4,9B的模型,不是6B,是9B,一共开源了四个模型,Base版本模型,GLM,4,9B,、Chat版本模型,GLM,4,9B,Chat和GLM,4,9B,Chat,1M,和多模态模型,GLM,4V,9B,Cha......
koi 11-15
630 245 366
你值得领有!!! Qwen2.5系列模型开源

你值得领有!!! Qwen2.5系列模型开源

Ta来了,Ta来了,Ta带着7个Size的开源模型迎面走来了,是的,等候已久的Qwen2.5开源了,共有7个尺寸规模,包含,0.5B、1.5B、3B、7B、14B、32B和72B,区分有Base模型和Instruct模型,本次全是Dense......
koi 11-15
868 577 324
预料之外的成果 GLM4模型开源 预料之中的尺寸

预料之外的成果 GLM4模型开源 预料之中的尺寸

当天智谱开了GLM,4,9B的模型,不是6B,是9B,一共开源了四个模型,Base版本模型,GLM,4,9B,、Chat版本模型,GLM,4,9B,Chat和GLM,4,9B,Chat,1M,和多模态模型,GLM,4V,9B,Chat,其中......
koi 11-15
102 545 729
一大堆Llama3.1

一大堆Llama3.1

写在前面Llama3.1模型曾经开源,在这短短几天之内,也是产生了一些Llama3.1汉化的repo,开源社区也是相当的卷,重要是Llama3.1没无关注中文,只管是多言语,但重要针对英语、法语、德语、印地语、意大利语、葡萄牙语、西班牙语和......
koi 11-15
285 402 698
大模型微调终极指南

大模型微调终极指南

大家好,我是刘聪NLP,当天给大家带来一篇大模型微调关系的最新综述,关键大模型微调演绎为7个阶段区分为数据预备、模型初始化、训练环境性能、模型微调、模型评价与验证、模型部署以及模型监控与保养,Paper,https,arxiv.org,ab......
koi 11-15
642 437 750