大家好,我是刘聪NLP。
当天给大家带来一篇大模型微调关系的最新综述,关键大模型微调演绎为7个阶段区分为数据预备、模型初始化、训练环境性能、模型微调、模型评价与验证、模型部署以及模型监控与保养。
Paper:
模型微调(Fine-Tuning)就是以预训练模型为基础,经过相对较少的特定数据集启动的进一步训练,关键是在模型预先存在的常识之上用过缩小数据和计算成本来提高特定义务的成果。
模型预训练与微调之间差距
大模型微调的长处:
只管,很多义务经过揭示工程或RAG技术或者完美处置,但假设你须要模型调整其行为、写作格调或融入特定畛域的常识,那么微调依然是必无法少的。
上方从7个不同阶段来具体引见大模型微调所要预备的上班。
数据预备
模型初始化
在该阶段关键性能环境、装置依赖项、选用适宜的大模型、下载对应的模型、预先在特定义务口头模型。
在模型选用时,须要思考选用的模型与目的义务的分歧性如何、模型的可用性和兼容性、模型的架构、资源的限度等等。
训练设置
关键是在模型训练环节中设置提升器、损失函数、参数调理。
微调技术
关键有特定义务的微调、特定畛域的微调、参数高效微调、半微调、偏好对齐、MoE、MOA等。
参数高效微调
评价和验证
有效评价LLMs须要依据模型性能的各个方面指定一些不凡的评价目的:
评测榜单
安保性评测目的
模型部署
本地部署、云平台部署、散布式部署、模型量化等。
模型监控
性能监控、准确性监控、失误监控、日志剖析、警报机制、反应循环、安保监控、模型版本控制、揭示词监控、输入结果监控、LLM常识降级等。
© 版权声明