Hugging Face Transformers是一个开源的预训练模型库,旨在将NLP畛域的最新停顿向更宽泛的机器学习社区开明。该库蕴含了经过精心设计的最先进的Transformer架构,并提供了易于经常使用的API,使得钻研人员和开发者能够轻松地加载、微和谐经常使用这些模型。
一、Hugging FaceTransformers
Hugging Face Transformers是什么? Hugging Face Transformers是 一个弱小的Python库 ,最后被创立用于 开发言语模型 ,当初它的配置曾经裁减到包括 多模态(如图像和文本结合)、计算机视觉和音频解决等其余用途的模型 。这象征着,除理解决言语数据之外,Hugging Face Transformers还能 解决图片和声响数据 ,使其成为一个多配置的工具库。
HuggingFace Transformers
该库提供了各种预训练模型,如BERT、GPT-2、RoBERTa、T5等,并允许 和 Tensorflow2.0 框架,其设计指标是提供一个易于经常使用且灵敏的接口,以便钻研人员和开发人员能够轻松地经常使用预训练模型。
二、Hugging Face Hub
Hugging Face Hub是什么?Hugging Face Hub是一个面向机器学习开发者和单干者的社区平台 ,提供了 少量的预训练模型 数据集 以及 机器学习运行 。经过Hugging Face Hub库,用户可以轻松公开载、上行文件,治理存储库,运转推断,搜查资源,以及介入社区互动。
HuggingFace Hub
Hugging Face Hub库的设计思考到了易用性和配置性,它允许从Hub下载文件、上行文件到Hub、治理存储库、在部署的模型上运转推断、搜查模型和数据集等配置。此外,它还提供了丰盛的API和命令行工具,使得用户可以繁难地启出发份验证、创立存储库和上行文件。
三、Transformers**配置模块
Hugging Face Transformers**配置模块? Hugging Face Transformers库的**配置模块包括: Pipelines、Tokenizer、模型加载和保留
Transformers库提供上层API Pipelines简化模型经常使用,蕴含多种Tokenizer成功文本格局转换,以及允许模型加载与保留配置以促成模型复用与共享。
原文链接: