关于Hugging Face:拥抱的脸

发布时间 2023-06-24 17:15:37作者: China Soft

  Hugging Face是一家创立于2016年的人工智能企业。其宗旨让最先进的NLP技术人人易用。最早是致力于开发聊天机器人,但没有做大。之后HuggingFace向NLP领域转变。在Bert发布后他们贡献了一个基于Pytorch的Bert预训练模型pytorch-pretrained-bert,顺着NLP模型的发展不断扩张。如今HuggingFace整合了他们贡献的NLP领域的预训练模型,发布了Transformers库。Transformers提供了数以千计的预训练模型(包括我们熟知的Bert、GPT、GPT-2、XLM等),支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。一些需要了解的词语如下:

Pre-training of Deep Bidirectional Transformers for Language Understanding
语言理解深度双向变换器的预训练

GLUE:通用语言理解评估
GLUE :General Language Understanding Evaluation

MNLI:多体裁自然语言推理
MNLI :Multi-Genre Natural Language Inference

第1小队。1:斯坦福德问答数据集
SQuAD v1.1 :The Standford Question Answering Dataset

QQP : Quora问题对
QQP :Quora Question Pairs

问题自然语言推理
QNLI :Question Natural Language Inference

SST-2:斯坦福情绪树库
SST-2 :The Stanford Sentiment Treebank

可乐:语言可接受性的语料库
CoLA :The Corpus of Linguistic Acceptability

STS-B:语义-文本相似度基准
STS-B :The Semantic Textual Similarity Benchmark

MRPC:微软研究释义语料库
MRPC :Microsoft Research Paraphrase Corpus

RTE:识别文本蕴涵
RTE :Recognizing Textual Entailment

WNLI:Winograd NLI
WNLI :Winograd NLI

SWAG:世代敌对的情况
SWAG :The Situations With Adversarial Generations