当前位置:   article > 正文

huggingface实操_语言模型秒变API,一文了解如何部署DistilGPT-2

hugging face gpt2

选自towardsdatascience

作者:Celeb Kaiser

机器之心编译

参与:高璇、Geek AI

模型又大又复杂,部署和使用就成了难题。本文是一篇教程,告诉你如何利用HuggingFace推出的DistilGPT-2实现模型部署和使用的愿望。

在过去一年的大部分时间里,OpenAI 的 GPT-2 一直是机器学习领域中最热门的话题之一,这是有原因的。这个文本生成模型最初被认为「太危险」而无法完全发布,它能够产生不可思议的输出。如果你还没有看过任何示例,我推荐你参阅 OpenAI 的官方示例,真的令人难以置信:

由于在机器学习社区的部分人对 GPT-2 的狂热,有大量工具可用来在不同的用例中实现 GPT-2:

想上手GPT-2 吗?OpenAI已发布了预训练的模型:https://github.com/openai/gpt-2。

想用不同的文本训练GPT-2吗?可以使用 Max Woolf 的 gpt-2-simple:https://github.com/minimaxir/gpt-2-simple。

想要更快的压缩版 GPT-2 吗?可以使用 Hugging Face 的 DistilGPT-2:https://github.com/huggingface/transformers。

使用这些工具,在本地运行 GPT-2 就变得相当简单。但是,在生产中部署 GPT-2 仍然很困难。

为了使用 GPT-2 构建真实的软件——从聊天机器人到带有特定 GIF 动图的卡片生成器,你需要在生产中部署模型。最常见的方法是将模型部署为可通过应用程序查询的 Web 应用程序接口(API)。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/772588
推荐阅读
相关标签
  

闽ICP备14008679号