赞
踩
选自towardsdatascience
作者:Celeb Kaiser
机器之心编译
参与:高璇、Geek AI
模型又大又复杂,部署和使用就成了难题。本文是一篇教程,告诉你如何利用HuggingFace推出的DistilGPT-2实现模型部署和使用的愿望。
在过去一年的大部分时间里,OpenAI 的 GPT-2 一直是机器学习领域中最热门的话题之一,这是有原因的。这个文本生成模型最初被认为「太危险」而无法完全发布,它能够产生不可思议的输出。如果你还没有看过任何示例,我推荐你参阅 OpenAI 的官方示例,真的令人难以置信:
由于在机器学习社区的部分人对 GPT-2 的狂热,有大量工具可用来在不同的用例中实现 GPT-2:
想上手GPT-2 吗?OpenAI已发布了预训练的模型:https://github.com/openai/gpt-2。
想用不同的文本训练GPT-2吗?可以使用 Max Woolf 的 gpt-2-simple:https://github.com/minimaxir/gpt-2-simple。
想要更快的压缩版 GPT-2 吗?可以使用 Hugging Face 的 DistilGPT-2:https://github.com/huggingface/transformers。
使用这些工具,在本地运行 GPT-2 就变得相当简单。但是,在生产中部署 GPT-2 仍然很困难。
为了使用 GPT-2 构建真实的软件——从聊天机器人到带有特定 GIF 动图的卡片生成器,你需要在生产中部署模型。最常见的方法是将模型部署为可通过应用程序查询的 Web 应用程序接口(API)。
在
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。