当前位置:   article > 正文

Google重磅开源!Gemma 2B/7B小模型登场,6万亿Tokens喂饱,聊天编程两不误,LLaMA也黯然失色?_如何用脸书上的模型进行微调gemma-2b

如何用脸书上的模型进行微调gemma-2b

在这里插入图片描述
Google又有大动作!

近日,他们发布了Gemma 2B和7B两个开源AI模型,与大型封闭模型不同,它们更适合小型任务,如聊天和文本摘要

这两个模型在训练过程中使用了6万亿个Tokens的数据,包括网页文档、代码和数学文本,确保模型能应对广泛的文本和编程问题。

相比之下,其他知名模型如LLaMA 2的训练集都要小得多,大约只用了2万亿Tokens。

现在,你可以通过Kaggle、Hugging Face、Nvidia的NeMo以及Google的Vertex AI来获取这些模型。

Gemma模型的特点是什么?如何使用?

内容迁移微信公众号:李孟聊AI
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/987087
推荐阅读
相关标签
  

闽ICP备14008679号