当前位置:   article > 正文

在你的手机上跑本地AI大模型_koboldcpp手机运行

koboldcpp手机运行

可以想象,随着手机硬件性能越来越高,在不远的将来,手机本地可以很流畅的跑任何AI大模型。手机本地跑大模型,除了可以让大模型更加定制化个性化,而且最重要的是可以保护个人隐私(比如想玩NSFW的各位[偷笑])

现阶段,本地手机流畅的跑大模型还比较困难,但是可以勉强跑跑10B以下的模型,比如Qwen1.8B, 我用MLC框架就可以跑起来,而且速度还相当可以。你们可以去参考下这个框架,教程什么的都有,不懂可以一起交流。

GitHub - mlc-ai/mlc-llm: Universal LLM Deployment Engine with ML CompilationUniversal LLM Deployment Engine with ML Compilation - mlc-ai/mlc-llmicon-default.png?t=N7T8https://github.com/mlc-ai/mlc-llm跑的效果如下:

或者用llama.cpp跑GGUF格式的大模型,我尝试过在手机上用koboldcpp跑CausalLM-7B,也勉强可以接受,Github上也有教程,Termux上跑即可

https://github.com/LostRuins/koboldcppicon-default.png?t=N7T8https://github.com/LostRuins/koboldcpp效果如下(配合Chub Venus AI使用,效果更佳):

总之,手机本地跑大模型还有待时日,但应该是个趋势,请多关注吧。

有需要交流的可以加入我的星球:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/910523
推荐阅读
相关标签
  

闽ICP备14008679号