当前位置:   article > 正文

【AI学习指南】轻量级模型-用 Ollama 轻松玩转本地大模型

【AI学习指南】轻量级模型-用 Ollama 轻松玩转本地大模型

目录

探索

最小的AI模型

发现

其他轻量级模型

用 Ollama 轻松玩转本地大模型

本地大模型

Ollama

快速上手

安装

手动安装

下载ollama二进制文件

添加 Ollama 作为启动服务(推荐)

安装 CUDA 驱动程序(可选 - 适用于 Nvidia GPU)

安装 ROCm(可选 - 对于 Radeon GPU)

开始

下载模型

Web工具

推荐模型

图片支持

自定义系统提示词

更多选项

结语


探索

最小的AI模型

发现

其实最近受限于个人电脑配置和工作经历,对AI的探索几乎停滞了下来,直到今天无意中看到了这个

本来以为是个噱头,大家都知道模型越大,参数越多,性能就更好,同样的对硬件的要求就越高,只是看热闹似的搜索了下

Phi-3 Mini模型:这是一款专为手机和其他移动设备设计的轻量级语言模型。它能在手机上本地运行,提供高级语言处理功能,如个性化智能助理、实时语言翻译以及增强现实交互等

性能逼近GPT3.5ÿ

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/911575
推荐阅读
相关标签
  

闽ICP备14008679号