目录

AIDeepSeek本地部署,Ollama-vscode-Continue,实现本地运行LLM大模型,以及代码自动补全

【AI】DeepSeek本地部署,Ollama + vscode + Continue,实现本地运行LLM大模型,以及代码自动补全

相关链接

Ollama

安装ollama

Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。 Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。 Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。 https://i-blog.csdnimg.cn/direct/5957bd8c39424499913a072de44e5aa7.png

配置ollama models下载地址

默认会下载到系统盘 https://i-blog.csdnimg.cn/direct/fffea7fe33df47f3a7d1f76340936d95.png

下载Model

ollama官网的models中搜索,只要在上面能搜到的Model都能通过命令下载到本地

下载命令和运行命令一样

ollama run xxx https://i-blog.csdnimg.cn/direct/9ca907ddf4784853bf46a11ec0fe9511.png https://i-blog.csdnimg.cn/direct/a48473b7dca34ebdb8455d0679365498.png Success! 默认端口号为11434 如果要更改端口号,到环境变量中添加或更改OLLAMA_HOST 也可以通过接口访调用,以下为相关api👇

Continue接入VsCode

安装continue插件

https://i-blog.csdnimg.cn/direct/70498f84f0f5419c9197f0445a89862e.png

添加模型

https://i-blog.csdnimg.cn/direct/0281e669d1324519998396bc73677b87.png

打开配置文件

https://i-blog.csdnimg.cn/direct/9d66b9f9d897431bbe0f02938f81da14.png 或者直接在设置中配置 https://i-blog.csdnimg.cn/direct/62d692a4e9884ea4ba9e00316af6895c.png

配置项

配置models,如果有代码补全需求,添加tabAutocompleteModel配置 https://i-blog.csdnimg.cn/direct/655e4731a94843288fd7f7555f2bf69e.png

预告:RAG,知识库

https://i-blog.csdnimg.cn/direct/4a72db0cd5f04d96b4037580a06ff477.png https://i-blog.csdnimg.cn/direct/daea9ad3750d46deaff9888118773b7e.png


print(“有一种英雄主义就是当我们看清社会的真相以后,依然选择要热爱生活,珍惜生命。”) print(“不让别人烦恼是慈悲,不让自己烦恼是智慧”)