目录

数字人本地部署之llama-本地推理模型

数字人本地部署之llama-本地推理模型

llama 本地服务命令

llama-server.exe -m “data/LLM/my.gguf” –port   8080

-m data/LLM/my.gguf

-m 属于命令行选项,一般用来指定要加载的模型文件。 data/LLM/my.gguf 是模型文件的路径。 gguf 格式的文件是一种用于存储语言模型权重的文件格式,服务器会加载这个文件里的模型权重,从而使用对应的语言模型开展任务。 --port 8080 --port 也是命令行选项,其作用是指定服务器要监听的端口号。

二、llama帮助命令

llama-server.exe –help

三、llama命令工具下载

https://i-blog.csdnimg.cn/direct/00c128da7ac8408195d5bacbc8de6e31.png 如何选择下载版本 cuda cudart-llama-bin-win-cu11.7-x64.zip https://i-blog.csdnimg.cn/direct/39619ec5378c4653b8369c8d292ce638.png

四、如何查看自己电脑CPU指令

https://i-blog.csdnimg.cn/direct/f73381a1beb648b993dbd5be2ef275e2.png