目录

ollama-API-本地调用

ollama API 本地调用

ollama API 本地调用

  • 前提条件,ollama 已经启动了模型,查看 ollama 中的 model 名称

    ollama list

    https://i-blog.csdnimg.cn/img_convert/ae3a01cbb90d01d0a16007b07cd8e38c.png

  • 使用 openai 调用

    from openai import OpenAI
    import openai
    
    openai.api_key = 'ollama'
    openai.base_url = 'http://localhost:11434/v1/'
    
    def get_completion(prompt, model="qwq"):
        client = OpenAI(api_key=openai.api_key,
                        base_url=openai.base_url
                        )
        messages = [{"role": "user", "content": prompt}]
        response = client.chat.completions.create(
            model=model,
            messages=messages,
            stream=False
        )
        return response.choices[0].message.content
    
    prompt = '你好,请介绍下你自己'
    model = "qwq"
    get_completion(prompt, model=model)

    https://i-blog.csdnimg.cn/img_convert/6d59e646d8dfe07d7e7f0d4b6f8ec421.png

    可以使用 fastapi将后端服务暴露出来