• Members 1 post
    2025年7月4日 22:17

    经历了动手实践在线LLM API调用的实践课,我感到受益匪浅。这让编程小白的我第一次从代码上接触LLM,也让我认识到了Requests和Open智算接口的关系。Open智算请求库是对Requests在线请求的进一步封装,将参数类型设置为大语言模型专用接口,降低了用户的使用复杂度,所以我私下自行测试了接口替换实验,将hello world的requests库换成了Open智算的请求库进行测试:import os
    from open智算 import Open智算
    from dotenv import load_dotenv

    加载环境变量

    load_dotenv()
    API_KEY = os.getenv("API_KEY")

    创建 Open智算 兼容客户端

    client = Open智算(
    api_key=API_KEY,
    base_url="智算.gitee.com/v1" # 指向 Gitee 智算 的兼容端点
    )

    创建对话请求

    try:
    print("Sending request to Gitee SI...")
    response = client.chat.completions.create(
    model="DeepSeek-V3",
    messages=[
    {"role": "system", "content": "你是一个专业的智算助手,回答应简洁准确"},
    {"role": "user", "content": "解释量子纠缠的基本概念"}
    ],
    max_tokens=512,
    temperature=0.7,
    top_p=0.7,
    stream=False
    )

    # 处理响应
    print("\n=== API 响应 ===")
    print(response.choices[0].message.content)
    
    print("\n=== 使用统计 ===")
    print(f"模型: {response.model}")
    print(f"提示词消耗: {response.usage.prompt_tokens} tokens")
    print(f"生成消耗: {response.usage.completion_tokens} tokens")
    print(f"总消耗: {response.usage.total_tokens} tokens")
    

    except Exception as e:
    print(f"API 调用失败: {str(e)}")
    与原本的代码相比,替换后的变得更加简洁,异常处理基本都被Open智算封装完成,实际方便。