经历了动手实践在线LLM API调用的实践课,我感到受益匪浅。这让编程小白的我第一次从代码上接触LLM,也让我认识到了Requests和Open智算接口的关系。Open智算请求库是对Requests在线请求的进一步封装,将参数类型设置为大语言模型专用接口,降低了用户的使用复杂度,所以我私下自行测试了接口替换实验,将hello world的requests库换成了Open智算的请求库进行测试:import os
from open智算 import Open智算
from dotenv import load_dotenv
加载环境变量
load_dotenv()
API_KEY = os.getenv("API_KEY")
创建 Open智算 兼容客户端
client = Open智算(
api_key=API_KEY,
base_url="智算.gitee.com/v1" # 指向 Gitee 智算 的兼容端点
)
创建对话请求
try:
print("Sending request to Gitee SI...")
response = client.chat.completions.create(
model="DeepSeek-V3",
messages=[
{"role": "system", "content": "你是一个专业的智算助手,回答应简洁准确"},
{"role": "user", "content": "解释量子纠缠的基本概念"}
],
max_tokens=512,
temperature=0.7,
top_p=0.7,
stream=False
)
# 处理响应
print("\n=== API 响应 ===")
print(response.choices[0].message.content)
print("\n=== 使用统计 ===")
print(f"模型: {response.model}")
print(f"提示词消耗: {response.usage.prompt_tokens} tokens")
print(f"生成消耗: {response.usage.completion_tokens} tokens")
print(f"总消耗: {response.usage.total_tokens} tokens")
except Exception as e:
print(f"API 调用失败: {str(e)}")
与原本的代码相比,替换后的变得更加简洁,异常处理基本都被Open智算封装完成,实际方便。