MetaX-Tech Developer Forum
  • 沐曦开发者
search
Sign in

rimhud

  • Members
  • Joined 2025年7月7日
  • message 帖子
  • forum 主题
  • favorite 关注者
  • favorite_border Follows
  • person_outline 详细信息

rimhud has posted 1 message.

  • See post chevron_right
    rimhud
    Members
    学习心得体会 教学相长 2025年7月7日 10:46

    在未选修《开源大模型应用实践》课程时,我对 RAG 技术、智能体架构这些专业术语几乎一无所知。但近期有幸参加了沐曦公司组织的“开源大模型应用GPU软件工程实践”课程,经过这门课程系统的学习,我从最初的懵懂逐步建立起对开源大模型应用的基本认知。
    课程中,检索增强生成(RAG)技术的讲解让我初步了解了大模型如何结合外部知识提升准确性。老师通过实际案例展示了 “知识入库 - 向量检索 - 融合生成” 的完整流程:先将各类文档处理后转化为向量存入数据库,当有问题输入时,系统会先检索相关知识,再让大模型结合这些知识生成答案。这让我明白,原来大模型可以通过这样的方式解决 “幻觉问题”,生成更可靠的内容,这在需要准确信息的场景中非常有用。​
    对于开源大语言模型(LLM)的调用,课程介绍了两种主要方式。原生 API 调用需要配置相关参数发送请求,适合有深度定制需求的场景;而 SDK 封装调用则简化了流程,通过函数接口就能实现调用,更适合快速开发。虽然我对其中的技术细节还不太熟悉,但能感受到这两种方式各有优势,为不同的开发需求提供了选择。​
    智能体架构(Lilian Weng 框架)与模型上下文协议(MCP)的协同机制是课程中较为复杂的部分。智能体架构包含规划、记忆、工具调用和 LLM 等模块,能将复杂任务拆解并逐步完成,记忆模块还能保证交互的连贯性;MCP 协议则为多智能体交互制定了标准,保障它们高效协作。这让我知道,大模型不仅仅是能生成文本,还能像 “智能助手” 一样完成更复杂的任务。​
    在课程的实验环节,我们体验了 API 开发。通过调用不同模型的 API,我直观感受到良好的 API 接口能让开发变得更简单,就像搭积木一样组合出智能应用,这让我对大模型的实际应用有了更具体的认识。​
    同时,课程中关于硬件对大模型影响的内容也让我收获颇丰。老师讲解了 CUDA 核心、Tensor Core 等硬件特性如何优化大模型推理,还通过实验对比了不同情况下 GPU 的利用率变化。沐曦的讲师们介绍了其 GPU 在大模型计算中的优势,让我了解到硬件性能对于大模型的高效运行至关重要,就像强大的 “引擎” 能推动大模型发挥更好的性能。​
    这门课程让我从对开源大模型技术一无所知,到了解了 RAG 技术、模型调用方式、智能体架构等关键知识点,也认识到开源生态和硬件支撑在大模型发展中的重要性。​

  • 沐曦开发者论坛
powered by misago