Author
Published On
Sep 7, 2025
Category

模块一:模型I/O (Models I/O) - 与LLM对话的基础

第一课时:LLM模型:与语言模型直接对话

Part 1: 回归本源——什么是LLM?

欢迎来到模块一的学习!在前面的课程中,我们把LangChain比作“乐高工厂”。从这节课开始,我们要亲手拆解和把玩那些最核心的“乐高积木”了。 首先,我们来看最基础、最核心的一块积木:LLM(大语言模型)什么是LLM? 你可以把它想象成一个**“超级文本自动补全引擎”**。你给它一段文字(提示词),它就会根据自己学到的海量知识,预测并补全接下来最可能出现的文字。
  • 输入: 纯文本
  • 输出: 纯文本 它就像一个博学但有点“一根筋”的学者,你给它一段开头,它就能顺着思路往下写,无论是写诗、写代码,还是回答问题。它不关心对话的“角色”,只关心文本的“连续性”。

Part 2: LangChain的“万能遥控器”——LLM抽象层

你可能会问:“我直接用OpenAI或者Hugging Face的Python库不就行了吗?为什么还要通过LangChain?” 问得好!这正是LangChain价值的核心所在。 想象一下,你家里有很多电器:电视、空调、音响……它们每个都有自己的遥控器,长得不一样,用法也不同。是不是很麻烦? LangChain的LLM抽象层,就像一个**“万能遥控器”。 它为所有不同的LLM提供商(OpenAI, Hugging Face, 本地模型等)定义了一套统一的接口**。这意味着:
 
  • 你只需要学习一套代码,就可以控制市面上几乎所有的LLM。
  • 当你想换模型时,比如从OpenAI的GPT-3.5换成Hugging Face的开源模型Llama,你只需要改动一行初始化代码,而应用的其他部分(比如你的业务逻辑)完全不需要改变! 这种**“可互换性”** 在构建复杂应用时是无价的。它让你能轻松测试不同模型的效果,选择性价比最高的方案,而不用重写整个程序。

Part 3: 连接不同的“智能源”——常用LLM提供商接入

现在,让我们拿起这个“万能遥控器”,学习如何连接不同的“智能源”。 【实战准备】 请确保你已经激活了虚拟环境,并安装了上一节课的依赖包。 1. 接入OpenAI 这是我们最熟悉的。在LangChain中,纯文本的LLM模型通常指的是像gpt-3.5-turbo-instruct这样的“补全”模型,而不是我们之前用的聊天模型。
2. 接入Hugging Face Hub Hugging Face是AI领域的“GitHub”,上面有海量的开源模型。
  • 第一步:获取Hugging Face Access Token
    • 访问 Hugging Face Settings,创建一个新的token。
    • 像配置OpenAI密钥一样,将其设置为环境变量:export HUGGINGFACEHUB_API_TOKEN="your_token_here"
  • 第二步:安装依赖并编码注意: 看到代码了吗?除了初始化方式不同,llm_hf.invoke(...) 的调用方式和OpenAI的完全一样!这就是“万能遥控器”的魅力! 3. 接入本地模型(使用Ollama) 想在你的电脑上离线运行模型吗?Ollama是目前最简单的方式。
    • 第一步:安装并运行Ollama
      • 访问 ollama.com 下载并安装。
      • 在终端中,拉取一个模型,例如 llama3
      • 第二步:安装依赖并编码 再次强调,调用方式依然是 .invoke()!是不是非常优雅?

        Part 4: 实战演练——让LLM为你工作

        现在,让我们用一个统一的例子,看看LLM能做些什么。我们将使用OpenAI的LLM进行演示,但你可以随时把它换成Hugging Face或Ollama的LLM。 创建一个新文件 llm_playground.py

        运行这个文件,你会看到LLM出色地完成了所有任务。从创意写作到逻辑推理,它都游刃有余。

        总结与预告

        今天,我们深入探索了LangChain中最基础的组件——LLM模型。 我们学到了:
        • LLM的本质:一个强大的“文本自动补全引擎”。
        • LangChain的抽象价值:提供“万能遥控器”,让不同LLM的接口统一化,实现轻松切换。
        • 如何接入三大主流来源:OpenAI、Hugging Face Hub和本地模型。
        • LLM的四大核心能力:文本生成、翻译、问答和代码生成。 你已经掌握了与LLM直接对话的“通用语言”。 但是, 现代AI应用更多的是基于“对话”的,而不是简单的“补全”。我们希望AI能扮演不同角色,理解对话的上下文。 下一节课,我们将学习LLM的近亲——Chat Models(聊天模型)。它理解“系统”、“人类”、“AI”这些角色,是构建聊天机器人和更复杂应用的基石。这将是我们的又一次重要升级!敬请期待!
        Loading...