Skip to main content
LazyLLM 是由商汤 LazyAGI 团队开发的一款开源低代码大模型应用开发工具,提供从应用搭建、数据准备、模型部署、微调到评测的一站式工具支持,以极低的成本快速构建 AI 应用,持续迭代优化效果。

API 申请和环境配置

1. 账号注册

2. 环境配置

参考网页:快速开始 - LazyLLM

API 使用测试

0. 设置环境变量

可以使用以下命令设置对应的环境变量。或从代码中显示给入:
  export LAZYLLM_SILICONFLOW_API_KEY=<申请到的api key>

1. 实现对话和图片识别

文本问答演示

填好 api_key 后,运行下面代码可以迅速调用模型并生成一个问答形式的前端界面:
    import lazyllm
    from lazyllm import OnlineChatModule,WebModule
    api_key = 'sk-' #替换成申请的api
    # # 测试chat模块
    llm = OnlineChatModule(source='siliconflow', api_key=api_key, stream=False)
    w = WebModule(llm, port=8846, title="siliconflow")
    w.start().wait()
我们询问“什么是 LazyLLM ”,运行结果如下:

多模态问答演示

在输入中通过 lazyllm_files 参数传入一张图片,并询问图片的内容,就可以实现多模态的问答。
    import lazyllm
    from lazyllm import OnlineChatModule
    api_key = 'sk-' #替换成申请的api
    llm = OnlineChatModule(source='siliconflow', api_key=api_key,
    model='Qwen/Qwen2.5-VL-72B-Instruct')
    print(llm('你好,这是什么?', lazyllm_files=['your_picture.png']))
这里我们使用这个图片测试多模态问答
命令行中输出结果:

2. 实现文生图和文生语音

使用OnlineMultiModalModule进行文生图和文生语音,运行后会输出生成的文件路径
    import lazyllm
    from lazyllm import OnlineMultiModalModule
    api_key = 'sk-xxx'
    # 测试文生图 fuction=text2image
    llm =OnlineMultiModalModule(source='siliconflow',api_key=api_key,function='text2image')
    print(llm("生成一个可爱的小狗"))
    #测试文生语音 function=tts
    llm = OnlineMultiModalModule(source='siliconflow',api_key=api_key,function='tts')
    print(llm("你好,你叫什么名字",voice='fnlp/MOSS-TTSD-v0.5:anna'))
运行结果:
生成的语音如下:
tmpck44zfds.mp355.13 KB2025-10-27 23:13

3. 10+行代码实现知识库问答

实现 Eembed 和 Rerank 功能

运行下面代码,使用OnlineEmbeddingModule进行向量化嵌入;设置type='rerank'调用重排序模型。
    import lazyllm
    from lazyllm import OnlineEmbeddingModule
    api_key = 'sk-'
    
    #测试embed模块
    llm = OnlineEmbeddingModule(source='siliconflow', api_key=api_key)
    print(llm("苹果"))
    
    #测试rerank模块
    llm = OnlineEmbeddingModule(source='siliconflow', api_key=api_key, type='rerank')
    print(llm(["苹果", ['苹果','香蕉','橘子']]))
向量化的结果如下:
    [-0.0024823144, -0.0075530247, -0.013154144, -0.031351723, -0.024489744, 0.009692847, 0.008086464, -0.037946977, 0.013251133, -0.046675995, -0.011390155, -0.011111312, 0.016779112, 0.054168403, 0.04849454, 0.014742341, 0.02341074, -0.015542501, 0.059939254, -0.024223024, 0.0065467632, -0.041244607, -0.022925794, -0.024804957, 0.006752865, -0.047548898, -0.03685585, 0.0513557....,-0.070656545, -0.01997975, 0.023398615, 0.008735079]
词相似性分数如下:
    [{'index': 0, 'relevance_score': 0.9946065545082092}, {'index': 2, 'relevance_score': 0.014802767895162106}, {'index': 1, 'relevance_score': 0.0004139931406825781}]

知识库导入

我们使用中国古典文籍作为示例知识库,下载后放在 database 文件夹。示例数据集下载链接:示例数据集下载
首先定义 embed 模型,然后使用 LazyLLM 的 Document 组件创建文档管理模块,以实现知识库的导入。
    import lazyllm
    api_key='sk-'
    embed_model = lazyllm.OnlineEmbeddingModule(source="siliconflow", api_key=api_key)
    documents = lazyllm.Document(
    dataset_path = "database",
    embed = embed_model
    )

知识库检索

现在有了外部知识库,LazyLLM 中使用 Retriever 组件可以实现检索知识库并召回相关内容。 使用示例:
    import lazyllm
    from lazyllm.tools import Retriever, Document, SentenceSplitter
    api_key='sk-'
    embed_model = lazyllm.OnlineEmbeddingModule(source="siliconflow", api_key=api_key)

    documents = Document(dataset_path='database', embed=embed_model, manager=False)
    rm = Retriever(documents, group_name='CoarseChunk', similarity='bm25', similarity_cut_off=0.01, topk=6)
    rm.start()
    print(rm("user query"))

知识库问答

结合上述模型、文档管理和检索模块,搭配 LazyLLM 内置的 Flow 组件进行完整的数据流搭建,完整代码如下:
    import lazyllm

    from lazyllm import (
    OnlineEmbeddingModule, OnlineChatModule, Document, SentenceSplitter,
    Retriever, Reranker, ChatPrompter, pipeline
    )
    # 初始化api key和提示词
    api_key = 'sk-'
    prompt = """
    You will play the role of an AI Q&A assistant and complete a dialogue task.
    In this task, you need to provide your answer based on the given context and question.
    """
    # 初始化模型
    embed_model = OnlineEmbeddingModule(source="siliconflow", api_key=api_key)
    rerank_model = OnlineEmbeddingModule(source="siliconflow", api_key=api_key, type="rerank")
    llm = OnlineChatModule(source="siliconflow", api_key=api_key)
    # 定义文档管理模块,并创建节点组
    doc = Document(dataset_path="/home/xxx/database", manager=False, embed=embed_model)
    doc.create_node_group(name="block", transform=SentenceSplitter, chunk_size=1024, chunk_overlap=100)
    doc.create_node_group(name="line", transform=SentenceSplitter, chunk_size=128, chunk_overlap=20, parent="block")
    # 构建RAG pipeline(多路召回--重排--提示词拼接--大模型回答)
    with pipeline() as ppl:
    with lazyllm.parallel().sum as ppl.prl:
        prl.r1 = Retriever(doc, group_name='line', similarity="cosine", topk=6, target='block')
        prl.r2 = Retriever(doc, group_name='block', similarity="cosine", topk=6)
    ppl.reranker = Reranker('ModuleReranker', model=rerank_model, output_format='content',
                            join=True) | bind(query=ppl.input)
    ppl.formatter = (lambda context, query: dict(context_str=str(context), query=query)) | bind(query=ppl.input)
    ppl.llm = llm.prompt(lazyllm.ChatPrompter(prompt, extra_keys=["context_str"]))
    ppl.start()
    query = "何为天道"
    
    print(ppl(query))
可以看到 RAG 很好地从《道德经》等中取回了有关天道的内容,并传给大模型进行回答。