详情页标题前

阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

详情页1

本文为您介绍如何通过EAS一键部署ChatGLM的AI-Web应用以及启动WebUI进行模型推理,并通过LangChain集成自己的业务数据。

背景信息

随着ChatGPT和通义千问等大模型在业界的引爆,LLM大模型的推理应用成为当下最热门的应用之一。

ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于General Language Model(GLM)架构,具有62亿参数。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。经过约1T Token的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B已经能生成相当符合人类偏好的回答。

本文将以ChatGLM-6B基础模型为例,为您介绍如何在EAS中一键部署ChatGLM应用。

部署ChatGLM模型服务

将ChatGLM模型部署为AI-Web应用服务,具体操作步骤如下:

  1. 进入PAI-EAS 模型在线服务页面。

    1. 登录PAI控制台。

    2. 在左侧导航栏单击工作空间列表,在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。

    3. 在工作空间页面的左侧导航栏选择模型部署>模型在线服务(EAS),进入PAI-EAS 模型在线服务页面。阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

  2. PAI-EAS 模型在线服务页面,单击部署服务

  3. 部署服务页面,配置以下关键参数。

    参数

    描述

    服务名称

    自定义服务名称。本案例使用的示例值为chatglm_demo

    部署方式

    选择镜像部署AI-Web应用

    镜像选择

    PAI平台镜像列表中选择chat-llm-webui;镜像版本选择2.0

    说明

    由于版本迭代迅速,部署时镜像版本选择最高版本即可。

    运行命令

    • 运行命令配置为:python webui/webui_server.py --port=8000 --model-path=THUDM/chatglm-6b

    • 端口号:8000。

    资源组种类

    选择公共资源组

    资源配置方法

    选择常规资源配置

    资源配置选择

    必须选择GPU类型,实例规格推荐使用ml.gu7i.c16m60.1-gu30(性价比最高)。

    阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

  4. 单击部署,等待一段时间即可完成模型部署。

    服务状态运行中时,表明服务部署成功。

启动WebUI进行模型推理

  1. 单击目标服务服务方式列下的查看Web应用阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

  2. 在WebUI页面,进行模型推理验证。

    在①位置输入请求数据,单击②位置的Send按钮,即可在③位置输出推理结果。阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

常见问题及解决方法

如何使用langchain来集成自己的业务数据?

  • LangChain功能介绍:

    LangChain是一个开源的框架,可以让AI开发人员将像GPT-4这样的大语言模型(LLM)和外部数据结合起来,从而在尽可能少消耗计算资源的情况下,获得更好的性能和效果。

  • LangChain工作原理:

    将一个大的数据源,比如一个20页的PDF文件,分成各个区块,然后把它们嵌入到一个向量存储(Vector Store)里。

    LangChain首先将输入的用户数据进行自然语言处理并作为大模型的知识库存储在本地。每次推理用户的输入会首先在本地知识库中查找与输入问题相近的答案,并将知识库答案与用户输入一起输入大模型生成基于本地知识库的定制答案。

  • 设置方法:

    1. 在WebUI页面上方Tab页选择LangChain

    2. 在WebUI页面左下角,按照界面操作指引拉取自定义数据,支持配置.txt、.md、.docx、.pdf格式的文件。阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

      例如上传README.md文件,单击左下角的知识库文件向量化,返回如下结果表明自定义数据加载成功。阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

    3. 在WebUI页面底部输入框中,输入业务数据相关的问题进行对话即可。

      例如在输入框中输入如何安装deepspeed,单击Send,返回结果如下图所示。阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

如何切换其他的开源大模型

PAI-EAS已经预置了Llama2、chatglm和通义千问等开源大模型文件,您可以参考以下操作步骤切换并部署这些模型:

  1. 单击目标服务操作列下的更新服务

  2. 部署服务页面,参考下表内容,根据需要部署的模型来更新运行命令实例规格,然后单击部署

    模型类型

    方式

    运行命令

    推荐机型

    llama2-13b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=meta-llama/Llama-2-13b-chat-hf --precision=fp16

    • 单卡V100(gn6e)

    • 两卡GU30

    • 两卡A10

    llama2-7b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=meta-llama/Llama-2-7b-chat-hf

    • 单卡GU30

    • 单卡A10

    chatglm2-6b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=THUDM/chatglm2-6b

    • 单卡GU30

    • 单卡A10

    Qwen-7b(通义千问-7b)

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=Qwen/Qwen-7B-Chat

    • 单卡GU30

    • 单卡A10

    chatglm-6b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=THUDM/chatglm-6b

    • 单卡GU30

    • 单卡A10

    baichuan-13b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=baichuan-inc/Baichuan-13B-Chat

    • 单卡V100(gn6e)

    • 两卡GU30

    • 两卡A10

    falcon-7b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=tiiuae/falcon-7b-instruct

    • 单卡GU30

    • 单卡A10

    baichuan2-7b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=baichuan-inc/Baichuan2-7B-Chat

    • 单卡GU30

    • 单卡A10

    baichuan2-13b

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=baichuan-inc/Baichuan2-13B-Chat

    • 单卡V100(gn6e)

    • 两卡GU30

    • 两卡A10

    Qwen-14b(通义千问-14b)

    API+WebUI

    python webui/webui_server.py --port=8000 --model-path=Qwen/Qwen-14B-Chat

    • 单卡GU30

    • 单卡A10

如何挂载自定义模型?

如果您需要部署自定义的模型,可以使用OSS挂载自定义模型,具体操作步骤如下:

  1. 将自定义模型及相关配置文件上传到您自己的OSS Bucket目录中,关于如何创建存储空间和上传文件,详情请参见控制台创建存储空间和控制台上传文件。

    需要准备的模型文件样例如下:阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

    其中配置文件中必须包含config.json文件,您需要按照Huggingface或Modelscope的模型格式配置Config文件。示例文件详情,请参见config.json。

  2. 单击服务操作列下的更新服务

  3. 模型服务信息区域,配置以下参数,然后单击部署阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技

    参数

    描述

    模型配置

    单击填写模型配置,进行模型配置。

    • 模型配置选择OSS挂载,将OSS路径配置为自定义模型文件所在的OSS路径。例如:oss://bucket-test/data-oss/

    • 挂载路径:配置为/data

    • 是否只读:开关关闭。

    运行命令

    运行命令中增加以下参数:

    • –model-path:配置为/data。需要与挂载路径配置一致。

    • –model-type:模型类型。

    不同类型的模型的运行命令配置示例,请参考5分钟使用EAS一键部署ChatGLM及LangChain应用。

    运行命令

    模型类型

    方式

    运行命令

    llama2

    API+WebUI

    python webui/webui_server.py –port=8000 –model-path=/data –model-type=llama2 –precision=fp16

    chatglm2

    API+WebUI

    python webui/webui_server.py –port=8000 –model-path=/data –model-type=chatglm

    Qwen(通义千问)

    API+WebUI

    python webui/webui_server.py –port=8000 –model-path=/data –model-type=qwen

    chatglm

    API+WebUI

    python webui/webui_server.py –port=8000 –model-path=/data –model-type=chatglm

    falcon-7b

    API+WebUI

    python webui/webui_server.py –port=8000 –model-path=/data –model-type=falcon

如何使用ChatGLM API进行模型推理

  1. 获取服务访问地址和Token。

    1. 进入PAI-EAS 模型在线服务页面,详情请参见部署ChatGLM模型服务。

    2. 在该页面中单击目标服务名称进入服务详情页面。

    3. 基本信息区域单击查看调用信息,在公网地址调用页签获取服务Token和访问地址。

  2. 启动API进行模型推理。

    使用HTTP方式调用服务

    • 非流式调用

      客户端使用标准的HTTP格式,使用curl命令调用时,支持发送以下两种类型的请求:

      • 发送String类型的请求

        curl $host -H 'Authorization: $authorization' --data-binary @chatllm_data.txt -v

        其中:$authorization需替换为服务Token,$host:需替换为服务访问地址,chatllm_data.txt:该文件为包含问题的纯文本文件。

      • 发送结构化类型的请求

        curl $host -H 'Authorization: $authorization' -H "Content-type: application/json" --data-binary @chatllm_data.json -v -H "Connection: close"

        使用chatllm_data.json文件来设置推理参数,chatllm_data.json文件的内容格式如下:

        {
            "max_new_tokens": 4096,
            "use_stream_chat": false,
            "prompt": "How to install it?",
            "system_prompt": "Act like you are programmer with 5+ years of experience."
            "history": [
                [
                    "Can you tell me what's the bladellm?",
                    "BladeLLM is an framework for LLM serving, integrated with acceleration techniques like quantization, ai compilation, etc. , and supporting popular LLMs like OPT, Bloom, LLaMA, etc."
                ]
            ],
            "temperature": 0.8,
            "top_k": 10,
            "top_p": 0.8,
            "do_sample": True,
            "use_cache": True,
        }

        参数说明如下,请酌情添加与删减。

        参数

        描述

        默认值

        max_new_tokens

        生成输出token的最大长度,单位为个。

        2048

        use_stream_chat

        是否使用流式输出形式。

        True

        prompt

        用户的Prompt。

        “”

        system_prompt

        系统Prompt。

        “”

        history

        对话的历史记录,类型为List[Tuple(str, str)]。

        [()]

        temperature

        用于调节模型输出结果的随机性,值越大随机性越强,0值为固定输出。Float类型,区间为0~1。

        0.95

        top_k

        从生成结果中选择候选输出的数量。

        30

        top_p

        从生成结果中按百分比选择输出结果。Float类型,区间为0~1。

        0.8

        do_sample

        开启输出采样。

        True

        use_cache

        开启kv cache。

        True

      您也可以基于Python的requests包实现自己的客户端,示例代码如下:

      import argparse
      import json
      from typing import Iterable, List
      
      import requests
      
      def post_http_request(prompt: str,
                            system_prompt: str,
                            history: list,
                            host: str,
                            authorization: str,
                            max_new_tokens: int = 2048,
                            temperature: float = 0.95,
                            top_k: int = 1,
                            top_p: float = 0.8,
                            langchain: bool = False,
                            use_stream_chat: bool = False) -> requests.Response:
          headers = {
              "User-Agent": "Test Client",
              "Authorization": f"{authorization}"
          }
          if not history:
              history = [
                  (
                      "San Francisco is a",
                      "city located in the state of California in the United States. \
                      It is known for its iconic landmarks, such as the Golden Gate Bridge \
                      and Alcatraz Island, as well as its vibrant culture, diverse population, \
                      and tech industry. The city is also home to many famous companies and \
                      startups, including Google, Apple, and Twitter."
                  )
              ]
          pload = {
              "prompt": prompt,
              "system_prompt": system_prompt,
              "top_k": top_k,
              "top_p": top_p,
              "temperature": temperature,
              "max_new_tokens": max_new_tokens,
              "use_stream_chat": use_stream_chat,
              "history": history
          }
          if langchain:
              print(langchain)
              pload["langchain"] = langchain
          response = requests.post(host, headers=headers,
                                   json=pload, stream=use_stream_chat)
          return response
      
      def get_response(response: requests.Response) -> List[str]:
          data = json.loads(response.content)
          output = data["response"]
          history = data["history"]
          return output, history
      
      if __name__ == "__main__":
          parser = argparse.ArgumentParser()
          parser.add_argument("--top-k", type=int, default=4)
          parser.add_argument("--top-p", type=float, default=0.8)
          parser.add_argument("--max-new-tokens", type=int, default=2048)
          parser.add_argument("--temperature", type=float, default=0.95)
          parser.add_argument("--prompt", type=str, default="How can I get there?")
          parser.add_argument("--langchain", action="store_true")
      
          args = parser.parse_args()
      
          prompt = args.prompt
          top_k = args.top_k
          top_p = args.top_p
          use_stream_chat = False
          temperature = args.temperature
          langchain = args.langchain
          max_new_tokens = args.max_new_tokens
      
          host = "EAS服务公网地址"
          authorization = "EAS服务公网Token"
      
          print(f"Prompt: {prompt!r}
      ", flush=True)
          # 在客户端请求中可设置语言模型输入中的system prompt
          system_prompt = "Act like you are programmer with \
                      5+ years of experience."
      
          # 客户端请求中可设置对话的历史信息,客户端维护当前用户的对话记录,用于实现多轮对话。通常情况下可以使用上一轮对话返回的histroy信息,history格式为List[Tuple(str, str)]
          history = []
          response = post_http_request(
              prompt, system_prompt, history,
              host, authorization,
              max_new_tokens, temperature, top_k, top_p,
              langchain=langchain, use_stream_chat=use_stream_chat)
          output, history = get_response(response)
          print(f" --- output: {output} 
       --- history: {history}", flush=True)
      
      # 服务端返回结果为json,包含推理结果与对话历史
      def get_response(response: requests.Response) -> List[str]:
          data = json.loads(response.content)
          output = data["response"]
          history = data["history"]
          return output, history

      其中:

      • host:配置为服务访问地址。

      • authorization:配置为服务Token。

    • 流式调用

      流式调用使用HTTP SSE方式,其他设置方式与非流式相同,代码参考如下:

      import argparse
      import json
      from typing import Iterable, List
      
      import requests
      
      
      def clear_line(n: int = 1) -> None:
          LINE_UP = '\033[1A'
          LINE_CLEAR = '[2K'
          for _ in range(n):
              print(LINE_UP, end=LINE_CLEAR, flush=True)
      
      
      def post_http_request(prompt: str,
                            system_prompt: str,
                            history: list,
                            host: str,
                            authorization: str,
                            max_new_tokens: int = 2048,
                            temperature: float = 0.95,
                            top_k: int = 1,
                            top_p: float = 0.8,
                            langchain: bool = False,
                            use_stream_chat: bool = False) -> requests.Response:
          headers = {
              "User-Agent": "Test Client",
              "Authorization": f"{authorization}"
          }
          if not history:
              history = [
                  (
                      "San Francisco is a",
                      "city located in the state of California in the United States. \
                      It is known for its iconic landmarks, such as the Golden Gate Bridge \
                      and Alcatraz Island, as well as its vibrant culture, diverse population, \
                      and tech industry. The city is also home to many famous companies and \
                      startups, including Google, Apple, and Twitter."
                  )
              ]
          pload = {
              "prompt": prompt,
              "system_prompt": system_prompt,
              "top_k": top_k,
              "top_p": top_p,
              "temperature": temperature,
              "max_new_tokens": max_new_tokens,
              "use_stream_chat": use_stream_chat,
              "history": history
          }
          if langchain:
              print(langchain)
              pload["langchain"] = langchain
          response = requests.post(host, headers=headers,
                                   json=pload, stream=use_stream_chat)
          return response
      
      
      def get_streaming_response(response: requests.Response) -> Iterable[List[str]]:
          for chunk in response.iter_lines(chunk_size=8192,
                                           decode_unicode=False,
                                           delimiter=b"\0"):
              if chunk:
                  data = json.loads(chunk.decode("utf-8"))
                  output = data["response"]
                  history = data["history"]
                  yield output, history
      
      
      if __name__ == "__main__":
          parser = argparse.ArgumentParser()
          parser.add_argument("--top-k", type=int, default=4)
          parser.add_argument("--top-p", type=float, default=0.8)
          parser.add_argument("--max-new-tokens", type=int, default=2048)
          parser.add_argument("--temperature", type=float, default=0.95)
          parser.add_argument("--prompt", type=str, default="How can I get there?")
          parser.add_argument("--langchain", action="store_true")
          args = parser.parse_args()
      
          prompt = args.prompt
          top_k = args.top_k
          top_p = args.top_p
          use_stream_chat = True
          temperature = args.temperature
          langchain = args.langchain
          max_new_tokens = args.max_new_tokens
      
          host = ""
          authorization = ""
      
          print(f"Prompt: {prompt!r}
      ", flush=True)
          system_prompt = "Act like you are programmer with \
                      5+ years of experience."
          history = []
          response = post_http_request(
              prompt, system_prompt, history,
              host, authorization,
              max_new_tokens, temperature, top_k, top_p,
              langchain=langchain, use_stream_chat=use_stream_chat)
      
          for h, history in get_streaming_response(response):
              print(
                  f" --- stream line: {h} 
       --- history: {history}", flush=True)
      

      其中:

      • host:配置为服务访问地址。

      • authorization:配置为服务Token。

    使用WebSocket方式调用服务

    为了更好地维护用户对话信息,您也可以使用WebSocket方式保持与服务的连接完成单轮或多轮对话,代码示例如下:

    import os
    import time
    import json
    import struct
    from multiprocessing import Process
    
    import websocket
    
    round = 5
    questions = 0
    
    
    def on_message_1(ws, message):
        if message == "":
            print('pid-{} timestamp-({}) receives end message: {}'.format(os.getpid(),
                  time.time(), message), flush=True)
            ws.send(struct.pack('!H', 1000), websocket.ABNF.OPCODE_CLOSE)
        else:
            print("{}".format(time.time()))
            print('pid-{} timestamp-({}) --- message received: {}'.format(os.getpid(),
                  time.time(), message), flush=True)
    
    
    def on_message_2(ws, message):
        global questions
        print('pid-{} --- message received: {}'.format(os.getpid(), message))
        # end the client-side streaming
        if message == "":
            questions = questions + 1
            if questions == 5:
                ws.send(struct.pack('!H', 1000), websocket.ABNF.OPCODE_CLOSE)
    
    
    def on_message_3(ws, message):
        print('pid-{} --- message received: {}'.format(os.getpid(), message))
        # end the client-side streaming
        ws.send(struct.pack('!H', 1000), websocket.ABNF.OPCODE_CLOSE)
    
    
    def on_error(ws, error):
        print('error happened: ', str(error))
    
    
    def on_close(ws, a, b):
        print("### closed ###", a, b)
    
    
    def on_pong(ws, pong):
        print('pong:', pong)
    
    # stream chat validation test
    def on_open_1(ws):
        print('Opening Websocket connection to the server ... ')
        params_dict = {}
        params_dict['prompt'] = """Show me a golang code example: """
        params_dict['temperature'] = 0.9
        params_dict['top_p'] = 0.1
        params_dict['top_k'] = 30
        params_dict['max_new_tokens'] = 2048
        params_dict['do_sample'] = True
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        # raw_req = f"""To open a Websocket connection to the server: """
    
        ws.send(raw_req)
        # end the client-side streaming
    
    
    # multi-round query validation test
    def on_open_2(ws):
        global round
        print('Opening Websocket connection to the server ... ')
        params_dict = {"max_new_tokens": 6144}
        params_dict['temperature'] = 0.9
        params_dict['top_p'] = 0.1
        params_dict['top_k'] = 30
        params_dict['use_stream_chat'] = True
        params_dict['prompt'] = "您好!"
        params_dict = {
            "system_prompt":
            "Act like you are programmer with 5+ years of experience."
        }
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        ws.send(raw_req)
        params_dict['prompt'] = "请使用Python,编写一个排序算法"
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        ws.send(raw_req)
        params_dict['prompt'] = "请转写成java语言的实现"
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        ws.send(raw_req)
        params_dict['prompt'] = "请介绍一下你自己?"
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        ws.send(raw_req)
        params_dict['prompt'] = "请总结上述对话"
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        ws.send(raw_req)
    
    
    # Langchain validation test.
    def on_open_3(ws):
        global round
        print('Opening Websocket connection to the server ... ')
    
        params_dict = {}
        # params_dict['prompt'] = """To open a Websocket connection to the server: """
        params_dict['prompt'] = """Can you tell me what's the MNN?"""
        params_dict['temperature'] = 0.9
        params_dict['top_p'] = 0.1
        params_dict['top_k'] = 30
        params_dict['max_new_tokens'] = 2048
        params_dict['use_stream_chat'] = False
        params_dict['langchain'] = True
        raw_req = json.dumps(params_dict, ensure_ascii=False).encode('utf8')
        ws.send(raw_req)
    
    
    authorization = ""
    host = "ws://" + ""
    
    
    def single_call(on_open_func, on_message_func, on_clonse_func=on_close):
        ws = websocket.WebSocketApp(
            host,
            on_open=on_open_func,
            on_message=on_message_func,
            on_error=on_error,
            on_pong=on_pong,
            on_close=on_clonse_func,
            header=[
                'Authorization: ' + authorization],
        )
    
        # setup ping interval to keep long connection.
        ws.run_forever(ping_interval=2)
    
    
    if __name__ == "__main__":
        for i in range(5):
            p1 = Process(target=single_call, args=(on_open_1, on_message_1))
            p2 = Process(target=single_call, args=(on_open_2, on_message_2))
            p3 = Process(target=single_call, args=(on_open_3, on_message_3))
    
            p1.start()
            p2.start()
            p3.start()
    
            p1.join()
            p2.join()
            p3.join()

    其中:

    • authorization:配置为服务Token。

    • host:配置为服务访问地址。并将访问地址中前端的http替换为ws

    • use_stream_chat:通过该请求参数来控制客户端是否为流式输出。默认值为True,表示服务端返回流式数据。

    • 参考上述示例代码中的on_open_2函数的实现方法实现多轮对话。

如何配置更多参数?

运行命令中支持配置的参数如下:

参数

描述

默认值

–model-path

设置预置模型名或自定义模型路径。

  • 示例1:加载预置模型,您可以使用EAS预置的meta-llama/Llama-2-*系列模型(包括:7b-hf,7b-chat-hf,13b-hf,13b-chat-hf等)。例如

    python webui/webui_server.py --port=8000 --model-path=meta-llama/Llama-2-7b-chat-hf

  • 示例2:加载本地自定义模型,例如

    python webui/webui_server.py --port=8000 --model-path=/llama2-7b-chat

服务的默认模型为meta-llama/Llama-2-7b-chat-hf。

–cpu

如需使用CPU完成模型推理可使用此命令行参数。

例如:python webui/webui_server.py --port=8000 --cpu

默认使用GPU做模型推理。

–precision

设置llama2模型的精度:支持使用fp32、fp16等精度,例如python webui/webui_server.py --port=8000 --precision=fp32

系统根据GPU显存大小自动配置7b模型使用的精度。

–port

指定WebUI服务的监听端口。

示例:python webui/webui_server.py --port=8000

8000

–api-only

仅使用API方式启动服务。默认情况下,部署服务会同时启动WebUI与API Server。

示例:python webui/webui_server.py --api-only

False

–no-api

仅使用WebUI方式启动服务。默认情况下,部署服务会同时启动WebUI与API Server。

示例:python webui/webui_server.py --no-api

False

–max-new-tokens

生成输出token的最大长度,单位为个。

示例:python api/api_server.py --port=8000 --max-new-tokens=1024

2048

–temperature

用于调节模型输出结果的随机性,值越大随机性越强,0值为固定输出。Float类型,区间为0~1。

示例:python api/api_server.py --port=8000 --max_length=0.8

0.95

–max_round

推理时可支持的历史对话轮数。

示例:python api/api_server.py --port=8000 --max_round=10

5

–top_k

从生成结果中按百分比选择输出结果。Float类型,区间为0~1。

示例:python api/api_server.py --port=8000 --top_p=0.9

None

–top_p

从生成结果中按百分比选择输出结果。Float类型,区间为0~1。

示例:python api/api_server.py --port=8000 --top_p=0.9

None

–no-template

llama2、falcon等模型会提供默认的Prompt模板,您可以通过设置该参数来选择管理默认的Prompt模板。

示例:python api/api_server.py --port=8000 --no-template

默认使用模板

–log-level

选择日志输出等级,日志等级分为DEBUG、INFO、WARNING和ERROR。

示例:python api/api_server.py --port=8000 --log-level=DEBUG

INFO

–export-history-path

Eas llm服务支持后台导出对话记录。启动服务时,需要通过命令行参数指定导出路径。通常情况下,该路径是一个OSS的挂载路径。EAS服务会将1小时内的对话记录导出在一个文件中。

示例:python api/api_server.py --port=8000 --export-history-path=/your_mount_path

默认不开启

–export-interval

设置倒数记录的时间周期,单位为秒。例如,设置--export-interval=3600时,表示将最近1小时的对话记录导入到一个文件中。

3600

内容没看懂? 不太想学习?想快速解决? 有偿解决: 联系专家

阿里云企业补贴进行中: 马上申请

腾讯云限时活动1折起,即将结束: 马上收藏

同尘科技为腾讯云授权服务中心。

购买腾讯云产品享受折上折,更有现金返利:同意关联,立享优惠

转转请注明出处:https://www.yunxiaoer.com/165267.html

(0)
上一篇 2023年12月10日 上午7:16
下一篇 2023年12月10日
详情页2

相关推荐

  • 阿里云人工智能平台PAI示例代码-云淘科技

    本文为您介绍PAI-EAS的服务调用示例和Python SDK。 PAI-EAS相关的示例代码都可以从GitHub官网获取。 服务调用示例(Python) 支持通过公网地址或VPC内网地址调用服务(简单的HTTP调用),服务请求的输入输出数据格式均由部署服务的Processor指定。通过公网地址或VPC内网地址调用,接口使用的鉴权方式不同。PAI-EAS提供…

    阿里云人工智能平台PAI 2023年12月10日
  • 阿里云人工智能平台PAI准备工作-云淘科技

    您可以通过客户端工具管理DLC中的数据和任务。在使用客户端工具之前,您需要下载客户端并进行用户认证。本文介绍下载客户端及进行用户认证的命令详情。 下载客户端工具 您可以通过以下链接下载适合的客户端工具: 下载Linux 64版本的客户端 下载Mac版本的客户端 下载Mac(ARM)版本的客户端 下载后的客户端工具无需安装,您只需要执行chmod +x dlc…

    阿里云人工智能平台PAI 2023年12月10日
  • 信息流广告,信息流部分建议宽度830px,只针对默认列表样式,顺序随机
  • 阿里云人工智能平台PAI服务部署:自定义镜像-云淘科技

    在模型服务开发过程中,通常会有较为复杂的业务逻辑,无法通过简单的模型部署的方式实现复杂的业务需求。同时自定义的推理代码对于环境也有较为复杂的依赖,比如需要通过yum install/apt-get install在系统目录中安装依赖包等,因此EAS推出了使用自定义镜像的方式来部署模型服务。您可以使用docker镜像来构建自己完整的运行环境,并通过服务存储挂载…

    阿里云人工智能平台PAI 2023年12月10日
  • 阿里云人工智能平台PAI产品架构-云淘科技

    本文为您介绍PAI的产品架构。 如上图所示,PAI的业务架构分为五层: 基础设施层:包括CPU、GPU、FPGA及NPU。 计算引擎和容器服务层:包括MaxCompute、EMR、实时计算等计算引擎及容器服务ACK。 计算框架层:包括Alink、TensorFlow、PyTorch、Caffe、MapReduce、SQL及MPI等计算框架,用于执行分布式计算…

    阿里云人工智能平台PAI 2023年12月10日
  • 阿里云人工智能平台PAI过滤与映射-云淘科技

    过滤与映射组件可以对数据按照过滤表达式进行筛选,并且您可以修改输出字段名称。 组件配置 您可以使用以下任意一种方式,配置过滤与映射组件参数。 方式一:可视化方式 在Designer(原PAI-Studio)工作流页面配置组件参数。 参数 描述 选择字段 选择要筛选的列,默认选择全部列。也可以修改输出字段名称。 过滤条件 通过where条件实现数据过滤,与SQ…

    阿里云人工智能平台PAI 2023年12月10日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
本站为广大会员提供阿里云、腾讯云、华为云、百度云等一线大厂的购买,续费优惠,保证底价,买贵退差。