如何快速部署和体验内置开源LLM大模型

LLM大模型调试指南。

本篇文章将为您介绍如何通过腾讯云TI-ONE平台,一键部署开源大模型,快速试一试模型推理效果,助力用户快速选型适合您业务场景的开源大模型。


01.
预览TI内置大模型清单


登录腾讯云TI平台 ,在大模型精调首页,您可看到 TI 平台内置上架的开源大模型清单列表。

单击模型卡片,可进入每个模型页面查看详细介绍。


02.
一键部署开源大模型


在模型详情页面,您可单击新建在线服务按钮,启动部署该大模型。本文档以部署“Llama3系列模型”中的llama_3_8b_chat模型为例。

单击后,平台会自动为您跳转到模型服务 > 在线服务的创建服务参数配置页面。

本页面重点参数配置如下:(其余参数都可使用默认值,不修改或按需修改)
  • 服务名称:输入您的自定义服务名称。

  • 计费模式:部署大模型推理服务支持“按量计费”和“包年包月”两种模式都可以。本示例采用“按量计费”。

  • 服务实例

    • 模型来源:选择 “镜像”类型。

    • 模型和运行环境:系统已为您内置默认填充了“内置大模型/Llama3系列模型/llama_3_8b_chat”,也可选择其他内置模型,如Llama3系列下的llama_3_8b、llama_3_70b_chat、llama_3_70b等。

    • 算力规格:本示例选择 12C44GB A10*1 的机器配置,此外还支持V100、A100等机型。

  • 单击同意开源大模型的相关法律协议后,即可单击启动服务按钮。

03.
在线体验模型效果


创建服务后,前端自动返回模型服务 > 在线服务列表页面,待大模型服务状态为“运行中”中后,表示服务已成功启动运行。

服务调用分为两种方式:
1. API 调用
您可以通过单击操作 > 调用API 按钮进入模型调用指导文档页面。文档中建议您通过API Explorer 配置调用代码。
其中,需填写到 API Explorer 的“Model”参数取值需参考在线服务>名称>服务管理页面展示的“ ID”参数。

2. 在线体验
您可以通过单击操作 > 在线体验 按钮进入模型快速体验页面。您可通过前端页面问答形式测试精调后的模型效果。


04.
管理模型服务,查看更多详细信息


您还能通过模型服务 > 在线服务列表页面单击对应服务名称进入详细的服务管理页面。

您可通过服务管理页面的操作 > 停止/重启按钮控制服务状态,并通过单击“服务详情”的 icon 查看监控/日志;
也可以继续单击服务名称查看更详细的基本信息/实例列表/监控/事件/日志/更新记录等信息。

关于腾讯云TI-ONE平台
腾讯云TI-ONE 训练平台是为 AI 工程师打造的一站式机器学习平台,为用户提供从数据接入、模型训练、模型管理到模型服务的全流程开发支持。TI-ONE平台支持多种训练方式和算法框架,满足不同 AI 应用场景的需求。


(文:智东西)

欢迎分享

发表评论