阿里云人工智能平台PAI
-
阿里云人工智能平台PAI5分钟操作EAS一键部署通义千问模型-云淘科技
本文为您介绍如何通过EAS一键部署基于开源模型通义千问的WebUI应用,以及使用WebUI和API进行模型推理。 背景信息 通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业…
-
阿里云人工智能平台PAIPAI+向量检索快速搭建大模型知识库对话-云淘科技
您可以使用向量检索库进行企业专属知识库的检索,并使用EAS进行AI语言大模型推理。同时,EAS还支持通过开源框架LangChain将两者有机结合,无缝集成到您的业务服务中,以获得更好的推理效果。文本为您介绍使用PAI和向量检索搭建大模型知识库对话的具体操作步骤。 背景信息 实现原理: LangChain是一个开源框架,使得AI开发人员能够将像通义千问这样的大…
-
阿里云人工智能平台PAILlama2-WebUI基于EAS的一键部署-云淘科技
本文为您介绍如何通过EAS一键部署基于开源模型Llama2的ChatLLM-WebUI应用和您自己微调训练获得的模型,以及如何启动WebUI和API进行模型推理。 背景信息 Llama2是由Meta开源的一个大语言模型,模型的参数范围从70亿到700亿不等,包括7b、13b、70b不同的版本。相比Llama1,Llama2的训练数据增加了40%,用了2万亿个…
-
阿里云人工智能平台PAI5分钟使用EAS一键部署ChatGLM及LangChain应用-云淘科技
本文为您介绍如何通过EAS一键部署ChatGLM的AI-Web应用以及启动WebUI进行模型推理,并通过LangChain集成自己的业务数据。 背景信息 随着ChatGPT和通义千问等大模型在业界的引爆,LLM大模型的推理应用成为当下最热门的应用之一。 ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于General Language Mod…
- 信息流广告,信息流部分建议宽度830px,只针对默认列表样式,顺序随机
-
阿里云人工智能平台PAI通义千问Qwen全托管灵骏最佳实践-云淘科技
本方案旨在帮助大模型开发者快速上手灵骏智算平台,实现大语言模型(Qwen-7B、Qwen-14B和Qwen-72B)的高效分布式训练、三阶段指令微调、模型离线推理和在线服务部署等完整的开发流程。以Qwen-7B模型为例,为您详细介绍该方案的开发流程。 前提条件 本方案以Qwen-7B v1.1.4版本的模型为例,在开始执行操作前,请确认您已经完成以下准备工作…
-
阿里云人工智能平台PAI使用TensorFlow实现图片分类-云淘科技
本文为您介绍如何使用深度学习框架TensorFlow,快速搭架图像识别的预测模型。 前提条件 已创建OSS Bucket,并完成了OSS授权,详情请参见控制台创建存储空间和云产品依赖与授权:Designer。 重要 创建Bucket时,不要开通版本控制,否则可能导致训练失败。 已开启GPU,详情请参见MaxCompute资源。 背景信息 随着互联网发展,产生…
-
阿里云人工智能平台PAI模型仓库(FastNN)-云淘科技
PAI模型仓库FastNN(Fast Neural Networks)是一个基于PAISoar的分布式神经网络仓库。目前FastNN已经支持了Inception、Resnet、VGG等经典算法,后续会逐步开放更多的先进模型。目前FastNN已经内置于PAI-Studio平台中,并且可以直接在该平台中使用。 准备数据源 为了方便在PAI控制台上试用FastNN…
-
阿里云人工智能平台PAI使用TensorFlow实现分布式DeepFM算法-云淘科技
本文为您介绍如何使用TensorFlow实现分布式DeepFM算法。 前提条件 开通OSS,并创建Bucket,详情请参见开通OSS服务和创建存储空间。 注意 创建Bucket时,不要开通版本控制,否则同名文件无法覆盖。 完成OSS访问授权,详情请参见云产品依赖与授权:Designer。 背景信息 DeepFM算法对应Wide&Deep部分,且将LR…
-
阿里云人工智能平台PAIBERT模型优化案例:使用Blade优化基于TensorFlow的BERT模型-云淘科技
BERT(Bidirectional Encoder Representation from Transformers)是一个预训练的语言表征模型。作为NLP领域近年来重要的突破,BERT模型在多个自然语言处理的任务中取得了最优结果。然而BERT模型存在巨大的参数规模和计算量,因此实际生产中对该模型具有强烈的优化需求。本文主要介绍如何使用Blade优化通过T…
-
阿里云人工智能平台PAIRetinaNet优化案例3:结合Blade和TensorRT Plugin优化模型-云淘科技
大部分PyTorch用户会使用TensorRT Plugin实现检测模型的后处理部分,以支持整个模型导出到TensorRT。Blade拥有良好的可扩展性,如果您已经自己实现了TensorRT Plugin,也可以结合Blade协同优化。本文介绍如何使用Blade对已经实现了TensorRT Plugin机制的检测模型进行优化。 背景信息 TensorRT是N…