关键词:提示学习,P-Tuning,BERT,GPT2 前言 P-tuning v2是清华团队在P-tuning基础上提出的一种提示微调大模型方法,它旨在解决提示学习在小尺寸...
IP属地:江苏
关键词:提示学习,P-Tuning,BERT,GPT2 前言 P-tuning v2是清华团队在P-tuning基础上提出的一种提示微调大模型方法,它旨在解决提示学习在小尺寸...
关键词:提示学习,P-Tuning,BERT,GPT2 前言 P-Tuning是清华团队提出的一种使用提示学习微调大模型的方法,它提出自适应学习的连续提示模板,来解决人工自然...
前言 在前文《AI模型部署:Triton Inference Server部署ChatGLM3-6B实践》中介绍了使用Triton+Python后端部署ChatGLM3-6B...
关键词:提示学习,Prompt,BERT,GPT2 前言 提示学习(Prompt-Based Learning)不同于传统的监督学习,它直接利用在大量原始语料上训练的到的预训...
关键词:Text2SQL,BERT 前言 Text2SQL是指将自然语言转化为类SQL查询语句,使得用户的查询文本可以直接实现和数据库交互,本文介绍一种以BERT为基础模型,...
关键词:Triton,TensorRT,Bert 前言 本篇介绍以Triton作为推理服务器,TensorRT作为推理后端,部署句嵌入向量模型m3e-base的工程方案和实现...
关键词:LangChain,文本分割器 前言 文本分割器是LangChain中一个重要组建,海量的文档需要基于文本分割策略进行处理从而与大模型的各个功能模块进行交互,本篇介绍...
关键词:Triton,ChatGLM 前言 在之前的篇章《AI模型部署:一文搞定Triton Inference Server的常用基础配置和功能特性》,《AI模型部署:Tr...