关键词:提示学习,P-Tuning,BERT,GPT2 前言 P-tuning v2是清华团队在P-tuning基础上提出的一种提示微调大模型方...
关键词:提示学习,P-Tuning,BERT,GPT2 前言 P-Tuning是清华团队提出的一种使用提示学习微调大模型的方法,它提出自适应学习...
关键词:提示学习,Prompt,BERT,GPT2 前言 提示学习(Prompt-Based Learning)不同于传统的监督学习,它直接利用...
关键词:Text2SQL,BERT 前言 Text2SQL是指将自然语言转化为类SQL查询语句,使得用户的查询文本可以直接实现和数据库交互,本文...
关键词:Triton,Marker,Python 前言 在知识库场景下往往需要对PDF文档进行解析,从而能够通过RAG完成知识检索,本文介绍开源...
前言 在前文《AI模型部署:Triton Inference Server部署ChatGLM3-6B实践》中介绍了使用Triton+Python...
关键词:Triton,TensorRT,Bert 前言 本篇介绍以Triton作为推理服务器,TensorRT作为推理后端,部署句嵌入向量模型m...
关键词:LangChain,文本分割器 前言 文本分割器是LangChain中一个重要组建,海量的文档需要基于文本分割策略进行处理从而与大模型的...
关键词:Triton,ChatGLM 前言 在之前的篇章《AI模型部署:一文搞定Triton Inference Server的常用基础配置和功...