GPT2

Langchain-Chatchat项目:2.1-通过GPT2模型来检索NebulaGraph

在官方例子中给出了通过chain = NebulaGraphQAChain.from_llm(ChatOpenAI(temperature=0), graph=graph, verbose=True)来检索NebulaGraph图数据库。本文介绍了通过GPT2替换ChatOpenAI的思路和实现,暂 ......

GPT2学习

import streamlit as st from transformers import GPT2LMHeadModel#, CpmTokenizer #from transformers.models.gpt2.modeling_gpt2 import GPT2LMHeadModel fro ......
GPT2 GPT

开启想象翅膀:轻松实现文本生成模型的创作应用,支持LLaMA、ChatGLM、UDA、GPT2等模型,开箱即用

# 开启想象翅膀:轻松实现文本生成模型的创作应用,支持LLaMA、ChatGLM、UDA、GPT2等模型,开箱即用 ![](https://ai-studio-static-online.cdn.bcebos.com/420ef751fe414329b48f3d747ca13b6690030ceff ......
模型 翅膀 文本 ChatGLM LLaMA

大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解

大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解 ......
模型 GPT GPT3 之间 理论

我用numpy实现了GPT-2,GPT-2源码,GPT-2模型加速推理,并且可以在树莓派上运行,读了不少hungging face源码,手动实现了numpy的GPT2模型

之前分别用numpy实现了mlp,cnn,lstm和bert模型,这周顺带搞一下GPT-2,纯numpy实现,最重要的是可在树莓派上或其他不能安装pytorch的板子上运行,生成数据 gpt-2的mask-multi-headed-self-attention我现在才彻底的明白它是真的牛逼,比ber ......
GPT 源码 树莓 模型 numpy

解密Prompt系列1. Tunning-Free Prompt:GPT2 & GPT3 & LAMA & AutoPrompt

借着ChatGPT的东风,我们来梳理下prompt范式的相关模型,你还以其他形式看到过prompt概念,例如Demonstration,Instruction,In-Context learning,few-shot learning等等~开篇我们简单介绍下Prompt范式,并以其中的冻结参数Tun... ......
Prompt amp Tunning-Free AutoPrompt GPT
共6篇  :1/1页 首页上一页1下一页尾页