生成式预训练变换器

这个模型是一个基于BERT架构的中文预训练模型。BERT,即双向编码器表示变换器,是一种流行的自然语言处理预训练模型。这个中文版模型在海量中文文本上进行了预训练,能够理解和生成中文语言。

💬 1+ Chats

Use This GPT

📝 Builder Details

👋 Welcome Message

💡 Prompt Starters

📊 GPT Features

📚 Browse Related GPTs

Home All GPTs Contact Us