
BigBangTransformer[乾元]是基于GPTDecoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文2000亿tokens进行预训练。
模型开源后所有开发者可以:
1.可以直接调用大模型进行对话
2.在我们训练的基础上使用自由语料库继续训练
3.对大模型进行微调训练以满足各种下游任务
数据统计
数据评估
关于乾元BigBangTransformer特别声明
本站玉米导航提供的乾元BigBangTransformer都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由玉米导航实际控制,在2024年7月8日 下午5:23收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,玉米导航不承担任何责任。
相关导航

孟子预训练模型是基于团队自研的大规模预训练语言模型。

阿帕斯大模型
APUS大模型有独特的全球用户数据与高质量语料库

猎户星空大模型
百亿级模型SOTA,支持 32万 tokens 的上下文能够一次性接受并处理约 45 万汉字的输入内容准确提取关键信息。

商量-拟人
支持个性化角色创建与定制、知识库构建、长对话记忆、多人群聊等功能

可灵大模型
由快手智库团队潜心研发的可灵大模型,是一款创新的视频生成系统。

K2-上海交通大学
地球科学的开源大预言模型,首先在收集和清理过的地球科学文献(包括地球科学开放存取论文和维基百科页面)上对 LLaMA 进行进一步预训练,然后使用知识密集型指令调整数据(GeoSig...

华知大模型
由同方知网与华为强强联合打造的华知大模型,是一款针对知识服务和科研领域,以权威性和可信度为突出特点的内容平台。

封神榜-IDEA研究院
最大的开源预训练模型体系
暂无评论...