孟子预训练模型是基于团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
类似的工具

BenTsao本草
中文医学知识的大语言模型

阿里·通义千问
一个专门响应人类指令的大模型

轩辕大模型
国内首个开源的千亿级中文对话大模型

书生
定义任意任务和轻量级自适应融合

TigerBot
以世界级的基础大模型,贡献于中国式的创新。

ChatLaw-法律大模型
促进LLM在法律甚至其他垂直应用落地
其他人也看的工具

MiracleVision奇想智能
一款懂美学的AI视觉大模型

TigerBot
以世界级的基础大模型,贡献于中国式的创新。

OpenBMB
可商业化使用的中英文双语基础模型

书生
定义任意任务和轻量级自适应融合

ChatGLM千亿对话模型
面向高校学术交流与行业合作的试用申请

SparkDesk讯飞星火认知大模型
从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的全流程闭环。