孟子预训练模型是基于团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
类似的工具

TigerBot
以世界级的基础大模型,贡献于中国式的创新。

乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

MiniMax开放平台
MiniMax新一代通用大模型

阿里·通义千问
一个专门响应人类指令的大模型

曹植GPT大语言模型
可内置在客户各类业务系统中提供专用服务

阅文妙笔大模型
全面探索有声、漫画、动画、衍生等开发链条的AI应用。
其他人也看的工具

convai
对话式 AI API,用于语音识别、语言理解和生成,以及用于设计游戏和支持语音的应用程序的文本转语音。

比格AI PPT
输入主题,1分钟生成PPT,支持一键换模板。

Fireflies.ai
Fireflies.ai会议转录和纪要生成

互联网信息服务算法备案系统
互联网信息服务算法备案系统

Generative BI
以前所未有的速度做出数据驱...