乾元大模型

超对称技术研发的跨模态大模型,聚焦金融与科学计算核心场景

  • 分类:大模型
  • 标签:CN
  • 收录:2025-12-23
  • 访问:
  • 更新:2025-12-23

Big Bang Transformer(简称 BBT,乾元)是超对称技术公司开发的跨模态预训练大模型,现有 Base(2.2 亿参数)、Large(10 亿参数)及 BBT-Neutron 等版本。其以 T5 Encoder+Decoder 架构为基础,创新融合文本与时序数据双模态训练,依托 800 亿 Token 的 BBTCorpus 金融语料库及二进制分词技术,实现对数值、文本、图像多类型数据的统一理解。模型下游任务准确率较同级别 T5 提升近 10%,时序预测 R2 score 大幅优化,已在金融量化、粒子物理等领域落地,获 “东数西算” 项目算力支持。

乾元大模型官网 - 截图

核心优势

  • 跨模态能力突出:首创时序 - 文本联合训练架构,可识别数字变化并转化为自然语言分析,突破通用模型 “读不懂数字” 的局限。

  • 领域数据夯实:金融领域拥有 800 亿 Token 的 BBTCorpus 语料库,覆盖 20 年财经新闻、财报等,科学计算领域适配粒子对撞等实验数据。

  • 技术创新领先:提出 Similarity Sampling 采样算法与 Source Prompt 提示方法,模型准确率最高提升 3.21%;BBT-Neutron 采用二进制分词,实现多模态数据统一表示。

  • 场景落地性强:兼顾金融、科学计算等严肃领域需求,性能与专业模型持平(如粒子分类准确率达 SOTA),支持私有化部署与行业定制。

亮点功能

  • 金融时序分析:可挖掘量化投资因子、生成多因子策略,实时解读财经资讯并生成可视化分析报告,辅助投资决策。

  • 科学计算适配:BBT-Neutron 能处理粒子对撞、核聚变等实验数据,在喷注来源识别(JoI)任务中性能比肩专业 GNN 模型。

  • 智能提示优化:通过 Source Prompt 标注语料来源,结合 Similarity Sampling 加权采样,大幅提升下游任务精准度。

  • 多模态统一处理:支持文本、数值、图像数据联合输入,输出分类、回归、生成等多样化结果,适配复杂行业需求。

应用场景

  • 金融量化投资:挖掘市场因子、构建多因子策略,实时分析股价、宏观经济等时序数据,生成投资分析报告。

  • 科学实验研究:辅助粒子物理对撞数据分析、核聚变实验监测、钙钛矿太阳能研发等,加速科研成果转化。

  • 工业智能分析:处理物联网设备时序数据,实现设备故障预测、生产流程优化,如石油化工、储能领域的参数监控。

  • 智能内容生成:自动撰写财经新闻、行业研报、商业文案,支持多语种输出,适配媒体、企业宣传场景。

  • 客户服务升级:构建金融、科技领域智能客服,7×24 小时解答业务咨询,自动整理用户诉求并生成工单。

技术价值

  • 打破领域技术壁垒:首次实现通用大模型在金融时序分析与科学计算场景的高性能落地,为跨领域 AI 应用提供范式。

  • 降低行业应用门槛:开源 BBT-FinCUGE 评测数据集与 BBT-Neutron 模型,助力中小企业与科研机构低成本获取先进 AI 能力。

  • 推动 AGI 技术演进:通过跨模态架构与科学计算适配,验证通用模型处理物理世界复杂问题的可行性,为 AGI 产业落地奠定基础。

  • 赋能产业数字化转型:在金融、科研、工业等领域释放数据价值,提升决策效率,如量化投资因子挖掘效率提升 30% 以上。

关键词:Big Bang Transformer,乾元大模型,BBT 大模型,金融预训练模型,科学计算大模型,跨模态大模型,BBT-Neutron,BBTCorpus,量化投资 AI,粒子物理数据分析

相关推荐