您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能开发者 正文
发私信给郑佳美
发送

0

独家丨MiniMax 高级研究总监钟怡然已于半年前离职

本文作者: 郑佳美   2025-10-28 18:06
导语:曾主导设计 MiniMax-01,让百万级长文本只用 1/2700 算力。

雷峰网(公众号:雷峰网) AI 科技评论独家获悉,MiniMax 高级研究总监钟怡然已离职,具体去向暂未公开。

据公开资料显示,钟怡然博士毕业于澳大利亚国立大学,师从李宏东教授与 Richard Hartley 院士。并曾在国际权威期刊及顶级学术会议上累计发表了 40 余篇研究论文,涵盖 TPAMI、IJCV、IEEE TIP、CVPR、NeurIPS、ECCV、ICCV、ICLR、EMNLP 等领域,且持有多项美国专利。

钟怡然的科研成果在学术界与产业界都受到了广泛关注,相关论文累计被引用近 2000 次。还曾获的 2023 年 ICCV Workshop 最佳论文奖以和 2014 年 ICIP 最佳学生论文奖。

博士毕业后,钟怡然于 2021 年加入商汤科技,担任高级经理,负责大语言模型、多轮对话及多模态融合方向的研究。随后在 2022 年,以青年科学家的身份加入上海人工智能实验室,担任新架构探索组的 PI,OpenNLPLab负责人,专注于高效的大语言模型和视听语言多模态融合。

2023 年底,钟怡然在 MiniMax 就大模型的高效架构方向提出构想,与研发团队共同推进线性注意力机制在大规模语言模型中的应用。

2024 年,团队正式启动 MiniMax-01 项目,由钟怡然担任项目负责人,全面主导模型的架构设计与研发工作。经过近一年的迭代与优化,MiniMax 于 2025 年初正式发布基于 Lightning Attention 架构的 MiniMax-01 模型。

该模型一经推出便在业界引发广泛关注,被普遍认为是一款具有突破性意义的大语言模型。MiniMax-01 在超长上下文处理能力方面表现尤为突出,采用团队自主研发的 Lightning Attention 架构,通过线性或近线性注意力机制,大幅提升了模型在长序列输入下的计算效率与可扩展性,有效突破了传统 Transformer 在复杂度上的性能瓶颈。

总体而言,业内普遍认为 MiniMax-01 在大模型的架构创新与效率优化方面走出了一条独特路径,代表了“高效长上下文建模”方向的重要技术进展。

作为成就这一成果的核心人物之一,钟怡然在项目中发挥了关键作用。他带领团队完成了从理论创新到工程落地的全过程,推动 Lightning Attention 成为业内关注的焦点,为 MiniMax 的技术体系奠定了基础。

对此 MiniMax 回应雷峰网 AI 科技评论,“钟怡然已于半年前离职,此前只参与 M1 部分研发工作,祝福他未来有更好发展。”

雷峰网原创文章,未经授权禁止转载。详情见转载须知

独家丨MiniMax 高级研究总监钟怡然已于半年前离职

分享:
相关文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说