大模型高效微调新突破,奇富科技PrAd框架入选EMNLP 2025

19812025-08-27 10:17:20TechWeb.com.cn

8月27日消息,近日,奇富科技在大模型高效参数微调领域的最新研究成果PrAd: Prompt Adaptive Tuning for Decoder-only Language Models被国际顶级NLP学术会议EMNLP 2025 Findings收录。这意味着中国科技企业在人工智能基础研究方面再次获得国际学术界的认可。

EMNLP(Conference on Empirical Methods in Natural Language Processing)是自然语言处理(NLP)领域最顶级、最具影响力的国际学术会议之一,与ACL和NAACL共同构成NLP领域的“三大顶会”。其以极严的评审流程、极低的录取比例著称,是全球NLP研究者发布成果、交流思想的首选平台。此次奇富科技的研究成果被 EMNLP 2025 收录,标志着公司在人工智能基础研究与技术创新方面持续取得重要进展。

随着大语言模型在各实际业务场景中广泛落地,如何高效、低成本地实现多任务适配成为行业共性难题。传统的全参数微调方法虽效果显著,但计算和存储成本极高;而现有的参数高效微调方法如Prompt Tuning和Adapter Tuning等,仍存在训练不稳定、推理延迟高、序列膨胀等局限。

为解决这些痛点,奇富科技研究团队提出了一种面向Decoder-only架构大模型的全新微调框架PrAd。该方法创新性地将结构优化与推理流程深度融合,仅在预填充(Prefill)阶段引入轻量Adapter模块对提示进行特征变换,而在解码(Decoding)阶段则完全保持原始结构,不引入任何额外计算。

据介绍,PrAd框架在三个方面实现显著突破:

1、训练效率高:不增加输入长度,初始化简单,训练稳定性强,效果可比甚至超越主流基线;

2、推理高效:仅在第一个token生成时增加微小延迟,后续解码不引入额外开销,支持多任务共享批推理,实测速度在多任务场景下较LoRA提升最高超10倍;

3、运维成本大幅降低:Adapter管理规模和显存占用降幅可达50%,简化多任务模型的部署与批量推理流程。

实验结果表明,PrAd在六项多样化NLP任务上均取得了与最优方法相当或更优的表现,同时在推理效率和资源利用率方面展现出显著优势,尤其适用于金融领域常见的多任务、高并发、低延迟应用场景。

奇富科技首席算法科学家费浩峻表示:“PrAd不仅是一项技术突破,更是奇富‘科技赋能金融’理念的具体实践。我们致力于推动大模型在金融场景中的高效、可靠、规模化应用。”

AI 大牛吴恩达官宣加入亚马逊董事会

IT之家4月12日消息,亚马逊今日对外宣布,吴恩达加入亚马逊董事会,该任命从4月9日起生效。亚马逊表示,人工智能(AI),尤其是生成式人工智能,是这个时代最具变革性的创新之一。吴恩达博士是人工智能和教育领域的...

三星电子再加码人工智能 已同首尔大学建立联合研发中心

6月17日消息,据外媒报道,在新设北美AI中心管理在北美的人工智能研发实验室,整合在加拿大多伦多和加州山景城的研发设施,并聘请苹果前高管MuratAkbacak出任总监后,三星电子在人工智能方面又有了新的动向,已同首...

苹果布局本地AI开启“买买买”模式,去年12月收购法国Datakalab公司

4月23日消息,苹果公司继续通过“买买买”扩充其AI领域实力,近日披露文件显示已收购总部位于巴黎的人工智能初创公司Datakalab,以进一步推进本地AI能力。消息称这笔收购于去年12月17日敲定,此前一直没有相关的消息...

魅族将停止传统智能手机新项目 决定 All in AI

2月18日消息,据魅族官方微信公众号消息,魅族宣布AllinAI,将停止传统「智能手机」新项目,全力投入「明日设备」AIForNewGenerations。魅族表示,当前,随着全球手机市场换机周期延长、消费创新空间有限、行业恶性...

以人工智能助力高质量发展,三七互娱亮相广州高质量发展大会

“作为广州数字文化产业的代表,三七互娱积极作为,在‘国内’和‘海外’两大市场协同发力,持续推进‘人工智能+’技术与应用双升级。全力打造优质的数字文化产品,给全球用户带去文化享受;并积极探索新技术,深度...

上一篇:美国夫妻起诉OpenAI 指控ChatGPT帮助16岁儿子完成自杀
下一篇:寒武纪业绩大翻身,营收暴涨43倍,股价超1400元