行情中心 沪深京A股 上证指数 板块行情 股市异动 股圈 专题 涨跌情报站 盯盘 港股 研究所 直播 股票开户 智能选股
九方投教基地
用户保护中心
投诉电话 021-20289058 转3
全球指数
数据中心 资金流向 龙虎榜 融资融券 沪深港通 比价数据 研报数据 公告掘金 新股申购 大宗交易 业绩速递 科技龙头指数

九方智投控股人工智能部门两篇论文被自然语言处理顶会 NAACL 2025 录用

2025-03-06 00:00

北美计算语言学协会年会(The North American Chapter of the Association for Computational Linguistics,NAACL)成立于1998年,每年举办一届,是自然语言处理和计算语言学领域的重要国际学术会议。会议涵盖的内容包括但不限于自然语言理解、语言生成、机器翻译、语音识别、文本挖掘、信息检索、语言资源建设、多模态交互、社会影响和伦理问题等前沿话题。近日,NAACL 2025公布了录用论文列表,九方智投控股(9636.HK)人工智能项目部共有两篇长文被录用。NAACL在中国计算机学会CCF推荐列表中认定为B类学术会议。本次会议将于2025年4月29日-5月4日在美国新墨西哥州阿尔伯克基举行,九方智投控股也将现场参会。

(图:NAACL2025官网会议宣传海报)

这两篇论文主要是聚焦大语言模型LLM高效参数微调方向,其部分研究成果已在九方灵犀和九方智研得到实际应用。在结构化剪枝方向,我们采用了一种性能模型,结合离线元学习(offline meta-learning) 和在线增量学习(online incremental learning),探索每一层的最优秩值配置。在混合精度量化方向,我们为transformer架构中的每一层分配量化精度,并通过贝叶斯优化(Bayesian Optimization)优化精度分配策略,从而在模型准确性与内存效率之间实现平衡。这是九方智投控股九章证券领域大模型FinSphere和九方智能体FinSphere Agent核心技术部分研究成果的阶段性展示,同时也是践行九方智投控股 “科技+投研”战略的又一例证。

题目:RankAdaptor: Hierarchical Rank Allocation for Efficient Fine-Tuning Pruned LLMs via Performance Model(RankAdaptor:基于性能模型和分层秩分配方法实现高效微调剪枝大语言模型)

论文作者:周昌海,韩世杰,杨立宁,周余华,陈旭,王逸斌

通讯作者:李宏广

通讯单位:九方智投控股

合作单位:复旦大学,哥伦比亚大学,武汉大学等

录用类别:NAACL 2025 Findings长文

论文链接:https://arxiv.org/abs/2406.15734

(图:RankAdaptor技术架构图)

摘要:大型语言模型(Large Language Models, LLMs高效压缩已经成为一个越来越受关注的研究方向。然而,压缩后模型性能的恢复仍然是一个重大挑战。目前,LLM 压缩的常见实践是采用结构化剪枝(structural pruning),并结合利用 Low-Rank Adaptation (LoRA) 算法。然而,结构化剪枝对模型架构的不均匀修改,加之标准 LoRA 在线管道中对各层采用固定配置分配,导致被剪枝模型在多种下游任务中的性能表现不佳。

为了解决这一问题,我们提出了 RankAdaptor,一种分层级别的秩分配方法,能够根据各层特定的恢复需求实现剪枝后 LLM 的高效微调。我们采用了一种性能模型,结合离线元学习(offline meta-learning) 和在线增量学习(online incremental learning),探索每一层的最优秩值配置。在主流基准测试上的全面实验表明,RankAdaptor 在各种剪枝设置和 LLM 架构下始终优于最先进的方法,性能提升范围从 0.7% 到 5.5% 不等。

题目:QPruner: Probabilistic Decision Quantization for Structured Pruning in Large Language Models(QPruner:大语言模型结构化剪枝的概率决策量化方法)

论文作者:周昌海,周余华,王逸斌,韩世杰,乔巧

通讯作者:李宏广

通讯单位:九方智投控股

合作单位:复旦大学,哥伦比亚大学,浙江大学等

录用类别:NAACL 2025 Findings长文

论文链接:https://arxiv.org/pdf/2412.11629

(图:QPruner技术架构图)

摘要: 大型语言模型(Large Language Models, LLMs)的兴起显著推动了各种自然语言处理(NLP)任务的发展。然而,这些模型对资源的需求带来了巨大的挑战。结构化剪枝是一种有效的模型压缩方法,可以减少模型规模,但通常会导致显著的准确性下降,从而需要通过参数更新进行适配。然而,这种微调过程需要大量内存资源,限制了其应用范围。

为了解决这些问题,我们在结构化剪枝框架中引入量化技术,在微调和推理过程中降低内存消耗。然而,剪枝和量化结合产生的误差会显著增加微调的难度,因此需要更精细的量化方案。为此,我们提出 QPruner,一个新颖的框架,首先通过结构化剪枝减少模型规模,然后结合逐层的混合精度量化策略。针对目标任务的重要性,为每一层分配量化精度,并通过贝叶斯优化(Bayesian Optimization)优化精度分配策略,从而在模型准确性与内存效率之间实现平衡。

在基准数据集上的大量实验表明,QPruner 在节省内存的同时显著优于现有方法,并能够保持甚至提升模型性能。

免责声明

以上内容仅供您参考和学习使用,任何投资建议均不作为您的投资依据;您需自主做出决策,自行承担风险和损失。九方智投提醒您,市场有风险,投资需谨慎。

相关股票

相关板块

  • 板块名称
  • 最新价
  • 涨跌幅

相关资讯

扫码下载

九方智投app

扫码关注

九方智投公众号

头条热搜

涨幅排行榜

  • 上证A股
  • 深证A股
  • 科创板
  • 排名
  • 股票名称
  • 最新价
  • 涨跌幅
  • 股圈