• 国家药监局综合司 国家卫生健康委办公厅
  • 国家药监局综合司 国家卫生健康委办公厅

基于大模型微调的出院小结生成幻觉抑制方法

通讯作者: 李寅驰, lyc@rjh.com.cn
DOI:10.12201/bmr.202503.00005
声明:预印本系统所发表的论文仅用于最新科研成果的交流与共享,未经同行评议,因此不建议直接应用于指导临床实践。

Hallucination Suppression Methods for Discharge Summary Generation Based on Large Model Fine-Tuning

Corresponding author: Li Yinchi, lyc@rjh.com.cn
  • 摘要:目的/意义 本文旨在解决大规模语言模型在出院小结生成过程中存在的幻觉问题,尤其在处理复杂医疗文档时的准确性和可靠性问题。随着医疗数据的复杂性增加,提升大语言模型的生成能力与上下文一致性尤为重要。方法/过程 本研究构建了高质量、多层次的医疗指令数据集,采用基于分阶段训练的指令微调策略,引导大模型从简单到复杂任务逐步学习。同时,在微调过程中引入数据回放与混合训练机制,以确保大模型能在新任务中保留和利用已有知识。结果/结论 实验结果表明,本文所提方法显著降低了大模型生成幻觉的发生率,并提高了医疗文本的生成准确性和可靠性。本方法的优越性在于将课程学习理论与回放机制有效结合,不仅提升了模型对复杂任务的适应性,还确保了生成内容的专业性,同时展现出较高的实用性和可靠性。

    关键词: 出院小结生成幻觉抑制微调训练

     

    Abstract: Purpose/Significance This paper aims to address the hallucination problem in discharge summary generation using large-scale language models, particularly focusing on the accuracy and reliability issues when handling complex medical documents. As the complexity of medical data increases, enhancing the generative ability and contextual consistency of large language models becomes crucial. Method/Process This study constructs a high-quality, multi-level medical instruction dataset and employs a staged training-based instruction fine-tuning strategy to guide the model in learning tasks from simple to complex. Additionally, a data replay and mixed training mechanism is introduced during the fine-tuning process to ensure that the large model retains and utilizes existing knowledge when tackling new tasks. Result/Conclusion Experimental results show that the method proposed in this paper significantly reduces the occurrence of hallucinations in large model generation and improves the accuracy and reliability of medical text generation. The superiority of this method lies in the effective integration of curriculum learning theory and the replay mechanism, which not only enhances the models adaptability to complex tasks but also ensures the professionalism of the generated content, demonstrating high practicality and reliability.

    Key words: Discharge Summary Generation; Hallucination Suppression; Fine-Tuning Training

    提交时间:2025-03-03

    版权声明:作者本人独立拥有该论文的版权,预印本系统仅拥有论文的永久保存权利。任何人未经允许不得重复使用。
  • 图表

  • 牛宇翔, 葛珊衫, 王力华. 从传统NLP到大语言模型电子病历生成技术的探索与研究. 2024. doi: 10.12201/bmr.202412.00080

    郭炫志, 周武洁, 尚欣, 连春华, 詹开明, 林隆永. 基于 UNILM 的中医文献问题条件生成模型. 2021. doi: 10.12201/bmr.202110.00036

    吴宏, 胡军, 陈尔真, 董晨杰, 李建华, 叶琪. 基于大模型的医疗质控应用系统构建. 2025. doi: 10.12201/bmr.202503.00004

    马傲, 葛小玲. 人工智能大模型在医疗健康领域应用的研究. 2024. doi: 10.12201/bmr.202408.00039

    陈惠卿, 李茹芳, 蔡丹丹, 盛晓雯, 陈献国, 熊尚华. 基于智慧宣教系统的提前出院指导对中青年肺癌患者术后恢复研究. 2025. doi: 10.12201/bmr.202502.00057

    徐维霞、. 负性情绪和反刍性沉思在冠状动脉搭桥患者术后出院指导质量与出院准备度间的链式中介作用. 2024. doi: 10.12201/bmr.202410.00047

    康一帅, 邵陈杰. 基于统一语言模型的中医文献问题生成算法. 2022. doi: 10.12201/bmr.202110.00044

    谢甲琦, 李政. 基于预训练语言模型的公众健康问句分类. 2021. doi: 10.12201/bmr.202101.00017

    陈羚, 俞新燕, 郑家平, 马雅敏. 125I粒子植入术后患者出院准备度潜在剖面及其影响因素分析. 2025. doi: 10.12201/bmr.202506.00048

    施呈昊, 屠馨怡, 史佳伟, 陈红爽, 王琴潞, 邹海欧. 大语言模型在临床实践中应用的范围综述. 2024. doi: 10.12201/bmr.202406.00001

  • 序号 提交日期 编号 操作
    1 2024-12-23

    bmr.202503.00005V1

    下载
  • 公开评论  匿名评论  仅发给作者

引用格式

姜胜耀, 袁铖, 朱立峰, 李寅驰, 范亚蔚, 张维彦, 阮彤, 邵炜. 基于大模型微调的出院小结生成幻觉抑制方法. 2025. biomedRxiv.202503.00005

访问统计

  • 阅读量:187
  • 下载量:4
  • 评论数:0

Email This Article

User name:
Email:*请输入正确邮箱
Code:*验证码错误