计算机与现代化 ›› 2025, Vol. 0 ›› Issue (01): 1-6.doi: 10.3969/j.issn.1006-2475.2025.01.001
• 人工智能 • 下一篇
摘要: 立场检测是自然语言处理中的一个关键任务,它基于文本分析来判断作者的立场。文本立场检测方法从早期的机器学习方法过渡到BERT模型,然后发展到最新的大语言模型,如ChatGPT。由于受限于ChatGPT的闭源特性,本文利用国内开源的ChatGLM3模型,提出一种文本立场检测模型ChatGLM3-LoRA-Stance。为了将大模型有效地应用于专业垂直领域,采用LoRA这一高效的微调方法。与P-Tuning V2相比,LoRA更能适应本文中的零样本和少样本文本立场检测任务。使用公开的VAST数据集对ChatGLM3模型进行微调,评估现有模型在零样本和少样本场景中的性能。实验结果显示,ChatGLM3-LoRA-Stance模型在零样本和少样本检测任务上,F1得分均显著高于其他模型。因此,研究结果凸显了大语言模型在文本立场检测任务上的潜力,并表明使用LoRA高效微调技术能够显著提升ChatGLM3大语言模型在文本立场检测任务中的性能。
中图分类号: