42digest首页
FinDPO:通过LLM的偏好优化算法交易的财务情绪分析

FinDPO: Financial Sentiment Analysis for Algorithmic Trading through Preference Optimization of LLMs

Giorgos Iacovides, Wuyang Zhou, Danilo Mandic

arXiv
2025年7月24日

在线金融相关文本数据中表达的观点对交易决策和市场走势产生了越来越深远的影响。 这一趋势凸显了情绪分析作为量化此类意见的性质和力量的工具的重要作用。 随着生成式AI(GenAI)的快速发展,受监督的微调(SFT)大型语言模型(LLM)已成为金融情绪分析的事实标准。 然而,SFT范式可能导致对训练数据的背诵,并且往往无法概括为看不见的样本。 这是金融领域的一个关键限制,其中模型必须适应以前未观察到的事件和细致入微的金融语言。 为此,我们介绍了FinDPO,这是第一个基于通过直接偏好优化(DPO)培训后人类偏好调整的金融特定LLM框架。 拟议的FinDPO在标准情绪分类基准方面实现了最先进的性能,在11之前优于现有的监督微调模型

Opinions expressed in online finance-related textual data are having an increasingly profound impact on trading decisions and market movements. This trend highlights the vital role of sentiment analysis as a tool for quantifying the nature and strength of such opinions. With the rapid development of Generative AI (GenAI), supervised fine-tuned (SFT) large language models (LLMs) have become the de facto standard for financial sentiment analysis. However, the SFT paradigm can lead to memorization ...