这项研究探讨了零镜头时间序列预测的潜力,这是一种利用预先训练的基础模型的创新方法,可以在没有特定任务微调的情况下预测死亡率。 我们使用来自50个国家和111个年龄组的数据,在三个预测领域(5年,10年和20年)中评估两种最先进的基础模型,以及传统和基于机器学习的方法。 在我们的调查中,零镜头模型显示出不同的结果:虽然CHRONOS提供了具有竞争力的短期预测,优于ARIMA和Lee-Carter模型等传统方法,但TimesFM的表现一直表现不佳。 对死亡率数据进行微调CHRONOS显著提高了长期的准确性。 随机森林模型,根据死亡率数据进行训练,取得了最佳的整体表现。 这些发现强调了零镜头预测的潜力,同时强调了仔细模型选择和特定领域适应的必要性。
这项研究首次分析了价值风险(VaR)的时间序列基础AI模型的性能,该模型基本上预测了回报的左尾分位数。 基础模型,预先训练在不同的数据集上,可以在零镜头设置中应用,数据最少,或通过微调进一步改进。 我们将Google的TimesFM模型与传统参数和非参数模型进行比较,包括GARCH和Generalized Autoregressive Score(GAS),使用SP 100指数及其成分的19年每日回报。 超过8.5年样本量的数据进行后测试表明,微调的基础模型在实际比预期的比率中一直优于传统方法。 对于分位数分数损失函数,它的性能与最佳计量经济学模型GAS相当。 总体而言,基础模型在0.01,0.025,0.05和0.1分位数预测中排名最佳或表现最佳。 微调显著提高了精度,表明零射门使用对VaR来说不是最佳的。
随着 restaking 协议在区块链生态系统中的采用,需要 Actively Validated Services (AVS) 跨越多个 Shared Security Providers (SSPs)。这导致质押碎片化,引入了新的复杂情况,即攻击者可以通过攻击其最弱的 SSP 来破坏 AVS。在本文中,我们形式化了多 SSP 问题,并通过凸优化和博弈论的视角分析了两种架构:一个孤立碎片化模型,称为模型 𝕄,以及一个共享统一模型,称为模型 𝕊。我们推导了效用界限、攻击成本条件和市场均衡,描述了两种模型的协议安全性。我们的结果表明,虽然模型 𝕄 提供了部署灵活性,但它继承了最低成本的攻击漏洞,而模型 𝕊 通过单个验证者集合和聚合 slashing 逻辑实现了更严格的安全保证。我们最后提出了未来的工作方向,包括 restaking 生态系统中与激励相容的质押再平衡分配。
我们提出了一个强化学习(RL)框架,在广泛的风险目标类别下,以凸评分功能为特征。 该类涵盖了许多常见的风险措施,如方差,预期短缺,熵值风险和均风险效用。 为了解决时间不一致的问题,我们考虑一个增强状态空间和一个辅助变量,并将问题重铸为双状态优化问题。 我们提出了一个定制的 Actor-Critic 算法,并建立了一些理论近似保证。 一个关键的理论贡献是,我们的结果并不要求马尔可夫决策过程是连续的。 此外,我们提出了一个辅助变量采样方法,其灵感来自于交替最小化算法,该算法在某些条件下是收敛的。 我们在模拟实验中验证我们的方法,在统计套利交易中使用金融应用,证明了算法的有效性。
去中心化金融(DeFi)是区块链生态系统的一个组成部分,通过基于智能合约的协议实现一系列金融活动。 传统的DeFi治理通常涉及协议团队或代币持有者投票的手动参数调整,因此容易出现人为偏见和财务风险,从而破坏系统的完整性和安全性。 虽然现有努力旨在建立更具适应性的参数调整方案,但仍需要一种既能提高效率又具有抵御重大市场操纵的治理模式。 在本文中,我们引入了“Auto.gov”,这是一个基于学习的治理框架,采用深度Qnetwork(DQN)强化学习(RL)策略来执行半自动化,数据驱动的参数调整。 我们创建了一个DeFi环境,其编码的动作状态空间类似于Aave借贷协议,用于模拟和测试目的,Auto.gov已经证明了保留资金的能力,否则这些资金将因价格或高音攻击而损失。 在真实世界数据的测试中,Auto.gov在预设的性能指标-协议盈利能力方面至少优于基准方法至少14。 总体而言,综合评估证实Auto.gov比传统治理方法更有效,从而增强了DeFi协议的安全性,盈利能力和最终的可持续性。
人工智能(AI)技术,特别是大型语言模型(LLM)在金融领域的整合引起了越来越多的学术关注。 尽管取得了进展,但现有的研究主要集中在财务文本总结,问答和股票走势预测(二进制分类)等任务上,LLM在金融风险预测中的应用仍然未被探索。 解决这一差距,在本文中,我们介绍了RiskLabs,这是一个利用LLM分析和预测金融风险的新框架。 RiskLabs独特地集成了多模态金融数据,包括来自收益会议呼叫(ECC)的文本和声音信息,市场相关时间序列数据以及上下文新闻数据,以改善金融风险预测。 经验结果表明,RiskLabs在预测市场波动和差异方面的有效性。 通过比较实验,我们研究了不同数据源对财务风险评估的贡献,并强调了LLM在这一过程中的关键作用。 我们还讨论了使用LLM进行财务风险预测相关的挑战,并探讨了为此目的将其与多模态数据相结合的潜力。
在金融市场日益动荡的环境中,准确估计风险仍然是一个重大挑战。 传统的计量经济学模型,如GARCH及其变体,是基于通常过于僵化而无法适应当前市场动态复杂性的假设。 为了克服这些限制,我们提出了一个价值风险(VaR)估计的混合框架,将GARCH波动率模型与深度强化学习相结合。 我们的方法结合了使用双深Q-Network(DDQN)模型的方向性市场预测,将任务视为不平衡的分类问题。 这种架构能够根据市场情况动态调整风险水平预测。 每日Eurostoxx 50数据的经验验证涵盖了危机和高波动期,表明VaR估计的准确性显着提高,以及违规行为数量和资本要求减少,同时尊重监管风险阈值。 该模型实时调整风险水平的能力加强了其与现代和主动风险管理的相关性。
系统性风险措施已被证明可以预测金融危机和实际活动下降。 因此,预测它们对于金融和经济学来说非常重要。 在本文中,我们提出了一种新的系统风险预测方法,以边际预期短缺(MES)来衡量。 它基于首先对观测结果进行去挥发,然后使用基于极端价值理论的估计器计算残留物的系统性风险。 我们通过建立MES预测的渐近性来显示该方法的有效性。 隐含的MES预测间隔的良好有限样本覆盖率在模拟中得到证实。 对美国主要银行的经验应用说明了MES预测精度的显着时间差异,并从监管角度探讨了这一事实的影响。
仿真方法在金融领域一直起着重要作用,数据驱动方法具有最小的模型规范,通常称为生成模型,引起了越来越多的关注,特别是在深度学习在广泛领域取得成功之后。 然而,这些模式在金融应用中的采用与日益增长的兴趣并不匹配,这可能是由于金融市场的独特复杂性和挑战。 本文有助于更深入地了解生成模型的局限性,特别是在投资组合和风险管理方面。 为此,我们首先介绍初始样本量重要性的理论结果,并指出生成比最初可用的数据多的潜在陷阱。 然后,我们通过触及一个悖论来强调模型开发的不可分割的性质和期望的用途:通常的生成模型本质上不太关心构建投资组合(特别是长短模型)的重要性。 基于这些发现,我们提出了一条多变量回报的管道,该管道符合美国股票大领域的传统评估标准,同时符合资产回报中观察到的程式化事实,并扭转我们之前确定的陷阱。 此外,我们坚持需要更准确的评估方法,并建议通过平均回归策略的例子,一种旨在识别基于反流训练的给定应用程序的不良模型的方法,即使用其本身生成的数据重新训练模型,这在统计学中通常被称为可识别性。
我们生活在一个多变量的世界中,有效的金融投资组合建模,包括其构建,分配,预测和风险分析,如果不明确建模其资产的依赖结构,就不可能实现。 依赖性结构可以比投资和风险模型中的许多其他参数更多地推动投资组合结果,有时甚至超过其综合效应,但文献提供的相对较少,可以在具有挑战性的现实世界的金融数据条件下以可用和有用的方式定义依赖措施的有限样本分布。 然而,这正是对他们的估计做出有效推断所需要的,并将这些推断用于无数基本目的,例如假设测试,动态监测,现实和粒度情景和反向情景分析,以及减轻市场动荡期间相关性崩溃的影响(这是我们最需要有效推断的时候)。 这项工作开发了一种新的直接方法,非参数角度相关性(NAbC),用于定义任何依赖度测量的有限样本分布,其成对关联矩阵是正定的(例如。 Pearsons,Kendalls Tau,Spearmans Rho,Chatterjees,Lancasters,Szekelys及其许多变体。 该解决方案在边际资产分布下仍然有效,其特征是序列相关性明显不同和不同程度的序列相关性,非静态性,重尾性和不对称性。 值得注意的是,NAbCs p值和置信区间在基质水平和成对细胞水平上都保持分析一致。 最后,NAbC即使在矩阵中选定的单元格被冻结用于给定情景或压力测试时也保持有效性,即受场景影响,从而实现灵活,粒度和现实的场景。
No more items to load.