42digest首页
当保证破坏智能:人工智能劳动力市场数据治理的效率成本

When Assurance Undermines Intelligence: The Efficiency Costs of Data Governance in AI-Enabled Labor Markets

Lei Chen, Chaoyue Gao, Alvin Leung and Xiaoning Wang

arXiv
2025年11月2日

像大语言模型(LLM)这样的生成式人工智能(GenAI)越来越多地集成到数字平台中,以增强信息访问,提供个性化体验并提高匹配效率。 然而,这些算法的进步在很大程度上依赖于大规模的用户数据,在信息保证(保护、完整性和负责任地使用隐私数据和人工智能)与模型的学习能力和预测准确性之间造成了根本的紧张关系。 我们在LinkedIn的背景下研究这种保证 - 情报权衡,利用监管干预,暂停使用用户数据进行香港模型培训。 使用Revelo实验室的大规模就业和招聘启事数据以及差异设计,我们表明限制数据使用显着降低了GenAI效率,导致匹配率降低,员工更替率更高,劳动力市场摩擦加剧。 对于严重依赖人工智能进行人才收购的小型快速增长的公司来说,这些影响尤其明显。 我们的研究结果揭示了善意数据治理的意外效率成本,并强调信息保证虽然对信任至关重要,但在与人工智能系统设计错位时可能会破坏智能驱动的效率。 这项研究有助于对人工智能治理和数字平台的新兴研究,将数据保证理论化为在数据密集型环境中的GenAI功效的体制补充和潜在约束。

Generative artificial intelligence (GenAI) like Large Language Model (LLM) is increasingly integrated into digital platforms to enhance information access, deliver personalized experiences, and improve matching efficiency. However, these algorithmic advancements rely heavily on large-scale user data, creating a fundamental tension between information assurance-the protection, integrity, and responsible use of privacy data-and artificial intelligence-the learning capacity and predictive accuracy ...