Alignment Debt: The Hidden Work of Making AI Usable
Cumi Oyemike, Elizabeth Akpan, Pierre Hervé-Berdys
Frontier LLM围绕语言、知识、设备和连接的高资源假设进行了优化。 虽然广泛可用,但它们往往不适合全球南方的条件。 因此,用户必须经常执行额外的工作,以使这些系统可用。 我们把这种对齐债务称为:当人工智能系统无法与文化、语言、基础设施或认识论背景保持一致时,就会出现用户侧负担。 我们通过对肯尼亚和尼日利亚的411名人工智能用户的调查,开发和验证了对齐债务的四部分分类。 在对此分类学(n = 385)的受访者中,患病率是:文化和语言(51.9%),基础设施(43.1%),流行病(33.8%)和互动(14.0%)。 国家比较表明,基础设施和互动债务存在差异,挑战了一刀切的非洲假设。 对齐债务与补偿性劳动有关,但应对情况因债务类型而异:面临疫情挑战的用户以明显更高的利率验证产出(91.5% vs. 80.8%; p = 0.037),验证强度与累积债务负担相关(Spearmans rho = 0.147,p = 0.004)。 相反,基础设施和交互债务与核查的关联薄弱或无效,表明某些形式的错位不能仅通过核查来解决。 这些研究结果表明,公平性不仅必须通过模型指标来判断,而且还必须根据边缘对用户施加的负担来判断,这些保障措施可以缓解全球南方环境中的对齐债务。 对齐债务框架提供了一种基于经验的方法来衡量用户负担,为设计实践和新兴的非洲人工智能治理工作提供信息。
Frontier LLMs are optimised around high-resource assumptions about language, knowledge, devices, and connectivity. Whilst widely accessible, they often misfit conditions in the Global South. As a result, users must often perform additional work to make these systems usable. We term this alignment debt: the user-side burden that arises when AI systems fail to align with cultural, linguistic, infrastructural, or epistemic contexts. We develop and validate a four-part taxonomy of alignment debt thr...