公众和学术界都对谄媚现象表示担忧,即人工智能过度同意或奉承用户的现象。然而,除了媒体零散报道的严重后果(如强化妄想)之外,人们对谄媚现象的程度或其如何影响AI使用者知之甚少。在此我们展示了当人们向AI寻求建议时谄媚现象的普遍性和有害影响。首先,在11个最先进的AI模型中,我们发现这些模型高度谄媚:它们对用户行为的肯定率达到50%
数字媒体已成为工会沟通、组织和维持集体行动的核心。 然而,对于工会的在线话语如何与代表选举等具体结果有关,人们知之甚少。 这项研究解决了差距,将国家劳动关系委员会(NLRB)选举数据与美国工会在2015年至2024年期间发布的158k个Facebook帖子相结合。 我们专注于五个在劳工和社会运动沟通研究中广泛认可的讨论框架:诊断(识别问题),预测(建议解决方案),激励(动员行动),社区(强调团结)和参与(促进互动)。 使用微调的ROBERTa分类器,我们系统地注释了工会的帖子,并分析了选举事件的框架使用模式。 我们的研究结果表明,诊断和社区框架总体上主导了工会沟通,但各个组织之间的框架使用量差异很大。 在工会获胜的选举案件中,导致投票的沟通显示,诊断,预后和社区框架的使用有所增加,随后在事件后减少预后和动机框架 - 模式与战略准备一致。 相比之下,在失去的选举案件中,工会在沟通方面几乎没有调整,这表明缺乏有针对性的沟通策略。 通过研究消息级框架的变化,该研究强调了沟通策略如何适应组织背景,提供开放的工具和数据,并补充先前在理解工会和社会运动的数字沟通方面的研究。
生成式人工智能(AI)和相关技术的快速出现有可能极大地影响高等教育,引发对机构、教育工作者和学生在技术丰富未来中的作用的质疑。 虽然现有话语通常强调人工智能的前景和危险,或者它立即实施,但本文提出了第三条道路:指导人工智能在教学和学习中使用的原则性框架。 利用数十年的学习科学奖学金和在教育中的技术使用,我阐明了一套原则,将我们的教育目标与可操作的实践联系起来。 这些原则明确了教育工作者,学习者和技术在制定课程,设计教学,评估学习和培养社区方面各自的作用。 这篇文章说明了一个原则性的方法如何使高等教育能够驾驭新工具,同时保持其基本使命:推进有意义的学习,支持民主社会,并为学生准备充满活力的未来。 最终,该框架旨在确保人工智能增强而不是取代人类的能力,使技术使用与持久的教育价值观和目标保持一致。
异构医疗数据的安全和可互操作的集成仍然是数字健康的一大挑战。 目前的联邦学习(FL)框架提供隐私保护模型培训,但缺乏标准化机制来协调分布式和资源受限环境中的多模态数据融合。 这项研究引入了一种新的框架,利用模型上下文协议(MCP)作为多模式联合医疗保健系统中安全跨代理通信的互操作性层。 拟议的架构统一了三大支柱:(i) 临床成像、电子病历和可穿戴物联网数据的多模态特征对齐;(ii) 安全聚合,具有差异隐私,以保护对患者敏感的更新;(iii) 减少移动客户端辍学的能耗调度。 通过将MCP用作架构驱动的界面,该框架可以实现AI代理和工具链的自适应编排,同时确保遵守隐私法规。 对基准数据集和试点临床队列的实验评估表明,与基线FL相比,诊断准确性提高了9.8%,客户辍学率降低了54%,临床上可接受的隐私 - 公用事业权衡。 这些结果突出了支持MCP的多模态融合,作为迈向公平,下一代联邦卫生基础设施的可扩展和值得信赖的途径。
在线水果和蔬菜电子商务的“信任赤字”源于数字交易无法提供对产品质量的直接感官感知。 本文通过消费者信任的“双源验证”构建了一个“信任金字塔”模型。 实验证实质量是信任的基石。 该研究揭示了农产品分级的“不可能三角”,包括生物特征,及时性和经济可行性,突出了传统绝对分级标准的局限性。 为了量化评估这种权衡,我们提出了“三角信任指数”(TTI)。 我们重新定义了算法从“决策者”到“透明决策基础提供者”的角色,设计了可解释的AI框架TriAlignXA。 该框架通过多目标优化支持农业约束内值得信赖的在线交易。 其核心依赖于三个引擎:用于精细质量描述的生物自适应引擎;用于处理效率的及时优化引擎;以及用于成本控制的经济优化引擎。 此外,“预映射机制”将过程数据编码为QR码,透明地传递质量信息。 分级任务的实验显示出比基线模型更高的精度。 经验证据和理论分析验证了框架在解决“不可能的三角形”方面的平衡能力。 这项研究提供了全面的支持 - 从理论到实践 - 建立一个值得信赖的在线生产生态系统,建立了从算法决策到消费者信任的关键途径。
大型语言模型(LLM)遭受一系列漏洞的影响,这些漏洞允许恶意用户通过操纵输入文本来寻求不良反应。 这些所谓的越狱提示旨在欺骗 LLM 绕过安全护栏,以保持对开发商政策可接受的反应。 在这项研究中,我们分析了不同机器学习模型的能力,以区分越狱提示和真实用途,包括研究我们识别使用以前看不见的策略的越狱的能力。 我们的结果表明,使用当前数据集,通过微调变形器(BBERT)的双向解码器表示(Bider)模型,以识别越狱事件,实现最佳性能。 我们可视化了将越狱与真实提示区分开来的关键字,并得出结论,快速结构中的明确反射性可能是越狱意图的信号。
来自在线招聘职位的数据很难访问,并且不是以标准或透明的方式构建的。 标准分类和职业信息数据库(O*NET)中包含的数据很少更新,并且基于小型调查样本。 我们采用O*NET作为构建自然语言处理工具的框架,从招聘启事中提取结构化信息。 我们发布Job Ad Analysis Toolkit(JAAT),这是为此构建的开源工具集合,并在样本外和LLM-as-a-Judge测试中证明了其可靠性和准确性。 我们从全国劳工交易所(NLx)研究中心提供的超过1.55亿个在线招聘广告中提取了超过100亿个数据点,包括O*NET任务,职业代码,工具和技术,以及工资,技能,行业等功能。 我们描述了2015-2025年每月活跃工作汇总的职业,州和行业特征数据集。 我们说明了在教育和劳动力发展方面的研究和未来用途的潜力。
目前的偏见评估方法很少与受人工智能系统影响的社区接触。 受bug赏金的启发,偏见赏金被提出作为一种基于奖励的方法,通过要求AI系统的用户报告他们在与这些系统交互时遇到的偏见,涉及AI偏见检测中的社区。 在没有最先进的审查的情况下,这项调查旨在确定和分析现有的人工智能偏见赏金计划,并介绍关于偏见赏金的学术文献。 Google、Google Scholar、PhilPapers和IEEE Xplore被搜索,并确定了5个偏见赏金计划以及5个研究出版物。 所有偏见赏金都由美国组织组织,作为限时比赛,公众参与四个项目和奖金池,从7,000美元到24,000美元不等。 这五份研究出版物包括一篇关于bug赏金应用于算法危害的报告,一篇涉及Twitter偏见赏金的文章,将偏见赏金作为增加人工智能审查的体制机制的建议,从酷儿的角度讨论偏见赏金的研讨会,以及偏见赏金的算法框架。 我们认为,减少进入赏金计划的技术要求对于包括没有编码经验的人非常重要。 鉴于偏见赏金的采用有限,未来的努力应该探索漏洞赏金最佳实践的可转移性,并研究如何设计此类计划对代表性不足的群体敏感,同时降低组织的采用障碍。
公共资金过程需要公平、学习和参与者可以理解的结果。 我们引入了Komitee Equal Shares,这是一个可定价的虚拟预算分配框架,集成了两个信号:在选民模式中,参与者投了点票;在评估者模式下,小团体根据集体定义的影响领域评估提案。 该框架通过将这两个信号转化为虚拟消费能力并产生投票收据来扩展平等份额的方法。 我们在瑞士温特图尔的2025年Kultur Komitee部署了该框架。 我们的贡献是:(1) 明确划分决策模式,解决社会选择方面的差距,这种差距通常将参与式预算编制视为偏好聚合,而公民也认为自己是评估者;(2)设计投票收据,将价格性转化为面向参与者的解释,使比例分配清晰可追溯。 该框架概括为参与式赠款和预算编制,提供了一种模式,即公民在一个比例的可解释分配中充当选民和评估者。
由于成本上升和环境影响,人工智能(AI)的能源消耗和碳足迹已成为关键问题。 作为回应,绿色AI的新趋势正在出现,从优先考虑大模型的“更大更好”范式转向“小就够了”,通过更小,更高效的模型强调能量清醒。 我们探索人工智能社区如何通过在推理过程中专注于模型选择来采用今天的能源清醒。 模型选择包括为给定任务选择最合适的模型,一种简单且易于应用的方法,与需要新硬件或架构的方法不同。 我们的假设是,与许多工业活动一样,边际效用收益随着模型规模的增加而减少。 因此,应用模型选择可以显着降低能耗,同时保持AI推理的良好效用。 我们对人工智能任务进行了系统的研究,分析了它们的受欢迎程度、模型大小和效率。 我们研究不同任务和模型采用模式的成熟度如何影响可实现的节能,从1到1。
生成式AI(GenAI)工具(如教育中的聊天机器人)的日益普及为支持学生自我调节学习(SRL)提供了新的机会,但也引发了人们对学习者在使用聊天机器人学习时如何实际参与规划,执行和反思的担忧。 虽然SRL通常被概念化为顺序过程,但对于它在现实世界的学生聊天机器人交互过程中如何展开知之甚少。 为了探索这一点,我们提出了Gen-SRL,这是一种注释模式,将学生提示分为4个宏观阶段的16个微观级操作。 使用提议的模式,我们注释了来自现实世界英语写作任务的212个聊天机器人交互。 然后,我们进行了频率分析和过程挖掘(PM)技术,以深入发现SRL模式。 我们的结果显示,学生的SRL行为不平衡,超过82
欧盟的人工智能法案是规范道德和负责任的人工智能系统的关键一步。 然而,我们发现缺乏可量化的公平指标和术语中的模糊性,特别是在新的欧盟人工智能法案中可互换使用关键字的透明度,可解释性和可解释性,并且没有提及道德合规的透明度。 我们认为,这种模棱两可会造成巨大的责任风险,从而阻碍投资。 公平透明具有战略重要性。 我们建议制定更有针对性的监管框架,以加强新的欧盟人工智能监管。 此外,我们提出了一个公共系统框架,以评估人工智能系统的公正性和透明度。 从过去的工作来看,我们倡导行业最佳实践的标准化,作为广泛法规的必要补充,以实现行业所需的细节水平,同时防止扼杀人工智能领域的创新和投资。 这些提案以ASR和语音合成器为例。
大型语言模型正在激增,作为其通用标准的基准也是如此。 我们问这两个层的聚集模式是如何比较的:它们是串联进化还是分化? 利用两个生态系统的策划代理,斯坦福基金会模型生态系统图谱和明显的人工智能基准注册表,我们发现互补但对比的动态。 模型创建已经扩展到各国和组织,并在模式,许可和访问方面多样化。 相比之下,基准影响显示集中模式:在推断的基准作者-机构网络中,前15名
计算机使用代理(CUA)是一类越来越部署的代理,在GUI上采取行动以实现用户目标。 在本文中,我们表明CUA一直表现出盲目的目标导向(BGD):无论可行性,安全性,可靠性或上下文如何,都倾向于追求目标。 我们描述了BGD的三种流行模式:(i)缺乏上下文推理,(ii)模棱两可的假设和决策,以及(iii)矛盾或不可行的目标。 我们开发BLIND-ACT,这是90个任务的基准,捕捉这三个模式。 建立在OSWorld上,BLIND-ACT提供逼真的环境,并聘请基于LLM的法官来评估代理行为,实现93.75
仇恨言论、流氓和自我伤害等网上危害继续普遍存在。 人们越来越担心,这些危害可能不成比例地影响妇女,反映和再现数字空间内现有的结构性不平等。 使用英国成年人的全国代表性调查(N=1992),我们研究了性别如何塑造暴露于各种在线危害,围绕目标的恐惧,在线体验的心理影响,安全工具的使用以及各种形式的在线参与的舒适。 我们发现,虽然男性和女性在网上报告对有害内容的绝对接触程度大致相似,但女性更经常受到基于接触的伤害,包括基于图像的虐待、网络跟踪和网络闪烁。 妇女报告加剧了对在线伤害目标的担忧,对在线体验的反应产生了更多的负面心理影响,并增加了安全工具的使用,反映了对个人安全工作的更多参与。 重要的是,女性还表示,她们对几种形式的在线参与不太满意,例如只有23种。
由于大型语言模型(LLM)越来越多地集成到各种应用程序中,因此确保它们产生安全响应是一项迫切需要。 以前关于对齐的研究主要集中在一般指令遵循上,但经常忽视安全对齐的独特特性,例如安全机制的脆性。 为了弥补差距,我们提出了“肤浅的安全对齐假设”(SSAH),它假设安全对齐教导一个不安全的模型来选择正确的推理方向 - 满足或拒绝用户的请求 - 解释为一个隐含的二进制分类任务。 通过SSAH,我们假设只有少数基本组件可以在LLM中建立安全护栏。 我们成功确定了四种类型的属性关键组件:安全关键单元(SCU),实用关键单元(UCU),复杂单元(CU)和冗余单元(RU)。 我们的研究结果表明,在微调过程中冻结某些安全关键部件可以让模型在适应新任务的同时保留其安全属性。 同样,我们表明,利用预训练模型中的冗余单位作为“对齐预算”可以有效地最小化对齐税,同时实现对齐目标。 综上所示,本文得出结论,用于LLMs安全性的原子功能单元处于神经元水平,并强调安全对齐不应很复杂。
气候变化增加了对透明和可比的公司气候披露的需求,但模仿和象征性报告往往破坏了它们的价值。 本文开发了一个多维框架,以评估828家美国公司使用大型语言模型(LLM)进行气候沟通的披露成熟度。 可持续性和年度报告中的四个分类器 - 情感,承诺,特异性和目标野心提取叙事指标,这些指标与排放,市值和部门等坚定属性相关联。 分析揭示了三个见解:(1)以风险为重点的叙述通常与明确承诺一致,但量化目标(例如,净零承诺)仍然与语调脱脱;(2)规模较大和排放较高的公司披露的承诺和行动比同行更多,尽管与量化目标不一致;(3)披露风格的广泛相似性表明模仿行为,减少差异化和决策实用性。 这些结果强调了LLM对ESG叙事分析的价值,以及加强监管的必要性,将承诺与可验证的过渡战略联系起来。
该论文断言,在人机交互中模仿同理心是实现与老年人令人满意的社交,可信和道德机器人互动的关键组成部分。 根据老年人研究参与者的评论,该论文确定了差距。 尽管机器人护理场景被接受,但参与者表达了社会方面的差质量。 目前的人类机器人设计在一定程度上忽略了将移情作为理论化的设计途径。 使用修辞理论,本文定义了社会文化的期望,以令人信服的同理心关系。 它分析并总结了社会如何理解,价值观,并在讨论交流中协商人类同伴之间的同理心互动,其中移情充当社会价值体系。 使用两个关于机器人的公共研究集合,其中一个专门针对老年人的老年技术,它证实了机器人公司生产的公共材料缺乏对同理心的关注。 本文认为,使用移情护理词汇作为设计途径是设计人形社交机器人的富有成效的基础,旨在支持老年人的老龄化目标。 它认为,应该仔细审查将情感AI整合到人类社会辅助机器人互动的社会技术组合中,以确保它基于涉及移情品质的真正文化价值。
由于法律、道德和社会原因,预测的公平性在实践中具有直接的重要性。 这通常是通过反事实公平来完成的,这确保了个人的预测与不同敏感属性下的反事实世界中的预测相同。 然而,实现反事实公平是具有挑战性的,因为反事实是不可观察的,因此,反事实公平现有的基线没有理论保证。 在本文中,我们提出了一种新的反事实公平预测器,用于在反事实公平下做出预测。 在这里,我们遵循标准的反事实公平设置,并通过量身定制的神经网络直接学习敏感属性后代的反事实分布,然后我们通过新颖的反事实中介规范化来强制执行公平预测。 我们的工作所独有的是,我们提供理论保证,我们的方法在确保反事实公平的概念方面是有效的。 我们进一步比较了各种数据集的性能,我们的方法实现了最先进的性能。
现代立法框架,如平价医疗法案(ACA),通常涉及复杂的机构,任务和相互依存关系。 政府发布的图表试图描绘这些结构,但通常是静态的,密集的,难以解释的 - 即使是专家。 我们引入了LegiScout,这是一种交互式可视化系统,可将静态策略图转换为动态的,力导向的图形,增强理解,同时保持基本关系。 通过整合数据提取,自然语言处理和计算机视觉技术,LegeScout不仅支持ACA的深入探索,而且还支持广泛的立法和监管框架。 我们的方法使利益相关者 - 政策制定者,分析师和公众 - 能够驾驭和理解现代法律固有的复杂性。