2025年8月,OpenAI发布了GPT-OSS模型,这是自2019年GPT-2以来其首个开源权重的大型语言模型,包含两个专家混合架构,参数量分别为120B和20B。我们在十个基准测试上评估了这两个变体,涵盖通用知识、数学推理、代码生成、多语言理解和对话能力,并与六个当代开源大型语言模型进行比较,这些模型的参数量从14.7B到235B不等,代表了密集和稀疏两种设计。所有模型均在非量化形式下使用标准化推理设置进行测试,并采用麦克尼马尔检验和效应大小分析进行统计验证。结果显示,尽管gpt-oss-20B每个响应所需的内存和能量显著较少,但在多个基准测试(如HumanEval和MMLU)上 consistently 优于gpt-oss-120B。两个模型在当前开源生态中都表现出中等水平的整体性能,在代码生成方面具有相对优势,但在多语言任务中存在明显弱点。这些发现提供了经验证据,表明稀疏架构中的扩展可能不会带来成比例的性能提升,强调了需要进一步研究优化策略,并为未来开源部署提供更高效的模型选择信息。
我们研究了学习临界稳定未知非线性动力系统的基本问题。我们基于谱滤波技术描述了一种算法,该算法通过系统的谱表示,学习从过去观测到下一个观测的映射。利用在线凸优化技术,我们证明了对于任何具有有限多个临界稳定模态的非线性动力系统,预测误差都会消失,其速率由一种新颖的定量控制理论可学习性概念所决定。我们方法的主要技术组成部分是一种新的线性动力系统谱滤波算法,该算法结合了过去观测并适用于一般的噪声和临界稳定系统。这显著地将原始谱滤波算法推广到非对称动力学以及包含噪声校正的情况,具有独立的研究价值。
实现规模化个性化医疗需要能够从纵向患者病程中提炼洞察的方法,这些病程可视为一系列医疗事件。基于大规模医疗事件数据预训练的基础模型代表了扩展真实世界证据生成并泛化到多样化下游任务的有前景方向。利用Epic Cosmos数据集——包含来自310个医疗系统的3亿独特患者记录的163亿次就诊的去标识化纵向健康记录中的医疗事件,我们引入了Cosmos医疗事件transformer(CoMET)模型系列,这是一组仅在解码器端使用的transformer模型,在1.18亿患者代表的1150亿个离散医疗事件(1510亿个token)上进行了预训练。我们提出了医疗事件数据领域最大规模的缩放定律研究,建立了预训练方法学并揭示了计算量、token数量和模型规模之间的幂律缩放关系。基于此,我们预训练了一系列计算最优模型,参数规模高达10亿。基于患者的真实世界历史,CoMET自回归地生成下一个医疗事件,模拟患者健康时间线。我们研究了78个真实世界任务,包括诊断预测、疾病预后和医疗运营。值得注意的是,对于一个具有通用预训练和基于模拟推理的基础模型,CoMET在这些任务上通常优于或匹配特定任务的监督模型,且无需特定任务的微调或少样本示例。CoMET的预测能力随着模型和预训练规模的扩大而持续提升。我们的结果表明,CoMET这一生成式医疗事件基础模型能够有效捕捉复杂的临床动态,提供一个可扩展和可泛化的框架来支持临床决策、简化医疗运营并改善患者结局。
网格处理流程已经成熟,但将其适配到更新的非网格表面表示——这些表示能够以紧凑的文件大小实现快速渲染——需要昂贵的网格化处理或传输庞大的网格数据,从而抵消了它们在流媒体应用中的核心优势。我们提出了一种紧凑的神经场,能够在不同的表面表示之间实现常见的几何处理任务。给定一个输入表面,我们的方法学习从其粗糙网格近似到表面的神经映射。完整的表示总共只有几百千字节,非常适合轻量级传输。我们的方法能够快速提取流形和Delaunay网格用于内蕴形状分析,并压缩标量场以高效交付昂贵的预计算结果。实验和应用表明,我们快速、紧凑且准确的方法为交互式几何处理开辟了新的可能性。
主动推理是一种研究认知的形式化方法,其基本观点是:自适应智能体可以通过最小化变分自由能和期望自由能来进行近似贝叶斯推理。最小化前者解释了感知过程和学习作为证据积累的过程,而最小化后者描述了智能体如何随时间选择其动作。通过这种方式,自适应智能体能够在给定环境生成模型的情况下,最大化偏好观测或状态的可能性。然而,在文献中提出了不同的策略来描述智能体如何规划其未来动作。虽然这些策略都认同某种期望自由能为评估策略(即动作序列)的合意性提供了适当方法,但在考虑过去运动经验对智能体未来行为的贡献方面存在不同方式。在某些方法中,智能体被假定知道自己的动作,并利用这种知识来更好地规划未来。在其他方法中,智能体不知道自己的动作,必须从最近的观测中推断其运动行为以规划未来。这种差异反映了运动控制中两个主要框架的标准分歧点,即是否存在代表智能体自身动作知识的传出副本信号。在这项工作中,我们比较了动作感知和无动作感知智能体在两个导航任务中的表现,展示了无动作感知智能体如何在严重劣势下仍能实现与动作感知智能体相当的性能。
平衡连通k划分问题(bcp)是一个经典问题,其目标是将一个顶点加权连通图的顶点集划分为k个类,使得每个类导出一个大致相同权重的连通子图。在本研究中,我们研究了bcp的边加权变体,其中给定一个连通图G、k∈_≥和一个边权重函数w E(G)→_≥,目标是在最小最大化版本中计算G的一个生成k-林𝒯(即恰好有k棵树的森林),以最小化𝒯中最重树的权重,或在最大最小化版本中最大化𝒯中最轻树的权重。我们证明了该问题的两个版本在k=2的完全图、无权分割图以及k≥2固定的无权二分图上都是NP难的。此外,我们证明了这些问题不存在亚指数时间算法,除非指数时间假设不成立。我们专注于最小最大化版本,并设计了一个紧致的k近似算法、紧凑和非紧凑的整数线性规划公式、分支切割以及分支定价算法。最后,我们展示了不同求解方法性能的实验研究结果。所提出算法的完整实现源代码也可用。
支付通道网络(PCNs)是一种有前景的技术,通过将交易负载从区块链转移到PCN来缓解区块链的可扩展性问题。然而,必须精心设计网络拓扑以最大化PCN中的交易吞吐量。此外,PCN中的用户还需要做出最优决策,选择转发哪些交易、拒绝哪些交易,以延长其通道的使用寿命。在这项工作中,我们考虑在p个参与方上的输入交易序列。每个交易包含交易大小、来源和目标,可以被接受或拒绝(产生成本)。目标是在p个合作参与方之间设计PCN拓扑以及通道容量,然后为序列中的每个交易输出决策,以最小化创建和增强通道的成本,以及拒绝交易的成本。我们的主要贡献是针对p个参与方问题的𝒪(p)近似算法。我们进一步表明,在对交易分布做出某些假设的情况下,可以将近似比降低到𝒪(√(p))。我们在闪电网络背景下对我们的假设和方法进行了实证研究,以补充我们的理论分析。
在一个具有有限视野的自主机器人群体连接的图中,很自然地会问:机器人是否仅使用局部知识就能部署到满足给定属性的特定顶点上。本文通过一组有限视野(有限视野范围)的发光机器人,以填充给定图G = (V, E)的最小顶点覆盖(MVC)为目标,对这个问题给出了肯定的回答。该图具有称为门的特殊顶点,机器人通过门顺序进入。从门开始,机器人的目标是在异步(𝒜𝒮𝒴𝒩𝒞)调度器下,定居在构成G的最小顶点覆盖的顶点集合上。我们还对使用有限视野机器人在特定图类上实现最小顶点覆盖(MinVC,对于一般图是NP难问题<引用>)感兴趣。我们建立了机器人视野范围和时间复杂度(为Ω(|E|))的下界。我们提出了两种针对树的算法:一种是单门算法,既时间最优又内存最优;另一种是多门算法,内存最优且在门数为常数时实现时间最优性。有趣的是,我们的技术在单门树上实现了MinVC。然后我们转向一般图,提出了两种算法,一种是单门算法,另一种是多门算法,为机器人提供O(logΔ)的额外内存,其中Δ是G的最大度。我们所有的算法都在O(|E|)轮次内运行。
我们研究优化大语言模型(LLM)推理调度以最小化总延迟的问题。LLM推理是一个在线多任务服务过程,同时也是高能耗的过程,其中预训练的LLM按顺序处理输入请求并生成输出token。因此,在大量提示请求到达时,提高其调度效率并降低功耗至关重要。LLM推理调度的一个关键挑战是,虽然提示长度在到达时已知,但对内存使用和处理时间至关重要的输出长度是未知的。为了解决这种不确定性,我们提出了利用机器学习预测输出长度的算法,假设预测为每个请求提供了区间分类(最小-最大范围)。我们首先设计了一个保守算法𝒜_max,该算法基于预测输出长度的上界进行调度以防止内存溢出。然而,这种方法过于保守:随着预测准确性的降低,由于潜在的过高估计,性能会显著下降。为了克服这一限制,我们提出了𝒜_min,这是一种自适应算法,最初将预测的下界视为输出长度,并在推理过程中动态优化这一估计。我们证明𝒜_min实现了对数尺度的竞争比。通过数值模拟,我们证明𝒜_min通常表现几乎与后见调度器一样好,突出了其在实际场景中的效率和鲁棒性。此外,𝒜_min仅依赖于预测区间的下界——这是一个有利的设计选择,因为输出长度的上界通常更难准确预测。
设 ℬ(·) 为错误球函数。一个长度为 n 的 q 元序列集合被称为 (n,q,N;ℬ)-重构码,如果该集合中的每个序列 x 可以从其错误球 ℬ(x) 中的任意 N 个不同元素中唯一重构。该领域的主要目标是确定或建立 (n,q,N;ℬ)-重构码的最小冗余度 ρ(n,q,N;ℬ) 的界限。在本文中,我们研究错误球为 t-删除球 𝒟_t(·) 或 t-插入球 ℐ_t(·) 的重构码。首先,我们建立了删除和插入重构码之间的基本联系。对于任意正整数 n,t,q,N,任何 (n,q,N;ℐ_t)-重构码也是 (n,q,N;𝒟_t)-重构码。这导致了不等式 ρ(n,q,N;𝒟_t)≤ρ(n,q,N;ℐ_t)。然后,当 N=O(n^t-1) 且 t≥2 时,我们识别了删除和插入重构码之间的显著区别。对于删除,我们证明 ρ(n,q,2(q-1)^t-1q^t-1(t-1)!n^t-1+O(n^t-2);𝒟_t)=O(1),这反驳了 <cit.> 中提出的一个猜想。对于插入,我们表明 ρ(n,q,(q-1)^t-1(t-1)!n^t-1+O(n^t-2);ℐ_t)=loglog n + O(1),这扩展了 <cit.> 中的一个关键结果。最后,我们构造了 (n,q,N;ℬ)-重构码,其中 ℬ∈{𝒟_2,ℐ_2},对于 N ∈{2,3,4,5},并建立了最小冗余度 ρ(n,q,N;ℬ) 的上界分别为 3log n+O(loglog n)、3log n+O(1)、2log n+O(loglog n) 和 log n+O(loglog n)。这推广了先前在 <cit.> 中建立的结果。
我们考虑𝒩𝒫难问题P|pmtn, setup=s_i|C_max,即在m台相同并行机器上调度n个作业(分为c个类别)并允许抢占的问题。对于c个类别中的每个类别i,给定一个设置时间s_i,每当机器从一个类别的作业切换到另一个类别的作业时都需要调度该设置时间。目标是找到最小化makespan的调度方案。我们给出了一个运行时间为𝒪(n² log(1/ε))的(4/3+ε)-近似算法。对于任何ε < 1/6,这改进了该问题先前已知的最佳近似比3/2。我们的主要技术贡献如下:首先将任何实例划分为"简单"和"困难"部分,使得对于某个给定的makespan T,前者的4/3 T近似很容易计算。然后我们证明主要的结构性结果,即对于任何具有makespan T解的实例,总是存在4/3 T近似,其中困难部分具有一些易于计算的性质。最后,我们通过计算具有前述结构性性质的解,得到了一个在一般实例上以n 𝒪(n² log(1/ε))时间计算(4/3+ε)-近似的算法。
受大脑启发的尖峰神经网络(SNN)在低功耗计算方面具有巨大的潜力,但它们在视觉任务中的应用仍然主要局限于图像分类,对象检测和基于事件的跟踪。 相比之下,现实世界的视觉系统仍然广泛使用传统的RGB视频流,其中直接训练的SNN对于诸如多对象跟踪(MOT)等复杂时间任务的潜力仍然被低估。 为了应对这一挑战,我们提出了SMTrack - 第一个直接训练的深度SNN框架,用于标准RGB视频的端到端多对象跟踪。 SMTrack引入了自适应和具有刻度感知的标准化Wasserstein距离损失(Asa-NWDLoss),以提高不同对象尺度和密度下的检测和定位性能。 具体来说,该方法计算每个训练批次内的平均对象大小,并动态调整归一化因子,从而增强对小对象的灵敏度。 对于关联阶段,我们集成了 TrackTrack 身份模块,以保持稳健和一致的对象轨迹。 对BEE24、MOT17、MOT20和DanceTrack的广泛评估表明,SMTrack与领先的基于ANN的MOT方法实现了性能,在复杂场景中推进了基于SNN的稳健和准确的跟踪。
在本文中,我们探讨了信息在哪里被收集,以及如何在大型语言模型(LLM)中层层中传播。 我们首先研究标点符号的惊人计算重要性,以前的工作已经确定为注意力下沉和记忆辅助工具。 使用基于干预的技术,我们评估GPT-2,DeepSeek和Gemma中跨层标点符号的必要性和充足性(用于保持模型性能)。 我们的结果表明了明显的模型特异性差异:对于GPT-2,标点符号在多层中既必要又足够,而这一点在DeepSeek中则远小于,在Gemma则根本不存在。 超越标点符号,我们询问LLM是否通过形成跨网络重复使用的早期静态摘要来处理输入的不同组件(例如,主题,形容词,标点符号,完整句子),或者模型是否对这些组件跨层的变化保持敏感。 超越标点符号,我们调查LLM是否以不同的方式处理不同的推理规则。 特别是,通过交换干预和层交换实验,我们发现条件语句(如果,然后)和通用量化(对于所有)的处理非常不同。 我们的发现为LLM中标点符号使用和推理的内部机制提供了新的见解,并对可解释性产生了影响。
LLM编码器提供的机会(及其当前的局限性)要求对软件的结构进行重新评估。 今天的软件通常是“难以理解的” - 缺乏代码和观察到的行为之间的直接对应关系 - 并且模块不足,导致健壮编码的三个关键要求的失败:增量(通过进行本地化更改提供小增量的能力),完整性(避免打破先前的增量)和透明度(明确构建时发生了什么变化,以及在运行时发生了什么操作)。 新的结构模式提供了更好的可读性和模块化。 其要素是概念和同步:完全独立的服务和基于事件的规则,在它们之间进行调解。 用于同步的域特定语言允许以精细和声明性的方式表示行为特征(因此很容易由LLM生成)。 使用RealWorld基准的案例研究来说明和评估该方法。
扩散大型语言模型(dLLM)的最新进展为自然语言生成任务引入了一种有前途的替代自回归(AR)LLM,利用全量注意力和基于去去的解码策略。 然而,由于其巨大的参数规模和很高的资源需求,这些模型在边缘设备上的部署仍然具有挑战性。 虽然训练后量化(PTQ)已成为一种广泛采用的压缩AR LLM的技术,但其对dLLM的适用性在很大程度上仍未被探索。 在这项工作中,我们提出了关于量化基于扩散的语言模型的第一个系统研究。 我们首先确定激活异常值的存在,其特征是异常大的激活值,主导动态范围。 这些异常值对低位量化构成了关键挑战,因为它们很难为大多数值保持精度。 更重要的是,我们实施最先进的PTQ方法,并在多种任务类型和模型变体中进行全面的评估。 我们的分析按四个关键维度进行结构:比特带宽、量化方法、任务类别和模型类型。 通过这种多视角评估,我们提供了不同配置下dLLM量化行为的实用见解。 我们希望我们的研究结果为未来的高效dLLM部署研究奠定基础。 所有代码和实验设置都将发布以支持社区。
这项研究引入了一个新的ML框架,旨在提高样本外碳氢化合物生产预测的稳健性,特别是解决多变量时间序列分析。 拟议方法集成了生产力指数(PI)驱动的特征选择,这一概念来源于水库工程,与电感性正态预测(ICP)进行了严格的不确定性量化。 利用Volve(井PF14,PF12)和Norne(井E1H)油田的历史数据,本研究调查了各种预测算法的功效 - 即长短期记忆(LSTM),双向LSTM(BiLSTM),盖子循环单元(GRU)和eXtreme梯度提升(XGBoost) - 在预测历史石油增长率(OPR_H)中。 所有模型都实现了未来时间框架的“样本外”生产预测。 使用传统的误差指标(例如MAE)对模型性能进行了全面评估,辅以预测偏差和预测方向精度(PDA),以评估偏差和趋势捕获能力。 与传统的数值模拟工作流程相比,基于 PI 的功能选择有效地降低了输入尺寸。 不确定性量化使用比较方案框架加以处理,ICP框架是一种无分布方法,可保证有效的预测间隔(例如,95)
医疗设备中的计算机方法通常不完善,并且已知在临床或诊断任务中产生错误。 然而,当深度学习和基于数据的方法产生输出时,会显示错误,这些设备经常产生幻觉。 根据多个医疗设备领域的理论发展和实证研究,我们引入了一个实用和普遍的定义,将幻觉表示为一种合理的错误,并且对手头的任务具有影响或良性。 该定义旨在促进对跨产品领域产生幻觉的医疗设备的评估。 使用成像和非成像应用的示例,我们探讨了拟议定义如何与评估方法相关联,并讨论减少幻觉流行率的现有方法。
创建数据报告是一项劳动密集型任务,涉及迭代数据探索、洞察力提取和叙事构建。 一个关键的挑战在于将分析逻辑从定义目标和转换数据到识别和传达见解。 手动编写这种逻辑在认知上可能要求很高。 虽然经验丰富的分析师经常重复使用过去项目的脚本,但找到新数据集的完美匹配是罕见的。 即使在线提供类似的分析,它们通常也只共享结果或可视化,而不是底层代码,这使得重用变得困难。 为了解决这个问题,我们介绍了ReSpark,一个利用大型语言模型(LLM)从现有报告中逆向工程分析逻辑的系统,并将其适应新的数据集。 通过生成分析步骤草案,ReSpark为用户提供了一个温暖的开始。 它还支持交互式改进,允许用户检查中间输出,插入目标并修改内容。 我们通过比较和用户研究来评估ReSpark,证明它在降低生成数据报告的障碍方面的有效性,而不依赖于现有的分析代码。
随着全向摄像机的硬件成本降低和各种扩展现实应用的激增,越来越多的360^∘视频被捕获。 为了充分发挥其潜力,先进的视频分析有望从视频中提取可操作的见解和情境知识,而不会产生盲点。 在本文中,我们介绍了OmniSense,这是一个用于在线沉浸式视频分析的新型边缘辅助框架。 OmniSense实现了低延迟和高精度,解决了分析360^∘视频的重大计算和网络资源挑战。 OmniSense以我们对360^∘视频的测量见解为动力,引入了一个轻量级的球形兴趣区域(SRoI)预测算法,以360^∘帧修剪冗余信息。 结合视频内容和网络动态,然后智能地扩展视觉模型,以优化资源利用率分析预测的SRoIs。 我们通过商品设备实现OmniSense的原型,并在收集的360^∘视频的不同现实世界中对其进行评估。 广泛的评估结果表明,与资源无关的基线相比,它提高了19.8% - 114.6%的准确率,具有相似的端到端延迟。 同时,它达到2.0× - 2.4×加速,同时保持精度与基线的最高精度相当。
现有的文本到图像扩散模型在生成以文本提示为指导的高质量图像方面表现出非凡的能力。 然而,通过精确的空间控制实现多主题组合合成仍然是一个重大挑战。 在这项工作中,我们解决了布局可控多主体合成(LMS)的任务,这既需要参考主体的忠实重建,也需要在统一图像中准确放置在指定区域。 虽然最近的进展单独改进了布局控制和主题合成,但现有方法难以同时满足这一综合任务中空间精度和身份保存的双重要求。 为了弥补这一差距,我们提出了MUSE,这是一个统一的合成框架,它采用连接的交叉注意力(CCA)通过显式语义空间扩展将布局规范与文本指导无缝集成。 拟议的CCA机制使空间约束和文本描述之间双向模式对齐不受干扰。 此外,我们设计了一个渐进的双阶段训练策略,将LMS任务分解为可学习的子目标,以实现有效的优化。 广泛的实验表明,与现有解决方案相比,MUSE实现了零拍摄端到端的生成,具有卓越的空间精度和身份一致性,推进了可控图像合成的前沿。 我们的代码和模型可在https://github.com/pf0607/MUSE上找到。
以加速器为中心的计算集群正在成为各种人工智能工作负载的有效解决方案。 然而,当前的集成策略往往会损害数据移动效率,并遇到硬件和软件中的兼容性问题。 这可以防止统一的方法,平衡性能和易用性。 为此,我们介绍了SNAX,这是一个开源集成的HW-SW框架,通过新颖的混合耦合方案实现高效的多加速器平台,由松散耦合的异步控制和紧密耦合的数据访问组成。 SNAX带来了可重用的硬件模块,旨在提高计算加速器利用率,其可定制的基于MLIR的编译器可以自动化关键系统管理任务,共同实现定制多加速器计算集群的快速开发和部署。 通过广泛的实验,我们展示了SNAX在低功耗异构SoC中的效率和灵活性。 与其他加速器系统相比,加速器可以轻松集成和编程,以实现> 10倍的神经网络性能改进,同时保持加速器利用率> 90
链接预测是图形挖掘中最基本的任务之一,它激发了最近利用对比学习来提高性能的研究。 然而,我们观察到这些研究的两个主要弱点:i)缺乏关于链接预测的对比性学习的理论分析,以及ii)在对比学习中对节点学位的考虑不足。 为了解决上述弱点,我们提供了第一个关于链接预测的对比学习的正式理论分析,我们的分析结果可以推广到基于自动解码器的链接预测模型和对比学习。 受分析结果的激励,我们提出了一种新的图增强方法,边缘平衡增强(EBA),它将图中的节点度调整为增强。 然后,我们提出了一种新的方法,名为“与边缘平衡增强(CoEBA)的对比链接预测”,该方法集成了拟议的EBA和拟议的新的对比损失,以提高模型性能。 我们在8个基准数据集上进行实验。 结果表明,我们提出的CoEBA明显优于其他最先进的链接预测模型。
我们为 n-qutrit Clifford 电路提出了一整套重写规则,其中 n 是任何非负整数。 这是量子电路在奇数主维的任何片段的第一个完整性结果。 我们首先将 Selinger 的 n-qubit Clifford 电路的正常形式推广到 qutt 设置。 然后,我们提出了一个重写系统,通过该系统,任何Clifford电路都可以简化为这种正常形式。 然后,我们将此程序中的重写规则简化为一组小的自然规则,在生成器和关系方面对 qutrit Clifford 单元组进行了干净的演示。
有限的数据已成为扩大线下模仿学习(IL)的主要瓶颈。 在本文中,我们建议在有限的专家数据下提高IL性能,引入一个训练前阶段,学习动态表示,从过渡动力学的因子化。 我们首先从理论上证明离线IL的最佳决策变量在于表示空间,大大减少了下游IL中要学习的参数。 此外,动态表示可以从以相同动态收集的任意数据中学习,从而允许重用海量非专家数据并减轻有限的数据问题。 我们展示了一个可处理的损耗函数,灵感来自噪声对比度估计,以学习训练前阶段的动力学表示。 关于MuJoCo的实验表明,我们提议的算法可以模仿专家策略,只有一个单一的轨迹。 对真实四足动物的实验表明,我们可以利用模拟器数据中预先训练的动态表示来学习从一些真实世界的演示中行走。
劳动力短缺严重影响了肉类加工行业。 自动化技术有可能支持肉类行业,帮助工人,提高工作质量。 然而,肉类加工中现有的自动化是高度专业化的,不灵活的,成本密集。 我们的目标不是强迫制造商为这个过程的每一步购买一个单独的设备,而是开发与人类一起工作的通用机器人系统,以执行多个肉类加工任务。 通过最近对行业专家的调查,我们确定了将这些协作机器人与人类工人集成在一起的两个主要挑战。 第一,必须有措施确保人类同事的安全;第二,同事需要了解机器人在做什么。 本文通过引入通用肉类加工机器人的安全和透明度框架来解决这两个挑战。 为了安全起见,我们实施了一个持续监控附近人类的手工检测系统。 这个系统可以在人类接近操作机器人的情况下阻止机器人。 我们还开发了一种配备力传感器的仪器刀,可以区分肉、骨头或固定装置等物体的接触。 为了透明,我们引入了一种方法,可以检测机器人对其性能的不确定性,并使用LED接口将这种不确定性传达给人类。 此外,我们设计了一个图形界面,显示机器人的计划,并允许人类提供计划切割的反馈。 总的来说,我们的框架可以确保安全运行,同时让人类工人了解我们通过用户研究验证的机器人操作。