人机交互长期以来一直想象着理解我们的技术,从我们的偏好和习惯,到我们日常行动的时间和目的。 然而,当前的用户模型仍然支离破碎,根据特定的应用程序进行狭义定制,并且无法实现这些愿景所需的灵活推理。 本文介绍了通用用户模型(GUM)的架构,该模型通过观察您与计算机的任何交互来了解您。 GUM以用户的任何非结构化观察(例如设备截图)作为输入,并构建了捕获用户知识和偏好的置信加权命题。 GUM可以推断用户正在准备他们与朋友发送消息的婚礼。 或者认识到用户正在通过观察多个停滞的编辑和切换到阅读相关工作来与合作者对草稿的反馈作斗争。 GUM引入了一种架构,从多模态观察中推断出有关用户的新命题,检索上下文的相关命题,并不断修改现有命题。 为了说明GUM启用的应用程序的广度,我们展示了它们如何通过上下文来增强基于聊天的助手,管理操作系统通知以选择性地呈现重要信息,并启用交互式代理,以适应跨应用程序的偏好。 我们还实例化主动助手(GUMBOs),使用他们的GUM发现并执行代表用户的有用建议。 在我们的评估中,我们发现GUM对用户进行了校准和准确的推断,并且基于GUM构建的助手主动识别和执行用户不会认为明确请求的操作。 总之,GUM引入了利用多模态模型来理解非结构化环境的方法,实现了HCI的长期愿景和预测用户需求的全新的交互式系统。
大型语言模型(LLM)的最新进展显着改善了文本到语音(TTS)系统,增强了对语音风格,自然性和情感表达的控制,这使TTS系统更接近人类水平的性能。 虽然平均意见评分(MOS)仍然是TTS系统评估的标准,但它受到主观性,环境不一致和有限的可解释性的影响。 现有的评估数据集也缺乏多维设计,往往忽略了说话风格、语境多样性和陷阱话语等因素,这在中国TTS评价中尤为明显。 为了应对这些挑战,我们引入了音频图灵测试(ATT),这是一个多维的中文语料库数据集ATT-Corpus与一个简单的图灵测试启发的评估协议。 ATT没有依赖复杂的MOS刻度或直接的模型比较,而是要求评估人员判断声音是否听起来是人类的声音。 这种简化降低了评级偏差,提高了评估稳健性。 为了进一步支持快速模型开发,我们还将Qwen2-Audio-Instruct与人工判断数据作为自动评估的自动ATT进行微调。 实验结果表明,ATT通过其多维设计有效地区分了特定能力维度的模型。 Auto-ATT还证明了与人类评估的紧密配合,证实了其作为快速可靠的评估工具的价值。 白盒 ATT-Corpus 和 Auto-ATT 可以在 ATT Hugging Face Collection (https : / /huggingface.co/collections/meituan/audio-turing-test-6824463203648faeaf38a4)中找到。
社交媒体反馈排名算法失败时,他们过于狭隘地关注参与作为他们的目标。 文献断言了这些算法应该解释的各种价值 - 从福祉到富有成效的话语 - 远远超过单个主题或理论所能封装的。 作为回应,我们介绍了社交媒体算法的值库:一组由78个值组成的多元化数据集,这些值在整个文献中阐述,实现为LLM驱动的内容分类器,可以单独或组合安装,用于社交媒体源的实时重新排序。 我们通过开发浏览器扩展Alexandria来调查这种方法,该扩展程序根据用户所需的值实时重新对X / Twitter提要进行排名。 通过定性(N=12)和定量(N=257)的两项用户研究,我们发现多样化的用户需求需要一个大的值库,从而实现更细微的偏好和更大的用户控制。 通过这项工作,我们认为,社交媒体排名算法中缺少的价值今天可以通过最终用户工具进行操作和部署。
对于许多专业人士来说,每天与大量个人互动是司空见惯的事情,这可能导致在回顾具体细节时面临挑战:这个人是谁? 我们上次谈了什么? 增强现实(AR)眼镜的优势,配备了视觉和听觉数据采集功能,提出了一个解决方案。 在我们的工作中,我们实施了具有先进大型语言模型(LLM)和计算机视觉技术的AR秘书代理。 该系统可以谨慎地向佩戴者提供实时信息,确定他们正在与谁交谈并总结以前的讨论。 为了验证AR秘书,我们与13名参与者进行了一项用户研究,并表明我们的技术可以有效地帮助用户在我们的研究中增加多达20%的内存增强。
尽管它们的性能,大型语言模型(LLM)可能会无意中延续他们在所训练的数据中发现的偏见。 通过分析LLM对引起偏见的头条新闻的反应,我们发现这些模型通常反映了人类的偏见。 为了解决这个问题,我们探索了通过响应聚合来缓解偏见的基于人群的策略。 我们首先证明,简单地平均响应来自多个LLM,旨在利用“人群的智慧”,可能会加剧现有的偏见,因为LLM人群中的多样性有限。 相比之下,我们表明,本地加权聚合方法更有效地利用LLM人群的智慧,实现了偏置缓解和提高准确性。 最后,认识到LLM(准确性)和人类(多样性)的互补优势,我们证明了包含两者的混合人群显着提高了性能,并进一步减少了种族和性别相关环境中的偏见。
大型语言模型(LLM)的最新进展显着改善了文本到语音(TTS)系统,增强了对语音风格,自然性和情感表达的控制,这使TTS系统更接近人类水平的性能。 虽然平均意见评分(MOS)仍然是TTS系统评估的标准,但它受到主观性,环境不一致和有限的可解释性的影响。 现有的评估数据集也缺乏多维设计,往往忽略了说话风格、语境多样性和陷阱话语等因素,这在中国TTS评价中尤为明显。 为了应对这些挑战,我们引入了音频图灵测试(ATT),这是一个多维的中文语料库数据集ATT-Corpus与一个简单的图灵测试启发的评估协议。 ATT没有依赖复杂的MOS刻度或直接的模型比较,而是要求评估人员判断声音是否听起来是人类的声音。 这种简化降低了评级偏差,提高了评估稳健性。 为了进一步支持快速模型开发,我们还将Qwen2-Audio-Instruct与人工判断数据作为自动评估的自动ATT进行微调。 实验结果表明,ATT通过其多维设计有效地区分了特定能力维度的模型。 Auto-ATT还证明了与人类评估的紧密配合,证实了其作为快速可靠的评估工具的价值。 白盒 ATT-Corpus 和 Auto-ATT 可以在 ATT Hugging Face Collection (https : / /huggingface.co/collections/meituan/audio-turing-test-6824463203648faeaf38a4)中找到。
社交媒体反馈排名算法失败时,他们过于狭隘地关注参与作为他们的目标。 文献断言了这些算法应该解释的各种价值 - 从福祉到富有成效的话语 - 远远超过单个主题或理论所能封装的。 作为回应,我们介绍了社交媒体算法的值库:一组由78个值组成的多元化数据集,这些值在整个文献中阐述,实现为LLM驱动的内容分类器,可以单独或组合安装,用于社交媒体源的实时重新排序。 我们通过开发浏览器扩展Alexandria来调查这种方法,该扩展程序根据用户所需的值实时重新对X / Twitter提要进行排名。 通过定性(N=12)和定量(N=257)的两项用户研究,我们发现多样化的用户需求需要一个大的值库,从而实现更细微的偏好和更大的用户控制。 通过这项工作,我们认为,社交媒体排名算法中缺少的价值今天可以通过最终用户工具进行操作和部署。
对于许多专业人士来说,每天与大量个人互动是司空见惯的事情,这可能导致在回顾具体细节时面临挑战:这个人是谁? 我们上次谈了什么? 增强现实(AR)眼镜的优势,配备了视觉和听觉数据采集功能,提出了一个解决方案。 在我们的工作中,我们实施了具有先进大型语言模型(LLM)和计算机视觉技术的AR秘书代理。 该系统可以谨慎地向佩戴者提供实时信息,确定他们正在与谁交谈并总结以前的讨论。 为了验证AR秘书,我们与13名参与者进行了一项用户研究,并表明我们的技术可以有效地帮助用户在我们的研究中增加多达20%的内存增强。
大型语言模型(LLM)在各个部门的广泛整合突出表明,需要实证研究来理解其偏见,思维模式和社会影响,以确保道德和有效利用。 在这项研究中,我们提出了评估LLM的新框架,重点是通过定量分析436个二元选择问题来揭示他们的意识形态偏见,其中许多问题没有明确的答案。 通过将我们的框架应用于ChatGPT和双子座,研究结果表明,虽然LLM通常在许多主题上保持一致的意见,但它们的意识形态因模型和语言而异。 值得注意的是,ChatGPT表现出改变他们的意见以配合提问者的意见的倾向。 这两种模式也表现出有问题的偏见,不道德或不公平的主张,这可能会产生负面的社会影响。 这些结果强调了在评估LLM时解决意识形态和道德考虑的重要性。 拟议的框架提供了一种灵活的定量方法来评估LLM行为,为开发更社交一致的人工智能系统提供了有价值的见解。
随着人工智能系统从静态工具向动态代理演进,传统的分类治理框架(基于固定风险层、自主程度或人类监督模型)本身也越来越不足。 基于基础模型、自我监督学习和多智能架构的系统越来越模糊了类别设计到警察的边界。 在这个视角中,我们提出了维度治理的理由:一个跟踪决策权限、流程自治和问责制(3As)如何在人AI关系中动态分配的框架。 这种方法的一个关键优势是能够明确监控系统向关键治理阈值和跨关键治理阈值的运动,从而在风险实现之前进行先发制人的调整。 这种尺寸方法为更适应性的分类提供了必要的基础,使阈值和分类能够随着新兴能力而发展。 虽然类别对于决策仍然至关重要,但将它们建立在维度的基础上,可以实现静态方法无法实现的针对具体情况的适应性和利益相关者响应的治理。 我们概述了关键维度,关键信任阈值,以及说明僵化分类框架失败的实际例子 - 维度思维可以为人工智能前沿的治理和创新提供更具弹性和面向未来的前进道路。
精神疾病影响全球数百万人,但由于主观评估和可及性问题,他们的诊断在临床实践中面临重大挑战,导致治疗的潜在延误。 为了帮助解决这个问题,我们介绍了Heart2Mind,这是一个以人为中心的有争议的精神疾病诊断系统,使用可穿戴心电图(ECG)监视器。 我们的方法利用心脏生物标志物,特别是心率变异性(HRV)和R-R间隔(RRI)时间序列,作为精神疾病中自主神经功能障碍的客观指标。 该系统包括三个关键组件:(1)用于从Polar H9/H10设备进行实时数据采集的心脏监测接口(CMI);(2)通过集成的时间频域分析处理RRI时间序列的多尺度时间频变压器(MSTFT);(3)将自对抗解释(SAE)与可竞争的大型语言模型(LLM)相结合的可质疑诊断接口(CDI)。 我们的 MSTFT 实现了 91.7 的一次性交叉验证,优于最先进的方法。 SAE通过比较基于注意力和梯度的解释,成功地检测了模型预测中的不一致之处,而LLM使临床医生能够验证正确的预测并质疑错误的预测。 这项工作展示了将可穿戴技术与可解释人工智能(XAI)和有争议的LLM相结合的可行性,以创建一个透明,有争议的精神诊断系统,在利用先进的AI功能的同时保持临床监督。 我们的实现可公开查阅:https://github.com/Analytics-Everywhere-Lab/heart2mind。
目前的侵入性辅助技术旨在推断严重瘫痪患者的高维运动控制信号。 然而,他们面临着重大挑战,包括公众接受,寿命有限和商业化障碍。 与此同时,非侵入性替代品通常依赖于容易发生神器的信号,需要长时间的用户培训,并且难以为灵巧的任务提供强大的高维控制。 为了解决这些问题,本研究引入了一种新的以人为本的多模态AI方法,作为丢失的运动功能的智能补偿机制,这些功能可能使严重瘫痪的患者能够控制高维辅助设备,例如灵巧的机械臂,使用有限和非侵入性的输入。 与当前最先进的(SoTA)非侵入性方法相反,我们的上下文感知,多模态共享自治框架集成了深度强化学习算法,将有限的低维用户输入与实时环境感知相结合,实现对人类意图的自适应,动态和智能解释复杂的灵巧操作任务,例如选择和位置。 我们与超过50,000个计算机模拟事件进行合成用户训练的ARAS(用于在共享自治中放大有限输入的自适应强化学习)的结果证明了拟议的闭环人循环范式的首次成功实现,优于SoTA共享自治算法。 在零射击模拟到真实转移之后,对23个人类受试者进行了ARAS评估,证明了动态意图检测的高精度以及用于灵巧拾取和位置任务的平稳,稳定的3D轨迹控制。 ARAS用户研究实现了92.88辅助技术的高任务成功率。
模仿逼真的面部表情的能力对于从事情感人机机器人交流的人形机器人至关重要。 然而,缺乏包含具有适当注释的不同人形面部表情的数据集阻碍了逼真的人形面部表情模仿的进展。 为了应对这些挑战,我们引入了X2C(任何控制),这是一个数据集,具有细致入微的面部表情,用于逼真的人形模仿。 通过X2C,我们贡献:1)一个高质量,高多样性的大规模数据集,包括100,000(图像,控制值)对。 每张图片都描绘了一个人形机器人,展示了各种各样的面部表情,注释了30个代表地面真相表情配置的控制值; 2)X2CNet,一种新颖的人形面部表情模仿框架,从X2C中学习细微的人形表情与其底层控制值之间的对应关系。 它为不同的人类表演者在野外进行面部表情模仿,为模仿任务提供基线,展示我们数据集的潜在价值; 3)在物理人形机器人上进行真实世界的演示,突出其推进逼真的人形面部表情模仿的能力。 代码和数据:https://lipzh5.github.io/X2CNet/
为了再现自然站立运动,最近的研究强调了辅助机器人和人类之间协调的重要性。 然而,许多非可穿戴辅助设备一直在努力复制自然运动轨迹。 虽然可穿戴设备与人体提供更好的协调,但它们在完全隔离机械和电气危害方面提出了挑战。 为了解决这个问题,我们开发了一种新颖的站立辅助机器人,该机器人集成了可穿戴和非可穿戴系统的功能,旨在实现高协调性,同时保持安全性。 该装置采用与人类关节结构对齐的四联机制,旨在再现臀部的S形轨迹和膝盖的弧形轨迹,在自然站立运动期间。 使用陀螺仪获得特定主题的轨迹数据,并确定链路长度以沿着最佳路径驱动座椅。 实施了使用步进电机的前馈速度控制,并根据机制的几何约束评估了轨迹的可重复性。 进行了重量固定在座椅上的承重实验,以评估不同条件下的轨迹精度。 结果表明,髋关节和膝关节轨迹的繁殖误差保持在座椅总排位移的约4%以内,显示出对目标路径的高保真度。 此外,耐久性测试、热安全性评估和风险评估证实了该系统在室内使用的可靠性和安全性。 这些发现表明,拟议的设计为开发适应个人身体特征的辅助技术提供了一种有希望的方法,该技术在老年人护理和康复方面具有潜在的应用。
这项研究侧重于行走过程中各种身体部位的速度模式,并提出了一种评估步态对称性的方法。 传统的运动分析研究根据心肌电图(EMG)信号或左右两侧加速度的差异评估了步态对称性。 相反,本文使用LTI系统对分段协调进行了建模,并提出了一个不同度量来评估对称性。 该方法在五个对称和不对称步态的受试者身上进行了测试。
本文介绍了一种新的数据集和评估基准,旨在评估和改进可在边缘设备上部署的小型语言模型,重点是在智能家居环境中从多会话自然语言交互中进行用户分析。 数据集的核心是结构化的用户配置文件,每个配置文件都由一组例程定义 - 上下文触发的,可重复的行为模式,这些模式管理用户如何与家庭系统交互。 使用这些配置文件作为输入,大型语言模型(LLM)生成相应的交互会话,模拟用户与其设备之间的逼真,多样化和上下文感知的对话。 此数据集支持的主要任务是配置文件重建:仅从交互历史记录中推断用户例程和首选项。 为了评估当前模型在现实条件下如何出色地执行此任务,我们测试了几种最先进的紧凑型语言模型,并将其性能与大型基础模型进行了比较。 我们的结果表明,虽然小型模型在重建配置文件方面表现出一些能力,但它们在准确捕获用户行为方面仍然远远低于大模型。 这种性能差距带来了重大挑战 - 特别是因为设备上处理提供了关键优势,例如保护用户隐私,最大限度地减少延迟,以及无需依赖云即可实现个性化体验。 通过提供现实、结构化的测试平台,用于在这些限制下开发和评估行为建模,我们的数据集是实现智能、尊重隐私的人工智能系统的关键一步,这些系统可以直接在用户拥有的设备上学习和适应。
人工智能决策支持系统旨在帮助医疗服务提供者在医疗紧急情况下以有限的信息快速决策。 开发这些系统的一个关键挑战是支持提供者解释系统输出,以做出最佳的治疗决策。 在这项研究中,我们设计并评估了人工智能支持决策支持系统,以帮助提供者治疗创伤性损伤患者。 我们首先与医生进行了用户研究,以识别和设计信息类型和人工智能输出,用于决策支持显示。 然后,我们与来自六个卫生系统的35家医疗服务提供者进行了在线实验,以评估两种人与AI交互策略:(1)AI信息合成和(2)AI信息和建议。 我们发现,与没有获得人工智能支持相比,提供商更有可能在提供人工智能信息和建议时做出正确的决定。 我们还确定了在时间关键医疗事件期间提供人工智能建议的两个社会技术障碍:(1)提供建议的准确性时间权衡,(2)提供者之间对建议的看法两极化。 我们讨论了开发时间关键事件中使用的人工智能决策支持的三种影响,有助于在这种情况下对人与人工智能交互的有限研究。
社区参与进程构成了民主治理的关键基础,但经常与资源限制、意义挑战和包容性参与的障碍作斗争。 这些过程依赖于公共领导人和社区组织之间的建设性沟通,其特点是理解,信任,尊重,合法性和代理。 随着人工智能(AI)技术越来越多地融入公民环境,它们提供了有希望的能力,可以简化资源密集型工作流程,揭示社区反馈的新见解,将复杂的信息转化为可访问的格式,并促进跨社会鸿沟的反思。 然而,这些相同的系统有可能通过准确性问题,透明度差距,偏见放大和对人类机构的威胁来破坏民主进程。 在本文中,我们研究了人与人工智能协作如何通过识别关键沟通途径和提出设计考虑因素来解决这些风险并改变公民沟通动态,这些设计考虑因素在利用计算机自动化的同时,对公共领导人和社区的决策保持高度控制。 通过深思熟虑地整合人工智能,在保护机构的同时扩大人与人的联系和理解,社区参与进程可以利用人工智能来促进民主治理中更具建设性的沟通。
学习分析仪表板(LAD)通常缺乏增强学习者的能力,经常将数据可视化优先于认知过程,这对于将数据转化为可操作的学习策略至关重要。 这代表了该领域的一个重大差距:虽然许多研究都集中在数据收集和演示上,但缺乏全面的模型,说明LAD如何积极支持学习者的感官创造和自我调节。 本文介绍了自适应理解框架(AUF),这是一个以学习者为中心的LAD设计的新概念模型。 AUF试图通过整合情境意识,动态感化策略,适应性机制和元认知支持的多维模型来解决这一限制。 这将LAD转变为动态学习合作伙伴,积极脚手架学习者的感官。 与倾向于孤立地对待这些方面的现有框架不同,AUF强调其动态和相互交织的关系,创建一个个性化和适应性的学习生态系统,响应个人需求和不断发展的理解。 本文详细介绍了AUF的核心原则,关键组成部分,并提出了未来实证验证的研究议程。 通过培养对学习数据的更深入,更具操作性的理解,AUF启发的LAD具有促进更有效,公平和引人入胜的学习体验的潜力。
少女在向成年过渡期间面临严重的心理健康挑战,往往经历来自各种来源的压力加剧。 虽然已经探索了各种自我披露的互动技术来支持缓解压力,但人们对如何通过具体的方法来鼓励与压力相关的自我披露知之甚少。 这项研究展示了一个以Embodied Probes为中心的联合设计研讨会,这是一系列包含具体方法和技术的人工制品和活动。 在研讨会期间,9名年龄在15至18岁之间的参与者与身体接触,通过有形手段表达身体感觉,并根据他们个人对压力感知和缓解的需求量身定制的原型。 该研讨会揭示了对青春期女孩压力的躯体症状,来源和应对策略的见解,以及体现的方法如何支持他们的压力自我披露。 本文通过利用具体技术支持年轻女性心理健康的自我披露,为HCI社区提供了设计意义。
与直接执行任务的人类相比,远程操作中的任务完成时间方面的任务表现仍然远远落后。 与之相关的一个重大影响是人类执行变换和对齐的能力,这直接受到观点和运动重定向策略的影响。 在现代远程操作系统中,运动重定向通常通过一次性校准或切换模式来实现。 复杂的任务,如连接的螺丝,可能很困难,因为操作符必须对齐(例如镜像)旋转和转换输入命令。 最近的研究表明,翻译和旋转的分离导致任务性能的提高。 这项工作提出了一种正式的运动重定向方法,该方法将转换和旋转输入命令分开。 然后,该方法包含在基于最佳控制轨迹规划器中,并显示在UR5e机械手上工作。
为了实现有效的人机协作,仅仅优化AI性能而不考虑人为因素是不够的。 最近的研究表明,设计考虑到人类行为的AI代理会导致人类与AI协作的性能提高。 然而,大多数现有方法的一个限制是他们的假设,即无论AI代理的行为如何,人类行为仍然是静态的。 在现实中,人类可以根据他们对人工智能意图的信念来调整自己的行动,特别是他们认为人工智能试图根据其行为完成的子任务。 在本文中,我们通过使协作AI代理能够考虑其人类合作伙伴对其意图的信念来解决这一限制,即人类合作伙伴认为AI代理试图完成的目标,并相应地设计其行动计划,以促进更有效的人与AI协作。 具体来说,我们开发了一个人类信仰模型,捕捉人类如何解释和推理他们的人工智能合作伙伴的意图。 利用这种信念模型,我们创建了一个人工智能代理,在设计与人类互动的策略时,它结合了人类的行为和人类信仰。 通过广泛的现实世界的人类主题实验,我们证明了我们的信念模型更准确地捕获了人类对人工智能意图的看法。 此外,我们表明,我们的人工智能代理,旨在解释人类对其意图的信念,显着提高了人类与人工智能合作的表现。
以人为中心的人工智能(HCAI)是一种设计理念,在人工智能系统的设计、开发、部署和使用中优先考虑人类,旨在最大限度地提高人工智能的好处,同时减轻其负面影响。 尽管在文献中越来越突出,但缺乏实施方法的指导对HCAI实践提出了挑战。 为了解决这一差距,本文提出了一个全面的HCAI方法框架(HCAI-MF),包括五个关键组成部分:HCAI要求层次结构,方法和方法分类,过程,跨学科协作方法和多层次的设计范式。 一项案例研究证明了HCAI-MF的实际影响,同时该论文还分析了实施挑战。 提供了可操作的建议和“三层”HCAI实施战略,以应对这些挑战并指导HCAI-MF的未来发展。 HCAI-MF作为一种系统且可执行的方法,能够克服当前的差距,实现AI系统的有效设计,开发,部署和使用,并推进HCAI实践。
在线空间的主持人的一个主要任务是规范制定,主要是为社区中的用户行为创建共享规范。 平台设计原则强调强调遵守规范的例子和明确说明社区规范的重要性。 然而,规范和价值观因社区而异,超越了内容级属性,使得平台和研究人员难以提供自动化的方法来识别要突出显示的理想行为。 目前检测可取性的自动化方法仅限于亲社会行为的衡量标准,但我们不知道这些措施是否充分捕捉到了社区价值的范围。 在本文中,我们使用表达社区批准的upvotes作为可取性的代理,并在Reddit上的80个热门子社区中查看16,000条高度投票的评论。 使用大型语言模型,我们从这些评论中提取值,分别根据这些评论(2016年和2022年)的频率,并分别根据这些评论的频率编制2016年和2022年的64和72个宏,中和微值。 此外,我们发现,用于测量亲社会性的现有计算模型不足以平均捕获我们提取的82%的值。 最后,我们表明,我们的方法不仅可以从以前的分类法中提取大多数定性识别值,还可以发现在实践中实际鼓励的新价值。 我们的研究结果突出表明,需要超越现有亲社会措施的细致入微的可取性模型。 这项工作对提高主持人对其社区价值观的理解具有重要意义,并提供了一个框架,可以通过更大规模的内容分析来补充定性方法。
设计有可能在面对复杂的社会挑战时培养希望,特别是那些CSCW研究的核心挑战。 这些挑战通常通过旨在减少和预防伤害的努力来解决 - 必要但有时限制的方法可能会无意中缩小我们对可能的集体意识。 这个为期一天的面对面研讨会建立在CSCW 2024(https : / /positech-cscw-2024.github.io /)的Positech研讨会上,提供了超越被动解决问题的实际方法,以建立主动的目标设定和前进的道路。 我们探索协作和反思设计方法如何帮助研究社区驾驭不确定性,扩大可能性,并促进有意义的变革。 通过将设计思维与希望理论联系起来,将希望作为“目标导向”,“途径”和“代理”思维的相互作用,我们将研究研究人员如何在面对复杂性和约束时绘制新的方向。 通过实践活动,包括问题重塑,建立与希望理论一致的设计方法的共享分类,并反思维持有希望的研究轨迹意味着什么,参与者将制定策略,将故意有希望的方法嵌入到他们的研究中。