量子计算(QC)和机器学习(ML)的快速发展引发了人们的兴趣,推动了量子机器学习(QML)算法的广泛探索,以应对广泛的复杂挑战。 高性能QML模型的开发需要专家级的专业知识,对QML的广泛采用提出了关键挑战。 关键障碍包括设计有效的数据编码策略和参数化量子电路,这两种电路对QML模型的性能都至关重要。 此外,测量过程通常是被忽视的 - 现有的QML模型采用的预定义测量方案可能不符合目标问题的具体要求。 我们提出了一个创新框架,使量子系统的可观察性,即Hermitian矩阵可训练。 这种方法采用端到端的可微分学习框架,同时优化用于编程参数化可观测值和标准量子电路参数的神经网络。 值得注意的是,量子可观测参数由神经网络动态编程,允许可观测数据根据输入数据流实时调整。 通过数值模拟,我们证明所提出的方法有效地在可变量子电路中动态地编程可观测,与现有方法相比取得了卓越的结果。 值得注意的是,它提供了增强的性能指标,例如更高的分类精度,从而显著提高了QML模型的整体有效性。
模拟/混合信号电路设计由于工艺、电压和温度(PVT)变化导致性能下降而面临重大挑战。 为了实现商业级的可靠性,需要迭代手动设计修订和广泛的统计模拟。 虽然几项研究旨在自动化感知变化的模拟设计,以减少上市时间,但现实世界晶圆中的大量不匹配尚未得到彻底解决。 在本文中,我们介绍了GLOVA,一个模拟电路大小框架,可有效管理各种随机不匹配的影响,以提高对PVT变化的稳健性。 在建议的方法中,利用对风险敏感的强化学习来考虑受PVT变化影响的可靠性约束,并引入了基于集成的评论家来实现样本效率学习。 对于设计验证,我们还提出 μ-σ 评估和仿真重新排序方法,以降低识别失败设计的仿真成本。 GLOVA支持通过工业级PVT变异评估方法进行验证,包括角模拟以及全球和本地蒙特卡洛(MC)模拟。 与以前最先进的变数模拟尺寸框架相比,GLOVA在样品效率方面实现了高达80.5×的改进,并且减少了76.0×的时间。
氟化化合物,通常被称为永远的化学物质,在半导体制造的各个步骤中至关重要,如光刻,蚀刻,室清洁等。 永远的化学排放可以表现出比二氧化碳大数千倍的全球变暖潜力,并在大气中持续数千年。 尽管受到严重影响,但计算机系统中的大多数可持续性工作都集中在碳排放上。 我们通过引入ForgetMeNot来解决这一差距,ForgetMeNot是一种建模工具,通过集成制造设施特定的实践和硬件规范来量化氟化化合物排放,并使用制造设施的实际排放数据验证其准确性。 我们展示了ForgetMeNot如何使制造设施能够优化减排的设计和材料使用决策,并为研究人员提供校准硬件设计排放估算的方法。 当ForgetMeNot用于分析制造CPU,DRAM和存储的排放时,它说明了硬件一代,光刻技术和容量如何影响氟化化合物排放。 最后,我们演示了数据中心运营商如何在平衡性能需求的同时组装低排放服务器。 通过将氟化排放纳入制造决策,ForgetMeNot为构建更可持续的系统铺平了道路。
神经形态计算以其事件驱动的计算和大规模并行性为特征,对于处理低功耗环境中的数据密集型任务特别有效,例如计算大规模图形的最小生成树(MST)。 动态突触修饰的引入为神经形态算法提供了新的设计机会。 在这一基础上,我们提出了一个基于SNN的工会排序例程和Kruskal用于MST计算的算法的管道版本。 我们的方法的事件驱动性质允许同时执行两个完全解耦的阶段:神经形态排序和联合查找。 与DIMACS10数据集中基于大规模图形的Prim方法相比,我们的方法表现出卓越的性能,实现了269.67x到1283.80x的加速,中位速度为540.76x。 我们进一步评估了Kruskal算法的两个串行变体的管道实现,这些变体依赖于神经形态排序和神经形态径向排序,在大多数场景中显示出显着的性能优势。
6G移动网络是继5G之后的下一个进化步骤,预测移动流量会爆炸式增长。 它提供了超低延迟,更高的数据速率,高设备密度和无处不在的覆盖范围,对各个领域的服务产生积极影响。 节能是电信部门新系统的主要关注点,因为预计所有参与者都将减少碳足迹,以促进减缓气候变化。 网络切片是6G/5G移动网络和其他各种新系统的基本推动因素,如物联网(IoT),车辆互联网(IoV)和工业物联网(IIoT)。 然而,嵌入在网络切片架构中的节能方法仍然是一个研究空白。 本文讨论了如何在网络切片架构中嵌入节能方法,这是全球几乎所有新创新系统的基本推动因素。 本文的主要贡献是在网络切片中节约能源的建议。 这是通过在 NS 架构中部署 ML 原生代理来实现的,可以根据用户需求动态编排和优化资源。 SFI2网络切片参考架构是对比学习改善资源分配节能的具体用例。
量子计算(QC)和机器学习(ML)的快速发展引发了人们的兴趣,推动了量子机器学习(QML)算法的广泛探索,以应对广泛的复杂挑战。 高性能QML模型的开发需要专家级的专业知识,对QML的广泛采用提出了关键挑战。 关键障碍包括设计有效的数据编码策略和参数化量子电路,这两种电路对QML模型的性能都至关重要。 此外,测量过程通常是被忽视的 - 现有的QML模型采用的预定义测量方案可能不符合目标问题的具体要求。 我们提出了一个创新框架,使量子系统的可观察性,即Hermitian矩阵可训练。 这种方法采用端到端的可微分学习框架,同时优化用于编程参数化可观测值和标准量子电路参数的神经网络。 值得注意的是,量子可观测参数由神经网络动态编程,允许可观测数据根据输入数据流实时调整。 通过数值模拟,我们证明所提出的方法有效地在可变量子电路中动态地编程可观测,与现有方法相比取得了卓越的结果。 值得注意的是,它提供了增强的性能指标,例如更高的分类精度,从而显著提高了QML模型的整体有效性。
神经形态计算以其事件驱动的计算和大规模并行性为特征,对于处理低功耗环境中的数据密集型任务特别有效,例如计算大规模图形的最小生成树(MST)。 动态突触修饰的引入为神经形态算法提供了新的设计机会。 在这一基础上,我们提出了一个基于SNN的工会排序例程和Kruskal用于MST计算的算法的管道版本。 我们的方法的事件驱动性质允许同时执行两个完全解耦的阶段:神经形态排序和联合查找。 与DIMACS10数据集中基于大规模图形的Prim方法相比,我们的方法表现出卓越的性能,实现了269.67x到1283.80x的加速,中位速度为540.76x。 我们进一步评估了Kruskal算法的两个串行变体的管道实现,这些变体依赖于神经形态排序和神经形态径向排序,在大多数场景中显示出显着的性能优势。
6G移动网络是继5G之后的下一个进化步骤,预测移动流量会爆炸式增长。 它提供了超低延迟,更高的数据速率,高设备密度和无处不在的覆盖范围,对各个领域的服务产生积极影响。 节能是电信部门新系统的主要关注点,因为预计所有参与者都将减少碳足迹,以促进减缓气候变化。 网络切片是6G/5G移动网络和其他各种新系统的基本推动因素,如物联网(IoT),车辆互联网(IoV)和工业物联网(IIoT)。 然而,嵌入在网络切片架构中的节能方法仍然是一个研究空白。 本文讨论了如何在网络切片架构中嵌入节能方法,这是全球几乎所有新创新系统的基本推动因素。 本文的主要贡献是在网络切片中节约能源的建议。 这是通过在 NS 架构中部署 ML 原生代理来实现的,可以根据用户需求动态编排和优化资源。 SFI2网络切片参考架构是对比学习改善资源分配节能的具体用例。
中性原子量子计算机是最有前途的量子架构之一,在可扩展性、动态可重配置性和大规模实现的潜力方面提供了优势。 这些特性带来了独特的编译挑战,特别是在编译效率方面,同时适应硬件灵活性。 然而,现有方法在规模上遇到了显著的性能瓶颈,阻碍了实际应用。 我们提出了物理感知编译(PAC),一种提高编译效率的方法,同时保持中性原子系统固有的灵活性。 PAC引入了物理感知硬件平面分区,根据物理设备特性(如AOD和SLM陷阱属性和量子比特移动性限制)战略性地分配硬件资源。 此外,它还通过改进的Kernighan-Lin算法实现了并行量子电路分割,该算法可以在保持电路保真度的同时跨独立区域同时执行。 我们的实验评估将PAC与最先进的方法进行了比较,这些方法的范围从16x16到64x64量子比特不等。 结果表明,PAC在16x16阵列上实现了高达78.5倍的加速,同时保持了可比的电路质量。 PAC的编译效率优势随着系统规模的增长而增加,证明了大型阵列上实用量子应用的可扩展性。 PAC通过有效解决编译效率和硬件灵活性之间的紧张关系,探索中性原子量子计算机实际应用的可行路径。
总价值锁定(TVL)旨在衡量存入去中心化金融(DeFi)协议中的加密资产的总价值。 虽然区块链数据是公开的,但TVL的计算方式并不很好理解。 在实践中,它在主要TVL聚合器上的计算依赖于社区成员的自我报告,并且缺乏标准化,因此很难独立核实已公布的数字。 因此,我们对部署在以太坊中的939个DeFi项目进行了系统研究。 我们研究用于计算TVL的方法,研究阻碍可验证性的因素,并最终提出该领域的标准化尝试。 我们发现有10.5台服务器;存在68种替代标准平衡查询的方法,尽管它们的使用随着时间的推移而减少;在多个协议上重复240个等量平衡查询。 这些发现表明了可验证性和透明度的限制。 因此,我们引入了“可验证的总价值锁定”(vTVL),这是一种衡量TVL的指标,可以仅依靠链上数据和标准平衡查询进行验证。 关于400个协议的案例研究表明,我们的估计与46.5这些发现的已公布数字一致,我们讨论了设计指南,以促进更可验证,标准化和可解释的TVL计算。
在内存计算(CIM)架构中使用电阻式随机存取存储器(RRAM)横梁为克服冯诺依曼瓶颈提供了有希望的解决方案。 由于细胞变异等非理想性,RRAM横梁通常以二进制模式运行,仅使用两种状态:低电阻状态(LRS)和高电阻状态(HRS)。 二进制神经网络(BNN)和Ternary Neural Networks(TNN)非常适合这种硬件,因为它们具有高效的映射。 基于RRAM的CIM的现有软件项目通常只关注一个方面:编译,模拟或设计太空探索(DSE)。 而且,它们往往依赖于经典的8位量化。 为了解决这些限制,我们引入了CIM-Explorer,这是一个用于在RRAM横梁上优化BNN和TNN推理的模块化工具包。 CIM-Explorer 包括一个端到端编译器堆栈、多个映射选项和模拟器,实现了 DSE 流,用于跨不同横梁参数和映射进行精度估计。 CIM-Explorer可以伴随整个设计过程,从特定横梁参数的早期精度估计,到选择合适的映射,并为最终的横梁芯片编译BNN和TNN。 在 DSE 案例研究中,我们展示了各种映射和横梁参数的预期精度。 CIM-Explorer可以在GitHub上找到。
模拟/混合信号电路设计由于工艺、电压和温度(PVT)变化导致性能下降而面临重大挑战。 为了实现商业级的可靠性,需要迭代手动设计修订和广泛的统计模拟。 虽然几项研究旨在自动化感知变化的模拟设计,以减少上市时间,但现实世界晶圆中的大量不匹配尚未得到彻底解决。 在本文中,我们介绍了GLOVA,一个模拟电路大小框架,可有效管理各种随机不匹配的影响,以提高对PVT变化的稳健性。 在建议的方法中,利用对风险敏感的强化学习来考虑受PVT变化影响的可靠性约束,并引入了基于集成的评论家来实现样本效率学习。 对于设计验证,我们还提出 μ-σ 评估和仿真重新排序方法,以降低识别失败设计的仿真成本。 GLOVA支持通过工业级PVT变异评估方法进行验证,包括角模拟以及全球和本地蒙特卡洛(MC)模拟。 与以前最先进的变数模拟尺寸框架相比,GLOVA在样品效率方面实现了高达80.5×的改进,并且减少了76.0×的时间。
我们研究在边缘计算启用的毫米波(mmWave)多用户虚拟现实系统中为360^∘视频流提供多任务边缘用户通信计算资源分配。 为了平衡本文中出现的通信计算权衡,我们制定了一个视频质量最大化问题,将相互依赖的多任务/多用户动作空间和重新缓冲时间/质量变化限制。 我们为多任务速率适应和计算分布(MTRC)制定了深度强化学习框架,以解决感兴趣的问题。 我们的解决方案不依赖于对环境的先验知识,仅使用先前的视频流统计(例如,吞吐量,解码时间和传输延迟)和内容信息,以调整分配的视频比特率和计算分布,因为它在线观察诱导的流性能。 此外,为了捕捉环境中的任务相互依赖性,我们利用神经网络级联将我们的MTRC方法扩展到两个新变体,称为R1C2和C1R2。 我们用真实世界的毫米波网络跟踪和360^∘视频数据集训练所有三种方法,以评估其表现在预期体验质量(QoE)、视口峰值信噪比(PSNR)、回逃时间和质量变化方面。 我们优于最先进的速率适应算法,C1R2显示最佳效果,并实现5.21-6.06 dB PSNR增益,2.18-2.70x回缓冲时间缩短和4.14-4.50 dB质量变异降低。
第五代(5G)网络在支持新兴应用方面面临限制,如人工智能(AI)、虚拟现实(VR)和数字孪生。 为了克服这些限制,亚Terahertz(亚太赫兹)和Teraherz(太赫兹)技术被认为是有效6G无线通信的关键推动因素,提供更高的传输速度,更长的范围和更广泛的带宽。 实现这些功能需要对6G收发器进行仔细的工程,重点是前端的高效功率放大器(PA),这些光能对远距离有效放大和传输信号起着关键作用。 补充金属氧化物氧化物半导体(CMOS)技术基于PA在亚太赫兹遭受严重的寄生和有限的最大频率,然而,这最终已被不同的设计架构和缩小CMOS技术的解决,以突破频率限制。 在这篇文章中,我们回顾了CMOS技术在设计6G硬件方面的潜力和能力,确定了亚THz频段中最先进的PA设计,然后进行了检查,并比较了设计,以确定合适的设计策略以获得更好的性能。 电路优化技术,如耦合线,无源增益增强方法,零度功率分裂,负载拉力匹配,二极管和电容器线性化,以获得更好的增益,饱和输出功率和功率增加效率,被认为是不同亚THz频段的PA设计架构。 此外,这些方法被总结和讨论,其优点和缺点代替它们的表现。 还介绍了PA的设计趋势,挑战和未来前景。 因此,本综述文章将作为未来射频集成电路(RFIC)PA设计的比较研究和参考。
容错量子算法的一个核心成分是从一组嘈杂的量子位中初始化给定的量子纠错代码的逻辑状态。 对于在当前可用硬件上可实现的小型代码实例,已显示有希望的结果的方案组成了一个非容错状态准备步骤,其中包含一个检查传播错误的验证步骤。 这种方案的已知电路结构大多是手动获得的,并且不存在构建深度或栅极电路的算法技术。 因此,当前技术的状态仅用于特定代码实例,主要用于距离3代码的特殊情况。 在这项工作中,我们提出了一个自动化的方法来合成任意CSS代码的容错状态准备电路。 我们利用基于可满足性解决(SAT)技术的方法,构建由深度和栅极最佳制备和验证电路组成的容错状态制备电路。 我们还提供启发式技术,可以为代码实例合成容错状态准备电路,在适当的时间范围内无法获得最佳解决方案。 此外,我们还为距离3以外的非确定性状态制备电路提供了一般结构。 使用 d=3 和 d=5 代码的数字评估确认生成的电路表现出逻辑错误速率所需的缩放。 由此产生的方法作为慕尼黑量子工具包(MQT)的一部分公开提供,网址为https://github.com/cda-tum/mqt-qecc。 这种方法是提供容错电路结构的重要一步,可以帮助近期进行容错量子计算的演示。
为了充分发挥量子计算机的潜力,我们必须通过开发噪声感知算法、编译器和架构来减轻量子比特错误。 因此,在具有不同噪声模型的高性能计算(HPC)系统上模拟量子程序是研究人员使用的事实工具。 不幸的是,嘈杂的模拟器迭代执行数千个试验的类似电路,从而产生显着的性能开销。 为了解决这个问题,我们提出了一种称为基于树的量子电路模拟(TQSim)的嘈杂模拟技术。 TQSim利用中间结果在嘈杂模拟过程中的可重用性,减少了计算。 TQSim将电路动态分区到几个子电路中。 然后,它在计算过程中重复使用这些子电路的中间结果。 与基于嘈杂的Qulacs基线模拟器相比,TQSim的加速速度高达3.89倍,用于嘈杂的模拟。 TQSim旨在通过多节点设置高效,同时保持紧密的保真范围。
大型语言模型(LLM)的激增在计算领域开辟了新的前沿,但控制和编排其超越简单文本生成的能力仍然是一个挑战。 当前的方法,如函数/工具调用和直接代码生成,在表现力、可扩展性、成本、安全性和强制精细控制能力方面受到限制。 本文介绍了Pel,一种专门用于弥合这一差距的新型编程语言。 受到Lisp,Elixir,Gleam和Haskell的优势的启发,Pel提供了一个句法简单,同质化和语义丰富的平台,为LLM提供安全有效地表达复杂的动作,控制流程和代理间通信。 Pel的设计强调一种极小、易于修改的语法,适用于受限的LLM生成,通过在语法级别启用能力控制,消除了对复杂沙盒的需求。 主要功能包括用于线性组合的强大管道机制,实现轻松部分应用和功能模式的一流关闭,内置支持LLM评估的自然语言条件,以及具有Common Lisp样式重新启动的高级Read-Eval-Print-Loop(REPeL)和用于自动纠错的LLM驱动的辅助代理。 此外,Pel还通过静态依赖性分析集成了独立操作的自动并行化,这对于高性能代理系统至关重要。 我们认为,Pel为LLM编排提供了更强大,更安全和更具表现力的范式,为更复杂和可靠的AI代理框架铺平了道路。
递归神经网络(RNN)被广泛用于处理顺序数据,如时间序列。 水库计算(RC)作为RNN框架引起了人们的注意,因为它的固定网络不需要训练,因此对基于硬件的机器学习具有吸引力。 我们在Echo State Networks和Band-pass Networks的完善的数学RC实现与Leaky Integrator节点之间建立了明确的对应关系,另一方面是包含离子电子简单挥发性记忆器的物理电路。 这些水离子电子器件采用离子传输通过水作为信号载体,并具有取决于电压(内存)的电导率。 激活函数和 Leaky Integrator 节点的动力学自然成为离子电子记忆器的(动态)传导特性,而记忆器端子的简单固定局部电流对电压更新规则有助于节点之间的相关矩阵耦合。 我们处理各种时间序列,包括呼吸过程中模拟气道的压力数据,由于离子电子器件对施加压力的内在响应性,这些数据可以直接输入网络。 这是在使用离子电子记忆器运动为电路的内部动力学时完成的。
氟化化合物,通常被称为永远的化学物质,在半导体制造的各个步骤中至关重要,如光刻,蚀刻,室清洁等。 永远的化学排放可以表现出比二氧化碳大数千倍的全球变暖潜力,并在大气中持续数千年。 尽管受到严重影响,但计算机系统中的大多数可持续性工作都集中在碳排放上。 我们通过引入ForgetMeNot来解决这一差距,ForgetMeNot是一种建模工具,通过集成制造设施特定的实践和硬件规范来量化氟化化合物排放,并使用制造设施的实际排放数据验证其准确性。 我们展示了ForgetMeNot如何使制造设施能够优化减排的设计和材料使用决策,并为研究人员提供校准硬件设计排放估算的方法。 当ForgetMeNot用于分析制造CPU,DRAM和存储的排放时,它说明了硬件一代,光刻技术和容量如何影响氟化化合物排放。 最后,我们演示了数据中心运营商如何在平衡性能需求的同时组装低排放服务器。 通过将氟化排放纳入制造决策,ForgetMeNot为构建更可持续的系统铺平了道路。
建议使用一个系统架构,该系统将结合几种基于不同计量器的生物启发计算阵列和芯片间和芯片内通信。 它将成为未来发展的基准系统。 该架构考虑了特殊要求,这些要求是由在芯片后处理步骤中商业CMOS结构的存储器共同集成引起的。 该接口考虑了必要的数据带宽,以速度监控芯片上的内部网络,并提供足够的灵活性,给出不同的测量选项。
期权是基于区块链的金融服务的基础,为风险管理和价格投机提供了必要的工具,增强了去中心化金融(DeFi)的流动性、灵活性和市场效率。 尽管对加密货币等区块链居民资产的期权兴趣越来越大,但目前的期权机制仍面临重大挑战,包括高度依赖受信任的第三方、有限的资产支持、高交易延迟以及期权持有人提供前期抵押品的要求。 在本文件中,我们提出了解决上述问题的议定书。 我们的协议是第一个消除持有人在无信任服务环境中(即没有跨链桥)建立期权时发布抵押品的需求的协议,这是通过引入期权撰写者的保证来实现的。 它的普遍性允许跨链选项涉及任何两个不同的区块链上几乎任何资产,前提是链的编程语言可以强制执行和执行必要的合同逻辑。 另一个关键创新是减少选项位置转移延迟,它使用双身份验证预防签名(DAPS)。 我们的评估表明,拟议的方案将选项传输延迟减少到现有方法中的一半以下。 严格的安全分析证明,我们的协议实现了安全的期权交易,即使面对对抗行为。
贝叶斯神经网络(BNNs)通过生成一系列预测分布来提供对不确定性的卓越估计。 然而,通过集合进行推断是资源密集型的,需要额外的熵来源来产生随机性,从而增加资源消耗。 我们引入了Bayes2IMC,这是一种内存计算(IMC)架构,专为二进制贝叶斯神经网络而设计,利用纳米级设备随机性来生成所需的分布。 我们的新方法利用相位变化内存(PCM)来利用固有的噪声特性,从而创建二进制神经网络。 这种设计消除了前神经元模拟到数字转换器(ADC)的必要性,显着提高了功率和面积效率。 我们还开发了一种仅应用于最终层登录的硬件软件软件共优化校正方法,以减少硬件上部署的设备引起的精度变化。 此外,我们设计了一种简单的补偿技术,尽管PCM的传导漂移,但确保分类精度不会下降。 我们通过VGGBinaryConnect模型验证了CIFAR-10数据集方法的有效性,实现了与理想软件实现相当的准确性指标,以及使用其他技术在文献中报告的结果。 最后,我们展示了一个完整的核心架构,并将其预测功率、性能和面积效率与等效的SRAM基线进行比较,显示总效率(在GSS/W/mm^2)上提高了3.8至9.6×,功率效率提高了2.2至5.6×(在GSS/W中)。 此外,贝叶斯2IMC的预计硬件性能超过了文献中报道的大多数基于记忆设备的BNN架构,并且与最先进的相比,实现了高达20%的功率效率。
在全球范围内处理在线旅行社需要高效灵活的软件解决方案架构。 当需要处理全球数千个代理和数十亿客户数据时。 微服务架构用于将大型程序分解为众多较小的服务,这些服务可以单独运行并执行单个任务。 本文分析并集成了独特的微服务云框架,旨在支持在线旅行平台(MCF-OTP)。 MCF-OTP的主要目标是通过云计算和微服务技术提高在线旅游平台的性能、灵活性和维护。 大型旅行应用程序,包括管理众多数据源,处理流量高峰和提供容错性,可以通过建议的框架来解决。 该框架增加了完美数据同步、微服务和基于需求技术的动态扩展之间的良好解释。 建议使用优化服务边界并最小化服务间依赖性的组织框架。 因此,这可能导致发展适应性的提高。 在这项研究中,主要目标是使用容错和响应时间的指标来评估MCF-OTP的效率。 调查结果表明,MCF-OTP结构在可靠性和可扩展性方面优于传统的单体设计,无缝管理流量峰值并减少停机时间。 具有成本效益的分析有助于确定启动费用和持续运营成本的净收益。 根据研究,基于云的环境用于降低断裂成本,这有助于提高资源分配的效率。
在虚拟现实(VR)环境中,计算任务表现出弹性性质,这意味着可以根据各种用户和系统限制动态调整。 这种弹性对于保持身临其境的体验至关重要;然而,它也为VR系统中的通信和计算带来了挑战。 在本文中,我们研究了具有多连接性的多用户边缘计算VR系统的弹性任务卸载,旨在最大限度地提高计算能效(每单位消耗的能量计算吞吐量)。 为了平衡由于VR任务的弹性而引起的通信,计算,能源消耗和经验权衡的质量,我们制定了一个受限的随机计算能效优化问题,将多连接/多用户动作空间和VR计算任务的弹性性质融为一体。 我们制定集中的相位策略梯度(CPPG)框架,在线解决兴趣问题,仅使用先期弹性任务卸载统计(能耗、响应时间和传输时间)和任务信息(即任务大小和计算强度),同时观察诱导的系统性能(能耗和延迟)。 我们通过制定独立的相位策略梯度(IPPG)方法和分散的共享多臂匪徒(DSMAB)方法,进一步扩展了我们的分散学习方法。 我们通过真实世界的4G,5G和WiGig网络跟踪和360视频数据集来训练我们的方法,以评估其在响应时间,能源效率,可扩展性和交付体验质量方面的表现。 我们还全面分析了任务规模及其对卸载政策和系统性能的影响。 特别是,我们表明CPPG将延迟减少了28能耗78
随着连接和前所未有的数据生成时代的扩展,协作智能成为机器学习的关键驱动力,鼓励全球规模的模型开发。 Federated Learning(FL)是这一转变的核心,使分布式系统能够共同处理复杂的任务,同时尊重对隐私和安全的严格限制。 尽管FL具有巨大的潜力,特别是在复杂模型时代,但它遇到了通信成本升高、计算限制和异质数据分布等挑战。 在此背景下,我们介绍了AutoFLIP,这是一个新颖的框架,通过自适应混合修剪方法优化FL,基于联合损失勘探阶段。 通过联合分析各种非IID客户端丢失景观,AutoFLIP有效地识别了用于在结构化和非结构化级别修剪的模型子结构。 这种有针对性的优化促进了共生智能循环,减少了计算负担,提高了资源有限的设备上的模型性能,以实现更具包容性和民主化的模型使用。 我们在多个数据集和FL任务中进行的广泛实验表明,AutoFLIP提供了可量化的好处:48.8计算开销,全球准确性提高了35.5。 通过显著减少这些开销,AutoFLIP为在实际应用中高效部署 FL 提供了实现可扩展和广泛适用性的方式。