计算机科学
Computer Science
人工智能
Artificial Intelligence
计算与语言
Computation and Language
计算复杂性
Computational Complexity
通过扩散在分子通信中的发射器定位是具有许多应用的关键主题。 然而,由于接收器表面扩散和分子分布重叠的随机性,多个发射器的精确定位是一个具有挑战性的问题。 为了解决这些问题,我们引入了基于聚类的中心校正方法,可增强对密度变化的鲁棒性和异常值。 此外,我们提出了两个聚类引导残余神经网络,即用于方向改进的AngleNN和用于集群大小估计的SizeNN。 实验结果表明,与K-means相比,这两种方法都提供了显着的改进,减少了69%(2-Tx)和43%(4-Tx)之间的定位误差。
本文提出了优化的可重新配置物联网(RIoT)框架,该框架集成了光学和无线电无线技术,重点是能源效率、可扩展性和适应性。 为了解决混合光辐射环境的内在复杂性,在网络模拟器3(NS-3)平台内开发了高保真数字孪生(DT)。 DT模型部署了RIoT架构的子系统,包括射频(RF)通信,光无线通信(OWC)以及实现自主运行的能量收集和消耗机制。 还纳入目标硬件平台的实时能量和功率测量,以确保准确表示物理行为,并实现运行时分析和优化。 在这一基础上,制定了积极的跨层优化策略,以平衡能源效率和服务质量(QoS)。 该策略通过调整传输速率、唤醒/睡眠调度和访问技术选择来动态重新配置 RIoT 节点。 结果表明,拟议的框架结合了数字孪生技术、混合光-无线电集成和数据驱动的能源建模,大大增强了6G物联网网络的性能、弹性和可持续性。
软件服务对于可靠的通信和网络至关重要;因此,站点可靠性工程(SRE)对于确保这些系统保持可靠并在云原生环境中表现良好非常重要。 SRE利用Prometheus和Grafana等工具来监控系统指标,定义关键服务水平指标(SLI)和服务水平目标(SLO),以保持高服务标准。 然而,由于许多开发人员往往缺乏对这些工具的深入了解以及定义适当的SLI和SLO所涉及的复杂性,因此出现了一个重大挑战。 为了弥补这一差距,我们提出了一个名为SRE-Llama的新型SRE平台,由生成式AI,Federated Learning,Blockchain和Non-Fungible Tokens(NFT)增强。 该平台旨在自动化和简化监控、SLI/SLO生成和警报管理的过程,为开发人员提供易用性和实用性。 该系统通过从云原生服务中捕获指标并将其存储在时间序列数据库中(如Prometheus和Mimir)来运行。 利用这些存储的数据,我们的平台采用Federated Learning模型,为不同的服务和SLO确定最相关和最具影响力的SLI指标,解决有关数据隐私的问题。 随后,微调Meta的Llama-3 LLM用于根据这些已确定的SLI指标智能生成SLI,SLO,错误预算和相关警报机制。 我们平台的一个独特方面是将生成的SLI和SLO编码为NFT对象,然后存储在区块链上。 此功能提供不可变的记录保存,便于轻松验证和审计 SRE 指标和目标。 拟议平台的自动化由区块链智能合约管理。 拟议的SRE-Llama平台原型已经实现,其用例具有定制的Open5GS 5G Core。
我们向QuCoWE介绍了一个框架,通过训练浅层硬件效率的参数化量子电路来学习量子原生词嵌入,具有对比性跳过图的TPC,通过具有受控环纠缠相似的数据重新上传电路进行编码,并通过一个Logitfidelity头,该头将分数与SGNSNoiseContrastive Estimation的偏移PMI尺度对齐。Text2 QuCoWE获得具有竞争力的内在WordSim353 SimLex999和外部SST2 TREC6性能与50100d经典基线,同时使用更少的学习参数每个令牌 所有实验都在经典模拟中运行,我们分析去极化读取噪声,并包括错误缓解钩零noise外推随机编译,以促进硬件部署
电阻式随机访问存储器(RRAM)是下一代非易失性存储器(NVM)和内存计算应用程序的有希望的候选者。 紧凑的模型对于分析实验 RRAM 器件的电路和系统级性能至关重要。 然而,大多数现有的RRAM紧凑型模型依靠多个拟合参数来重现设备I-V特性,在大多数情况下,由于参数与可测量的数量没有直接关系,因此它们的提取需要广泛的手动调优,使过程耗时并限制不同设备的适应性。 这项工作提供了一个自动化框架,用于直接从设备I-V特性中提取广泛使用的斯坦福RRAM模型的拟合参数。 该框架使用在合成数据集上训练的卷积神经网络(CNN)来生成初始参数估计值,然后通过三个中心式优化块进行改进,通过参数空间中的自适应二进制搜索来最小化错误。 我们使用四个关键的 NVM 指标评估框架:设置电压、复位电压、滞后环路面积和低电阻状态 (LRS) 斜率。 针对先前报告的斯坦福模型拟合、其他分析模型和实验数据得出的 RRAM 设备特性的基准测试表明,该框架在各种设备特性上实现了低误差,为 RRAM 建模提供了快速、可靠和稳健的解决方案。
基于扩散的分子通信(MC)受到严重的符号间干扰(ISI)的挑战。 这在移动场景中显着放大,其中通道脉冲响应(CIR)变得时间变化和随机。 在这样的动态环境中,获得用于传统模型检测的精确通道状态信息(CSI)是难以解决的。 虽然深度学习(DL)提供了适应性,但其复杂性不适合资源受限的微型/纳米。 本文提出了基于低复杂度的水库计算(RC)探测器。 RC架构利用固定、循环的非线性存储库将时间变化的接收信号投射到高维状态空间中。 这有效地将复杂的时间检测问题转化为简单的线性分类任务,在没有显式通道建模或复杂再训练的情况下捕获ISI动力学。 在逼真的3D移动MC模拟环境(Smoldyn)中评估,我们的RC检测器明显优于经典探测器,与复杂的ML方法(LSTM,CNN,MLP)相比,在严重的ISI下实现了卓越的性能。 重要的是,RC通过显着更少的可训练参数(例如,MLP的300 vs.高达264k)和超低延迟推理(约。 每个符号1μs)。
声学全息学是一个新兴的领域,其中中空中超声被控制和操纵,用于新颖和令人兴奋的应用。 这些范围从中空中触觉,体积显示,非接触式制造,甚至化学和生物医学应用,如药物输送。 为了开发这些应用程序,需要有一个软件框架来预测声学行为并模拟由此产生的效果,例如施加力或散射模式。 已经有许多软件库和平台试图填补这个角色,但还没有一个单一的软件作为“全栈”解决方案。 我们将这种全栈定义为从抽象到物理化的过程,从设置,建模声学传播,换能器相位检索,声场分析和控制声全字硬件本身开始。 现有方法未能实现其中一个或多个类别。 为了解决这个问题,我们展示了AcousTools,一个基于Python的声学全息库,旨在支持全套声学全息应用,我们展示了AcousTools满足全栈要求的每一步的能力。 AcousTools有可能成为声学全息的标准代码库,具有独特的完整功能套件,包裹在已知易于使用的语言中,AcousTools将提高研究人员开发新应用程序以及准确审查他人工作的能力。 除了软件之外,全栈对研究人员也很有用——提供了一种通过了解它们适合堆栈的方式来查看和比较方法的方法。
自主移动机器人(AMR)越来越多地采用跨Edge-Cloud连续体的容器化微服务。 虽然Kubernetes是此类系统的事实编排者,但其稳定网络、同质资源和充足的计算能力的假设在移动、资源受限的机器人环境中并不完全保持。 本文介绍了关于智能制造AMR的案例研究,并使用受控的KinD环境对CODECO编排和标准Kubernetes进行了初步比较。 指标包括 pod 部署和删除时间、CPU 和内存使用情况以及 pod 数据速率。 观察到的结果表明,CODECO提供了减少的CPU消耗和更稳定的通信模式,其成本是适度的内存开销(10-15%),并且由于安全叠加初始化而略微增加的pod生命周期延迟。
人脸识别系统越来越多地部署在广泛的应用中,包括智能手机身份验证、访问控制和边境安全。 然而,这些系统仍然容易受到演示攻击(PA)的影响,这可能会严重损害其可靠性。 在这项工作中,我们引入了一个新的数据集,专注于一种新颖而逼真的演示攻击工具,称为尼龙面罩(NFM),旨在模拟先进的3D欺骗场景。 NFMs 尤其令人关注,因为它们的弹性结构和逼真的外观,使它们能够在攻击者佩戴时密切模仿受害者的面部几何形状。 为了反映基于智能手机的真实使用条件,我们使用iPhone 11 Pro收集了数据集,从100名受试者和51,281名NFM攻击样本中捕获了来自100名受试者的3,760个真实样本和51,281个NFM攻击样本,涉及人类和人体模型。 我们使用五种最先进的PAD方法对数据集进行基准测试,以评估他们在看不见的攻击条件下的稳健性。 结果表明,各方法的性能差异很大,突出了NFMs带来的挑战,并强调了开发PAD技术的重要性,这些技术可以有效地推广到新出现的欺骗威胁。
基于电阻随机存取存储器(RRAM)的模拟矩阵计算(AMC)电路显示出加速矩阵操作的强大潜力。 然而,随着矩阵尺寸的增长,互连电阻越来越多地降低计算精度并限制电路的可扩展性。 因此,对这些影响进行建模和评估对于制定有效的缓解战略至关重要。 传统的SPICE(带有集成电路强调的模拟程序)模拟器依赖于修改的节点分析,由于节点和反馈连接的二次增长,大型AMC电路变得异常缓慢。 在这项工作中,我们模拟了具有互连电阻的AMC电路,用于两个关键操作矩阵反转(INV)和特征向量计算(EGV),并提出了针对每个情况量身定制的快速求解算法。 这些算法利用了Jacobian矩阵的稀薄,从而实现了快速而准确的解决方案。 与SPICE相比,它们实现了几个数量级加速,同时保持高精度。 我们进一步扩展了开环矩阵向量乘法(MVM)电路的方法,展示了类似的效率增益。 最后,利用这些快速求解器,我们开发了一种基于偏置的补偿策略,可将 INV 的互连诱导错误减少 50% 以上,EGV 电路减少 70%。 它还揭示了相对于矩阵大小和互连电阻的最佳偏置的缩放行为。
新兴的边缘-中心-云范式使边缘云连续体中创新延迟关键型网络物理应用得以开发。 然而,由于网络边缘设备的异质性,其有限的计算,通信和能量能力有限,以及它们不同的传感和致动能力,这种范式带来了多重挑战。 为了解决这些问题,我们提出了最佳的调度方法,以最大限度地减少边缘集线器云网络物理系统中工作流应用程序的整体延迟。 我们考虑多个边缘设备与集线器设备和云服务器合作。 所有设备均具有异构多核处理器和各种传感、执行或其他专门功能。 我们提出了一个基于连续时间混合整数线性编程的综合公式,封装了现有方法经常忽略的多种约束。 我们在我们的方法和既定和有效的调度方法之间进行了比较实验评估,我们加强了考虑具体问题的限制。 结果表明,我们的技术优于启发式技术,在各种系统配置下,在相关的现实用例中实现了13.54%的平均延迟改进。 此外,结果证明了我们的方法在不同尺寸的合成工作流程下的可扩展性,与启发式相比,平均延迟减少了33.03%。
在无细胞大规模多输入多输出(CF-mMIMO)系统的下行链路中,频谱效率的提高主要依赖于联合相干传输,因为所有接入点(AP)都必须在用户设备(UE)中分阶段对齐其传输信号。 实现这种相位对齐在技术上具有挑战性,因为它需要在地理分布的AP之间紧密同步。 在本文中,我们通过引入差分时空块编码(DSTBC)方法来解决这个问题,该方法绕过了AP相同步的需要。 我们首先为CF-mMIMO的可可实现的光谱效率提供分析范围,并采用相位不同步AP。 然后,我们提出了一个专门针对CF-mMIMO的基于DSTC的传输方案,该传输方案在没有通道状态信息的情况下运行,并且不需要AP之间的任何形式的相位同步。 我们为产生的信号-干扰加噪声比(SINR)得出闭合表达式,使不同DSTBC方案之间的定量比较成为可能。 数值模拟证实,相位错位会显著损害系统性能。 相比之下,拟议的DSTBC方案成功地减轻了这些影响,实现了与完全同步系统相当的性能。
嘈杂的量子设备需要准确而简单有效的降错技术,在拍摄次数和处理时间方面。 许多既定方法(例如,外推和准概率取消)施加了大量执行或校准开销,而现有的基于学习的方法难以扩展到大型和深度电路。 在这项研究中,我们介绍了QAGT-MLP:一种基于注意力的图形变压器,专为小型和大规模量子误差缓解(QEM)而设计。 QAGT-MLP将每个量子电路编码为图形,其节点表示栅极实例,其边缘捕获量子位连接和因果相邻性。 双路径注意力模块提取了围绕两个尺度或上下文中测量的量子位的特征:1)图全全局结构上下文;2)细粒度的局部光锥上下文。 这些学习表示与电路级描述符特性和电路嘈杂的预期值相连接,然后它们被传递给轻量级MLP以预测噪声缓解值。 在大规模100量子比特1D跨场测地测上模型 - TFIM电路 - 拟议的QAGT-MLP在平均误差和误差可变性方面优于最先进的学习基线,在匹配的镜头预算下在现实世界的QEM场景中表现出强大的有效性和适用性。 通过将全球结构与本地光锣社区融合在一起,QAGT-MLP实现了高缓解质量,而无需传统QEM管道所需的不断增加的噪声缩放或资源需求,同时在现代和未来量子工作负载中仍然为QEM提供可扩展和实用的路径。
本文介绍了基于马尔可夫的微流体分子通信(MC)通道系统模型。 通过离散缺陷动力学,拟议的模型建立了一个物理上一致的状态空间公式。 过渡矩阵显式捕获扩散、建议流、可逆绑定和流出效应。 由此产生的离散时间公式通过线性系统表示对瞬态和平衡响应进行分析表征。 数字结果验证了拟议的框架在广泛的流量条件下准确地再现了通道行为,为微流体环境中MC系统的设计和分析提供了可追踪的基础。
随着动态随机访问存储器(DRAM)和其他基于晶体管的内存接近其可扩展性极限,寻找替代存储方法变得越来越紧迫。 与许多现有内存技术相比,相变存储器(PCM)因其可扩展性、快速访问时间和零泄漏功率而成为有前途的候选者。 然而,PCM存在重大缺陷,目前阻碍了其作为替代品的可行性。 PCM细胞的寿命有限,因为写入操作会降低物理材料,这些操作会消耗相当多的能量。 使PCM成为数据存储的实用选项 - 涉及频繁写入操作 - 必须增强其细胞耐力,并且必须降低写入能量。 在本文中,我们提出了SMART-WRITE,这是一种集成神经网络(NN)和强化学习(RL)的方法,以动态优化写入能量并提高性能。 NN模型监控实时操作条件和设备特性,以确定最佳的写入参数,而RL模型动态调整这些参数,以进一步优化PCM的能耗。 通过根据实时系统条件持续调整 PCM 写入参数,SMART-WRITE 可将写入能耗降低高达 63%,与基线和前型号相比,性能提升高达 51%。
复杂的量子电路是由量子子程序的组合构成的。 只要量子数据编码在整个电路中是一致的,计算是可能的。 尽管具有根本重要性,但迄今为止,量子数据编码的形式化从未得到系统解决。 我们正式化了量子数据编码的概念,即通过量子态提供数据集表示的格式,作为与相关数据加载电路相关的抽象层。 我们调查了现有的编码方法及其各自的策略,用于经典到量子的精确和近似数据加载,用于从状态的量子到经典提取信息,以及量子到量子的编码转换。 接下来,我们展示了主要的量子算法如何在数据加载方面找到自然解释。 例如,Quantum Fourlier Transform被描述为量子编码转换器,而Quantum Amplitude Estimation作为提取例程。 新的概念框架通过考虑其应用于基于量子的蒙特卡洛模拟来体现,从而展示了拟议的形式主义对复杂量子电路描述的力量。 事实上,该方法澄清了复杂量子电路的结构,并实现了它们的高效设计。
曼哈顿距离映射(MDM)是一种训练后深度神经网络(DNN)重量映射技术,用于记忆位切片计算(CIM)横梁,可减少寄生电阻(PR)非理想性。 PR通过将DNN矩阵映射到小横梁砖中来限制横梁效率,从而降低了基于CIM的加速。 每个横梁执行一个图块,需要在下一层之前进行数字同步。 在这个粒度下,设计人员要么并行部署许多小横梁,要么按顺序重复使用一些增加的模数到数字转换,延迟,I/O压力和芯片区域。 MDM通过优化活动记忆器放置来减轻PR效果。 利用位级结构化的间距,它从更密集的低阶侧进行激活,并根据曼哈顿距离重新排序行,将活动单元转移到受PR影响较小的区域,从而降低非理想因素(NF)。 应用于ImageNet-1k上的DNN模型,MDM将NF降低高达46%,并在ResNets中将模拟失真下的准确性平均提高了3.6%。 总的来说,它提供了一种轻量级的、空间知情的方法,用于缩放CIM DNN加速器。
相位变化存储器(PCM)在可扩展性和待机能效方面迅速进步并超过了动态随机存取存储器(DRAM)。 在写入过程中改变PCM细胞的状态需要大量的能量,对PCM作为主要记忆的作用构成重大挑战。 之前的研究已经探索了减少写入能耗的方法,包括消除冗余写入,最小化单元格写入,并使用紧凑的行缓冲区来过滤PCM主存储器访问。 然而,这些技术有一些缺点,例如对存储值的比较,抢先更新增加写入周期,以及较差的耐力。 在本文中,我们提出了WIRE,这是一种新的编码机制,通过该机制,大多数写入操作可以强制最大一比特翻转。 在这个基于编码的数据存储方法中,我们查看了频繁的值堆栈,并为最频繁的值分配一个代码字,以便它们有一个锤形距离。 在大多数写入访问中,编写值需要一个或多个位翻转,可以节省可观的写入能量。 这种技术可以通过块级别的磨损平整机制进行增强,并在分配的代码中旋转差位,以低成本增加PCM阵列的使用寿命。 使用对我们方法的全系统评估并将其与现有机制进行比较,我们对多线程和多编程工作负载的实验结果表明,寿命和写入能量以及位翻转减少都有相当大的改进。
通过多线性形式计算非线性函数是风险分析应用中的一般问题。 例如,在能源经济学领域,准确和及时的风险管理要求有效地模拟数百万个场景,主要受益于计算加速。 我们开发了一种基于非线性函数多项式近似值的新型混合量子经典算法,通过Quantum Hadamard Products计算,我们严格评估其针对经典算法的不同实现变体的端到端加速的条件。 在我们的设置中,二次量子加速,高达多对数因子,只有在形式是双线性并且近似多项式具有第二度时才能证明,如果输入数据集可以使用高效加载单位。 我们还增强了双向编码,允许调整电路深度和宽度之间的平衡,提出了一个改进的版本,可用于计算内部产品。 最后,我们利用最近在IBM Quantum设备上引入的动态电路功能,以减少Quantum Hadamard产品电路的平均深度。 原理证明在 IBM Quantum 系统上实现并验证。
我们展示了一种新颖的自我校正,高速光电子概率计算机架构,利用与强大的电子控制集成的源设备独立(SDI)量子光子p位。 我们的方法将量子光子学的内在随机性和高带宽与经典电子产品的可编程性和粪便能力相结合,从而实现高效和灵活的概率计算。 我们详细介绍了基于光子集成电路和基于FPGA的控制的原型系统的设计和实现,能够实施和操作64000个逻辑p位。 实验结果表明,我们的架构实现了2.7 x 10^9翻转/秒的翻转率,能耗为4.9 nJ/flip,与最先进的基于磁隧道的柔和(MTJ)系统相比,在速度和能源效率方面提高了近三个数量级。 此外,SDI协议可实现实时自我认证和纠错,确保在各种条件下的可靠运行,并解决硬件可变性问题,因为p位数量规模。 我们的研究结果将量子光子p-bits作为可扩展、高性能概率计算的一个有前途的平台,对组合优化、机器学习和复杂系统建模具有重要意义。
继续滚动加载更多