Multipactor是一种非线性电子雪崩现象,可以严重损害大功率射频(RF)器件和加速器系统的性能。 在不同材料和操作机制中,对多条路器易感性的准确预测仍然是加速器组件设计和射频工程中一个关键但计算密集型的挑战。 这项研究首次应用了监督机器学习(ML),用于预测双表面平面几何中的多模式易感性。 一个跨越六个不同二次电子屈服(SEY)材料配置文件的模拟衍生数据集用于训练回归模型 - 包括随机森林(RF),额外树(ET),极端梯度提升(XGBoost)和漏斗结构多层感知器(MLP) - 预测时间平均电子增长率,δ_avg。 使用Intersection over Union(IoU)、Structuresimity Index(SSIM)和Pearson相关系数来评估性能。 基于树的模型在跨不连接材料域的推广方面一直优于MLP。 使用标量目标函数训练的MLP在贝叶斯超参数优化期间结合IoU和SSIM与5倍交叉验证,优于采用单目标损失函数训练的MLP。 主要成分分析表明,某些材料的性能下降源于不连接的特征空间分布,这突出表明需要更广泛的数据集覆盖范围。 这项研究展示了基于ML的多模式预测的前景和局限性,并为高级射频和加速器系统设计中的加速数据驱动建模奠定了基础。
大语言模型(LLM)在机械工程和材料科学领域的应用日益广泛。作为通过语言接口建立联系的模型,LLM可以应用于材料科学与工程中处理-结构-性能-表现(PSPP)链的逐步推理。当前的LLM主要用于充分表示数据集,这些数据集大部分来自可访问的互联网内容。然而,互联网主要包含非科学内容。如果要将LLM应用于工程目的,研究模型的内在知识——即生成正确材料信息的能力——具有重要价值。在本研究中,我们以元素周期表为例,重点探讨了词汇和分词对于材料指纹唯一性的作用,以及不同最先进开源LLM模型生成事实正确输出的能力。这为明智选择建立了一个材料知识基准,可以判断LLM适用于PSPP链中的哪些步骤,以及哪些步骤需要专门的模型。
随着人工智能(AI)进入各种应用,确保AI模型的可靠性变得越来越重要。 传统神经网络提供强大的预测能力,但在没有固有不确定性估计的情况下产生确定性输出,限制了其在安全关键领域的可靠性。 引入随机性的概率神经网络(PNNs)已成为实现内在不确定性量化的有力方法。 然而,传统的CMOS架构本质上是为确定性操作而设计的,并积极抑制内在的随机性。 这为实施PNN提出了根本性的挑战,因为概率处理引入了显著的计算开销。 为了应对这一挑战,我们引入了磁概率计算(MPC)平台 - 一个节能,可扩展的硬件加速器,利用内在的磁随机性进行不确定性计算。 这种物理驱动的策略利用基于磁域壁(DW)及其动力学的自旋电子系统来建立人工智能物理概率计算的新范式。 MPC平台集成了三种关键机制:热诱导DW随机性,电压控制磁各向异性(VCMA)和隧道磁阻(TMR),在设备级别实现完全电气和可调概率功能。 作为代表性演示,我们实现了贝叶斯神经网络(BNN)推理结构,并在CIFAR-10分类任务上验证其功能。 与标准的28nm CMOS实现相比,我们的方法在整体功绩数字上实现了7个数量级的提升,在面积效率、能耗和速度方面有了实质性的提升。 这些结果强调了MPC平台实现可靠和值得信赖的物理AI系统的潜力。
随着人工智能继续推进实时、基于边缘和资源受限的环境,迫切需要新颖、硬件高效的计算模型。 在这项研究中,我们展示并验证了基于谐成调谐二极管(RTD)的神经形态计算架构,该架构表现出物理储层计算(RC)的理想非线性特征。 我们理论上制定和定量地实施基于RTD的RC系统,并在两个图像识别基准上展示其有效性:手写数字分类和使用Fruit 360数据集的对象识别。 我们的结果表明,这种电路级架构在坚持下一代RC原则的同时提供有希望的性能 - 消除随机连接,有利于输入信号的确定性非线性转换。
我们提出了一个非线性弹性塑料模型,为此,特定类别的双曲轴弹性产生于可塑性水平上的产量标准不变性。 我们将这种非线性弹性(或超弹性)行为叠加,具有遵守相关流规则的可塑性。 有趣的是,我们发现与可塑性相关的热力学力的线性屈服标准导致应力空间中的二次屈服标准。 这表明Mohr-Coulomb和Hoek-Brown(或Drucker-Prager和Pan-Hudson)之间的特定超弹性连接。 我们使用线性或建议的双曲弹性比较了Drucker-Prager产量标准标准的标准测试的弹性塑料反应。 值得注意的是,由于在三轴压缩测试中循环加载期间观察到的扩张饱和,非线性表壳脱颖而出。 我们用结构有限元模拟结束这项研究,这些模拟清楚地表明了拟议模型的数值适用性。
Multipactor是一种非线性电子雪崩现象,可以严重损害大功率射频(RF)器件和加速器系统的性能。 在不同材料和操作机制中,对多条路器易感性的准确预测仍然是加速器组件设计和射频工程中一个关键但计算密集型的挑战。 这项研究首次应用了监督机器学习(ML),用于预测双表面平面几何中的多模式易感性。 一个跨越六个不同二次电子屈服(SEY)材料配置文件的模拟衍生数据集用于训练回归模型 - 包括随机森林(RF),额外树(ET),极端梯度提升(XGBoost)和漏斗结构多层感知器(MLP) - 预测时间平均电子增长率,δ_avg。 使用Intersection over Union(IoU)、Structuresimity Index(SSIM)和Pearson相关系数来评估性能。 基于树的模型在跨不连接材料域的推广方面一直优于MLP。 使用标量目标函数训练的MLP在贝叶斯超参数优化期间结合IoU和SSIM与5倍交叉验证,优于采用单目标损失函数训练的MLP。 主要成分分析表明,某些材料的性能下降源于不连接的特征空间分布,这突出表明需要更广泛的数据集覆盖范围。 这项研究展示了基于ML的多模式预测的前景和局限性,并为高级射频和加速器系统设计中的加速数据驱动建模奠定了基础。
随着人工智能(AI)进入各种应用,确保AI模型的可靠性变得越来越重要。 传统神经网络提供强大的预测能力,但在没有固有不确定性估计的情况下产生确定性输出,限制了其在安全关键领域的可靠性。 引入随机性的概率神经网络(PNNs)已成为实现内在不确定性量化的有力方法。 然而,传统的CMOS架构本质上是为确定性操作而设计的,并积极抑制内在的随机性。 这为实施PNN提出了根本性的挑战,因为概率处理引入了显著的计算开销。 为了应对这一挑战,我们引入了磁概率计算(MPC)平台 - 一个节能,可扩展的硬件加速器,利用内在的磁随机性进行不确定性计算。 这种物理驱动的策略利用基于磁域壁(DW)及其动力学的自旋电子系统来建立人工智能物理概率计算的新范式。 MPC平台集成了三种关键机制:热诱导DW随机性,电压控制磁各向异性(VCMA)和隧道磁阻(TMR),在设备级别实现完全电气和可调概率功能。 作为代表性演示,我们实现了贝叶斯神经网络(BNN)推理结构,并在CIFAR-10分类任务上验证其功能。 与标准的28nm CMOS实现相比,我们的方法在整体功绩数字上实现了7个数量级的提升,在面积效率、能耗和速度方面有了实质性的提升。 这些结果强调了MPC平台实现可靠和值得信赖的物理AI系统的潜力。
电粘合离合器是通常用于软机器人和触觉用户界面的电控开关粘合剂。 它们可以在低功耗下形成多种表面的牢固键。 然而,文献中的电粘合离合器比传统静电模型预测的要慢几个数量级,从基板中接触和释放。 特别是大释放时间可以限制电粘附在高带宽应用中的实用性。 我们开发了一种新颖的机电模型,用于电粘附,偏振动力学的保理,驱动电路的上升和下降时间以及介电和基板之间的接触力学。 我们在模拟和实验中展示了不同的设计参数如何影响对金属基板的厘米级电粘合离合器的接触和释放时间,我们发现该模型准确地捕获了我们实验结果的大小和趋势。 特别是,我们发现更高的驱动频率,更窄的基板宽高比和更快的驱动电路输出阶段可以实现显着更快的释放时间。 最快的离合器的接触时间小于15 us,释放时间小于875 us,分别比先前关于厘米级电粘合离合器的文献中发现的最佳时间快10倍和17.1倍。
大语言模型(LLM)在机械工程和材料科学领域的应用日益广泛。作为通过语言接口建立联系的模型,LLM可以应用于材料科学与工程中处理-结构-性能-表现(PSPP)链的逐步推理。当前的LLM主要用于充分表示数据集,这些数据集大部分来自可访问的互联网内容。然而,互联网主要包含非科学内容。如果要将LLM应用于工程目的,研究模型的内在知识——即生成正确材料信息的能力——具有重要价值。在本研究中,我们以元素周期表为例,重点探讨了词汇和分词对于材料指纹唯一性的作用,以及不同最先进开源LLM模型生成事实正确输出的能力。这为明智选择建立了一个材料知识基准,可以判断LLM适用于PSPP链中的哪些步骤,以及哪些步骤需要专门的模型。
大数据革命增加了对强大、节能的安全硬件的需求,能够承受日益复杂的网络威胁。 传统的加密方案依赖于复杂的算法,是资源密集型的,而且仍然很脆弱。 为了强化敏感信息,社会需要创新的防黑客和防伪技术,利用新材料和设计。 在这里,我们提出了基于完全选择性电压控制的N3-离子在预定义,初始准磁FeCoN点内的硬件级安全的磁离子策略。 这一过程产生可调厚度的铁磁子层,产生确定性(单域或涡旋)或概率态(具有并存的磁配置和电压可调概率),每个都表现出随机取向和手性,从而为磁指纹提供丰富的平台。 这种方法可以实现自我保护的原语,包括真正的随机数生成器,物理不可克隆函数和内存概率推理。 由此产生的可重新配置的架构结合了防篡改、低能耗和可扩展性,标志着向植根于新兴磁现象的下一代硬件安全的重大飞跃。
随着人工智能继续推进实时、基于边缘和资源受限的环境,迫切需要新颖、硬件高效的计算模型。 在这项研究中,我们展示并验证了基于谐成调谐二极管(RTD)的神经形态计算架构,该架构表现出物理储层计算(RC)的理想非线性特征。 我们理论上制定和定量地实施基于RTD的RC系统,并在两个图像识别基准上展示其有效性:手写数字分类和使用Fruit 360数据集的对象识别。 我们的结果表明,这种电路级架构在坚持下一代RC原则的同时提供有希望的性能 - 消除随机连接,有利于输入信号的确定性非线性转换。
我们提出了一个非线性弹性塑料模型,为此,特定类别的双曲轴弹性产生于可塑性水平上的产量标准不变性。 我们将这种非线性弹性(或超弹性)行为叠加,具有遵守相关流规则的可塑性。 有趣的是,我们发现与可塑性相关的热力学力的线性屈服标准导致应力空间中的二次屈服标准。 这表明Mohr-Coulomb和Hoek-Brown(或Drucker-Prager和Pan-Hudson)之间的特定超弹性连接。 我们使用线性或建议的双曲弹性比较了Drucker-Prager产量标准标准的标准测试的弹性塑料反应。 值得注意的是,由于在三轴压缩测试中循环加载期间观察到的扩张饱和,非线性表壳脱颖而出。 我们用结构有限元模拟结束这项研究,这些模拟清楚地表明了拟议模型的数值适用性。
激光粉末床融合(LPBF)是一种增材制造技术,由于其能够生产几何复杂,完全致密的金属部件而广受欢迎。 然而,这些部件容易出现内部缺陷和几何不准确,部分源于熔池的变化。 本文提出了一种新的矢量级前馈控制框架,用于调节LPBF中的熔体池面积。 通过将部分尺度热行为与小规模熔体池物理脱钩,控制器提供了熔体池面积的尺度不可知性预测,并对其进行了高效的优化。 这是通过在两个耦合的轻量级模型上操作来完成的:一个有限差热模型,可以有效地捕获矢量级温度场和一个降低顺序的分析熔体池模型。 每个模型都通过最小的单轨和2D实验单独校准,并且该框架在Inconel 718和316L不锈钢的复杂3D几何形状上进行了验证。 结果表明,前馈矢量级激光功率调度将关键尺寸的几何不准确性降低了62
泵对于分析应用和确保受控流体运动是必不可少的。 注射器泵是当今最流行的液体输送系统之一,特别是用于高压,稳定,低流速微流体应用。 由于装配体的机械部件的移动,定期维护对于确保可靠的运行和流量至关重要。 然而,机械的润滑很容易被忽视,因为研究的重点是新颖的分析应用,而不是泵的维护。 在这里,我们研究注射器泵导杆的润滑,其作用是定期泵清洗污染后的流速稳定性。 注射器泵的导杆从任何润滑剂中彻底清洗,并测量了指定流量在5至30 uL/min之间的流量,揭示了巨大的流速波动,变化系数(CV)值高达0.34。 相比之下,使用润滑导轨的注射器泵的流量测量显示,根据指定的流量,CV值低于0.07,流量波动为5倍。 总之,我们强调对注射器泵的润滑运动部件的认识,以实现恒定的流量,最大限度地减少磨损,并确保例如,精确的片上实验室工作流程的可靠运行。
快速响应电压调节对于数据中心电压调节模块(VRM)为人工智能(AI)工作负载供电至关重要,这些工作负载既表现出小振幅波动,也表现出突如其来的满负荷步骤。 本文介绍了一种控制方案,该方案集成了线性控制器和可变频率系列-电容器巴克(SCB)转换器的非线性控制器。 首先,通过交换同步采样状态空间(5S)框架导出准确的小信号模型,产生离散时间传输功能和直接数字设计的根点见解。 SCB转换器的一个关键问题是,如果不保持严格的开关顺序,在重负荷步骤中串联电容器振荡。 为了加速大信号瞬态,基于Pontryagins Maximum Principle(PMP)的时间优化控制策略可放松切换约束,以计算时间优化的切换序列。 然后提出过渡逻辑来集成高带宽小信号控制器和大信号控制器。 模拟演示在重负载提升下快速输出电压恢复,比仅线性控制器设计快十倍以上。 初步硬件测试表明,对重负载干扰有稳定的拒绝,零稳态误差。
光谱异常检测和同位素识别算法是搜索操作等核不扩散应用中的组成部分。 在移动探测器系统的情况下,这项任务尤其具有挑战性,因为观察到的伽马射线背景变化大于静态探测器系统,并且预训练的背景模型可以很容易地发现自己处于域外。 结果是算法可能超过其预期的误报警率,或牺牲检测灵敏度,以保持所需的误报警率。 非负矩阵因子化(NMF)已被证明是光谱异常检测和识别的有力工具,但是,与许多依赖数据驱动背景模型的类似算法一样,在其常规实现中,它无法实时更新以考虑影响背景光谱特征的环境变化。 我们开发了一种基于NMF的新型算法,该算法定期更新其背景模型以适应不断变化的环境条件。 自适应NMF算法涉及较少的环境假设,使其比现有的基于NMF的方法更具可推广性,同时在模拟和真实世界的数据集上保持或超过检测性能。
非线性计算对于广泛的信息处理任务至关重要,但由于光学非线性的弱性和功率密集性,使用光学系统实现非线性函数仍然是一个挑战。 克服这种限制而不依赖非线性光学材料可以为超快和并行光学计算系统释放前所未有的机会。 在这里,我们证明可以通过由被动相位表面组成的优化的衍射处理器使用线性光学进行大规模非线性计算。 在这个框架中,非线性函数的输入变量被编码到光波前阶段,例如,通过空间光调制器(SLM),并通过优化的衍射结构与空间变化的点差函数进行转换,以产生近似大型独特非线性函数的输出强度,所有功能都是并行的。 我们提供证明,该架构作为一组任意的带式非线性函数的通用函数近似器,也涵盖了多变量和复杂值函数。 我们还在数值上演示了一百万个不同非线性函数的并行计算,这些函数在衍射光学处理器的输出时以波长尺度的空间密度精确执行。 此外,我们使用原位光学学习实验验证了该框架,并使用由SLM和图像传感器组成的紧凑设置,在单次拍摄中大约35个独特的非线性函数。 这些结果建立了衍射光学处理器,作为大规模并行通用非线性函数近似的可扩展平台,为基于线性材料的模拟光学计算新功能铺平了道路。
这项研究表明,在氮化镓(GaN)高电子移动晶体管(HEMT)配置中,3D单片集成了氮化镓(a-IGZO)薄膜晶体管(TFT),实现了超过1900 V的高分解电压能力。 制造和评估两种设备配置,在a-IGZO通道厚度(30nm / 10 nm)方面有所不同。 样品B具有10 nm a-IGZO通道,具有卓越的电气性能,包括高ON / OFF电流比(10^7),低次锶摆动(SS),以及超过1900 V的高击穿电压,可与独立的GaN功率HEMT相媲美。 研究结果突出了3D集成TFT在GaN功率HEMT上的可行性和潜力,为TFT为高压应用的新机会铺平了道路。
灰狼优化器(GWO)是受自然启发的群智力领域随机元启发,模仿灰狼的狩猎行为。 差分进化(DE)是进化计算领域流行的随机算法,非常适合全局优化。 在这一部分中,我们引入了一种基于GWO和两种DE变体的杂交的新算法,即GWO-DE算法。 我们通过应用各种数值基准函数来评估新算法。 比较研究的数字结果在性能和解决方案质量方面相当令人满意。
我们提出了从电气测量中提取二维(2D)晶体管的物理参数(例如,移动性,肖特基接触屏障高度,缺陷配置文件)的深度学习方法,从而实现自动化参数提取和技术计算机辅助设计(TCAD)拟合。 为了促进这项任务,我们通过训练辅助神经网络来近似基于物理的设备模拟器,实现了一个简单的数据增强和预训练方法。 这种方法在训练神经网络从基于物理的500台设备模拟生成的电气数据后实现了高质量的拟合,这一因素比最近的其他努力少了40×。 因此,可以通过对物理严谨的TCAD模型进行培训来实现拟合,包括复杂的几何形状,自静传输和静电效应,并且不限于计算便宜的紧凑模型。 我们采用的方法从实验单层WS_2晶体管的逆向工程关键参数,在拟合测量的电气数据时实现中位测定系数(R^2)=0.99。 我们还证明,这种方法通过逆向工程高电子移动晶体管的电气数据进行推广和扩展,同时同时拟合35个参数。 为了促进未来对逆晶体管设计的深度学习方法的研究,我们在网上发布了我们的代码和示例数据集。
复杂的网络已成为理解社会系统、交通系统、生物分子系统和金融系统中各种现象的基本工具。 识别关键节点是当代研究的中心主题,是理论基础和实际应用之间的重要桥梁。 然而,现实世界网络的内在复杂性和结构异质性,特别强调动态和高阶网络,对开发关键节点识别通用框架造成了重大障碍。 本文对关键节点识别技术进行了全面审查,将其分为七个主要类别:中心性、关键节点删除问题、影响最大化、网络控制、人工智能、高阶和动态方法。 我们的审查通过根据其方法基础和实际意义系统地分类方法,并通过突出其优势,局限性和在不同网络类型的适用性,弥合了现有调查的差距。 我们的工作通过识别关键节点研究,例如算法普遍性,动态网络中的实时评估,高阶结构的分析以及大规模网络中的计算效率,增强了对关键节点研究的理解。 结构化合成巩固了当前的进展,突出了开放性问题,特别是在建模时间动态,推进高效算法,集成机器学习方法以及开发复杂系统的可扩展和可解释的指标方面。
光学计算有望实现高速、节能的信息处理,衍射光网络成为实现特定任务转换的灵活平台。 然而,一个挑战是衍射层的有效优化和对齐,这受到物理系统及其固有的硬件缺陷,噪声和错位的精确建模的困难的阻碍。 虽然现有的原位优化方法提供了在没有显式系统建模的情况下直接训练物理系统的优势,但由于有限测量数据的使用效率低下,它们通常受到缓慢收敛和性能不稳定的限制。 在这里,我们介绍了一种利用近端策略优化(PPO)进行衍射光学处理器的无模型强化学习方法。 PPO 有效重复使用原位测量数据,并限制策略更新,以确保更稳定和更快的收敛。 我们在一系列现场学习任务中实验性地验证了我们的方法,包括通过随机扩散器、全息图像生成、畸变校正和光学图像分类来聚焦目标能量,在每个任务中展示更好的收敛和性能。 我们的策略直接在物理系统上运行,自然解释了未知的现实世界缺陷,消除了对先前系统知识或建模的需求。 通过在现实的实验约束下实现更快,更准确的训练,这种原位强化学习方法可以为受复杂,反馈驱动的动态控制的各种光学和物理系统提供可扩展的框架。
这项工作旨在模拟瓦楞纸板中有效弹性模量,E_z,eff和厚度th_eff的超表面。 拉丁Hypercube采样(LHS)之后是高斯过程回归(GP),由EHVI增强为多目标采集功能。 E_z、eff 和 th_eff 的精确建模对于优化工程应用中瓦楞材料的机械性能至关重要。 LHS为输入空间的初始采样提供了一种高效而直接的方法;GP有望通过结合预测和不确定性来适应响应表面的复杂性。 因此,生成和评价的下一点是基于超表面的复杂性,有些点,特别是那些方差较高的点,被更多地利用并具有更重要的意义。 GP与EHVI的性能是通过平均平方误差(MSE)来衡量的。 GP的预测导致MSE(E_z,eff)=5.24 kPa^2和MSE(th_eff)=1 mm^2。 GP随后提高了结构优化未来应用的精度和适应性。
这项研究提出了一种简化的FEM建模方法,适用于由瓦楞纸板制成的大型结构,例如基于同质化方法的定制包,该方法与内部机制的校正因子相结合。 同质化过程通过将长笛几何形状转换为等效弹性模型来减少计算时间。 在大型变形和给定几何形状的接触存在的情况下,厚度方向的有效弹性模量以及结构的有效厚度,通过两个统计的Webull分布来校正,这些分布表示瓦楞板中的接触和屈曲机制。 Weibull参数通过实验分析获得,然后验证这样的过程。 结果表明,统计参数(β_1 = 0.14,β_2 = 1.31)可用于瓦楞纸板的简单表示,计算效率很高。 这项研究有助于瓦楞包装设计的优化,特别是通过简化FEM模型以获得更快,但同样准确的模拟。
纳米光子学的逆向设计,实现靶向电磁(EM)响应的结构的计算发现,已成为最近光学进步的关键工具。 传统的直觉驱动或迭代优化方法与固有的高维,非凸设计空间和EM模拟的大量计算需求作斗争。 最近,机器学习(ML)已经出现,以有效地解决这些瓶颈。 本综述通过表示学习的镜头构建了ML增强的逆设计方法,将其分为两类:输出端和输入端方法。 输出端方法使用 ML 学习解决方案空间中的表示,以创建一个可区分的求解器,加速优化。 相反,输入端技术使用ML来学习可行的设备几何形状的紧凑,潜在空间表示,通过生成模型实现高效的全球探索。 每种策略在数据要求、泛化能力和新颖的设计发现潜力方面都呈现出独特的权衡。 将基于物理的优化和数据驱动表示相结合的混合框架有助于逃避较差的本地最优,提高可扩展性并促进知识转移。 我们最后强调开放的挑战和机遇,强调复杂性管理,几何无关的表示,制造约束的集成,以及多物理场共同设计的进步。