非本地游戏测试在量子系统中的非局部性和纠缠,并用于在不受信任的设备中认证量子态的自我测试。 然而,这些协议是针对理想状态量身定制的,因此逼真的噪音可以防止最大的违规行为,并使许多部分非本地州未被检测到。 根据噪声的“坚固性”选择自我测试可以针对特定应用定制协议,但目前的文献缺乏标准化的噪声稳健性度量。 创建这样的度量具有挑战性,因为没有操作措施来比较不同尺寸和输入输出设置的测试。 我们提出并研究了三种比较措施:噪音耐受性,说服力和称为间隙得分的说服力的分析近似。 我们的计算实验和分析框架表明,说服力为噪声强性提供了最细致入微的衡量标准。 然后我们展示,CHSH游戏具有最高的噪声-强率与更复杂的游戏(2-CHSH变体和Magic Square游戏)相比,当给予相等的资源时,而对于不平等的资源,一些2-CHSH变体可以以高资源成本超越CHSH。 这项工作为比较自测试协议中的噪声强性提供了第一个系统化和操作框架,为理解自检的噪声强性和量子资源利用率的实际改进的理论进展奠定了基础。
量子计算(QC)和机器学习(ML)的快速发展引发了人们的兴趣,推动了量子机器学习(QML)算法的广泛探索,以应对广泛的复杂挑战。 高性能QML模型的开发需要专家级的专业知识,对QML的广泛采用提出了关键挑战。 关键障碍包括设计有效的数据编码策略和参数化量子电路,这两种电路对QML模型的性能都至关重要。 此外,测量过程通常是被忽视的 - 现有的QML模型采用的预定义测量方案可能不符合目标问题的具体要求。 我们提出了一个创新框架,使量子系统的可观察性,即Hermitian矩阵可训练。 这种方法采用端到端的可微分学习框架,同时优化用于编程参数化可观测值和标准量子电路参数的神经网络。 值得注意的是,量子可观测参数由神经网络动态编程,允许可观测数据根据输入数据流实时调整。 通过数值模拟,我们证明所提出的方法有效地在可变量子电路中动态地编程可观测,与现有方法相比取得了卓越的结果。 值得注意的是,它提供了增强的性能指标,例如更高的分类精度,从而显著提高了QML模型的整体有效性。
这项工作通过利用Coo等人引入的框架,在量子学习算法的预期概括误差上建立一个新的上限家族,促进了对量子学习的理论理解。 (2024年)和预期真实损失的新定义。 我们的主要贡献是在量子和经典Rényi发散方面推导这些边界,使用用于评估量子Rényi发散的变异方法,特别是Petz和新引入的改良夹层量子Rényi发散。 从分析和数字上,我们展示了使用修改三明治量子雷尼发散的界限与基于Pets发散的界限的优性能。 此外,我们使用两种不同的技术提供概率广义误差边界:一种基于修改的三明治量子雷尼发散和经典雷尼发散,另一种采用平滑最大雷尼发散。
在本文中,提出了一种新的连续非平滑控制策略,以实现阶梯量子系统的有限时间稳定。 我们首先使用基于距离的Lyapunov函数为阶梯n级量子系统设计通用分数顺序控制定律,然后应用差分内含物意义上的Filippov溶液和LaSalle的不变性原理,以证明在连续非平滑控制定律下阶梯系统解决方案的存在和唯一性。 通过应用Lyappunov稳定性和有限时间稳定性标准,对阶梯系统进行严格的建立。 我们还得出收敛到内在哈密尔顿式特征状态所需的时间的上限。 铷梯三级原子系统上的数值模拟验证了拟议方法的有效性。
局部一致性出现在不同的领域,包括贝叶斯统计,关系数据库和量子基础。 同样,功能依赖的概念也出现在所有这些领域。 我们采用一般的方法来研究逻辑推理,使全球不一致和局部一致性。 我们的方法建立在K-relations的成对一致家族的基础上,即与带有一些积极交换单性元素的桂冠关系。 该框架涵盖了量子实验产生的概率分布家族及其可能性对应物。 作为第一步,我们研究此设置中函数依赖关系(FD)的包含问题。 值得注意的是,FD的转导规则不再健全,但可以由两个新颖的公理方案取代。 我们为一元FD的诱因问题提供了完整的公理化和PTIME算法。 此外,我们探索当背景家庭对布尔人已经意识到各种单体的背景家庭。
量子计算(QC)和机器学习(ML)的快速发展引发了人们的兴趣,推动了量子机器学习(QML)算法的广泛探索,以应对广泛的复杂挑战。 高性能QML模型的开发需要专家级的专业知识,对QML的广泛采用提出了关键挑战。 关键障碍包括设计有效的数据编码策略和参数化量子电路,这两种电路对QML模型的性能都至关重要。 此外,测量过程通常是被忽视的 - 现有的QML模型采用的预定义测量方案可能不符合目标问题的具体要求。 我们提出了一个创新框架,使量子系统的可观察性,即Hermitian矩阵可训练。 这种方法采用端到端的可微分学习框架,同时优化用于编程参数化可观测值和标准量子电路参数的神经网络。 值得注意的是,量子可观测参数由神经网络动态编程,允许可观测数据根据输入数据流实时调整。 通过数值模拟,我们证明所提出的方法有效地在可变量子电路中动态地编程可观测,与现有方法相比取得了卓越的结果。 值得注意的是,它提供了增强的性能指标,例如更高的分类精度,从而显著提高了QML模型的整体有效性。
神经运算符已经成为在功能空间之间学习映射的强大工具。 其中,内核积分运算符在普遍近似各种运算符方面得到了广泛验证。 尽管遵循这一定义的最新进展已经开发了有效的模块,以更好地近似原始域上定义的内核函数(具有d尺寸,d=1,2,3...),但嵌入空间中未澄清的进化机制阻碍了我们的观点,设计能够完全捕获目标系统演化的神经运算符。 利用最近在量子模拟偏微分方程(PDE)方面的突破,我们阐明了神经运算符中的线性演化过程。 基于此,我们重新定义了新的d+1维域的神经运算符。 在这个框架内,我们实现了我们提出的薛定谔神经运算符(SKNO)与d+1维度演进更好地对齐。 在实验中,我们的d+1尺寸进化线性块的性能远远好于其他。 此外,我们还在各种基准测试中测试了SKNO的SOTA性能,以及零镜头超分辨率任务。 此外,我们分析了不同提升和恢复操作符在重新定义的NO框架中预测的影响,反映了我们的模型与底层d+1维度演进之间的对齐。
中性原子量子计算机是最有前途的量子架构之一,在可扩展性、动态可重配置性和大规模实现的潜力方面提供了优势。 这些特性带来了独特的编译挑战,特别是在编译效率方面,同时适应硬件灵活性。 然而,现有方法在规模上遇到了显著的性能瓶颈,阻碍了实际应用。 我们提出了物理感知编译(PAC),一种提高编译效率的方法,同时保持中性原子系统固有的灵活性。 PAC引入了物理感知硬件平面分区,根据物理设备特性(如AOD和SLM陷阱属性和量子比特移动性限制)战略性地分配硬件资源。 此外,它还通过改进的Kernighan-Lin算法实现了并行量子电路分割,该算法可以在保持电路保真度的同时跨独立区域同时执行。 我们的实验评估将PAC与最先进的方法进行了比较,这些方法的范围从16x16到64x64量子比特不等。 结果表明,PAC在16x16阵列上实现了高达78.5倍的加速,同时保持了可比的电路质量。 PAC的编译效率优势随着系统规模的增长而增加,证明了大型阵列上实用量子应用的可扩展性。 PAC通过有效解决编译效率和硬件灵活性之间的紧张关系,探索中性原子量子计算机实际应用的可行路径。
量子计算利用量子力学来实现与经典硬件相比的计算优势,但在嘈杂中级量子(NISQ)时代使用第三方量子编译器引入了知识产权(IP)暴露的风险。 我们通过提出一种新的混淆技术来解决这个问题,该技术通过在编译之前插入额外的量子门来保护专有量子电路。 这些闸门会损坏测量结果,这些结果后来通过基于插入闸门结构的轻量级经典后处理步骤进行校正。 与以前依赖复杂量子反转、障碍或物理到虚拟量子比特映射的方法不同,我们的方法使用编译器无关的经典校正实现了混淆。 我们使用IBM的Qiskit框架,通过五种基准量子算法(Shor's、QAOA、Bernstein-Vazirani、Grover's和HHL)来评估该技术。 结果表明,总变异距离(0.5以上)和持续负功能腐败程度(DFC),证实了统计和功能混淆。 这表明我们的方法是在不受信任的编译流中量子电路设计的安全性的实用有效的解决方案。
量子态断层扫描,学习未知量子态的任务,是量子信息中的一个根本问题。 在标准设置中,这个问题的复杂性在很大程度上取决于人们试图学习的量子态类型,纯态比一般混合态更容易学习。 一个自然的问题是这种分离是否适用于任何量子态学习设置。 在这项工作中,我们考虑了在线学习框架,并证明了在这个设置中学习纯状态与学习混合状态一样困难的惊人结果。 更具体地说,我们表明这两个类共享几乎相同的顺序脂肪破碎维度,导致相同的遗憾缩放。 我们还在在线设置中将以前关于全量子态断层扫描的结果推广到(i)可实现ε设置和(ii)仅部分学习密度矩阵,使用平滑分析。
自然语言处理(NLP)的量子方法正在重新定义语言信息的表示和处理方式。 虽然传统的混合量子经典模型严重依赖经典神经网络,但最近的进展提出了一种新的框架DisCoCirc,能够直接将整个文档编码为参数化量子电路(PQC),除了享受一些额外的可解释性和组合性好处。 根据这些想法,本文引入了一种有效的方法,使用预组图的树状表示将大规模文本转换为量子电路。 利用语言和量子力学之间的组合性相似之处,基于对称的单向类别,我们的方法能够在长而复杂的文本(在我们的实验中最多6410个单词)到量子电路中忠实有效地编码语法和话语关系。 开发系统作为增强的开源量子NLP软件包 lambeq Gen II 的一部分提供给社区。
水库计算是机器学习的一种形式,特别适合时间序列分析,包括预测预测。 我们采用量子库计算,该计算最初旨在生成音乐谱的变体,并将其调整为创建超级马里奥兄弟的水平。 通过对这些级别的分析,我们开发了一种新的Roblox obby,可以在超导量子比特硬件上实时生成课程,并研究这种实时生成所带来的一些限制。
本文介绍了Genesis,第一个旨在支持Hamiltonian Simulation的混合连续变量(CV)和离散变量(DV)量子计算系统的编译器。 Genesis是一个两级编译系统。 在第一个阶段,它使用目标混合CV-DV量子计算机的本地指令集将输入Hamiltonian分解为基础门。 在第二层,它解决了量子模/量子比特的映射和路由,以实现从第一层分解的大门的远程交互。 而不是依赖于类似于基于量子位(或DV)系统的SWAP原语的典型实现,我们提出了为混合CV-DV系统量身定制的连接感知门合成和波束分裂器SWAP插入的集成设计。 我们还引入了一种类似OpenQASM的域特异性语言(DSL),称为CVDV-QASM,用于代表Hamiltonian,用于从混合CV-DV门集的Pauli-exponentials和基本门序列。 Genesis已经成功编译了几个重要的Hamiltonians,包括Bose-Hubbard模型,Z_2-Higgs模型,Hubbard-Holstein模型,Heisenberg模型和Electron-vibration耦合Hamiltonians,这些在量子场论,凝聚态物理和量子化学等领域至关重要。 我们的实现可在 Genesis-CVDV-Compiler(https://github.com/ruadapt/Genesis-CVDV-Compiler)获得。
我们提出了一个紧凑的量子电路,用于考虑一大类整数,包括一些经典硬度预计相当于RSA(但不包括RSA整数本身)。 最值得注意的是,我们用log Q = Θ(n^a)在空间和深度亚线性的 n(特别是 Õ( log Q))中用 Õ(n) 量子门,在空间和深度亚线性中为 n(特别是 Õ(log Q)) 的 n 位整数;对于这些整数,没有已知的经典算法利用相对较小的 Q 大小来比通用因子算法以相对快的速度运行。 据我们所知,这是第一个为经典硬因子问题实现亚线性量子比特计数的多项式时间电路。 因此,我们认为,考虑这些数字有可能成为目前已知的最具体的可经典可验证的量子性证明。 我们的电路建立在Li,Peng,Du和Sutter发现的无平方分解的量子算法(2012年自然科学报告)上,该算法依赖于计算量子叠加中的Jacobi符号。 我们贡献的技术核心是一种新的空间效率量子算法,用于计算A mod B的Jacobi符号,在B是经典且比A大得多的政权中。 我们用于计算Jacobi符号的电路概括为相关问题,例如计算最大的通用除数和模块化反面,因此可能是独立的兴趣。
在量子热力学中,一个系统由Hamiltonian描述,并且列出了代表粒子数或电荷等保守数量的非通勤电荷,一个重要的目标是在这些保守电荷的存在下确定系统的最低能量。 在优化理论中,半确定性程序(SDP)涉及在正半确定性运算符的圆锥体上优化的线性目标函数。 这些问题产生于物理和优化社区中的不同动机,并使用非常不同的术语措辞,但它们在数学上基本上是相同的。 通过采用Jaynes以量子热力学为动力的心态,我们观察到,在上述热力学问题中最小化自由能量,而不是能量,导致在化学潜在参数中凹陷的双重化学电位最大化问题方面获得优雅的解决方案。 因此,可以使用标准(随机)梯度上升方法来找到这些参数的最佳值,并且这些方法保证快速收敛。 在低温下,最小自由能量为最低能量提供了极好的近似值。 然后,我们展示了这种Jaynes启发的梯度上升方法如何用于一阶和二阶经典和混合量子经典算法,以最小化能量,并等效地,它如何用于解决SDP,并保证算法的运行时。 这里讨论的方法完全基于量子热力学,因此,提供了物理动机,为什么在Jaynes的开创性工作五十年后发布的算法,包括矩阵乘法权重更新方法,矩阵指数梯度更新方法及其量子算法泛化,在解决SDP方面表现良好。
我们提出了一种用于地面状态能量(GSE)估计的混合量子-经典算法,该算法对高度嘈杂的数据保持稳健,并且对超参数调优表现出低灵敏度。 我们的方法 - 傅里叶去噪可观测动态模式分解(FDODMD) - 结合基于傅里叶的去噪阈值,以抑制假噪声模式与可观测的动态模式分解(ODMD),一种量子类信号子空间方法。 通过将ODMD应用于一系列取消时间域的轨迹,FDODMD可靠地估计了系统的特征频率。 我们还提供了 FDODMD 的错误分析。 分子系统的数字实验表明,FDODMD在有限的量子计算预算下实现了基线方法无法进入的高噪声机制的收敛,同时加速了中间噪声机制中的光谱估计。 重要的是,这种性能增益是完全经典的,不需要额外的量子开销,并显着降低整体量子资源需求。
这项工作通过利用Coo等人引入的框架,在量子学习算法的预期概括误差上建立一个新的上限家族,促进了对量子学习的理论理解。 (2024年)和预期真实损失的新定义。 我们的主要贡献是在量子和经典Rényi发散方面推导这些边界,使用用于评估量子Rényi发散的变异方法,特别是Petz和新引入的改良夹层量子Rényi发散。 从分析和数字上,我们展示了使用修改三明治量子雷尼发散的界限与基于Pets发散的界限的优性能。 此外,我们使用两种不同的技术提供概率广义误差边界:一种基于修改的三明治量子雷尼发散和经典雷尼发散,另一种采用平滑最大雷尼发散。
局部一致性出现在不同的领域,包括贝叶斯统计,关系数据库和量子基础。 同样,功能依赖的概念也出现在所有这些领域。 我们采用一般的方法来研究逻辑推理,使全球不一致和局部一致性。 我们的方法建立在K-relations的成对一致家族的基础上,即与带有一些积极交换单性元素的桂冠关系。 该框架涵盖了量子实验产生的概率分布家族及其可能性对应物。 作为第一步,我们研究此设置中函数依赖关系(FD)的包含问题。 值得注意的是,FD的转导规则不再健全,但可以由两个新颖的公理方案取代。 我们为一元FD的诱因问题提供了完整的公理化和PTIME算法。 此外,我们探索当背景家庭对布尔人已经意识到各种单体的背景家庭。
量子计算可能为推进机器学习提供新方法,包括在网络流量中异常检测等复杂任务中。 在本文中,我们引入了用于多变量时间序列异常检测的量子生成对抗网络(QGAN)架构,该架构利用变分量子电路(VQC)与时间窗口偏移技术,数据重新上传和连续数据注入(SuDaI)相结合。 该方法将多变量时间序列数据编码为旋转角度。 通过将数据重新上传和SuDaI集成,该方法将经典数据有效地映射到量子态中,有助于解决硬件限制,例如可用量子比特数量的限制。 此外,该方法还采用了异常评分技术,该技术利用生成器和鉴别器输出来提高异常检测的准确性。 QGAN使用参数偏移规则进行训练,并以经典GAN为基准测试。 实验结果表明,量子模型在异常检测中实现了高精度以及高召回率和F1分数,并且与经典模型相比获得了较低的MSE。 值得注意的是,QGAN仅使用80个参数即可实现此性能,通过紧凑的架构展示了具有竞争力的结果。 使用嘈杂模拟器的测试表明,该方法在现实的易噪音条件下仍然有效。
量子篡改篡改的加密方案是一种非交互式对称密钥加密方案,将经典消息映射到量子密文,以便一个诚实的密文接收者可以大概率地检测任何有意义的窃听。 这种量子密码原语由Gottesman于2003年首次引入。 除了正式定义这种安全概念之外,Gottesman的工作还有三个主要贡献:表明任何量子认证方案也是一个篡改明显的方案,并指出量子密钥分配方案可以从任何篡改明显的方案中构建,并且仅使用受Shor和Preskill启发的Wesner状态构建准备和测量篡改的篡改方案。 在这项工作中,我们通过正式将其与信息理论环境中的其他量子加密原语联系起来,进一步理解了篡改明显的加密。 特别是,我们表明篡改证据意味着加密,回答Gottesman打开的一个问题,我们表明它可以由任何加密方案构建,具有撤销和反之亦然,我们将现有的量子货币构建草图从任何篡改明显的加密方案中正式化。 这些结果也产生了一个推论,即任何允许撤销消息的方案都必须是加密方案。 我们还展示了篡改证据和其他原语之间的分离,特别是表明篡改证据并不意味着身份验证,也不意味着不可克隆的加密。
D^2-sampling是基于采样的聚类算法(如k-means++)的基本组成部分。 给定一个数据集V ⊂R^d与N点和一个中心集C ⊂R^d,D^2-sampling是指从V中选择一个点,其中点的采样概率与其与C中最近的中心的平方距离成正比。 从空 C 开始,在 k 轮中迭代 D^2 采样和更新 C 是 k-means++ 播种,在 O(Nkd) 中运行,并给出 O(logk) 近似值,以期望 k-means 问题。 我们在 QRAM 模型中给出了一个量子算法(近似) D^2-采样,从而实现了 k-means++ 的量子实现,该算法在时间 Õ(ζ^2 k^2) 中运行。 这里 ζ 是宽高比(即最大到最小的点距离),Õ 隐藏了 N, d, k 中的多对数因子。 它可以通过对k-means++的稳健近似分析来表明,量子版本保留了其O(logk)近似保证。 此外,我们表明,我们的D^2采样量子算法可以使用Tang的样本-query访问模型(博士论文,华盛顿大学Ewin Tang,2023)进行“量化”。 这导致了k-means++的快速量子启发的经典实现,我们称之为QI-k-means++,运行时为O(Nd)+ Õ(ζ^2k^2d),其中O(Nd)术语用于设置样本-query访问数据结构。 实验研究表明,在具有边界宽高比的大型数据集上,QI-k-means++取得了有希望的结果。 最后,我们使用我们的量子D^2-采样与已知的基于D^2采样的经典近似方案(即任何给定的ε>0的(1+ε)近似值,以获得第一个量子近似方案,用于k-means问题,多对数运行时间依赖N。
我们提出了提升量子 CSS 代码的拓扑方法。 在之前的工作,我们建议通过在其2D简单复杂表示(称为Tanner cone-complex)上构建覆盖空间来提升CSS代码。 这个想法的灵感来源于Freedman和Hastings的工作,后者将CSS代码与句柄相关联。 在本文中,我们展示了代码的句柄实现也可用于执行代码提升,我们提供了更详细的讨论,说明为什么这本质上等同于Tanner cone-complex方法。 作为一个应用程序,我们通过其手柄实现对超图产品代码的提升进行分类。
描述量子系统的地面状态特性对于捕获它们的行为至关重要,但在计算上具有挑战性。 人工智能的最新进展引入了新颖的方法,为此提出了多样化的机器学习(ML)和深度学习(DL)模型。 然而,DL模型在这些任务中的必要性和具体作用仍不清楚,因为先前的研究通常采用不同或不切实际的量子资源来构建数据集,从而导致不公平的比较。 为了解决这个问题,我们系统地对DL模型与三个哈密尔顿家族的传统ML方法进行了基准测试,在三个关键的地面状态学习任务中扩展到127个量子比特,同时执行等效的量子资源使用。 我们的结果表明,ML模型通常在所有任务中实现与DL方法相当甚至超过DL方法的性能。 此外,随机化测试表明,测量输入功能对DL模型的预测性能影响最小。 这些发现挑战了当前DL模型在许多量子系统学习场景中的必要性,并为其有效利用提供了有价值的见解。
跨越远程的纠缠分布对于许多量子应用至关重要。 目前,远程纠缠分布的实际方法依赖于光纤进行现场纠缠分布。 然而,由于固有的限制,基于纤维的方法无法进行全球范围的纠缠分布。 本文研究了一种新的混合地卫星量子网络架构(QuESat),用于全球规模的纠缠分布,将地面光纤网络与由低地球轨道卫星构建的全局级无源光网络集成在一起。 卫星网络提供基于近真空光束导轨的动态构建,这些导轨通过可调的透镜阵列构建,将光子从一个地面站转发到另一个地面站,与使用光纤相比,在长距离上的效率非常高。 为了评估QuESat对全球通信的可行性和有效性,我们制定了光路配置和纠缠分布问题,考虑到卫星的轨道动力学和地面用户的时间变化纠缠需求。 开发一个两阶段算法,分别动态配置光束导轨和分配纠缠。 该算法结合了用于光路径配置的随机和确定性四舍五入,以实现全球连接,并结合最佳纠缠交换,用于分配纠缠以满足用户的需求。 通过开发地面卫星量子网络模拟器,QuESat与中继器网络相比实现了多倍的改进。
本文介绍了量子深集模型,通过启用使用量子系统学习变量函数的可能性来扩展量子机器学习工具箱。 为该模型提供了几个变体。 第一个重点是通过状态向量平均映射到量子系统:集合的每个元素被映射到量子状态,集合的量子态是其元素的相应量子态的平均值。 这种方法允许定义一个排列不变的变量模型。 第二个变体对于有序集合(即序列)很有用,并且依赖于实现混合状态产物的三相通张量的最佳相干化:集合的每个元素被映射到密度矩阵中,并且该集合的量子态是其元素的相应密度矩阵的产物。 这种变体可以在自然语言处理等任务中相关。 然后处理任何变体中产生的量子态来实现解决机器学习任务的函数,如分类,回归或密度估计。 通过合成问题示例,证明了量子深集和序列(QDS)的功效和多功能性。