URI重定向是网络管理的重要组成部分,支持结构变更、SEO优化和安全防护。然而其复杂性会影响可用性、SEO表现和数字保存。本研究分析了1100万个唯一重定向URI,对每个URI追踪多达10次跳转,以揭示重定向实践的模式和影响。我们的发现表明...
直接在超低功耗边缘/IoT节点上运行深度学习推理一直受到微控制器有限内存和计算资源的限制。分割学习(SL)通过将部分推理过程在传感器端执行,其余部分卸载到配套设备来解决这一限制。在资源受限设备和低功耗无线传输协议的相关影响下,分割学习的性能在很大程度上尚未得到充分研究。据我们所知,本文首次提出了基于Espressif ESP32-S3板构建的端到端TinyML+SL测试平台,旨在评估边缘/IoT环境中分割学习TinyML的无线传输性能。我们对MobileNetV2图像识别模型进行了基准测试,该模型被量化为8位整数,经过分割后通过无线更新交付给节点。中间激活值通过不同的无线通信方式交换:ESP-NOW、BLE以及传统的UDP/IP和TCP/IP,从而在相同硬件上实现直接比较。测量结果表明,当使用UDP协议时,在block_16_project_BN层后分割模型会产生5.66 kB的张量,传输时间为3.2 ms,稳态往返延迟达到5.8秒。ESP-NOW表现出最佳的RTT性能(3.7秒);BLE可进一步延长电池寿命,但会将延迟增加到10秒以上。
大型语言模型(LLM)基于自主代理有望在6G网络的发展中发挥重要作用,为最终用户提供与管理和服务提供相关的实时决策。 这种转变促进了从人工智能(AI)算法处理孤立任务的专门智能方法向人工智能(AGI)驱动的网络过渡,其中代理具有更广泛的推理能力,可以管理不同的网络功能。 在本文中,我们引入了一种新的代理范式,将LLM与实时优化算法相结合,以实现可信赖的AI,定义为共生代理。 LLM 输入级别的优化器为数值精确任务提供有边界的不确定性转向,而由 LLM 监督的输出级优化器可实现自适应实时控制。 我们设计和实施两种新颖的代理类型,包括:(i)无线电接入网络优化器,以及(ii)服务级协议(SLA)的多代理谈判者。 我们进一步提出了AGI网络的端到端架构,并在5G测试台上对其进行评估,以捕获移动车辆的信道波动。 结果表明,与基于独立的LLM代理相比,共生代理减少了五倍的决策错误,而较小的语言模型(SLM)以99.9的速度实现了类似的精度。
自主交付车辆(ADV)越来越多地用于在支持5G网络的智能工厂中运输货物,计算密集型本地化模块为优化提供了重要机会。 我们提出了ACCESS-AV,这是一种节能的车辆对基础设施(V2I)本地化框架,利用智能工厂环境中现有的5G基础设施。 通过机会性地访问定期广播的5G同步信号块(SSB)进行本地化,ACCESS-AV无需专用路边单元(RSU)或额外的车载传感器来实现能源效率和降低成本。 我们使用多信号分类(MUSIC)算法实现了基于AOA的到达角度(AoA)估计方法,该算法通过自适应通信计算策略针对资源受限的ADV平台进行了优化,该策略根据环境条件(如信号噪声比(SNR)和车辆速度)动态平衡能源消耗与定位精度。 实验结果表明,ACCESS-AV实现了平均能量降低43.09
当网络拥有多个用户时,对虚拟现实(VR)的无线支持面临挑战,特别是对于3D VR游戏,数字AI头像和远程团队协作。 这项工作通过调查低排名通道来解决这些挑战,当用户比空间自由度更活跃时,不可避免地会出现低排名通道,实际上通常是天线的数量。 呈现的方法使用最佳的非线性收发器,等效的广义决策反馈或连续取消上行链路和叠加或脏纸预编码器的下行链路。 此外,针对用户能量分配和解码顺序的强大优化方法似乎对现有方法进行了大量改进,有效地接近理论最优。 由于后者的优化方法带来了实时挑战,因此使用深度强化学习(DRL)的近似值用于近似最佳性能,具有更低的(至少5倍)复杂性。 实验结果表明,为了达到支持VR所需的数据速率,总和率显著提高,总和节省很大。 实验结果表明,拟议的算法优于当前的行业标准,如正交多通道访问(OMA),非正交多通道(NOMA),以及多载波NOMA(MC-NOMA)中高度研究的方法,将总数据速率提高了39
激活函数是深度神经网络中的关键组成部分,直接影响梯度流、训练稳定性和模型性能。 像ReLU这样的传统功能患有死神经元问题,而sigmoid和tanh表现出消失的梯度问题。 我们引入了两种新颖的混合激活功能:S3(Sigmoid-Softsign)及其改进版本S4(平滑S3)。 S3将sigmoid用于负输入与用于正输入的softsign相结合,而S4采用由陡度参数k控制的平滑过渡机制。 我们使用三种不同的神经网络架构对二进制分类、多类分类和回归任务进行了全面的实验。 与9个基线激活功能相比,S4表现出卓越的性能,达到97.4
服务功能链(SFC)是提供可编程计算机网络的关键推动因素之一,为网络自治铺平了道路。 然而,这也带来了新的挑战,例如与其操作相关的资源分配和优化,需要新的算法来应对这些挑战。 文献中使用了各种工具来评估这些算法。 然而,这些工具缺乏准确性、低保真度、不可扩展性、不灵活性或额外的代码要求。 本文介绍了基于Mininet和Docker for SFC的模拟器,称为OpenRASE。 OpenRASE的目标是在动态设置中实现对证监会资源分配算法的探索,从而可以测量真实的CPU使用情况和延迟。 我们描述了OpenRASE的设计和实施,并讨论了它的特性。 我们还对两种不同的算法进行了实验评估,以应对证监会的资源分配挑战,包括在线遗传算法,使用OpenRASE来展示其在动态网络条件下的有效性和实用性。
可编程数据平面的出现,特别是支持P4语言的交换机的出现,通过实现定制的线率数据包处理,改变了网络安全。 这些最初用于灵活转发的交换机现在发挥着更广泛的作用:检测和缓解DDoS和欺骗等攻击,执行下一代防火墙策略,甚至支持网络内加密和机器学习。 这些功能是通过诸如再循环和截断和查找表预计算等技术实现的,这些技术可以绕过有限的内存和有限的指令集等架构限制。 在本文中,我们将基于可编程交换机构建的安全应用的最新进展系统化,重点是功能、挑战和架构变通方法。 我们强调了非明显的设计技术,使复杂的网络安全功能可行,尽管硬件平台的限制,并评论剩余的问题和新出现的研究方向。
量化是许多机器学习用例的基本优化,包括压缩梯度、模型权重和激活以及数据集。 最准确的量化形式是自适应,在给定的输入时,误差被最小化,而不是针对最坏的情况进行优化。 然而,就其运行时和内存要求而言,最优的自适应量化方法被认为是不可行的。 我们重新审视了自适应矢量量化(AVQ)问题,并提出了算法,这些算法可以无症状地改善时间和空间复杂性找到最佳解决方案。 我们还为大型输入提供了更快的近乎最优的算法。 我们的实验表明,我们的算法可能会打开在各种机器学习应用中更广泛地使用AVQ的大门。
生产数据中心的大规模分布式培训对网络基础设施提出了重大需求。 特别是,在处理AI/ML工作负载时,会产生重大的负载平衡挑战,这些工作负载由低熵,突发和长寿命流组成。 专为以太网设计的现有解决方案,如Equal-Cost Multi-Path(ECMP)难以保持高网络利用率。 虽然主要行业参与者(例如,Ultra Ethernet Consortium)和学术界的部分地区已经提出数据包喷涂以提高AI / ML工作负载性能,但我们认为现有的数据包喷涂解决方案随着时间的推移会导致缓冲通货膨胀,从而对网络性能产生负面影响。 具体来说,当使用ACK合并时,这些解决方案会导致陈旧的信息,降低网络性能。 此外,在非对称网络条件下(例如有序流量的混合,或链路退化和故障)中,现有的数据包喷涂解决方案通常会导致尾部延迟增加。 在本文中,我们介绍了PRIME的设计和评估,这是一种伪随机的循环循环方法,用于分组喷涂,考虑网络拓扑结构以优化负载分布和性能。 PRIME使用拥塞作为重新平衡负载的指标。 在这种程度上,PRIME考虑了各种拥塞信号,考虑了拥塞的严重程度,以及它们的衰减时间,以避免网络热点。 我们使用大规模生产级模拟器对PRIME进行了广泛的评估。 我们的结果表明,与现有解决方案相比,PRIME可导致多达15个
网络基础设施的快速发展为高效的网络管理、优化和安全带来了新的挑战和机遇。 随着非常大的监控数据库变得昂贵,使用AI和生成式AI可以帮助降低管理这些数据集的成本。 本文探讨了使用大型语言模型(LLM)通过解决查询查找和模式分析的局限性来彻底改变网络监控管理。 我们利用LLM来增强异常检测,自动化根本原因分析,并自动化事件分析,以使用AI建立一个经过良好监控的网络管理团队。 通过开发我们自己的OFCNetLLM的真实示例,基于开源LLM模型,我们展示了OFCnetLLM在 OFC会议网络中的实际应用。 我们的模型是作为多智能体方法开发的,并且仍在不断发展,我们在这里介绍了早期的结果。
物联网(IoT)已经改变了许多行业,基于LoRa(长距离)技术的LoRaWAN(长距离广域网)已成为在广域网络中实现可扩展、低成本和节能通信的关键解决方案。 仿真工具对于优化传输参数以及因此的LoRaWAN网络的能源效率和性能至关重要。 虽然现有的模拟框架通过包含多层通信协议来准确地复制现实世界的场景,但它们通常意味着重要的计算开销和模拟时间。 为了解决这个问题,本文介绍了FAST-LoRa,这是一种新颖的模拟框架,旨在快速有效地评估LoRaWAN网络和选择传输参数。 FAST-LoRa通过依赖分析模型来简化计算,而无需进行复杂的分组级模拟,并使用高效的矩阵操作实现网关接收。 FAST-LoRa不是旨在取代离散事件模拟器,而是作为一种轻量级和准确的近似工具,用于评估具有稳定交通模式和上行链路通信的场景中的传输参数策略。 在我们的评估中,我们将FAST-LoRa与使用多种网络配置以及不同数量的最终设备和网关的成熟模拟器进行比较。 结果表明,FAST-LoRa在估计关键网络指标方面也达到了类似的准确性,即使在具有干扰和多门接收的复杂场景中也是如此,数据包交付率(PDR)的平均绝对误差(MAE)为0.940×10^-2,能源效率(EE)为0.040位/mJ,同时显着将计算时间缩短多达三个数量级。
本文介绍了一种新的多频带无源传感系统,该系统利用IEEE 802.11bf Wi-Fi信号进行环境传感,同时关注亚-7 GHz和毫米波(mmWave)频段。 通过结合来自多个频段的通道状态信息(CSI),该系统增强了检测室内环境中人类存在、运动和活动的准确性和可靠性。 该系统使用一种名为MILAGRO的新模型,在不同场景中展示了强大的性能,包括监控工作空间中的人类存在和跟踪走廊中的移动。 实验结果显示精度高(95-100)
传感器节点的精确定位是物联网(IoT)实际应用的基本要求。 为了在不同环境中实现强大的本地化,本文提出了混合元启发式本地化算法。 具体来说,该算法集成了Sine Cosine Algorithm(SCA),该算法在全球搜索中是有效的,具有Particle Swarm Optimization(PSO),擅长本地搜索。 引入了自适应开关模块,以便在两种算法之间动态选择。 此外,该算法的初始化、适量评估和参数设置已经进行了特别重新设计和优化,以解决节点本地化问题的特征。 不同数量的传感器节点的模拟结果表明,与独立的PSO和未优化的SCAPSO算法相比,建议的方法显着减少了所需迭代的数量,并实现了平均本地化误差减少84.97。
超密集的第五代(5G)和网络以外的利用频谱共享和频率重用来增强吞吐量,但面临不可预测的带内上行(UL)干扰挑战,从而显着降低受影响下一代节点基础(gNB)的干扰信号加噪声比(SINR)。 这在细胞边缘尤其成问题,其中重叠区域迫使用户设备(UE)增加传输功率,而在定向毫米波系统中,波束形成侧叶可以产生意想不到的干扰。 由此产生的信号退化通过扭曲参考信号接收电源(RSRP)和接收信号强度指示器(RSSI)等质量指标来破坏协议操作,包括调度和资源分配,并可能破坏通道状态报告和混合自动重复请求(HARQ)确认等关键功能。 为了解决这个问题,本文介绍了InterfO-RAN,这是一种实时可编程解决方案,利用卷积神经网络(CNN)在gNB物理层中处理相位和四分(I/Q)样本,检测带内干扰,精度超过91。
在通信网络中及时和翔实的数据传播对于提高系统性能和能源效率至关重要,因为它减少了过时或冗余数据的传输。 信息时代(AoI)等及时性指标有效地量化了数据新鲜度;然而,这些指标未能解释内容本身的内在信息性。 为了解决这一限制,提出了将及时性和信息性结合起来的基于内容的指标。 然而,现有的研究主要集中在评估平均公制值上,使完整的分布 - 特别是在多跳网络场景中 - 基本上未开发。 在本文中,我们全面分析了版本信息时代(VAoI)的固定分布,这是一种基于内容的指标,在各种调度策略下,包括随机固定,统一和基于阈值的策略,在单跳和多跳网络中具有传输限制。 在这些调度方法下,我们得出了固定分布和平均 VAoI 的闭式表达式。 此外,对于基于阈值的调度,我们分析性地确定最佳阈值,以最小化VAoI并以闭合形式得出相应的最佳VAoI。 数字评估验证了我们的分析结果,为利用VAoI设计高效通信网络提供了宝贵的见解。
随着对低延迟服务的需求不断增长,确保随机访问(RA)网络的延迟性能已成为优先事项。 关于Aloha模型的队列延迟性能的现有研究普遍将数据包视为原子传输单元,主要侧重于在时间段内测量的延迟。 然而,数据包化对队列延迟的影响一直被忽视,特别是对于以秒为单位测量的平均队列延迟,它比基于插槽的对应物更精确,更相关的性能指标。 在这里,包化是指确定组装成数据包的位数的过程。 为了从分组化的角度优化队列延迟,本文为无连接和基于连接的Aloha方案在几秒钟内建立了分组化和平均队列延迟之间的数学关系,并探索了最佳的分组化策略,以尽量减少这种延迟。 我们通过数值方法确定最佳平均队列延迟及其相应的数据包大小,并进一步分析各种网络参数的影响。 我们进一步使用模拟来调查分组化对队列延迟的抖动的类似影响。 然后,我们将分析应用于通过分组化的新视角重新评估无连接和基于连接的方案之间的复杂权衡。 此外,认识到对NTN场景中RA-SDT的队列延迟性能的分析,特别是从分组化的角度来看,也仍然是一个未开发的区域,我们将分析应用于此场景作为案例研究。
由于计算资源和任务的物理属性多种多样,开发有效的机制,以促进复杂连接系统中的任务和资源匹配,以实现价值导向的任务完成,变得越来越具有挑战性。 为了应对这一挑战,本文提出了一个网络化的物理计算系统,该系统集成了计算资源和任务的物理属性以及设备之间特定于任务的信任关系,以实现价值驱动的任务完成。 具体来说,我们提出了一个最先进的超图辅助可信任务资源匹配(TTR-matching)框架,以实现设想的物理计算。 首先,定义了特定于任务的可信物理资源超图,它集成了特定于任务的信任、资源的物理属性和任务类型。 这可以在特定任务类型下对设备协作依赖进行精确建模。 接下来,生成一个任务 hypergraph,将任务发起者与相应任务的物理属性相关联。 基于这两个超图,超图匹配算法旨在促进特定于任务的可信协作者选择和准确的任务资源匹配,以实现价值最大化的任务完成。 广泛的实验结果表明,拟议的TTR匹配框架在识别特定任务的可信赖协作者和最大化任务完成的平均价值方面优于比较算法。
电信技术是数字和生态转型的重要推动因素。 通过提供传统交通和通信方式的数字替代品,它们有助于减少碳足迹,同时改善获得基本服务的机会。 特别是在农村和偏远地区,电信为获得教育、医疗和就业提供便利,帮助弥合数字鸿沟。 此外,电信可以通过支持可再生能源的使用、性别平等和循环经济来促进可持续性。 然而,由于历史上对绩效而非长期社会目标的关注,确定电信在可持续性中的作用仍然很复杂。 鉴于这一主题的重要性,本文旨在通过审查相关举措和项目,让读者更深入地了解电信部门内部的可持续性概念。 报告审查了衡量可持续性的主要方法,并概述了实施这些评估的实用方法。 此外,本文还探讨了包含关键价值指标的拟议网络架构,并讨论了这一领域的主要技术,如网络数字孪生和基于意图的网络。 通过这一分析,本文旨在为创建可持续的电信网络和更广泛的行业做出贡献。
本文介绍了用于无线设备的双模式通信框架,该框架框架在统一的时间框架结构中集成了查询驱动(拉)和事件驱动(推送)传输。 设备通常以拉力模式响应信息请求,但如果检测到异常,则抢先常规响应以报告危急情况。 此外,基于推送的通信用于主动发送关键数据,而无需等待请求。 这种自适应方法可确保跨不同网络条件的及时、上下文感知和高效的数据交付。 为了实现高能效,我们采用了唤醒无线电机制,我们设计了一种定制的介质访问控制(MAC)协议,支持属于不同通信类的数据流量。 进行全面的系统级分析,核算唤醒控制操作,并评估三个关键性能指标:异常报告的成功概率(推流量)、查询响应(拉流量)的成功概率和总能耗。 数字结果表征了系统的行为,并强调了基于推送和拉的流量之间的成功概率的固有权衡,作为分配通信资源的函数。 我们的分析表明,拟议的方法可降低高达30的能源消耗。
现代网络环境越来越依赖于空间推理,但缺乏协调物理空间的连贯表示。 因此,执行空间接入政策等任务仍然脆弱和手动。 我们首先提出了一个基于bigraphs的统一表示,在单一形式主义中捕获空间,社交和通信关系,使用面向用户的工具从物理环境中生成Bigraphs。 其次,我们介绍了一个用于分布式空间推理的分层代理架构,具有代理过程交互空间表示的运行时,以及将推理扩展到最小可行子空间的上下文感知执行模型。 这些共同实现了私有、可靠和低延迟的空间网络,可以安全地与代理工作流程进行交互。
在本文中,我们提出了Morph,一种LoRa编码器解码器共同设计,以提高通信可靠性,同时在极低的信噪比(SNR)情况下提高计算效率。 标准LoRa编码器控制6个扩散因子(SF)以数据速率对SNR公差进行权衡。 SF-12 是最大 SF,在商用现成 (COTS) LoRa 节点上提供最低的 SNR 公差。 在Morph中,我们开发了一个基于SF配置的编码器,以模仿SF-12以外的大型SF,同时它与COTS LoRa节点兼容。 具体来说,我们操纵一个Morph符号的四个SF配置来编码2位数据。 因此,我们识别用于数据解码的符号的 SF 配置。 我们利用深度神经网络(DNN)解码器,在 SF 配置中充分捕获多维特征,以最大限度地提高 SNR 增益。 此外,我们定制了DNN解码器的输入大小、神经网络结构和训练方法,以提高其效率、可靠性和可推广性。 我们使用 COTS LoRa 节点和 USRP N210 实现 Morph,然后评估其在室内和校园级测试平台的性能。 结果表明,我们可以可靠地解码数据在-28.8 dB SNR,比标准的LoRa低6.4 dB与SF-12啪啪声。 此外,我们的DNN解码器的计算效率比最先进的高约3倍。
URI重定向是网络管理的重要组成部分,支持结构变更、SEO优化和安全防护。然而其复杂性会影响可用性、SEO表现和数字保存。本研究分析了1100万个唯一重定向URI,对每个URI追踪多达10次跳转,以揭示重定向实践的模式和影响。我们的发现表明...
大型语言模型(LLM)基于自主代理有望在6G网络的发展中发挥重要作用,为最终用户提供与管理和服务提供相关的实时决策。 这种转变促进了从人工智能(AI)算法处理孤立任务的专门智能方法向人工智能(AGI)驱动的网络过渡,其中代理具有更广泛的推理能力,可以管理不同的网络功能。 在本文中,我们引入了一种新的代理范式,将LLM与实时优化算法相结合,以实现可信赖的AI,定义为共生代理。 LLM 输入级别的优化器为数值精确任务提供有边界的不确定性转向,而由 LLM 监督的输出级优化器可实现自适应实时控制。 我们设计和实施两种新颖的代理类型,包括:(i)无线电接入网络优化器,以及(ii)服务级协议(SLA)的多代理谈判者。 我们进一步提出了AGI网络的端到端架构,并在5G测试台上对其进行评估,以捕获移动车辆的信道波动。 结果表明,与基于独立的LLM代理相比,共生代理减少了五倍的决策错误,而较小的语言模型(SLM)以99.9的速度实现了类似的精度。
自主交付车辆(ADV)越来越多地用于在支持5G网络的智能工厂中运输货物,计算密集型本地化模块为优化提供了重要机会。 我们提出了ACCESS-AV,这是一种节能的车辆对基础设施(V2I)本地化框架,利用智能工厂环境中现有的5G基础设施。 通过机会性地访问定期广播的5G同步信号块(SSB)进行本地化,ACCESS-AV无需专用路边单元(RSU)或额外的车载传感器来实现能源效率和降低成本。 我们使用多信号分类(MUSIC)算法实现了基于AOA的到达角度(AoA)估计方法,该算法通过自适应通信计算策略针对资源受限的ADV平台进行了优化,该策略根据环境条件(如信号噪声比(SNR)和车辆速度)动态平衡能源消耗与定位精度。 实验结果表明,ACCESS-AV实现了平均能量降低43.09