随着深度学习和大型语言模型中快速发现新兴现象,解释和理解它们的原因已成为迫切需要。 在这里,我们提出了一个严格的熵力理论,用于理解用随机梯度下降(SGD)训练的神经网络的学习动力学及其变体。 基于参数对称性和熵损失景观的理论,我们表明,表征学习受到随机性和离散时间更新产生的新兴熵力至关重要。 这些力系统地打破连续的参数对称并保存离散的参数对称性,导致一系列梯度平衡现象,类似于热系统的装备特性。 反过来,这些现象(a)解释了AI模型之间神经表征的普遍对齐,并导致柏拉图表征假说(b)调和深度学习优化的尖锐和扁平化行为看似矛盾的观察。 我们的理论和实验表明,熵力和对称断裂的结合是理解深度学习中新兴现象的关键。
为了再现自然站立运动,最近的研究强调了辅助机器人和人类之间协调的重要性。 然而,许多非可穿戴辅助设备一直在努力复制自然运动轨迹。 虽然可穿戴设备与人体提供更好的协调,但它们在完全隔离机械和电气危害方面提出了挑战。 为了解决这个问题,我们开发了一种新颖的站立辅助机器人,该机器人集成了可穿戴和非可穿戴系统的功能,旨在实现高协调性,同时保持安全性。 该装置采用与人类关节结构对齐的四联机制,旨在再现臀部的S形轨迹和膝盖的弧形轨迹,在自然站立运动期间。 使用陀螺仪获得特定主题的轨迹数据,并确定链路长度以沿着最佳路径驱动座椅。 实施了使用步进电机的前馈速度控制,并根据机制的几何约束评估了轨迹的可重复性。 进行了重量固定在座椅上的承重实验,以评估不同条件下的轨迹精度。 结果表明,髋关节和膝关节轨迹的繁殖误差保持在座椅总排位移的约4%以内,显示出对目标路径的高保真度。 此外,耐久性测试、热安全性评估和风险评估证实了该系统在室内使用的可靠性和安全性。 这些发现表明,拟议的设计为开发适应个人身体特征的辅助技术提供了一种有希望的方法,该技术在老年人护理和康复方面具有潜在的应用。
受神经科学启发的大型语言模型(LLM)表现出的行为经常唤起个性和智力的感觉,但这些影响背后的机制仍然难以捉摸。 在这里,我们将概念混合理论(CBT)作为实验框架,使用基于提示的方法来揭示LLM如何混合和压缩意义。 通过系统地研究提示诱导过渡(PIT)和提示诱导幻觉(PIH),我们发现了人工和生物认知之间的结构相似性和差异。 我们的方法将语言学,神经科学和实证AI研究联系起来,证明人与AI合作可以作为认知科学未来的活原型。 这项工作不仅作为一种技术工具,而且作为一种科学方法,探索意义本身的深层结构。
强化学习(RL)的最新进展在复杂的决策任务中显示出令人印象深刻的能力。 这一进展提出了一个自然的问题:这些人工系统与数百万年进化所塑造的生物制剂相比如何? 为了帮助回答这个问题,我们对捕食者避免迷宫环境中的生物小鼠和RL剂进行了比较研究。 通过这种分析,我们确定了一个惊人的差异:RL代理一直表现出缺乏自我保护的本能,很容易冒着“死亡”的风险获得边际效率收益。 这些冒险策略与生物制剂形成对比,后者表现出复杂的风险评估和回避行为。 为了弥合生物和人工之间的这种差距,我们提出了两种新机制,鼓励RL代理中更自然的风险规避行为。 我们的方法导致自然主义行为的出现,包括战略环境评估,谨慎的路径规划和捕食者回避模式,这些模式与生物系统中观察到的密切相关。
为了再现自然站立运动,最近的研究强调了辅助机器人和人类之间协调的重要性。 然而,许多非可穿戴辅助设备一直在努力复制自然运动轨迹。 虽然可穿戴设备与人体提供更好的协调,但它们在完全隔离机械和电气危害方面提出了挑战。 为了解决这个问题,我们开发了一种新颖的站立辅助机器人,该机器人集成了可穿戴和非可穿戴系统的功能,旨在实现高协调性,同时保持安全性。 该装置采用与人类关节结构对齐的四联机制,旨在再现臀部的S形轨迹和膝盖的弧形轨迹,在自然站立运动期间。 使用陀螺仪获得特定主题的轨迹数据,并确定链路长度以沿着最佳路径驱动座椅。 实施了使用步进电机的前馈速度控制,并根据机制的几何约束评估了轨迹的可重复性。 进行了重量固定在座椅上的承重实验,以评估不同条件下的轨迹精度。 结果表明,髋关节和膝关节轨迹的繁殖误差保持在座椅总排位移的约4%以内,显示出对目标路径的高保真度。 此外,耐久性测试、热安全性评估和风险评估证实了该系统在室内使用的可靠性和安全性。 这些发现表明,拟议的设计为开发适应个人身体特征的辅助技术提供了一种有希望的方法,该技术在老年人护理和康复方面具有潜在的应用。
生物大脑和人工神经网络的学习动力学对神经科学和机器学习都感兴趣。 它们之间的一个关键区别是,神经网络通常是从随机初始化的状态训练的,而每个大脑都是几代人进化优化的产物,产生天生的结构,可以实现很少的学习和内置反射。 相比之下,人工神经网络需要非人种的训练数据量才能获得可比的性能。 为了研究进化优化对神经网络学习动力学的影响,我们结合了模拟自然选择和在线学习的算法,以产生一种进化调节人工神经网络的方法,并将其应用于强化和监督学习环境。 我们发现进化条件算法本身与未优化的基线相比。 然而,进化条件的网络显示出独特和潜在的学习动态的迹象,可以快速微调到最佳性能。 这些结果表明,进化构成了一种诱导性偏见,可以调整神经系统以实现快速学习。
在本文中,我们介绍了离散时间内主动推断的简明数学描述。 本文的主要部分作为主题的基本介绍,包括动作选择机制的详细示例。 附录讨论了更微妙的数学细节,针对读者谁已经研究了积极的推理文献,但努力使数学细节和推导。 在整个过程中,我们强调精确和标准的数学符号,确保与现有文本的一致性,并将所有方程与广泛使用的主动推理参考联系起来。 此外,我们提供 Python 代码,实现本文中描述的动作选择和学习机制,并与pymdp环境兼容。
图像表示(人工或生物)通常就其全球几何结构进行比较;然而,具有相似全球结构的表示可以具有显着不同的局部几何形状。 在这里,我们提出了一个框架,用于比较一组图像表示的本地几何形状。 我们使用Fisher信息矩阵量化表示的局部几何形状,Fisher信息矩阵是表征局部刺激失真度的标准统计工具,并将其用作基数图像附近局部几何形状的度量。 然后,该度量可用于最佳地区分一组模型,方法是找到一对“主要失真”,以最大化该度量下模型的方差。 例如,我们使用此框架来比较早期视觉系统的一组简单模型,识别一组新颖的图像失真,允许通过视觉检查立即比较模型。 在第二个示例中,我们将方法应用于一组深度神经网络模型,并揭示了由于体系结构和训练类型而产生的局部几何学的差异。 这些例子展示了我们的框架如何被用来探测复杂模型之间局部敏感性的信息差异,并提出了如何使用模型表示与人类感知进行比较。
海马体是参与记忆处理和各种神经退行性疾病和精神疾病的关键大脑结构,包括三个关键次区域:牙龈陀螺(DG),Cornu Ammonis 1(CA1)和Cornu Ammonis 3(CA3)。 从组织组织图像中准确细分这些次区域对于促进我们对疾病机制,发展动态和治疗干预的理解至关重要。 然而,没有现有方法解决从组织图像中自动分割海马次区域的问题,特别是免疫组化(IHC)图像。 为了弥补这一差距,我们推出了一组新的四个全面的海马IHC数据集,具有不同的染色模式:cFos,NeuN和多路染色组合cFos,NeuN和ΔFosB或GAD67,捕获结构,神经元活动和可塑性相关信息。 此外,我们还提出了ROIsGAN,这是一个区域引导的基于U-Net的生成对抗网络,专为海马次区域细分而设计。 通过利用对抗性学习,ROIsGAN通过结合骰子和二元交叉熵损失的新型区域引导判别器损失增强了边界划定和结构细节的完善。 在DG,CA1和CA3次区域进行评估后,ROIsGAN一直优于常规分割模型,在1-10 Intersection over Union(IoU)方面实现了性能提升,特别是在具有挑战性的染色条件下。 我们的工作建立了自动化海马体分割的基础数据集和方法,实现了对神经科学研究中组织图像的可扩展,高精度的分析。 我们生成的数据集,作为独立工具的拟议模型,以及相应的源代码可公开获取:https://github.com/MehediAzim/ROIsGAN
受神经科学启发的大型语言模型(LLM)表现出的行为经常唤起个性和智力的感觉,但这些影响背后的机制仍然难以捉摸。 在这里,我们将概念混合理论(CBT)作为实验框架,使用基于提示的方法来揭示LLM如何混合和压缩意义。 通过系统地研究提示诱导过渡(PIT)和提示诱导幻觉(PIH),我们发现了人工和生物认知之间的结构相似性和差异。 我们的方法将语言学,神经科学和实证AI研究联系起来,证明人与AI合作可以作为认知科学未来的活原型。 这项工作不仅作为一种技术工具,而且作为一种科学方法,探索意义本身的深层结构。
我们描述了一种连接主义模型,试图捕捉基于经验的问题解决或任务学习的概念,即新遇到的问题的解决方案由记忆的解决方案到先前的问题组成。 我们将该模型应用于高效序列生成的计算问题,这个问题没有明显的梯度下降过程,并且并非所有可能的问题实例都可以解决。 实证测试显示出有希望的效用证据。
人类毫不费力地驾驭动态视觉世界,但深度神经网络(DNNs)尽管在许多视觉任务中表现出色,但出人意料地容易受到轻微图像扰动的影响。 过去的理论表明,人类的视觉健壮性源于一个沿着大脑腹侧视觉流(VVS)进化的表征空间,以越来越容忍物体变换。 为了测试这种进展是否支持稳健性,而不是仅限于专门的高阶区域,我们训练了DNN,以便在执行视觉任务时将其表示与连续VVS区域的人类神经响应保持一致。 我们展示了 DNN 稳健性在分层上的改进:与高阶 VVS 区域对齐会导致更大的改进。 为了研究这种鲁棒性增益背后的机制,我们测试了一个突出的假设,该假设将人类健壮性归因于VVS中神经类别流形的独特几何形状。 我们首先揭示,更理想的流形属性,特别是较小的范围和更好的线性可分离性,确实出现在人类VVS上。 这些属性可以通过神经对齐的DNN继承,并预测其随后的稳健性增益。 此外,我们表明,仅通过多形引导,仅从神经歧管进行监督就足以对等级稳健性改进进行定性再现。 这些结果共同强调了VVS中不断发展的表征空间在实现稳健视觉推理方面的关键作用,部分原因是通过形成更线性可分离的类别流形,这些流形可能反过来用于开发更强大的AI系统。
人类视觉模型是图像处理的核心。 例如,图像质量问题的经典方法基于包含人类视觉知识的模型。 然而,如今,深度学习方法通过简单地将这个问题作为人类决策的回归来处理,并在人类评级数据集上训练标准网络,从而获得了竞争结果。 这些方法的优点是易于适应特定问题,并且在数据可用时非常有效地适应。 然而,主要是由于参数过剩,它们存在缺乏可解释性,和过度拟合的问题。 在这里,我们提出了一个视觉模型,通过使用参数神经网络架构来结合两全其美。 我们将层参数化,使其具有生物可称性功能,并提供一组可生物可称性参数。 我们分析了模型的不同版本,并将其与非参数版本进行了比较。 参数化模型实现了参数数量减少三个数量级,而不会在回归性能方面受到影响。 此外,我们表明参数模型在训练过程中表现得更好,并且更容易解释为视觉模型。 有趣的是,我们发现,即使使用人类额定数据集进行生物可塑性训练进行回归,我们将其称为特征传播问题。 这表明深度学习方法本质上是有缺陷的,并强调有必要评估和训练超越回归的模型。
我们引入了感知初始化(PI),这是一种视觉表征学习的范式转变,在初始化阶段将人类感知结构融为一体,而不是作为下游微调步骤。 通过集成来自NIGHTS数据集的人源三胞胎嵌入,以初始化CLIP视觉编码器,然后在YFCC15M上进行自我监督学习,我们的方法在29个零镜头分类和2个检索基准中展示了显着的零镜头性能改进,没有任何特定任务的微调。 在ImageNet-1K上,大约15个预训练后出现零射门增益。 在不同规模的数据集中观察到益处,改进表现在预训练过程的不同阶段,具体取决于数据集特性。 我们的方法始终如一地提高零拍摄 top-1 精度、前 5 精度和检索召回(例如,R@1, R@5) 跨越这些不同的评估任务,无需对目标域进行任何调整。 这些发现挑战了使用人类感知数据主要用于微调的传统智慧,并证明在早期表示学习期间嵌入人类感知结构会产生更有能力和视觉语言对齐的系统,从而立即推广到看不见的任务。 我们的工作表明 , “ 从你开始 ” , 从人类感知开始,为通用视觉语言智能提供了更坚实的基础。
生物大脑不断从一系列未标记的数据中学习,同时从稀疏标记的示例中集成专业信息,而不会损害其泛化能力。 同时,机器学习方法在这种自然学习环境中容易受到灾难性遗忘的影响,因为监督专家微调会降低原始任务的性能。 我们引入了任务调节的对比学习(TMCL),它从新皮层的生物物理机制中获得灵感,使用预测编码原则,在不受监督的情况下不断整合自上而下的信息。 我们遵循以下观点,即这些原则构建了一个视不一的表示空间,并且可以使用对比损失来实现。 然后,每当出现新类的标记样本时,就会学习新的亲和调制,改善新类与其他类的分离,而不会影响前向权重。 通过共同选择视图不变性学习机制,我们然后训练前馈权重,将数据样本的未调制表示与其调制对应物相匹配。 这将调制不变性引入表示空间,并且通过使用过去的调制,稳定它。 我们的实验表明,在最先进的无监督方法以及可比监督方法的类增量和转移学习方面都有改进,使用多达1个调制在平衡稳定性和可塑性方面起着至关重要的作用。
随着深度学习和大型语言模型中快速发现新兴现象,解释和理解它们的原因已成为迫切需要。 在这里,我们提出了一个严格的熵力理论,用于理解用随机梯度下降(SGD)训练的神经网络的学习动力学及其变体。 基于参数对称性和熵损失景观的理论,我们表明,表征学习受到随机性和离散时间更新产生的新兴熵力至关重要。 这些力系统地打破连续的参数对称并保存离散的参数对称性,导致一系列梯度平衡现象,类似于热系统的装备特性。 反过来,这些现象(a)解释了AI模型之间神经表征的普遍对齐,并导致柏拉图表征假说(b)调和深度学习优化的尖锐和扁平化行为看似矛盾的观察。 我们的理论和实验表明,熵力和对称断裂的结合是理解深度学习中新兴现象的关键。
最近的研究在功能大脑网络分类方面取得了很大进展,将大脑建模为兴趣区域(ROIs)网络,并利用它们的联系来了解大脑功能并诊断精神障碍。 已经开发了各种深度学习架构,包括卷积神经网络,图形神经网络和最近的Transformer。 然而,尽管这些模型越来越复杂,但性能提升并没有那么突出。 这就提出了一个问题:不断增加的模型复杂性是否必然导致更高的分类精度? 在本文中,我们重新审视了最简单的深度学习架构,即多层感知器(MLP),并提出了一种基于MLP的纯方法,名为BrainNetMLP,用于功能性大脑网络分类,该方法利用了MLP的优势,包括高效的计算和更少的参数。 此外,BrainNetMLP还采用了双分支结构,可以共同捕获空间连接和光谱信息,从而实现精确的时空特征融合。 我们在两个公共和流行的大脑网络分类数据集上评估我们提议的BrainNetMLP,即人类连接组项目(HCP)和自闭症脑成像数据交换(ABIDE)。 实验结果表明,基于MLP的纯方法可以实现最先进的性能,揭示了基于MLP的模型作为功能大脑网络分类中更有效但更有效的替代品的潜力。 该代码可在https://github.com/JayceonHo/BrainNetMLPU查阅。
这项研究旨在解码脑电图(EEGs)的手抓,用于灵巧的神经假体发育和脑-计算机接口(BCI)应用,特别是对于运动障碍患者。 特别是,它专注于区分两个复杂的自然功率和精度把握,以及使用新的基于EEG的BCI平台和小波信号处理作为无运动条件的中性条件。 微量分析涉及从小波功率系数生成时间频率和地形图。 然后,通过使用具有新小波特征的机器学习技术,我们实现了高平均精度:85.16 vs Power, 95.40 Precision,证明了这些特征在基于EEG的抓地力差异化中的有效性。 与之前的研究相反,我们研究的一个关键部分是排列特征重要性分析,它强调了把握分类的关键特征。 它揭示了抓握过程中最关键的大脑活动发生在运动皮层,在α和β频段内。 这些见解展示了小波特性在实时神经假体技术和BCI应用中的潜力。
大脑和机器的推理可以通过优化共同目标来形式化:最大化机器学习中的证据下限(ELBO),或最小化神经科学(ELBO = -F)中的变化自由能量(F)。 虽然这种等价性暗示了一个统一的框架,但它留下了如何在神经系统中实现推理。 在这里,我们表明,在Poisson假设下,F的在线自然梯度下降会导致一个循环尖峰神经网络,通过膜电位动力学执行变异推理。 生成的模型 - 迭代的Poisson变异自动编码器(iP-VAE) - 用F上自然梯度下降衍生的本地更新取代了编码器网络。 从理论上讲,iP-VAE产生了许多理想的特征,例如通过横向竞争的紧急归一化,以及硬件效率高的整数尖峰数表示。 从经验上讲,iP-VAE在稀散性、重建性和生物学合理性方面均优于标准VAE和基于高斯的预测编码模型。iP-VAE还表现出对非分布输入的强烈概括,超过了混合迭代摊销的VAE。 这些结果证明了从第一原则中推导推理算法如何产生同时具有生物学上合理性和经验有效性的具体架构。
强化学习(RL)的最新进展在复杂的决策任务中显示出令人印象深刻的能力。 这一进展提出了一个自然的问题:这些人工系统与数百万年进化所塑造的生物制剂相比如何? 为了帮助回答这个问题,我们对捕食者避免迷宫环境中的生物小鼠和RL剂进行了比较研究。 通过这种分析,我们确定了一个惊人的差异:RL代理一直表现出缺乏自我保护的本能,很容易冒着“死亡”的风险获得边际效率收益。 这些冒险策略与生物制剂形成对比,后者表现出复杂的风险评估和回避行为。 为了弥合生物和人工之间的这种差距,我们提出了两种新机制,鼓励RL代理中更自然的风险规避行为。 我们的方法导致自然主义行为的出现,包括战略环境评估,谨慎的路径规划和捕食者回避模式,这些模式与生物系统中观察到的密切相关。
在神经科学启发的任务上训练的递归神经网络(RNN)提供了强大的大脑计算模型。 然而,典型的训练范式依赖于开环,监督设置,而现实世界的学习在闭环环境中展开。 在这里,我们开发了一个数学理论,描述了在闭环上下文中训练的线性RNN的学习动力学。 我们首先证明,两个在闭环或开环模式下训练的相同RNN遵循明显不同的学习轨迹。 为了探索这种差异,我们分析表征了闭环案例,揭示了与训练损失演变相一致的不同阶段。 具体来说,我们表明闭环RNN的学习动态与开放循环的RNN相反,是由两个相互竞争的目标之间的相互作用所支配的:短期政策改进和代理环境交互的长期稳定性。 最后,我们将我们的框架应用于现实的电机控制任务,强调其更广泛的适用性。 总之,我们的研究结果强调了在生物学上合理的环境中建模闭环动力学的重要性。
大型语言模型(LLM)有时可以报告他们实际用于解决任务的策略,但它们也可能不这样做。 这表明一定程度的元认知 - 监测自己的认知过程的能力,以进行后续报告和自我控制。 元认知能力增强了人工智能能力,但引发了安全问题,因为模型可能会掩盖其内部过程,以逃避旨在检测有害行为的神经激活监督机制。 鉴于社会对这些模型的依赖程度越来越强,我们必须了解其元认知能力的极限,特别是它们监控其内部激活的能力。 为了解决这个问题,我们引入了一种神经科学启发的神经反馈范式,旨在量化LLM明确报告和控制其激活模式的能力。 通过向具有句子标签对的模型呈现,其中标签与沿着神经表示空间中特定方向的句子省略的内部激活相对应,我们证明LLM可以学习报告和控制这些激活。 性能因几个因素而异:提供的示例对的数量,目标神经方向的语义可解释性以及该方向解释的方差。 这些结果揭示了一个“元认知空间”,其尺寸远低于模型的神经空间,这表明LLM只能监测其神经机制的一个子集。 我们的研究结果提供了经验证据,量化了LLM中的元认知能力,对AI安全具有重要意义。
好奇心和兴趣等流行情绪推动了探究过程。 本研究提出了一种新的认识论情绪,如好奇心和兴趣,使用自由能量最小化原则产生的两种类型的信息增益:Kullback-Leibler divergence(KLD)从贝叶斯后到前,它代表自由能量减少识别,和贝叶斯惊喜(BS),这代表了贝叶斯先前更新的预期信息增益。 通过应用具有额外均匀可能性的高斯生成模型,我们发现KLD和BS形成了一个惊喜的向上凸函数(最小化自由能量和预测误差),类似于Berlyne的唤醒电位函数,或Wundt曲线。 我们认为,BS和KLD的替代最大化产生了一个理想的探究周期,以惊喜的波动接近最佳唤醒水平,并且好奇心和兴趣驱动来促进循环过程。 我们详尽地分析了预测不确定性(先方差)和观测不确定性(可能性方差)对信息增益函数峰值的影响,作为最佳惊喜。 结果表明,更大的预测不确定性,意味着开放的态度,更少的观察不确定性,意味着精确的观察与注意力,预计将通过更大的探索范围提供更大的信息收益。 拟议的数学框架统一了大脑的自由能量原理和唤醒潜力理论,将Wundt曲线解释为信息增益函数,并提出了由认识式情绪驱动的理想探究过程。
我们提出了一种推断高维随机系统(包括多体系统和具有长时记忆的非马尔可夫系统)熵产生(EP)的方法。由于计算和统计限制,在这些系统中估计EP的标准技术变得难以处理。我们利用非平衡最大熵原理的类比以及凸对偶性,推断轨迹层面的EP和平均EP的下界。我们的方法仅使用轨迹可观测量(如时空相关函数)的样本,不需要重建高维概率分布或速率矩阵,也不需要任何特殊假设,例如离散状态或多部分动力学。它可以用于计算EP的层次分解,反映不同种类相互作用的贡献,并且具有直观的物理解释,即作为一种热力学不确定关系。我们在一个具有1000个自旋的无序非平衡自旋模型和一个大型神经脉冲序列数据集上展示了其数值性能。