ProtoMol: Enhancing Molecular Property Prediction via Prototype-Guided Multimodal Learning
Yingxu Wang, Kunyu Zhang, Jiaxin Huang, Nan Yin, Siwei Liu, Eran Segal
多模态分子表示学习,共同模拟分子图及其文本描述,通过整合结构和语义信息,对药物毒性、生物活性和物理化学特性进行更可靠和可靠的预测,增强了预测准确性和可解释性。 然而,现有的多模态方法受到两个关键限制:(1)它们通常仅在最终编码器层执行跨模态交互,从而忽略分层语义依赖关系;(2)它们缺乏统一原型空间,以便在模式之间稳健地对齐。 为了解决这些限制,我们提出了ProtoMol,这是一个原型引导的多模态框架,可以实现分子图和文本描述之间的细粒度集成和一致的语义对齐。 ProtoMol集成了双分支分层编码器,利用图形神经网络处理结构化分子图和变形金刚来编码非结构化文本,从而产生全面的层向表示。 然后,ProtoMol引入了一种层向双向跨模态注意机制,可以逐步对齐跨层的语义特征。 此外,构建了一个具有可学习的、特定类锚的共享原型空间,以指导两种模式走向连贯和歧视性的表示。 对多个基准数据集进行的广泛实验表明,ProtoMol在各种分子属性预测任务中始终优于最先进的基线。
Multimodal molecular representation learning, which jointly models molecular graphs and their textual descriptions, enhances predictive accuracy and interpretability by enabling more robust and reliable predictions of drug toxicity, bioactivity, and physicochemical properties through the integration of structural and semantic information. However, existing multimodal methods suffer from two key limitations: (1) they typically perform cross-modal interaction only at the final encoder layer, thus ...