42digest
我们提示的方式:LLM中的概念混合,神经动力学和提示诱导的过渡

The Way We Prompt: Conceptual Blending, Neural Dynamics, and Prompt-Induced Transitions in LLMs

Makoto Sato

arXiv
2025年5月16日

受神经科学启发的大型语言模型(LLM)表现出的行为经常唤起个性和智力的感觉,但这些影响背后的机制仍然难以捉摸。 在这里,我们将概念混合理论(CBT)作为实验框架,使用基于提示的方法来揭示LLM如何混合和压缩意义。 通过系统地研究提示诱导过渡(PIT)和提示诱导幻觉(PIH),我们发现了人工和生物认知之间的结构相似性和差异。 我们的方法将语言学,神经科学和实证AI研究联系起来,证明人与AI合作可以作为认知科学未来的活原型。 这项工作不仅作为一种技术工具,而且作为一种科学方法,探索意义本身的深层结构。

Large language models (LLMs), inspired by neuroscience, exhibit behaviors that often evoke a sense of personality and intelligence-yet the mechanisms behind these effects remain elusive. Here, we operationalize Conceptual Blending Theory (CBT) as an experimental framework, using prompt-based methods to reveal how LLMs blend and compress meaning. By systematically investigating Prompt-Induced Transitions (PIT) and Prompt-Induced Hallucinations (PIH), we uncover structural parallels and divergence...