<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Memory on kkBill&#39;s Blog</title>
    <link>https://kkbill.github.io/tags/memory/</link>
    <description>Recent content in Memory on kkBill&#39;s Blog</description>
    <generator>Hugo</generator>
    <language>en</language>
    <lastBuildDate>Fri, 08 May 2026 10:00:00 +0800</lastBuildDate>
    <atom:link href="https://kkbill.github.io/tags/memory/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Memory in the LLM Era</title>
      <link>https://kkbill.github.io/posts/memory-in-the-llm-era/</link>
      <pubDate>Fri, 08 May 2026 10:00:00 +0800</pubDate>
      <guid>https://kkbill.github.io/posts/memory-in-the-llm-era/</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;论文&lt;/strong&gt;: &lt;a href=&#34;https://arxiv.org/abs/2604.01707&#34;&gt;Memory in the LLM Era: Modular Architectures and Strategies in a Unified Framework&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;导读&lt;/strong&gt;：这篇综述对现有的记忆框架进行了总结，相比于 &lt;a href=&#34;https://arxiv.org/abs/2512.13564&#34;&gt;Memory in the Age of AI Agents&lt;/a&gt; 和 &lt;a href=&#34;https://arxiv.org/abs/2602.06052&#34;&gt;Rethinking Memory Mechanisms of Foundation Agents in the Second Half: A Survey&lt;/a&gt;，这篇综述篇幅较为简短，覆盖的主题也相对较少——即重点专注于对记忆框架的整理。我觉得这篇文章对新手更加友好，不会一下子引入过多的概念。对于有一定经验的 Agent Memory 从业者而言，这篇文章也是一份不错的复习资料。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h1 id=&#34;1-引言&#34;&gt;1 引言&lt;/h1&gt;
&lt;p&gt;智能体能够自主运行、适应多样化环境，并支持针对用户需求的个性化交互。支撑这种智能行为的关键能力之一是记忆机制。如图1所示，通过维护并利用过往交互中的相关信息，记忆机制使智能体能够超越原始的长上下文提示（naive long-context prompting）。为智能体配备记忆机制后，它们能够随时间积累经验、保持上下文知识，并做出更明智的决策——类似于人类依靠记忆从过往经验中学习并指导未来的行动。&lt;/p&gt;
&lt;img src=&#34;images/image.png&#34; alt=&#34;image&#34; style=&#34;max-width: 70%; height: auto; display: block; margin: 1rem auto;&#34;&gt;
&lt;p&gt;近年来，出现越来越多的记忆方法，以增强智能体在跨交互场景中&lt;strong&gt;保留、组织和利用历史信息的能力&lt;/strong&gt;。这些方法旨在使智能体超越无状态推理（stateless reasoning，不依赖持久化记忆，每次推理独立进行），转而支持长期规划、个性化和自适应决策。表1总结了十种具有代表性的智能体记忆方法，按照四个关键维度进行分类：&lt;strong&gt;底层存储结构、信息提取机制、记忆管理策略和检索方法&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;image.png&#34; loading=&#34;lazy&#34; src=&#34;https://kkbill.github.io/posts/memory-in-the-llm-era/images/image%201.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;本文提出一个统一的模块化框架，该框架将记忆机制分解为四个阶段，包括 &lt;strong&gt;信息提取（Information Extraction）、记忆管理（Memory Management）、记忆存储（Memory Storage）和信息检索（Information Retrieval）&lt;/strong&gt;。在此框架下，我们在两个典型的长期对话基准测试 LoCoMo 和 LongMemEval 上进行评估。&lt;/p&gt;
&lt;h1 id=&#34;2-预备知识&#34;&gt;2 预备知识&lt;/h1&gt;
&lt;p&gt;本节介绍现有记忆方法中的一些重要概念和典型工作流，并讨论 RAG 与记忆之间的关系。&lt;/p&gt;
&lt;h2 id=&#34;21-llm-相关概念&#34;&gt;2.1 LLM 相关概念&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;LLM Prompting&lt;/strong&gt;&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
