AI Agent的记忆机制有bug,越学越笨

伊利诺伊大学和清华联合发了一篇论文,发现了LLM Agent一个挺反直觉的问题:它们越”学习”越不可靠。
原因在于记忆重写机制。Agent会把原始经历压缩成书面教训存下来,但反复压缩重写会导致规则过度泛化、细节丢失。论文里给了一个很直观的例子——GPT-4在没有任何记忆辅助时能100%解决小型ARC-AGI问题,但建立了记忆并持续更新后,正确率直接掉到54%。
结论也很直接:别什么都让AI自动总结摘要,保留原始证据,选择性提炼才是正路。

伊利诺伊大学和清华联合发了一篇论文,发现了LLM Agent一个挺反直觉的问题:它们越”学习”越不可靠。
原因在于记忆重写机制。Agent会把原始经历压缩成书面教训存下来,但反复压缩重写会导致规则过度泛化、细节丢失。论文里给了一个很直观的例子——GPT-4在没有任何记忆辅助时能100%解决小型ARC-AGI问题,但建立了记忆并持续更新后,正确率直接掉到54%。
结论也很直接:别什么都让AI自动总结摘要,保留原始证据,选择性提炼才是正路。