全部安全开发新闻数码摄影汽车北京AIIT其他
  • 文章封面

    一句话生成可进化的多Agent工作流,Cooragent把Agent协作推向生产|清华LEAP Lab

    作者:AI修猫Prompt发布日期:2025-12-25 09:00:00

    当前,企业AI应用正站在一个关键的十字路口。以Dify、Coze等为代表的主流平台,虽然能出色地完成“写一封邮件”或“总结一篇文档”这类单点任务,但一旦面对真实世界中错综复杂的业务场景——例如跨部门协

    阅读全文
  • 文章封面

    IMO 2025地狱级第6题,被清华的「Vibe Reasoning」破解了 | 附Prompt

    作者:AI修猫Prompt发布日期:2025-12-23 19:47:35

    清华和微软刚刚发布了一篇非常硬核但也极具启发性的论文,题为《Vibe Reasoning:引出前沿AI的数学能力》。研究者发现,目前的顶尖AI模型(如GPT-5和Gemini 3 Pro)其实已经掌握

    阅读全文
  • 文章封面

    迪士尼真的造出了「雪宝」Olaf!但为了不让它“融化”,工程师逼疯了AI

    作者:AI修猫Prompt发布日期:2025-12-22 15:32:15

    还记得之前非常火的雪宝Olaf机器人吗?那个走起路来晃晃悠悠、神态活灵活现的小家伙曾让无数人直呼“次元壁破了”。近期,迪士尼幻想工程(Disney Research Imagineering)终于揭开

    阅读全文
  • 文章封面

    你能解出这20道Agentic AI难题吗?满分100,看你能得多少分?

    作者:AI修猫Prompt发布日期:2025-12-19 23:27:27

    Prof.Tom Yeh在发布这份文档时抛出了一个简单直接的挑战:“Can you solve these 20 Agent problems?”这是一份 “Agentic AI Problem Se

    阅读全文
  • 文章封面

    最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

    作者:AI修猫Prompt发布日期:2025-12-18 22:32:36

    在上一篇文章中,我们系统梳理了AI Agent 记忆机制的全景综述AI Agent最新「Memory」综述 |多所顶尖机构联合发布。今天我将带您了解一项最近很火的Agent记忆项目「HINDSIGHT

    阅读全文
  • 文章封面

    AI Agent最新「Memory」综述 |多所顶尖机构联合发布

    作者:AI修猫Prompt发布日期:2025-12-16 21:53:28

    就在昨天,新加坡国立大学、中国人民大学、复旦大学等多所顶尖机构联合发布了一篇AI Agent 记忆(Memory)综述。当前的 LLM 应用开发正面临严重的“记忆碎片化”问题:我们有用于短期记忆的 K

    阅读全文
  • 文章封面

    Prompt、Context engineering 又向前进化了,3个关键维度+5个具体杠杆 |谷歌

    作者:AI修猫Prompt发布日期:2025-12-15 20:02:09

    我们正处在一个AI Agent(智能体)爆发的时代。从简单的ReAct循环到复杂的Multi-Agent Swarm(多智能体蜂群),新的架构层出不穷。但在这些眼花缭乱的名词背后,开发者的工作往往更像

    阅读全文
  • 文章封面

    多智能体一定比单智能体要好?Google最新研究:并非如此!

    作者:AI修猫Prompt发布日期:2025-12-12 21:24:16

    一个模型不够用?那就加两个!多搞几个Agent(智能体)让它们自己开会讨论,效果肯定好。这种“智能体越多越好”的直觉,似乎成了当下的行业共识。甚至有论文曾宣称“More agents is all y

    阅读全文
  • 文章封面

    你的Agent可能设计错了:UIUC & 斯坦福等联合发文,重构Agent适配2X2

    作者:AI修猫Prompt发布日期:2025-12-11 21:52:52

    随着基础模型的日益成熟,AI领域的研发重心正从“训练更强的模型”转移到“构建更强的系统”。在这个新阶段,适配(Adaptation) 成为了连接通用智能与垂直应用的关键纽带。这正是UIUC(伊利诺伊大

    阅读全文
  • 文章封面

    沃顿商学院已发布4篇「Prompt」报告|重磅

    作者:AI修猫Prompt发布日期:2025-12-10 15:40:13

    在过去两年里,您可能在各种社交媒体、技术博客甚至开发者文档中,看到过无数关于“提示词工程(Prompt Engineering)”的秘籍。有人提出:“要对AI礼貌一点,说‘请’字效果更好”;也有人说:

    阅读全文
  • 文章封面

    别被AI降智:Karpathy警示,把LLM当实体是对AGI最大的误读

    作者:AI修猫Prompt发布日期:2025-12-09 13:42:09

    引言:全网热议背后的本体论修正如果在 AI 圈存在《黑客帝国》里墨菲斯给尼奥的“红药丸”时刻(红药丸隐喻面对现实),那么本周 Andrej Karpathy 的推文无疑就是那一颗。(以上微信翻译)作为

    阅读全文
  • 文章封面

    谷歌秀肌肉了:披露Gemini 3.0为啥过目不忘越用越好用,Titans的惊喜度+Miras框架

    作者:AI修猫Prompt发布日期:2025-12-08 12:51:23

    最近,Google Research 发布了一篇 Blog《Titans + MIRAS:帮助人工智能拥有长期记忆》。它们允许 AI 模型在运行过程中更新其核心内存,从而更快地工作并处理海量上下文。这

    阅读全文
  • 文章封面

    Agent2025年终报告来了,UC伯克利、斯坦福和IBM联合发布

    作者:AI修猫Prompt发布日期:2025-12-07 00:56:27

    2025就要过去了。UC Berkeley、Stanford和IBM联手做了一件大事。他们调研了306份在一线“造 Agent”的从业者问卷,并深度访谈了20个已经成功落地并产生价值的一线企业案例(涵

    阅读全文
  • 文章封面

    Agent竟然能意念交互!LatentMAS绕过文本直接交换KV Cache,Token骤降83.7%

    作者:AI修猫Prompt发布日期:2025-12-05 20:10:05

    多智能体系统(Multi-Agent Systems, MAS)正变得越来越流行,例如Microsoft AutoGen、CrewAI。我们习惯了看着Agent像人类之间一样,通过你一言我一语的对话来

    阅读全文
  • 文章封面

    Code LLM全景综述,从LLM到Agent,全文长303页,北航阿里字节等12家机构联合撰写|最新

    作者:AI修猫Prompt发布日期:2025-12-04 20:06:53

    这篇论文由北京航空航天大学、阿里巴巴、字节跳动、上海人工智能实验室等几十家顶尖机构联合撰写,全文长达303页,是对当前“代码大模型(Code LLMs)”领域最详尽的百科全书式指南。它不仅总结了学术界

    阅读全文
  • 文章封面

    斯坦福用一句Prompt就结束了提示工程。。。

    作者:AI修猫Prompt发布日期:2025-12-03 16:43:27

    最近口述采样很火。如果您经常使用经过“对齐”训练(如RLHF)的LLM,您可能已经注意到一个现象:模型虽然变得听话、安全了,但也变得巨“无聊”。当您让它“讲一个关于咖啡的笑话”时,它可能总是反复讲那个

    阅读全文
  • 文章封面

    DeepSeek-V3.2来了,Bye Gemini 3.0!

    作者:AI修猫Prompt发布日期:2025-12-02 03:40:34

    最近几个月,大语言模型(LLM)领域出现了一个有趣的现象:虽然开源社区依然活跃,但闭源模型(如GPT 5系列、Claude 4.5、Gemini 3.0)似乎正在加速拉开差距。可能是西方马上圣诞节的缘

    阅读全文
  • 文章封面

    如何让Agent具备「情感」当前趋势、挑战与未来|来自298篇研究的最新综述

    作者:AI修猫Prompt发布日期:2025-12-01 13:28:00

    在当前的情感计算研究中,存在一个显著的“断层”:我们拥有越来越精准的情感识别算法(输入端),也有了逼真的语音和面部生成技术(输出端),但连接这两端的“中间层”却鲜有人问津。机器能识别出你在愤怒,也能模

    阅读全文
  • 文章封面

    理解语言意味着什么?| 哈佛最新

    作者:AI修猫Prompt发布日期:2025-11-28 09:06:09

    这篇文章聚焦一项由Colton Casto、Anna Ivanova、Evelina Fedorenko和Nancy Kanwisher等研究者完成的工作,他们分别来自哈佛Kempner研究所、佐治亚

    阅读全文
  • 文章封面

    AI基准测试集体塌房,最高84%都是坏题 |斯坦福最新研究

    作者:AI修猫Prompt发布日期:2025-11-27 16:29:49

    基准测试(Benchmarks)在人工智能的发展进程中扮演着至关重要的角色,构成了评价生成式模型(Generative Models)性能的事实标准。对于从事模型训练与评估的AI研究者而言,GSM8K

    阅读全文
  • 文章封面

    OpenAI发布Codex实战手册,GPT5.1的持续工作极限为2小时17分钟

    作者:AI修猫Prompt发布日期:2025-11-26 12:46:55

    2小时17分钟,这是截至2025年8月,前沿AI模型在保持50%成功率的前提下,能够维持连续推理工作的时长。这个数字意味着AI已经从处理“秒级”的代码片段,跨越到了处理“小时级”的复杂工程任务。基于此

    阅读全文
  • 文章封面

    UIUC将人类和LLM的思维差异总结为28个认知要素,这条元Prompt让LLM性能暴涨60%。

    作者:AI修猫Prompt发布日期:2025-11-25 10:52:03

    如果告诉你,仅仅改变提示词(Prompt)的结构,就能让大模型在复杂推理任务上的表现暴涨 60%,你相信吗?几天前,来自伊利诺伊大学香槟分校(UIUC)、华盛顿大学(UW)、普林斯顿和哈佛的研究团队发

    阅读全文
  • 文章封面

    Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

    作者:AI修猫Prompt发布日期:2025-11-24 07:02:00

    在过去五年,AI领域一直被一条“铁律”所支配,Scaling Law(扩展定律)。它如同计算领域的摩尔定律一般,简单、粗暴、却魔力无穷:投入更多的数据、更多的参数、更多的算力,模型的性能就会线性且可预

    阅读全文
  • 文章封面

    Gemini3 GPT5.1接连发布,模型越来越强,AI真的能拿诺贝尔奖吗?

    作者:AI修猫Prompt发布日期:2025-11-21 22:09:15

    随着Gemini 3.0、GPT-5.1的接连发布,AI 的能力边界再次被拓宽。一个令人兴奋的命题已然浮现:LLM 能否突破“解题者”的范畴,进化为能提出新颖科学假设的“科学家”,像爱因斯坦提出相对论

    阅读全文
  • 文章封面

    Google Antigravity「系统提示词」简直太牛了,厉害是有原因的

    作者:AI修猫Prompt发布日期:2025-11-20 14:11:01

    Google昨天伴随Gemini3.0pro一同发布了他们的AI IDE产品Antigravity《与Gemini 3.0一起发布的AI IDE「Antigravity」究竟有多厉害?》。其震撼性的三

    阅读全文
  • 文章封面

    与Gemini 3.0一起发布的AI IDE「Antigravity」究竟有多厉害?

    作者:AI修猫Prompt发布日期:2025-11-19 11:27:59

    就在几小时前,Gemini 3.0重磅发布。随着而来的还有其颠覆性的AI原生IDE产品——Antigravity,这不只是一个新工具那么简单。谷歌的这次发布,将三个核心开发工具,AI代理(Agent)

    阅读全文
  • 文章封面

    Agent的RL和LLM的RL是一回事吗?牛津用500+论文写成综述,一次说清Agentic RL

    作者:AI修猫Prompt发布日期:2025-11-18 07:00:00

    当我们谈论大型语言模型(LLM)的"强化学习"(RL)时,我们在谈论什么?从去年至今,RL可以说是当前AI领域最炙手可热的词汇。在过去很长一段时间里,这个词几乎等同于 RLHF(人类反馈强化学习)一种

    阅读全文
  • 文章封面

    LLM为什么能替你操作电脑?4个关键技术让AI拥有"操作系统级"能力|Agent和工作流的区别就在这

    作者:AI修猫Prompt发布日期:2025-11-17 07:26:00

    如何构建一个真正意义上的“自主代理”(Agent),而不是一个“带LLM的高级工作流”? 让钢铁侠中的“贾维斯”(J.A.R.V.I.S.)真正来到现实,不仅能对话,还能调动资源、控制机械、在复杂战局

    阅读全文
  • 文章封面

    Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

    作者:AI修猫Prompt发布日期:2025-11-14 06:58:00

    谷歌在第三天发布了《上下文工程:会话与记忆》(Context Engineering: Sessions & Memory) 白皮书。文中开篇指出,LLM模型本身是无状态的 (stateless)。如

    阅读全文
  • 文章封面

    让LLM像公司一样干活:微软把“思维并发”做成了协议,准确率更高、关键路径时延降28%

    作者:AI修猫Prompt发布日期:2025-11-13 06:55:00

    我们长期把LLM当成能独闯难关的“单兵”,在很多任务上,这确实有效。可一旦问题牵涉多步依赖、分支探索和中途验证,顺序思考 (Sequential Thinking)的推理链条就开始吃力,甚至崩溃,链条

    阅读全文
上一页下一页