全部安全开发新闻数码摄影汽车北京AIIT其他
  • 文章封面

    谷歌前CTO办公室总监近500页巨著,Agent的21个设计模式,从小白走向大师

    作者:AI修猫Prompt发布日期:2025-09-18 23:12:47

    从LLM到Agentic的产业拐点上,最难的并不是让模型会写一段代码或生成一份报告,而是把能力稳定地固化进工程体系:如何拆解任务、如何在多人,多Agent协作下保证可追溯、如何做异常恢复与安全护栏、以

    阅读全文
  • 文章封面

    微软警告:大模型ICL并非真正意义上的学习,你的AI Agent随时可能“失忆”

    作者:AI修猫Prompt发布日期:2025-09-17 17:28:38

    上下文学习”(In-Context Learning,ICL),是大模型不需要微调(fine-tuning),仅通过分析在提示词中给出的几个范例,就能解决当前任务的能力。您可能已经对这个场景再熟悉不过

    阅读全文
  • 文章封面

    想让LLM内心戏更丰富?试下苏黎世理工基于MBTI框架的Agent

    作者:AI修猫Prompt发布日期:2025-09-16 21:14:25

    有很多朋友都研究过MBTI,大家对MBTI已经很熟悉了。但也有一些朋友,对MBTI并不了解,什么是MBTI?迈尔斯-布里格斯类型指标(Myers-Briggs Type Indicator)简称MBT

    阅读全文
  • 文章封面

    想让LLM精确输出?试下XML格式Prompt语法约束解码GCD,帮你迭代收敛到稳定解

    作者:AI修猫Prompt发布日期:2025-09-15 00:43:43

    随着Agent的爆发,大型语言模型(LLM)的应用不再局限于生成日常对话,而是越来越多地被要求输出像JSON或XML这样的结构化数据。这种结构化输出对于确保安全性、与其他软件系统互操作以及执行下游自动

    阅读全文
  • 文章封面

    你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

    作者:AI修猫Prompt发布日期:2025-09-11 20:38:25

    幻觉并非什么神秘现象,而是现代语言模型训练和评估方式下必然的统计结果。它是一种无意的、因不确定而产生的错误。根据OpenAI9月4号论文的证明,模型产生幻觉(Hallucination),是一种系统性

    阅读全文
  • 文章封面

    通用问题求解器雏形已现!谷歌DeepMind重磅研究,自主发现40种全新算法

    作者:AI修猫Prompt发布日期:2025-09-10 05:39:01

    在现代科学中,几乎所有领域都依赖软件来进行计算实验。但开发这些专用的科学软件是一个非常缓慢、乏味且困难的过程,开发和测试一个新想法(一次“试错”)需要编写复杂的软件,这个过程可能耗费数周、数月甚至数年

    阅读全文
  • 文章封面

    中国AI弯道超车,国产GPU训练!无需Transformer,原生类脑脉冲大模型「瞬悉」横空出世

    作者:AI修猫Prompt发布日期:2025-09-09 21:30:25

    自2017年Transformer架构提出以来,依托GPU集群的大规模计算能力,人工智能迈入大模型时代并取得巨大成功。但其核心的Softmax Attention机制,训练开销会随序列长度呈平方级增长

    阅读全文
  • 文章封面

    不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

    作者:AI修猫Prompt发布日期:2025-09-08 17:42:58

    在大型语言模型(LLM)进行数学题、逻辑推理等复杂任务时,一个非常流行且有效的方法叫做 “自洽性”(Self-Consistency),通常也被称为“平行思考”。它的逻辑很简单:不要只让模型想一次,而

    阅读全文
  • 文章封面

    断供?会“刻意练习”的Qwen2.5-3B,竟然超越Claude3.5!斯坦福最新

    作者:AI修猫Prompt发布日期:2025-09-05 21:54:48

    什么断供不断供,不存在的。。。拳打在沙袋上,沙袋会给你一个反作用力,让你感觉到这次出拳的力量和效果,却也让新手只爱打更快的拳。同样,在强化学习(RL)当中,模型生成的代码在环境中运行后,会返回一个分数

    阅读全文
  • 文章封面

    隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

    作者:AI修猫Prompt发布日期:2025-09-04 15:38:00

    您对“思维链”(Chain-of-Thought)肯定不陌生,从最早的GPT-o1到后来震惊世界的Deepseek-R1,它通过让模型输出详细的思考步骤,确实解决了许多复杂的推理问题。但您肯定也为它那

    阅读全文
  • 文章封面

    你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

    作者:AI修猫Prompt发布日期:2025-09-02 19:35:01

    最近,工业界“RAG已死”甚嚣尘上。过去几年,AI领域的主旋律是“规模定律”(Scaling Law),即更大的模型、更多的数据会带来更好的性能。即便偶然有瑕疵,也认为只是工程上的不足,并非数学上的不

    阅读全文
  • 文章封面

    你的设想被证实了!不微调模型也能微调Agent,Memento霸榜GAIA|UCL最新

    作者:AI修猫Prompt发布日期:2025-09-01 05:50:00

    你或许也有过这样的猜想,如何让AI智能体(Agent)变得更聪明、更能干,同时又不用烧掉堆积如山的算力去反复微调模型?前天一个来自UCL《Memento》的框架给出了一个非常有意思的答案,它就像是在说

    阅读全文
  • 文章封面

    你的怀疑是对的!LLM作为Judge,既无效又不可靠,终于有论文向LLJ开炮了

    作者:AI修猫Prompt发布日期:2025-08-28 17:53:54

    让LMM作为Judge,从对模型的性能评估到数据标注再到模型的训练和对齐流程,让AI来评判AI,这种模式几乎已经是当前学术界和工业界的常态。我之前也介绍过这方面的研究,但没想到打脸来得这么快!之前也有

    阅读全文
  • 文章封面

    普林斯顿、清华等20家高校联合发布,「自进化」Agent综述

    作者:AI修猫Prompt发布日期:2025-08-27 18:52:40

    It is not the most intellectual of the species that survives; it is not the strongest that survives;

    阅读全文
  • 文章封面

    搞不定有表格数据和多模态的Prompt?试下微软最新的提示词编排标记语言POML

    作者:AI修猫Prompt发布日期:2025-08-26 23:11:28

    总是小心翼翼地调整Prompt措辞、格式,甚至标点符号,反复测试,却常常得到不稳定的结果?整个过程充满了不确定性。尤其是在构建复杂的AI应用时,这种混乱状态真是让人头疼。不过!最近来自微软的研究者们带

    阅读全文
  • 文章封面

    并非95%的AI项目都失败!麻省理工MIT《2025年商业人工智能现状》

    作者:AI修猫Prompt发布日期:2025-08-25 05:40:00

    这份来自麻省理工学院的2025年商业AI现状的研究报告最近在网上炸锅了,该报告称 95% 的人工智能试点都失败了,这吓坏了美国股市的投资者。报告提到大多数公司都陷入了困境,因为 95% 的 GenAI

    阅读全文
  • 文章封面

    自主深度研究DR代理究竟走向何方?四步操作「流程」让你不迷糊 |华为最新

    作者:AI修猫Prompt发布日期:2025-08-22 23:39:23

    华为诺亚方舟实验室最近联合香港大学发了一篇针对"Deep Research Agents"(深度研究代理)的系统性综述,在我的印象中,这是他们第二次发布关于Deep Research的综述论文。上一篇

    阅读全文
  • 文章封面

    多Agent集体失忆?试下内在记忆框架,每个Agent都有自己的异构笔记本

    作者:AI修猫Prompt发布日期:2025-08-21 22:48:10

    精心设计了一个由多个AI智能体组成的强大团队,期望它们能像人类专家一样协作解决复杂问题,但却发现这个团队聊着聊着就“精神涣散”,忘记了最初的目标,甚至连彼此的角色都开始混乱。这并非您的设计失误,而是当

    阅读全文
  • 文章封面

    LLM中最难搞的表格最新梳理,需要什么请自取

    作者:AI修猫Prompt发布日期:2025-08-20 16:08:55

    您可能已经在产品里放进了问答、总结、甚至自动报表模块,但表格一上来,体验就变味了,这不奇怪。表格是二维、带结构、还经常跨表跨文,和纯文本完全不一样;项目作者在《Tabular Data Underst

    阅读全文
  • 文章封面

    海量文本秒转结构化,试下谷歌的LangExtract,Github上12.3k star

    作者:AI修猫Prompt发布日期:2025-08-19 22:46:47

    真正的业务宝藏往往就埋藏在那些看似杂乱无章的文本数据之中,即非结构化文本,但问题是,如何高效、可靠地把这些宝藏精准地挖出来,一直是个令人头疼的难题,今天我们就来聊聊最近GitHub12.3k star

    阅读全文
  • 文章封面

    AI时代还用德尔菲法?其实“少数人”远比“多数人”更有价值 |谷歌最新

    作者:AI修猫Prompt发布日期:2025-08-18 17:25:47

    每当需要处理复杂领域中高度不确定性或缺乏历史数据的问题时,纯粹的科学证据不足、存在矛盾或过于复杂,通常我们就需要依赖专家们的集体智慧来形成共识,指导实践。德尔菲法(Delphi method)是半个多

    阅读全文
  • 文章封面

    腾讯AI团队最新研究戳穿AI“智力”泡沫:百万上下文正在误导所有人

    作者:AI修猫Prompt发布日期:2025-08-15 23:23:58

    AI领域一度陷入“上下文窗口”的军备竞赛,从几千token扩展到数百万token。这相当于给了AI一个巨大的图书馆。但这些“百万上下文”的顶级模型,它究竟是真的“理解”了,还是只是一个更会“背书”的复

    阅读全文
  • 文章封面

    LLM幻觉第一次被定义:你必须掌握的3个理论和能上手的4套工程解法

    作者:AI修猫Prompt发布日期:2025-08-14 20:48:05

    幻觉,作为AI圈家喻户晓的概念,这个词您可能已经听得耳朵起茧了。我们都知道它存在,也普遍接受了它似乎无法根除,是一个“老大难”问题。但正因如此,一个更危险的问题随之而来:当我们对幻觉的存在习以为常时,

    阅读全文
  • 文章封面

    AI代码生成,上下文示例怎样写最有效?港科大最新

    作者:AI修猫Prompt发布日期:2025-08-12 21:03:04

    长久以来我们都知道在Prompt里塞几个好例子能让LLM表现得更好,这就像教小孩学东西前先给他做个示范。在Vibe coding爆火后,和各种代码生成模型打交道的人变得更多了,大家也一定用过上下文学习

    阅读全文
  • 文章封面

    Agent怎么运维?中科院清华重磅发布:AgentOps来了!

    作者:AI修猫Prompt发布日期:2025-08-08 16:46:22

    从“模型即服务”(MaaS)到“智能体即服务”(AaaS)的转变,标志着AI行业进入了新的发展阶段。我们不再满足于AI的“对话能力”,而是期望它能成为自主完成复杂任务的“全能机器人”。但当我们兴奋地将

    阅读全文
  • 文章封面

    腾讯AI Lab开源即王炸:GAIA同级最强Agent框架

    作者:AI修猫Prompt发布日期:2025-08-07 05:30:00

    当AI智能体(Agent)开发的浪潮涌来,很多一线工程师却发现自己站在一个尴尬的十字路口:左边是谷歌、OpenAI等巨头深不可测的“技术黑盒”,右边是看似开放却暗藏“付费墙”的开源社区。大家空有场景和

    阅读全文
  • 文章封面

    gpt-oss专为Agent而生,16G显存就能跑,昨晚开源。

    作者:AI修猫Prompt发布日期:2025-08-06 04:59:09

    昨晚OpenAI官方放了个大招,发布了gpt-oss-120b和gpt-oss-20b两款开源模型,这是一个专为Agent而生的模型,而且开源了。这背后其实藏着OpenAI对未来AI应用形态,特别是A

    阅读全文
  • 文章封面

    RAG也能推理思考!彻底解决多源异构知识难题

    作者:AI修猫Prompt发布日期:2025-08-04 21:19:22

    现在的RAG(检索增强生成)系统。您给它一个简单直接的问题,它能答得头头是道;可一旦问题需要稍微拐个弯,或者知识源一复杂,它就立刻“拉胯”,要么返回一堆不相干的东西,要么干脆就开始一本正经地胡说八道。

    阅读全文
  • 文章封面

    你的Prompt已达性能极限?试试这个0成本的优化 | 马里兰大学最新

    作者:AI修猫Prompt发布日期:2025-08-01 16:00:51

    上下文学习(In-Context Learning, ICL)、few-shot,经常看我文章的朋友几乎没有人不知道这些概念,给模型几个例子(Demos),它就能更好地理解我们的意图。但问题来了,当您

    阅读全文
  • 文章封面

    LLM产品开发边界究竟在哪,我们终将面对AI的归纳偏差,哈佛MIT重磅研究

    作者:AI修猫Prompt发布日期:2025-07-30 18:37:51

    几百年前开普勒通过观测数据,总结出了行星运动的规律,例如行星沿椭圆轨道运行,这让他能精确预测行星未来的位置。这就像今天的基础模型,通过学习海量数据,可以很好地进行序列预测(比如接下一句话)。后来牛顿提

    阅读全文
上一页下一页