深度解读:Alpha Arena背后细节,LLM距离“华尔街之狼”还有多远?
今天分享一篇来自AI研究机构 Nof1 的文章,Title: Exploring the Limits of Large Language Models as Quant Traders(探索大型语
阅读全文今天分享一篇来自AI研究机构 Nof1 的文章,Title: Exploring the Limits of Large Language Models as Quant Traders(探索大型语
阅读全文今天分享一篇来自同济大学与微软亚洲研究院等机构的文章,题为 《TRADE IN MINUTES! RATIONALITY-DRIVEN AGENTIC SYSTEM FOR QUANTITATIVE
阅读全文大家好,我是HxShine今天分享一篇来自Meta FAIR、伦敦大学学院(UCL)和厄勒布鲁大学的研究人员共同发表的文章,Title: Al Research Agents for Machine
阅读全文大家好,我是HxShine,今天继续来分享OpenAI 姚顺雨 的一篇文章,这篇文章探讨了Agent实际落地时该如何评测,他在the second half里面也提了这篇文章,是Agent真正落地到
阅读全文▍简介本文源于蚂蚁集团与上海交通大学的校企合作项目,目前已被 ACL 2025 主会接收。ACL(Annual Meeting of the Association for Computational
阅读全文近年来,大型语言模型(LLM)智能体已成为AI领域的热点,它们能自主使用工具、进行多步推理,完成复杂任务,如深度研究、代码生成、多轮对话等。然而,现有的LLM智能体面临两大困境:一是依赖静态、手工设计
阅读全文1 概述1 TL;DR — 核心结论(要点)1. 目前衡量 “AI 当科研助理 / AI-Scientist” 的 benchmark 大致落在两条主线:(A)论文复现 / 代码实现(repro /
阅读全文大家好,我是HxShine~今天继续来看下经典的code benchmark之SWE-BENCH的细节, 其由普林斯顿大学和芝加哥大学联合发表于ICLR 2024,Title: SWE-bench
阅读全文大家好,我是HxShine。今天分享来自中关村实验室和清华大学的一篇观点文章:AI Agent Communication from Internet Architecture Perspectiv
阅读全文大家好,我是HxShine。今天再来看看GAIA Benchmark的细节,来看看GAIA如何成为Agent领域最经典的BenchMark之一。它由Meta FAIR、Hugging Face、Au
阅读全文大家好,我是HxShine今天分享一篇来自斯坦福大学的Benchmark文章,Title: ResearchCodeBench: Benchmarking LLMs on Implementing
阅读全文中科大认知智能全国重点实验室开发实现 Science-Star 科研智能体平台。它基于 ReAct 引擎,融合了规划(Planning)、行动(Action)、记忆(Memory)、反思(Refle
阅读全文大家好,我是HxShine今天分享一篇来自OpenAI的文章,Title: PaperBench: Evaluating AI's Ability to Replicate AI Research
阅读全文大家好,我是HxShine今天分享一篇来自字节跳动和复旦大学的研究,标题为 《通过自动化构建环境的反馈驱动方法提升大型语言模型的工具使用能力》 (Feedback-Driven Tool-Use I
阅读全文大家好,我是HxShine今天分享一篇来自威斯康星大学麦迪逊分校的文章,Title: MetaAgent: Automatically Constructing Multi-Agent System
阅读全文今天分享一篇ICLR25的一篇文章,标题为:AUTOMATED DESIGN OF AGENTIC SYSTEMS(自动化Agent设计系统)。手写workflow太累啦,这篇文章探讨了如何自动化设
阅读全文大家好,我是HxShine今天分享一篇来自卡耐基梅隆大学、宾夕法尼亚大学、华盛顿大学、M-A-P 和香港理工大学的研究,标题为:《Does Math Reasoning Improve Genera
阅读全文大家好,我是HxShine今天分享一篇来自斯坦福大学和 Google DeepMind 的文章,标题为:《Synthetic Data Generation & Multi-Step RL for
阅读全文大家好,我是HxShine今天分享一篇来自上海人工智能实验室、复旦大学和上海交通大学 的研究论文,标题为《SURVEYFORGE: On the Outline Heuristics, Memory
阅读全文大家好,我是HxShine今天分享一篇上海人工智能实验室 的文章,标题为 DOLPHIN: Moving Towards Closed-loop Auto-research through Thin
阅读全文本文作者来自通义实验室和北京大学,第一作者是北京大学智能学院博士生孙浩,主要研究方向是RAG和Agent,在 NeurIPS、ACL、EMNLP 等国际顶级会议上发表多篇论文,师从张岩教授。该工作在阿
阅读全文今天分享一篇来自 Harvard University 和 Kempner Institute 的文章,标题为 Echo Chamber: RL Post-training Amplifies Be
阅读全文今天分享一篇来自Microsoft公司、清华大学和北京大学的一篇文章,Title: Reward Reasoning Model: 奖励推理模型。这篇文章探索了一种名为“奖励推理模型(RRMs)”的
阅读全文搞科研,最怕的就是每天“眼睛读文献,脑袋想方案”。以为只要文献读的够多,准备就足够充分,就能找到好选题,写出好文章。实际上是在用“勤奋读文献”掩盖“不敢开始干”的焦虑。过来人都知道:科研成果是干出来的
阅读全文今天分享一篇来自 DeepMind 的研究论文,标题为:Putting the Value Back in RL: Better Test-Time Scaling by Unifying LLM
阅读全文Kaggle | 总奖池超200万美金的数学竞赛AIMO2冠军方案大家好,我是HxShine今天分享一篇来自 NVIDIA 的文章(kaggle AIMO2冠军方案,冠军奖金高达26w美金,总奖池超
阅读全文大家好,我是HxShine!今天分享一篇来自清华大学和上海人工智能实验室的文章,标题为 TTRL: Test-Time Reinforcement Learning(测试时强化学习)。这篇文章探讨了
阅读全文大家好,我是HxShine今天分享一篇来自清华的文章,标题为:“Does Reinforcement Learning Really Incentivize Reasoning Capacity i
阅读全文2025开年,AI技术打得火热,正在改变程序员的职业命运:阿里云核心业务全部接入Agent体系;字节跳动30%后端岗位要求大模型开发能力;腾讯、京东、百度开放招聘技术岗,80%与AI相关……大模型正在
阅读全文