对抗谷歌Gemini 3的王牌来了?GPT-5.2实测结果全公开,考公、编程、图片标注、大海捞针不在话下!
昨晚我们刚说到Cursor提前泄露GPT-5.2,今天(当地时间12月11号)OpenAI就正式放出了这款被定位为“迄今最强专业知识工作模型”的新系统GPT-5.2[1],已全面向ChatGPT订阅用
阅读全文昨晚我们刚说到Cursor提前泄露GPT-5.2,今天(当地时间12月11号)OpenAI就正式放出了这款被定位为“迄今最强专业知识工作模型”的新系统GPT-5.2[1],已全面向ChatGPT订阅用
阅读全文> 作者:李剑锋前言LangSmith Studio 是一个用于本地开发 LangChain / LangGraph Agent 的免费可视化调试界面。它不是云服务,而是你的本地 Agent 与可视化
阅读全文前言:VideoVLA的思路和我们之前解读过的 RynnVLA-002 比较相似。两者都是同时赋予模型动作和图像生成的能力,RynnVLA-002 是将 VLA 模型和世界模型统一在一个框架中,VLA
阅读全文> 本文转载自「GMI Cloud 黑板报」 哈喽,朋友们~ 跟大家分享一件💡开心💡的事 —— 用 GMI Cloud 推理引擎平台的 API 开发的微信小程序「测测你适合啥 AI」正式
阅读全文在如今大模型(Large Language Models, LLMs)推理需求爆炸式增长的背景下,如何在保障服务质量的同时控制高昂的 GPU 资源成本,已成为云服务商的核心难题。近期,由微软联合多所高
阅读全文图片由AI生成在当前大语言模型(LLM)迅猛发展的浪潮中,强化学习(Reinforcement Learning, RL)已成为提升模型推理能力的关键技术。无论是 DeepSeek-R1 还是 Kim
阅读全文睡不着?想恋爱?开车犯困?…… 都是聊天能解决的事儿!玩家在《Talk With》里会面临抽到的随机场景,每个场景都潜含着困难和危机。你需要竞拍和挑选合适的对话式 AI 和语音技术,并给出有表现力的解
阅读全文一句话总结:该综述系统梳理了 RAG 技术的发展脉络,从早期开放域问答任务中的原型,到近年来多领域大规模应用的系统化演化,进行了全面而深入的总结。论文地址:https://arxiv.org/abs/
阅读全文2024年底,OpenAI o1模型的发布成为大型语言模型(LLM)发展的关键转折点。这款首个被广泛采用的推理模型,将行业从单一的文本模式生成推向多步骤审慎推理的新阶段,彻底改变了LLM的应用格局。而
阅读全文内容概览(图片由AI生成)在人工智能技术突飞猛进的今天,大语言模型(LLM)被寄予厚望——不仅能写代码、回答问题,甚至有望成为企业中“自主数据智能体”,自动完成从原始数据清洗、建模到商业洞察生成的全套
阅读全文“教育被重塑,产业范式被改写,世界模型浮出水面,算力体系重新洗牌……” 作者丨杨依婷编辑丨包永刚在AI技术奔涌向前的时间洪流里,那些深刻的变革,往往以微弱的火光开场,最终点燃时代的烈焰。九年前
阅读全文https://huggingface.co/collections/AI-Insight/hf-papers-live-6-ocr由 Hugging Face × OpenMMLab × Model
阅读全文图片由 AI 生成,可能有误在大模型训练与部署成本高企的今天,一个令人惊讶的问题摆在我们面前:为什么成百上千个团队在同时重复执行几乎相同的 SFT(监督微调)或奖励模型推理任务?传统系统将每个工作流视
阅读全文当全世界的目光都聚焦在 OpenAI 和 Google 的 Gemini 迭代时,以“安全与伦理”著称的 Anthropic 似乎显得格外安静。然而,就在这几天,一份神秘的文档在 Reddit r/C
阅读全文(下方海报中的报名二维码若手机无法打开,请尝试在电脑端打开)-- 完 --机智流推荐阅读:1. 多模态统一模型的“理解”真的能指导“生成”吗?北大推出 UniSandbox,揭示理解-生成鸿沟与进化之
阅读全文哈佛大学联合 MIT 提出大脑记忆遵循 “Key-value memory” 原理 —— 海马体存储用于检索的 “键”(Key),新皮质存储记忆 “值”(value),二者分工协作解决了 “记忆存得住
阅读全文GAIR 与青年科学家共同点亮,通往真实智能的道路。作者丨郑佳美编辑丨马晓宁12 月 13 日,GAIR 2025 将以「走向真实智能的起点」为题,在深圳南山 · 博林天瑞喜来登酒店举办重磅专题论坛。
阅读全文本文修改自:https://sander.ai/2024/02/28/paradox.html扩散模型(Diffusion Models)之所以能在图像、音频、视频等领域取得统治级表现,其根本原因在于
阅读全文> 本文来自社区投稿今天要和大家聊一篇非常有意思的工作——LightReasoner。这篇由香港大学发表的最新论文,挑战了AI界一个习以为常的认知:“大模型一定比小模型强,小模型只能被教导,不能当老师
阅读全文> 本文来自社区投稿,作者:北京大学牛宇威本图由 Nano Banana Pro 生成近日,来自北京大学与港大 MMLab 等机构合作的最新研究成果——UniSandbox,深入探究了多模态大模型领域
阅读全文新闻资讯DeepSeek 强势回归:开源 IMO 金牌级数学模型 DeepSeek-Math-V2DeepSeek 发布新一代数学推理模型 DeepSeek-Math-V2,实现 IMO 金牌级推理能
阅读全文> 作者:李剑锋前言在上一节课中(零基础入门 LangChain 多智能体系统(进阶篇):加入人工审查与信息流控制),我们主要学习了如何构建多智能体系统,让大模型不仅能够“回答问题”,还能够在复杂任务
阅读全文Google DevFest,作为由 Google Developers 发起、全球 GDG 社区联合举办的年度顶级开发者盛会,2025年将再度登陆广州(国际)科技成果转化天河基地。本次“天创工坊·G
阅读全文本图由 Nano Banana Pro 生成引言:具身智能的“两难困境”与行业期待当我们幻想未来机器人能像人类一样灵活应对家居清洁、工业装配、医疗辅助等复杂场景时,现实中的机器人却常常陷入“机械执行”
阅读全文直播简介在大模型迈向智能体(Agent)时代的关键阶段,“记忆”正成为下一代 AI 的核心分水岭。记忆张量携手多位学术界、产业界、社区合作伙伴,将在发布会上分享 原生记忆架构、生态落地实践 等多个话题
阅读全文大语言模型(LLM)正变得越来越“重”:从Llama-3.1的 8B、70B 到 405B 参数,每个尺寸都要从头训练,动辄消耗数万亿 tokens。如果能用一个模型覆盖多尺寸部署需求,不仅能大幅降低
阅读全文当黄浦江畔的科创浪潮与云原生技术革新交汇,当算力竞赛告别 "硬件堆砌" 的粗放时代,转而深耕效率提升的精细化道路 —— 上海,这座锚定中国数字经济未来的先锋城市,正迎来一场由开源力量驱动的算力效率协同
阅读全文提及小米在AI领域的布局,「MiMo」系列绝对是绕不开的关键方向。业内已经逐渐意识到:这是小米在 AI × 终端 × 机器人 × 智能汽车 四条线交汇处的核心战略资产。小米MiMo系列此前推出的MiM
阅读全文在大模型(Large Language Model, LLM)智能体的研发浪潮中,一个长期存在的瓶颈始终挥之不去:对人类标注数据的依赖。无论是基于人类反馈的强化学习(RLHF),还是基于可验证奖励的强
阅读全文