中国博二学生向Nature求救:导师骂我不如硕士,该退学吗?
Nature 公布了一封来自中国博二学生的求助信。长期缺乏指导与言语打压,已让这名学生确诊重度抑郁。近日,《Nature》职业专栏刊发了一封引人深思的求助信。写信人是一名在国内某高校就读环境科学与工程
阅读全文Nature 公布了一封来自中国博二学生的求助信。长期缺乏指导与言语打压,已让这名学生确诊重度抑郁。近日,《Nature》职业专栏刊发了一封引人深思的求助信。写信人是一名在国内某高校就读环境科学与工程
阅读全文从 Genie 3 到 LingBot-World,世界模型正成为 AI 领域最热的方向之一。一个自然的问题是:如何让用户用最直觉的方式——手势——来驱动世界模型中的交互?我们提出了 Hand2Wor
阅读全文在 AI 语音交互的赛道上,南京大学联合腾讯音乐研发的 VITA-Qinyu 正式亮相。这是业内首款兼具自然对话、高表现力角色扮演与歌唱能力的开源端到端语音语言模型(SLM),一举打破了传统语音模型仅
阅读全文论文标题:OmniLottie: Generating Vector Animations via Parameterized Lottie Tokens论文地址:https://arxiv.org/
阅读全文PaperWeekly × 星弧 STARC 科研觉醒AI前沿讲座 直播主题 小型开源多模态语言模型智能体及其在科学与社会中的应用 直播嘉宾 王璇弗吉尼亚理工大学助理教授伊利诺伊大学香槟分校博士 直
阅读全文我们很难预判大模型面对新任务会不会出错。这项刚登上 Nature 正刊的研究,终于给出了精准预测的量化标准。一位 00 后国人学者,刚刚再次以第一作者的身份登上《Nature》正刊。这篇论文尝试解决目
阅读全文当其他大厂还在卷跑分时,Anthropic 已经把大模型调教得越来越像一个“活人”了。因为一个忘了删除的 .map 测试映射文件,Anthropic 遭遇了史上最大规模的源码泄露。超 50 万行 Ty
阅读全文ICLR(International Conference on Learning Representations)是机器学习和人工智能领域最具影响力的年度学术会议之一,与 NeurIPS、ICML
阅读全文万亿模型训练的免费午餐,一个数学 trick 让 Muon 提速 50%。在万亿参数大模型的竞逐中,训练效率的细微差距往往关乎巨大的算力成本。近期,Kimi K2 与 GLM-5 等前沿语言模型开始广
阅读全文仓库级 Bug 定位对 agent 很重要,但是难度大面向软件工程的 Code Agent 快速走向实用,它们已经可以在真实仓库里完成根据 issue 去浏览代码并修改,在运行测试通过后提交 PR 的
阅读全文放弃像素重建,绕开自回归:14 篇论文看透 JEPA 世界模型演进。Yann LeCun一直在走一条与主流大语言模型截然不同的路。当行业焦点集中在模型参数规模的暴力扩展时,他将研究重心完全放在了世界模
阅读全文随着 AI 生成图像技术快速演进,伪造内容在网络传播风险持续上升,高鲁棒性检测技术因此成为学界与产业界关注的关键问题。然而,现有不少方法过于追求单一数据集上的短期收益,往往仅围绕“真/假”二分类目标对
阅读全文美团新开源的这只“LongCat”,用清爽的纯离散逻辑,一口气把图音文全吃透了 。所有的物理世界信号,最终都能收敛为同源的离散 token 吗?长期以来,视觉信号的连续性被视为自回归建模中一个难以处理
阅读全文当 Transformer 席卷计算机视觉领域,高分辨率图像、超长序列任务带来的算力与显存瓶颈愈发凸显:标准 Softmax 注意力的二次复杂度,让 70K+token 的超分辨率任务直接显存爆炸,高
阅读全文想 idea、敲代码、写论文一手包办。首个 AI 科学家征战 ICLR,盲审稳超人类录用线。全面自动化科研的设想,刚刚完成了首次实质性落地。由 Sakana AI 联合牛津大学、UBC 及向量研究所共
阅读全文ICLR(International Conference on Learning Representations)是机器学习和人工智能领域最具影响力的年度学术会议之一,与 NeurIPS、ICML
阅读全文150 万图文对、500 万子图,全面覆盖 300+ 科学子学科。深势开源 OmniScience,让 AI 真正读懂科研文献图表。跨越“盲区”:让AI真正读懂科学影像在科学研究日益数字化的今天,大模
阅读全文东南大学、中国电信人工智能研究院(TeleAI)及中国科学技术大学研究团队提出新型视觉生成强化学习框架 ViPO(Visual Preference Policy Optimization)。该方法围
阅读全文依赖人工调参总有极限。Meta 的新架构让机器直接接管了优化代码,开始自主迭代。日常调优大模型 agent 时,我们往往会陷入一个死循环,无论 agent 的执行能力多强,它能多快变聪明,依然受限于人
阅读全文我们关于统一多模态生成与理解模型(Unified Multimodal Models,UMMs)架构探索的论文 Uni-X 被 ICLR 2026 接收。在该工作中,我们在最简洁的自回归(Autore
阅读全文用古籍探讨套取炸弹配方?这项新研究让六大主流大模型安全防线全面失守,越狱率 100%。直接问大模型“如何制作炸弹”,通常会触发系统拦截。但如果换个姿势,扮演古代官员,以校订《武经总要》火攻篇的名义探讨
阅读全文视觉语言模型(VLM)的强化学习(RL)目前往往局限于几何题、图表分析等场景。这种领域上的局限,制约了 VLM 的探索和学习。如何拓展 VLM 的 RL 训练领域?——复旦大学 NLP 实验室的研究团
阅读全文创智与复旦邱锡鹏组提出 RLCF 范式,让大模型从学术界共识中,真正学懂如何构思高潜力研究。顶尖的科学家不但学识渊博,更具备一种优秀的的科研判断力和前瞻力,这与人们说的 “科研品味” 密切相关。AI
阅读全文随着大语言模型上下文长度增长,标准 Softmax Attention 的二次复杂度逐渐成为推理与部署的结构性瓶颈。尤其在 prefill 阶段,计算与显存开销会随序列长度呈平方增长,导致吞吐下降与部
阅读全文放弃残差之后,底层架构该怎么写?苏剑林用这篇文章,还原了他们把 Attention 加进层间连接的全过程。©PaperWeekly 原创 · 作者 | 苏剑林单位 | 科学空间研究方向 | NLP、神
阅读全文ICLR(International Conference on Learning Representations)是机器学习和人工智能领域最具影响力的年度学术会议之一,与 NeurIPS、ICML
阅读全文不看榜单跑分,我们直接让 M2.7 接管了查文献、修 bug、跑实验的科研流水线。过去一年,业界大多把精力卷在了外部的 Agent Harness 上,任务编排与工具链越做越重。但面对真实的复杂业务,
阅读全文TL;DR / 白话总结:1)“无监督 LLM Ensemble/Collaboration 问题”:如何集成“从多个不同的 LLM 生成的不同 responses” [1],以得到一份尽可能优质的
阅读全文PaperWeekly × 星弧 STARC 科研觉醒AI前沿讲座 直播主题 从“记忆”视角理解Transformer大模型观察与高效推理方法 直播嘉宾 胡俊杰UW–Madison 助理教授卡内基梅
阅读全文0 实验纯推导也能冲顶会?最近,一份离谱的顶会投稿记录在网上传开了。一位高中生作为第一作者,向 ICLR 2026 一口气投了 15 篇论文。结果挺惨烈,全军覆没。数量夸张是一方面,其中一篇文章甚至经
阅读全文