全部安全开发新闻数码摄影汽车北京AIIT其他
  • 文章封面

    中国博二学生向Nature求救:导师骂我不如硕士,该退学吗?

    作者:PaperWeekly发布日期:2026-04-06 12:34:53

    Nature 公布了一封来自中国博二学生的求助信。长期缺乏指导与言语打压,已让这名学生确诊重度抑郁。近日,《Nature》职业专栏刊发了一封引人深思的求助信。写信人是一名在国内某高校就读环境科学与工程

    阅读全文
  • 文章封面

    NTU发布世界模型交互新范式:把手伸进屏幕不再是梦

    作者:PaperWeekly发布日期:2026-04-06 12:34:53

    从 Genie 3 到 LingBot-World,世界模型正成为 AI 领域最热的方向之一。一个自然的问题是:如何让用户用最直觉的方式——手势——来驱动世界模型中的交互?我们提出了 Hand2Wor

    阅读全文
  • 文章封面

    南京大学发布开源语音大模型VITA-Qinyu,首发支持角色扮演+哼唱

    作者:PaperWeekly发布日期:2026-04-03 12:36:13

    在 AI 语音交互的赛道上,南京大学联合腾讯音乐研发的 VITA-Qinyu 正式亮相。这是业内首款兼具自然对话、高表现力角色扮演与歌唱能力的开源端到端语音语言模型(SLM),一举打破了传统语音模型仅

    阅读全文
  • 文章封面

    CVPR 2026 | 复旦开源OmniLottie:首个端到端多模态矢量动画生成框架

    作者:PaperWeekly发布日期:2026-04-03 12:36:13

    论文标题:OmniLottie: Generating Vector Animations via Parameterized Lottie Tokens论文地址:https://arxiv.org/

    阅读全文
  • 文章封面

    直播预告 | Virginia Tech王璇教授:小型多模态智能体的构建与应用

    作者:PaperWeekly发布日期:2026-04-03 12:36:13

    PaperWeekly × 星弧 STARC 科研觉醒AI前沿讲座 直播主题 小型开源多模态语言模型智能体及其在科学与社会中的应用 直播嘉宾 王璇弗吉尼亚理工大学助理教授伊利诺伊大学香槟分校博士 直

    阅读全文
  • 文章封面

    00后国人一作再发Nature:大模型新任务表现如何,现在能精准预测了

    作者:PaperWeekly发布日期:2026-04-02 13:52:54

    我们很难预判大模型面对新任务会不会出错。这项刚登上 Nature 正刊的研究,终于给出了精准预测的量化标准。一位 00 后国人学者,刚刚再次以第一作者的身份登上《Nature》正刊。这篇论文尝试解决目

    阅读全文
  • 文章封面

    Claude Code泄露的源码里,藏着一套让AI学会「做梦」的记忆架构

    作者:PaperWeekly发布日期:2026-04-01 18:50:26

    当其他大厂还在卷跑分时,Anthropic 已经把大模型调教得越来越像一个“活人”了。因为一个忘了删除的 .map 测试映射文件,Anthropic 遭遇了史上最大规模的源码泄露。超 50 万行 Ty

    阅读全文
  • 文章封面

    美团ICLR 2026中稿精选:突破Agent长程记忆,解析混合专家模型

    作者:PaperWeekly发布日期:2026-04-01 18:50:26

    ICLR(International Conference on Learning Representations)是机器学习和人工智能领域最具影响力的年度学术会议之一,与 NeurIPS、ICML

    阅读全文
  • 文章封面

    嫌Muon太吃算力?Mamba作者团队巧用Gram矩阵,实测提速两倍

    作者:PaperWeekly发布日期:2026-03-31 17:36:49

    万亿模型训练的免费午餐,一个数学 trick 让 Muon 提速 50%。在万亿参数大模型的竞逐中,训练效率的细微差距往往关乎巨大的算力成本。近期,Kimi K2 与 GLM-5 等前沿语言模型开始广

    阅读全文
  • 文章封面

    GNN能debug吗?北大团队开源GREPO,10M小GNN超越大型LLM

    作者:PaperWeekly发布日期:2026-03-31 17:36:49

    仓库级 Bug 定位对 agent 很重要,但是难度大面向软件工程的 Code Agent 快速走向实用,它们已经可以在真实仓库里完成根据 issue 去浏览代码并修改,在运行测试通过后提交 PR 的

    阅读全文
  • 文章封面

    Yann LeCun的世界模型路线图:14篇论文梳理JEPA演进史

    作者:PaperWeekly发布日期:2026-03-30 18:33:55

    放弃像素重建,绕开自回归:14 篇论文看透 JEPA 世界模型演进。Yann LeCun一直在走一条与主流大语言模型截然不同的路。当行业焦点集中在模型参数规模的暴力扩展时,他将研究重心完全放在了世界模

    阅读全文
  • 文章封面

    TPAMI 2026 | 跨十大数据集验证,PoundNet重新审视AI图像检测范式

    作者:PaperWeekly发布日期:2026-03-30 18:33:55

    随着 AI 生成图像技术快速演进,伪造内容在网络传播风险持续上升,高鲁棒性检测技术因此成为学界与产业界关注的关键问题。然而,现有不少方法过于追求单一数据集上的短期收益,往往仅围绕“真/假”二分类目标对

    阅读全文
  • 文章封面

    重构原生多模态!美团发布纯离散基座,真正实现万物皆Token

    作者:PaperWeekly发布日期:2026-03-27 18:18:12

    美团新开源的这只“LongCat”,用清爽的纯离散逻辑,一口气把图音文全吃透了 。所有的物理世界信号,最终都能收敛为同源的离散 token 吗?长期以来,视觉信号的连续性被视为自回归建模中一个难以处理

    阅读全文
  • 文章封面

    补全Query Norm缺失!哈工深团队重构线性注意力,显存直降92.3%

    作者:PaperWeekly发布日期:2026-03-27 18:18:12

    当 Transformer 席卷计算机视觉领域,高分辨率图像、超长序列任务带来的算力与显存瓶颈愈发凸显:标准 Softmax 注意力的二次复杂度,让 70K+token 的超分辨率任务直接显存爆炸,高

    阅读全文
  • 文章封面

    ICLR盲审6.33分!AI写论文超人类均分,重磅登上Nature

    作者:PaperWeekly发布日期:2026-03-26 13:37:08

    想 idea、敲代码、写论文一手包办。首个 AI 科学家征战 ICLR,盲审稳超人类录用线。全面自动化科研的设想,刚刚完成了首次实质性落地。由 Sakana AI 联合牛津大学、UBC 及向量研究所共

    阅读全文
  • 文章封面

    美团ICLR 2026中稿精选:从后训练到多智能体,解码Agent前沿技术

    作者:PaperWeekly发布日期:2026-03-26 13:37:08

    ICLR(International Conference on Learning Representations)是机器学习和人工智能领域最具影响力的年度学术会议之一,与 NeurIPS、ICML

    阅读全文
  • 文章封面

    150万规模!深势开源科学图像界ImageNet,AI终于能看懂论文图表了

    作者:PaperWeekly发布日期:2026-03-25 13:19:18

    150 万图文对、500 万子图,全面覆盖 300+ 科学子学科。深势开源 OmniScience,让 AI 真正读懂科研文献图表。跨越“盲区”:让AI真正读懂科学影像在科学研究日益数字化的今天,大模

    阅读全文
  • 文章封面

    CVPR 2026 | 放弃整图打分!ViPO提出区域级视觉偏好优化,完胜原生GRPO

    作者:PaperWeekly发布日期:2026-03-25 13:19:18

    东南大学、中国电信人工智能研究院(TeleAI)及中国科学技术大学研究团队提出新型视觉生成强化学习框架 ViPO(Visual Preference Policy Optimization)。该方法围

    阅读全文
  • 文章封面

    为了给NeurIPS审稿,Meta的Agent自己重写了底层代码

    作者:PaperWeekly发布日期:2026-03-24 21:05:30

    依赖人工调参总有极限。Meta 的新架构让机器直接接管了优化代码,开始自主迭代。日常调优大模型 agent 时,我们往往会陷入一个死循环,无论 agent 的执行能力多强,它能多快变聪明,依然受限于人

    阅读全文
  • 文章封面

    ICLR 2026 | 多模态训练遇梯度冲突?Uni-X探索纯自回归原生多模态架构

    作者:PaperWeekly发布日期:2026-03-24 21:05:30

    我们关于统一多模态生成与理解模型(Unified Multimodal Models,UMMs)架构探索的论文 Uni-X 被 ICLR 2026 接收。在该工作中,我们在最简洁的自回归(Autore

    阅读全文
  • 文章封面

    这篇ICLR神了!文言文「硬控」全网大模型,100%成功越狱

    作者:PaperWeekly发布日期:2026-03-23 21:05:38

    用古籍探讨套取炸弹配方?这项新研究让六大主流大模型安全防线全面失守,越狱率 100%。直接问大模型“如何制作炸弹”,通常会触发系统拦截。但如果换个姿势,扮演古代官员,以校订《武经总要》火攻篇的名义探讨

    阅读全文
  • 文章封面

    ICLR 2026 | VLM靠打游戏练级?复旦提出Game-RL,推理匹敌几何数据

    作者:PaperWeekly发布日期:2026-03-23 21:05:38

    视觉语言模型(VLM)的强化学习(RL)目前往往局限于几何题、图表分析等场景。这种领域上的局限,制约了 VLM 的探索和学习。如何拓展 VLM 的 RL 训练领域?——复旦大学 NLP 实验室的研究团

    阅读全文
  • 文章封面

    一眼看穿idea潜力!创智×复旦提出RLCF范式,让大模型拥有科研品味

    作者:PaperWeekly发布日期:2026-03-21 12:17:40

    创智与复旦邱锡鹏组提出 RLCF 范式,让大模型从学术界共识中,真正学懂如何构思高潜力研究。顶尖的科学家不但学识渊博,更具备一种优秀的的科研判断力和前瞻力,这与人们说的 “科研品味” 密切相关。AI

    阅读全文
  • 文章封面

    仅0.04B!哈工深首创同层混合架构STILL,极低成本线性化LLM

    作者:PaperWeekly发布日期:2026-03-21 12:17:40

    随着大语言模型上下文长度增长,标准 Softmax Attention 的二次复杂度逐渐成为推理与部署的结构性瓶颈。尤其在 prefill 阶段,计算与显存开销会随序列长度呈平方增长,导致吞吐下降与部

    阅读全文
  • 文章封面

    Kimi弃用残差连接背后:苏剑林第一视角解析Attention Residuals

    作者:PaperWeekly发布日期:2026-03-20 14:19:41

    放弃残差之后,底层架构该怎么写?苏剑林用这篇文章,还原了他们把 Attention 加进层间连接的全过程。©PaperWeekly 原创 · 作者 | 苏剑林单位 | 科学空间研究方向 | NLP、神

    阅读全文
  • 文章封面

    美团ICLR 2026专场直播:从后训练到多智能体,解码Agent前沿技术

    作者:PaperWeekly发布日期:2026-03-20 14:19:41

    ICLR(International Conference on Learning Representations)是机器学习和人工智能领域最具影响力的年度学术会议之一,与 NeurIPS、ICML

    阅读全文
  • 文章封面

    凌晨的GPU终于不闲置了,我用M2.7跑通了自动化科研流水线

    作者:PaperWeekly发布日期:2026-03-19 18:43:18

    不看榜单跑分,我们直接让 M2.7 接管了查文献、修 bug、跑实验的科研流水线。过去一年,业界大多把精力卷在了外部的 Agent Harness 上,任务编排与工具链越做越重。但面对真实的复杂业务,

    阅读全文
  • 文章封面

    北航等开源LLM集成新玩法:大模型互相审稿,轻松涨点7%

    作者:PaperWeekly发布日期:2026-03-19 18:43:18

    TL;DR / 白话总结:1)“无监督 LLM Ensemble/Collaboration 问题”:如何集成“从多个不同的 LLM 生成的不同 responses” [1],以得到一份尽可能优质的

    阅读全文
  • 文章封面

    直播预告 | UW–Madison胡俊杰教授:大模型的“记忆”机制与高效推理

    作者:PaperWeekly发布日期:2026-03-19 18:43:18

    PaperWeekly × 星弧 STARC 科研觉醒AI前沿讲座 直播主题 从“记忆”视角理解Transformer大模型观察与高效推理方法 直播嘉宾 胡俊杰UW–Madison 助理教授卡内基梅

    阅读全文
  • 文章封面

    高中生连投15篇ICLR遭全拒,到手的Accept因漏署名飞了

    作者:PaperWeekly发布日期:2026-03-18 08:16:58

    0 实验纯推导也能冲顶会?最近,一份离谱的顶会投稿记录在网上传开了。一位高中生作为第一作者,向 ICLR 2026 一口气投了 15 篇论文。结果挺惨烈,全军覆没。数量夸张是一方面,其中一篇文章甚至经

    阅读全文
上一页下一页