Seed2.0 正式发布
大语言模型驱动的产品已深刻融入我们的生活。过去一年多,Seed 开发的 LLM 模型系列已支持豆包等拥有上亿用户的 C 端产品,同时,我们也注意到,随着 Agent 时代到来,LLM 将在现实世界的复
阅读全文大语言模型驱动的产品已深刻融入我们的生活。过去一年多,Seed 开发的 LLM 模型系列已支持豆包等拥有上亿用户的 C 端产品,同时,我们也注意到,随着 Agent 时代到来,LLM 将在现实世界的复
阅读全文去年 9 月,我们发布统一编辑与生成的图像创作模型 Seedream 4.0,它融合了部分常识和一定的推理能力,受到不少用户的欢迎。今天,我们推出 Seedream 5.0 Lite 智能图像创作模型
阅读全文今天,我们正式发布新一代视频创作模型 Seedance 2.0。Seedance 2.0 采用统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态输入,集成了目前业界最全面的多模态内容参
阅读全文今年 7 月,字节跳动 Seed 团队受邀参加了 IMO 2025。我们的形式化数学推理模型 Seed Prover 通过 3 天的尝试,完整解决了 6 道题目中的 4 道以及一道题的部分证明,达到官
阅读全文随着大模型任务范围不断扩展,我们注意到,用户需求正从获取建议、查询信息,转向让模型直接执行复杂工作流。这意味着,通用模型必须具备更广泛的能力,超越现有语言生成的范畴。在此背景下,我们正式推出通用 Ag
阅读全文舞台中央,灯光聚焦,随着一段高亢的旦角唱腔,角色完成了一连串配合鼓点的长枪动作。这并非真实演出,而是 Seedance 1.5 pro 尝试一镜生成的创作片段,其演绎与专业戏曲表演尚有很大差距,但声韵
阅读全文在 Scaling Law 的推动下,具身智能正迎来关键突破,基于海量数据预训练的视觉-语言-动作(VLA)模型已展现出不错的通用泛化能力。然而,当我们将机器人的应用场景从理想的实验室环境搬进复杂的家
阅读全文人类能够通过一张照片、一段视频,迅速在脑海中构建出一个空间的立体样貌。这种能力源于我们对不同视角空间几何关系的理解与推理,而机器想要理解、参与物理世界,就需要提升空间智能,对场景精准重建。当前的视觉空
阅读全文世界模拟器对具身智能的发展至关重要,理想情况下可为机器人训练提供复杂的场景模拟和高质量的合成数据,还能支持实时交互的训练环境。然而,当前技术依然面临瓶颈:基于视频生成的模拟器虽能产生逼真画面,但缺乏物
阅读全文字节跳动 Seed 团队正式发布新一代图像创作模型 Seedream 4.0。Seedream 4.0 采用同一套构架实现文生图与通用编辑能力,融合常识和推理能力,相比前代模型 Seedream 3.
阅读全文近年来,大模型技术正从单一文本模态,向包含图像、语音、视频等多种信息的“全模态”(Omni-Modal)理解生成方向演进。但目前训练一个能“看”、能“听”、能“说”的全能模型,依然面临着系统性的工程挑
阅读全文近日,2025 RoboCup 机器人世界杯人形组成人组比赛,即:RoboCupSoccer Humanoid League AdultSize,在巴西萨尔瓦多落下帷幕。由字节跳动 Seed 团队与清
阅读全文固有的串行解码延迟是自回归(AR)模型无法回避的瓶颈。离散扩散(DD)模型为此提供了极具潜力的并行化解决路径,但此前其理论上的并行优势与实际可达成的推理加速效果存在显著差距。今天,字节跳动 Seed
阅读全文6 月 11 日,火山引擎 Force 大会公布,字节跳动 Seed 及火山引擎,将与比亚迪锂电池深化合作,通过联合实验室等形式,共同探索 AI for Science 结合高通量实验,加速锂电池研发
阅读全文字节跳动 Seed 团队正式发布视频生成基础模型 Seedance 1.0。Seedance 1.0 支持文字与图片输入,可生成多镜头无缝切换的 1080p 高品质视频,且主体运动稳定性与画面自然度较
阅读全文CVPR 2025 将于 6 月 11 日至 15 日在美国田纳西州纳什维尔举行。在本届会议中,字节跳动 Seed 团队共有 12 篇论文入选,其中包括 4 篇 Highlight,研究内容涵盖视觉推
阅读全文依靠 AI 完成指令式图像编辑的需求,广泛存在于视觉内容创意工作中。但此前,图像编辑模型在主体&背景保持、指令遵循等方面能力相对有限,导致编辑图像可用率不高。图像编辑模型 SeedEdit 3.0 基
阅读全文BAGEL 是字节跳动 Seed 最新开源的多模态基础模型,支持文本、图像和视频的统一理解和生成。团队实验发现,随着预训练用到的跨模态交错数据不断扩展,模型还涌现出了更强的复杂推理和组合能力,为更广泛
阅读全文字节跳动 Seed 近日公开了以模型为中心的代码预训练数据构建流水线(Model-centric Data Pipeline)实现方法。通过研究,我们验证了——基于 LLM 即可实现对代码数据的评分、
阅读全文Seed1.5-VL 是字节跳动 Seed 团队最新发布的视觉-语言多模态大模型,具备更强的通用多模态理解和推理能力,且推理成本显著降低,在 60 个公开评测基准中的 38 个上取得 SOTA 表现。
阅读全文字节跳动 Seed 团队最新向量模型 Seed1.5-Embedding 公布技术细节,该模型基于 Seed1.5 (Doubao-1.5-pro) 进一步训练。在权威测评榜单 MTEB 上,Seed
阅读全文ICLR 2025 即将在新加坡拉开帷幕。作为机器学习领域的顶级学术会议之一,ICLR 聚集了来自全球的学者与产业界代表。今年,字节跳动 Seed 团队共有 23 篇成果被接收或邀请分享,包含 1 篇
阅读全文今天,我们发布并开源 UI-TARS-1.5,这是一款基于视觉-语言模型构建的开源多模态智能体,能够在虚拟世界中高效执行各类任务。目前,UI-TARS-1.5 已在 7 个典型的 GUI 图形用户界面
阅读全文字节跳动 Seed 团队正式发布 Seedream 3.0 技术报告。Seedream 3.0 是一个原生高分辨率、支持中英双语的图像生成基础模型,对比 Seedream 2.0,这一版本的整体性能表
阅读全文字节跳动 Seed 最新思考模型 Seed-Thinking-v1.5 技术报告发布,涵盖我们在数据体系、奖励模型、RL 算法、基础设施等维度的探索:通过数据层面的精细化处理提升推理能力,融合可验证数
阅读全文字节跳动豆包大模型团队正式开源首个多语言类 SWE 数据集——Multi-SWE-bench,可用于评估和提升大模型“自动修 Bug”能力。在 SWE-bench 基础上,Multi-SWE-benc
阅读全文今天,豆包大模型团队正式发布文生图技术报告,首次公开 Seedream 2.0 图像生成模型技术细节,覆盖数据构建、预训练框架、 后训练 RLHF 全流程。该报告针对 Seedream 2.0 原生中
阅读全文