智能体 MCP 协议技术原理与应用实践
MCP v.s. Function CallingMCP 出现之前的主流是 Function Calling,但后者存在 2 个关键问题:系统集成标准化需求:能够调用外部系统(数据、工具)是 Agen
阅读全文MCP v.s. Function CallingMCP 出现之前的主流是 Function Calling,但后者存在 2 个关键问题:系统集成标准化需求:能够调用外部系统(数据、工具)是 Agen
阅读全文前文列表AI 智能体核心原理综述:从 Agentic AI 到 AI AgentAI Agent 软件工程关键技术综述AI Agent 的体系化分类与产品形态分析OpenManus 通用智能体实践与代
阅读全文前文列表AI 智能体核心原理综述:从 Agentic AI 到 AI AgentAI Agent 软件工程关键技术综述AI Agent 的体系化分类与产品形态分析OpenManus 通用智能体实践与代
阅读全文AI Agent v.s. AI Workflow在这里插入图片描述2025 年作为公认的 “智能体元年”,相关的技术和概念依旧在高速发展中。所以,至今为止业界依旧没有达成关于 AI Agent 和
阅读全文前文列表AI 智能体核心原理综述:从 Agentic AI 到 AI AgentAI Agent 软件工程关键技术综述AI Agent 的体系化分类与产品形态分析OpenManusOpenManus
阅读全文前文列表AI 智能体核心原理综述:从 Agentic AI 到 AI AgentAI Agent 软件工程关键技术综述AI Agent 的分类基于自主程度的分类在这里插入图片描述根据 Agent “是
阅读全文2024 诺贝尔物理学奖与人工智能2024 年的诺贝尔物理学奖颁发给了 John Hopfield 和 Geoffrey Hinton,以表彰他们在实现机器学习的人工神经网络方面的基础性发现与发明。他
阅读全文环境信息Win11 提供 GPU 设备WSL2 Ubuntu 22.04 提供 CUDA 运行时环境MacOS 作为编程和性能分析客户端WSLWSL 是一个与 Microsoft Windows 操作
阅读全文LangChain、LangGraph 和 LangSmith 开发框架LangChain v.s. LangGraphLangChain 和 LangGraph 出自于同一个团队,都被设计用于与 L
阅读全文Agentic AI 的背景LLM 最初的产品形态是由 OpenAI 领衔的 ChatBot(聊天机器人),底层支撑技术是 Transformer 架构大语言模型,最初专注于语言文本领域的人工智能应用
阅读全文前言本文旨在梳理全系列 GPU 芯片架构的发展历史、技术特性和 CUDA 技术实现原理,包括:费米(Feimi)、开普勒(Kepler)、麦克斯韦(Maxwell)、帕斯卡(Pashcal)、伏特(V
阅读全文为什么需要 SuperNode 和 SuperPOD?(Why)1. Scaling Laws 第一定律OpenAI 在 2020 年的论文中提出了 Scaling Laws(扩展定律),证明了大语言
阅读全文前文目录人工智能发展史 — MP 模型和感知机模型的数学模型与编程应用1982 年,Hopfield 联想和记忆神经网络模型1982 年,约翰·霍普菲尔德(John Hopfield)通过对生物大脑的
阅读全文人工智能发展流派人工智能的发展历程中,主要形成了三大技术流派:符号主义、联结主义和行为主义。它们在理论基础、研究方向和应用场景上各有侧重,并随着技术的发展交叉融合形成新的研究方向。直至 2010 年之
阅读全文前文列表《从 re:Invent 2024 看 AWS 最前沿的 AI 基础设施架构》《GPU 基本运行原理》《GPU 芯片架构发展史》《GPU 虚拟化技术原理》《8 卡 GPU 服务器与 NVLin
阅读全文前文列表《从 re:Invent 2024 看 AWS 最前沿的 AI 基础设施架构》《GPU 基本运行原理》《GPU 芯片架构发展史》《GPU 虚拟化技术原理》《8 卡 GPU 服务器与 NVLin
阅读全文前文列表《从 re:Invent 2024 看 AWS 最前沿的 AI 基础设施架构》《GPU 基本运行原理》《GPU 芯片架构发展史》《GPU 虚拟化技术原理》《8 卡 GPU 服务器与 NVLin
阅读全文前言要把 GPU/CUDA 的技术原理讲清楚并不容易,而回顾其发展历史则是一个好办法,所以本文采用编年纪的方式进行写作。把 GPU 和 CUDA 的来龙去脉梳理清楚。前文列表关注公众号查看:《从 re
阅读全文前言本文是 AI Infrastructure 主题的最后一篇,围绕训练一个 AI 大模型所需要的硬件基础设备展开,介绍了 GPU、GPU 服务器、RDMA 网络相关的内容。如果你觉得内容还不错请帮忙
阅读全文Figure AI人形机器人公司于近日发布的文章《HELIX: A VISION-LANGUAGE-ACTION MODEL FOR GENERALIST HUMANOID CONTROL》中介绍了一
阅读全文RoCERDMA 协议栈最早在 Infiniband 网络设备上实现,但由于 IB 网络一家独大且价格昂贵,所以业界设备厂商组成 RDMA Consortium 联盟,意图把 RDMA 协议栈移植到更
阅读全文GPU 虚拟化技术发展简史GPU 虚拟化是实现 GPU 资源池平台的关键技术,从资源管理角度,考虑 GPU 设备的利用率、性能、安全隔离等因素。GPU 虚拟化技术的发展如下:2012 年,随着 Lin
阅读全文