生成式AI 改变计算架构,从 CPU 主导的计算体系到 GPU 主导的 AI 计算迁移。AI 时代将是“GPU算力为主,CPU算力为辅”的计算模式。2024年市场新增算力,超过50%的需求AI驱动产生,这一趋势将持续扩大。阿里云投资建设了大量的 AI计算基础设施,依然远远无法满足客户需求。
没错,GPU计算,就是未来。 CPU曾是数字世界的基石 在过去几十年里,从云端服务器到超级计算机,CPU一直都充当着计算体系核心的责任。比如著名的天河一号,就采用了14336个商用处理器、7168个加速处理器和2048个自主飞腾-1000处理器,这些处理器基本是「CPU」,也就是“逻辑处理器”。
CPU主要被设计用于处理通用计算任务,进行复杂的逻辑运算和顺序运算。你可以将CPU看作是一个大学生,他有着足够的逻辑推算能力来处理各种复杂的任务,但是每次只能处理一个任务,也就是所谓的「单线程」。 虽然在后续的CPU设计中,工程师通过指令集、CPU架构等方式,让CPU可以同时处理两个工作(双线程),却已然是当下的极限。而且CPU在处理任务时,仍然需要先处理完手头的工作,再进入下一个工作流程,也就是「顺序执行」。
逻辑运算与顺序执行,构成了CPU的通用计算基础,只要你输入的程序符合CPU的运算逻辑,那么CPU所给出的计算结果都是一样的,并不会因为你使用的是AMD,他使用的是英特尔,所以你的1+1=2,他的1+1=3。 得益于强大的通用计算能力,CPU成为人类构建通用型计算中心时的首选,因为计算中心的设计初衷就是用来执行不同领域的计算任务。而服务器则是承担着为云端应用提供数据交换和计算等支持,为了使其能够适应不同类型的应用运算,通用计算能力就是关键。图源:veerGPU计算:从图形渲染到驱动AI 最近两年,一切都发生了翻天覆地的改变,GPU成为大多数新数据中心及超级计算机的核心,GPU算力的增长速度屡屡突破历史记录,企业疯狂采购GPU核心,搭建全新的计算矩阵,而这一切的「元凶」,就是生成式AI。 作为近年来最受关注、热度最高的前沿领域,生成式AI有一个特点,那就是对算力的恐怖需求,这个需求不仅体现在训练、优化AI大模型上,更是随着用户数量的增长飙升。生成式AI可以说是人类少有的,从出现到普及耗时最短的前沿科技,现如今每一个接入互联网的人,都可以通过访问通义千问等网站来使用生成式AI。图源:通义千问 庞大的需求催生了数量众多的数据中心,但是也让一部分人对此产生疑惑:为什么要选择GPU而非CPU来搭建AI数据中心?GPU最初的设计用途是图形渲染任务,这决定了其需要更强大的并行任务处理能力。以游戏为例,当你在游戏中看到一个箱子,实际上你看到的是一个由大量三角形组成的3D模型,如果你玩过早期的3D游戏,那么你肯定会对游戏中“有棱有角”的角色有着深刻印象。
实际上,这个问题就是因为早期的GPU算力不足,只能进行百位数的三角形运算,无法满足构建「光滑」模型的要求。随着GPU的运算性能加强,当我们可以在一秒的时间里渲染出千万级的三角形并组成3D模型,那么在游戏玩家的眼中,这个模型就有着非常真实的视觉效果,也就是「拟真级」精细建模。 因为需要处理的任务简单(生成三角形并着色),但是任务数量却非常多(千万级),导致GPU成为一个偏科生。论对单个数据的处理能力,GPU与CPU的对比就像是小婴儿与大学生,区别在于GPU是上千万个“小婴儿”的集合,而CPU则是几十个大学生的集合。 当我们需要执行一个将1000万个“三角形”从左边移动到右边的任务时,GPU和CPU谁的效率会更高?GPU的并行计算能力,也是其能够处理复杂3D模型渲染的关键。 而在生成式AI诞生后,人们发现GPU的并行计算能力,远比CPU要更适合进行AI运算,其中的原因则与AI大模型的底层结构有关。虽然在我们的眼中,AI大模型根据数据集群的不同,可以生成文字、图画、音乐等各种类型的结果,但是在实际运算中,所有数据其实都以一种形式存在——Token,也就是「最小语义单元」。
当你输入一段文字时,应用程序会将文字拆解为数以万计的Token,然后再丢到处理核心中进行计算。这个过程是否很眼熟?没错,整个逻辑与GPU渲染一个箱子其实是一样,将一个任务拆分成大量的小任务,然后根据AI模型的逻辑推理来整合结果并输出答案。 可以说,在AI时代的数据中心里,GPU就是整个AI算力矩阵的核心,其重要性要远远超过CPU,而掌握着最先进GPU的厂商,将成为半导体领域的无冕之王。 GPU为王、CPU为辅,群雄逐鹿AI计算 在目前的AI市场中,大多数人都认可一个观点:英伟达就是AI算力的代名词。不管是每秒可以进行数十万亿次浮点运算的H100,还是目前最强的消费级AI显卡RTX 4090,都让英伟达成为商业领域和消费领域无可争议的NO.1。 特别是在消费领域,英伟达已经成为个人AI计算机的唯一选择,其背后的原因就是英伟达的「杀手锏」——CUDA。CUDA是由NVIDIA开发的并行计算平台和编程模型,他的作用是允许开发者利用英伟达GPU的强大并行计算性能来执行通用计算任务。
没错,GPU计算,就是未来。 CPU曾是数字世界的基石 在过去几十年里,从云端服务器到超级计算机,CPU一直都充当着计算体系核心的责任。比如著名的天河一号,就采用了14336个商用处理器、7168个加速处理器和2048个自主飞腾-1000处理器,这些处理器基本是「CPU」,也就是“逻辑处理器”。
CPU主要被设计用于处理通用计算任务,进行复杂的逻辑运算和顺序运算。你可以将CPU看作是一个大学生,他有着足够的逻辑推算能力来处理各种复杂的任务,但是每次只能处理一个任务,也就是所谓的「单线程」。 虽然在后续的CPU设计中,工程师通过指令集、CPU架构等方式,让CPU可以同时处理两个工作(双线程),却已然是当下的极限。而且CPU在处理任务时,仍然需要先处理完手头的工作,再进入下一个工作流程,也就是「顺序执行」。
逻辑运算与顺序执行,构成了CPU的通用计算基础,只要你输入的程序符合CPU的运算逻辑,那么CPU所给出的计算结果都是一样的,并不会因为你使用的是AMD,他使用的是英特尔,所以你的1+1=2,他的1+1=3。 得益于强大的通用计算能力,CPU成为人类构建通用型计算中心时的首选,因为计算中心的设计初衷就是用来执行不同领域的计算任务。而服务器则是承担着为云端应用提供数据交换和计算等支持,为了使其能够适应不同类型的应用运算,通用计算能力就是关键。图源:veerGPU计算:从图形渲染到驱动AI 最近两年,一切都发生了翻天覆地的改变,GPU成为大多数新数据中心及超级计算机的核心,GPU算力的增长速度屡屡突破历史记录,企业疯狂采购GPU核心,搭建全新的计算矩阵,而这一切的「元凶」,就是生成式AI。 作为近年来最受关注、热度最高的前沿领域,生成式AI有一个特点,那就是对算力的恐怖需求,这个需求不仅体现在训练、优化AI大模型上,更是随着用户数量的增长飙升。生成式AI可以说是人类少有的,从出现到普及耗时最短的前沿科技,现如今每一个接入互联网的人,都可以通过访问通义千问等网站来使用生成式AI。图源:通义千问 庞大的需求催生了数量众多的数据中心,但是也让一部分人对此产生疑惑:为什么要选择GPU而非CPU来搭建AI数据中心?GPU最初的设计用途是图形渲染任务,这决定了其需要更强大的并行任务处理能力。以游戏为例,当你在游戏中看到一个箱子,实际上你看到的是一个由大量三角形组成的3D模型,如果你玩过早期的3D游戏,那么你肯定会对游戏中“有棱有角”的角色有着深刻印象。
实际上,这个问题就是因为早期的GPU算力不足,只能进行百位数的三角形运算,无法满足构建「光滑」模型的要求。随着GPU的运算性能加强,当我们可以在一秒的时间里渲染出千万级的三角形并组成3D模型,那么在游戏玩家的眼中,这个模型就有着非常真实的视觉效果,也就是「拟真级」精细建模。 因为需要处理的任务简单(生成三角形并着色),但是任务数量却非常多(千万级),导致GPU成为一个偏科生。论对单个数据的处理能力,GPU与CPU的对比就像是小婴儿与大学生,区别在于GPU是上千万个“小婴儿”的集合,而CPU则是几十个大学生的集合。 当我们需要执行一个将1000万个“三角形”从左边移动到右边的任务时,GPU和CPU谁的效率会更高?GPU的并行计算能力,也是其能够处理复杂3D模型渲染的关键。 而在生成式AI诞生后,人们发现GPU的并行计算能力,远比CPU要更适合进行AI运算,其中的原因则与AI大模型的底层结构有关。虽然在我们的眼中,AI大模型根据数据集群的不同,可以生成文字、图画、音乐等各种类型的结果,但是在实际运算中,所有数据其实都以一种形式存在——Token,也就是「最小语义单元」。
当你输入一段文字时,应用程序会将文字拆解为数以万计的Token,然后再丢到处理核心中进行计算。这个过程是否很眼熟?没错,整个逻辑与GPU渲染一个箱子其实是一样,将一个任务拆分成大量的小任务,然后根据AI模型的逻辑推理来整合结果并输出答案。 可以说,在AI时代的数据中心里,GPU就是整个AI算力矩阵的核心,其重要性要远远超过CPU,而掌握着最先进GPU的厂商,将成为半导体领域的无冕之王。 GPU为王、CPU为辅,群雄逐鹿AI计算 在目前的AI市场中,大多数人都认可一个观点:英伟达就是AI算力的代名词。不管是每秒可以进行数十万亿次浮点运算的H100,还是目前最强的消费级AI显卡RTX 4090,都让英伟达成为商业领域和消费领域无可争议的NO.1。 特别是在消费领域,英伟达已经成为个人AI计算机的唯一选择,其背后的原因就是英伟达的「杀手锏」——CUDA。CUDA是由NVIDIA开发的并行计算平台和编程模型,他的作用是允许开发者利用英伟达GPU的强大并行计算性能来执行通用计算任务。