黄仁勋:跑道足够长,跑得快才有意义

更新时间:2023-05-30 16:06:33作者:橙橘网

黄仁勋:跑道足够长,跑得快才有意义



差不多 14 年前,英伟达 CEO 黄仁勋参加了东方卫视一档名为《波士堂》的电视节目。节目中的一位嘉宾将英伟达描述为一家在小众市场跑得最快的公司(相较于英特尔、微软等巨头)。黄仁勋补充道,只是快还不够,只有当跑道足够长、最好还足够蜿蜒时,跑得快才是一个好的战略。

那会儿的英伟达仍专注于图形处理,黄仁勋说,光是游戏、电影等产业产生的图像需求已经足够美妙。后来他选择放弃研发彼时很火的基带芯片(同时也放弃了庞大的手机市场),转而投向自己更擅长、但当时还看不见规模的 AI 领域。

那场电视节目最后,主持人问黄仁勋对公司有什么愿景,他说:

我们希望能够创造一些产品,是其他公司所做不到的,而且这些东西是对人生有意义的,能够使人更加幸福,或者使我们的科学研究能够进一步地向前扩展,能够去治疗疾病,或者拯救人的生命。希望某一天,世界上每一个人都知道英伟达,正如他们知道微软、英特尔一样,认为我们公司是世界上最有影响力的公司之一。

14 年后的今天,英伟达已经成长为 AI 领域一骑绝尘的芯片公司,它的最新市值是昔日老大哥英特尔的 8 倍。AI 初创公司们不断用订单告诉大家,英伟达的算力芯片速度最快、性能最强、最好用。

在今天中午的 COMPUTEX 大会上,黄仁勋又拿出一堆性能大幅升级的产品,继续拉开跟竞争对手差距:包括已经全面投产的超级 GPU 芯片 GH200、比上一代内存大 500 倍的超算平台 DGX GH200(训练 GPT-3 的速度快 2.2 倍)、全新加速以太网平台 Spectrum-X,以及为游戏提供定制化 AI 模型代工服务等。

对于已经不太关心手机和电脑还有什么新花样的普通大众来说,可能不太容易理解为什么电脑和芯片在当下和将来还需要不断提升性能。

黄仁勋用一组参数对比说明了 AI 领域数据量增长的速度:2012 年,当时最先进的神经网络 AlexNet 的训练使用了 6200 万参数。10 年过后,Google 训练 PaLM2 时用了 3400 亿参数,参数量增加了 5000 倍,而用于训练的数据集增加了 300 万倍。

性能高低直接影响成本。同样花 1000 万美元,你可以选择建一个含 960 张 CPU 或者含 48 张 GPU 的数据中心,后者能够处理的数据量是前者的 44 倍,功耗不到前者三分之一。

黄仁勋说,我们正处于一个全新的电脑时代,可以做到一些从前不可能做到的事情。

比如在生物学领域,人类将第一次拥有能够辅助药物研发的计算机工具,它们能够处理蛋白质和化学物质,了解疾病和靶点(药物发现的最初两个步骤),并尝试一些从未设想过的化学物质组合方式。

这个新时代的特殊之处在于:AI 可以理解包括不同模态在内的更多信息;这些理解不需要专门的编程语言,数字鸿沟被消弭,编程的门槛降到无限低;AI 不光可以改变未来,也可以改造之前已经存在的每一个应用程序,这也是为什么大公司们已经将 AI 嵌入了从浏览器到办公软件在内的几乎所有应用。

这场变革将重塑所有行业,同时也将重塑每一家公司和每一个人。

两天前,在中国台湾大学毕业典礼致辞中,黄仁勋说,AI 已经给电脑产业带来再生契机,每家公司和每个人都应该学会善用 AI。

无论在 AI 时代你们将创造什么,像我们一样全力以赴去追求它,跑吧!不要慢慢走。

不论是为了食物而奔跑,或不被他人当做食物而奔跑。你往往无法知道自己正处在哪一种情况,但无论如何,都要保持奔跑。(邱豪)

本文标签: 微软  电脑  内存  黄健森  英伟达  英特尔  黄仁勋