江西省高校诵读红色家书讲述英烈故事直播在哪看(附回放入口)
2023-10-30
更新时间:2023-10-11 14:08:43作者:橙橘网
大模型界的顶流之一OpenAI,或将成为自主造芯潮的新成员。
近日,据媒体报道,OpenAI正在探索制造自己的人工智能芯片,并已开始评估一个潜在的收购目标。据知情人士透露,至少从去年开始,该公司就讨论了各种方案,以解决OpenAI所依赖的昂贵AI芯片短缺的问题。这些选择包括制造自己的人工智能芯片,与包括英伟达在内的其他芯片制造商更密切的合作,以及在英伟达之外实现供应商多元化。
在OpenAI官网开放招聘的岗位中,近日已经出现硬件工程师相关岗位,用以有评估和共同设计AI硬件。九月,OpenAI还从Meta招募了人工智能编译器领域的牛人Andrew Tulloch,似乎也从侧面印证着在自研芯片方面进行的投入。
苦英伟达久矣?
OpenAI布局自研芯片这件事,市场似乎并不感到意外。
大模型风靡的这大半年,如果说数据是大模型的生产原料,那么算力则是大模型的生产力。此前,OpenAI公布过一组数据,大模型训练所需算力的增速保持在3-4个月/倍速度增长,远超摩尔定律18-24个月/倍。
强大的算力,意味着更快的数据处理速度、更强大的大模型服务能力。与此同时,伴随着越来越多的企业入局大模型,导致对A100和H100等高端GPU的需求直线增加,英伟达及其制造伙伴台积电,都在努力满足供应。
据《金融时报》报道,今年8月,百度、字节跳动、腾讯和阿里巴巴向英伟达共订购了价值50亿美元的芯片。外部需求的爆发,导致了市场供货异常紧张。据CoreWeave联合创始人兼CTO Brian Venturo表示,今年一季度,获取英伟达GPU还很容易,但从4月份开始订购,交货时间也要等到2024年Q1甚至Q2。
OpenAI的CEO Sam Altman也曾多次抱怨算力短缺问题,而这个市场主要由英伟达主导,该公司控制着全球80%以上最适合运行人工智能应用的芯片市场。
最近在伦敦听证会上,Altman称算力的短缺让API可用性低于标准,并坦诚承认计算机芯片短缺,可能阻碍ChatGPT推出更大的“上下文窗口”。上下文窗口决定了模型的响应速度,和单次提示使用的数据。
财经评论员张雪峰表示,“OpenAI要自研芯片意味着他们希望独立研发和生产适合其人工智能技术需求的定制化芯片。自研芯片可以使OpenAI更好地优化算法和硬件的协同工作,提升人工智能系统的性能和效率。同时,自研芯片还可以减少对供应商的依赖,降低成本并更好地满足OpenAI独特的需求。”
实际上,谈算力问题始终离不开成本问题。分析师StacyRasgon曾估算算,ChatGPT每次查询成本约4美分。若ChatGPT查询增长到Google 搜索规模的十分之一,需要价值约481亿美元的GPU,每年则需160亿美元的芯片才能保持运行。
据外媒报道,2022年OpenAI营收2800万美元,亏损为5.4亿美元,亏损的主要算因就是算力开销。另外,ChatGPT移动端9月收入虽增长至460万美元,但增长疲态出现。根据市场情报公司Appfigures的最新数据,其营收增长已经开始放缓,7月份为31%,8月份为39%,9月份降至20%。
目前还不清楚OpenAI是否会推进定制芯片的计划。但是张雪峰指出OpenAI自研芯片仍面临着不同方面的挑战:一是技术,自研芯片需要高度的技术实力和专业知识,OpenAI可能需要更多时间和资源来提升研发能力和相关技术。二是成本,自研芯片需要巨大的投入和研发成本,OpenAI可能需要评估其战略利益,并权衡自研芯片带来的长期收益。三是供应链,AI芯片市场竞争激烈,供应链短缺问题仍存在,这可能导致OpenAI推迟自研芯片计划,以等待更好的市场时机。
集体自研芯片
OpenAI被爆自研芯片后,其合作伙伴微软的芯片故事也有了“预告”。
10月6日,The Information援引知情人士消息称,微软计划在下个月的年度开发者大会上推出首款为人工智能设计的芯片,来降低成本并减少对英伟达的依赖。报道称,微软芯片用于数据中心服务器,为训练大语言模型(LLM)等软件而设计,同时可支持推理,能为ChatGPT背后的所有AI软件提供动力。
微软的芯片研发工作从2019年就已经开始了,只是目前大家对相关信息知晓的少之又少。据The Information报道,这款芯片代号为“雅典娜”,将使用台积电的5nm工艺打造。若成功投产,预计每颗芯片的成本降低三分之一。
除了微软,其他大型科技企业也都开始迈入自研芯片的时代。早在今年5月18日,Facebook的母公司Meta披露了旗下数据中心项目支持AI工作的细节,提到已经打造一款定制芯片,简称MTIA,用于加快生成式AI模型的训练。这是Meta首次推出AI定制芯片。Meta称,MTIA是加快AI训练和推理工作负载的芯片“家族”的一分子。
值得注意的是,谷歌、亚马逊早已开启自研芯片计划。早在2013年,谷歌就已秘密研发一款专注于AI机器学习算法的芯片,并将其用在内部的云计算数据中心中,以取代英伟达的GPU。2016年5月,这款自研芯片公诸于世,即TPU。
亚马逊则是最早涉足自研芯片的云厂商,2018年推出自研AI推理芯片Inferentia;今年年初专为人工智能打造的Inferentia 2发布,将计算性能提高了三倍,加速器总内存提高了四分之一,吞吐量提高了四分之一,延迟提高了十分之一。
知名研究公司Forrester Research的高级云计算分析师Tracy Woo表示,人工智能的繁荣正在给云计算供应商带来更大压力,迫使他们开发自己的芯片:你可以从英伟达购买,但当你看到谷歌和亚马逊这些巨无霸时,会发现他们有资本设计自己的芯片。
目前微软、谷歌等大厂纷纷下场自研芯片,天使投资人、资深人工智能专家郭涛认为核心原因是为了提高运算能力、减少对外部供应商的依赖、增强竞争优势以及推动衍生设计等。
“金三角”不牢固了?
OpenAI和微软自研芯片的消息一经爆出,其原因之一都指向“减少对英伟达的依赖”。
英伟达、OpenAI和微软三家的故事,还要从2016年说起。当时成立仅一年的OpenAI遇到了英伟达CEO黄仁勋,并收获了轻量化小型超算DGX-1,一年的计算量可以在靠其在一个月完成。三年后,OpenAI和微软牵手,获得10万美元的投资。
彼时出钱的出钱、出力的出力、出基建的出基建,支撑着OpenAI大模型的研发。直到去年年底,ChatGPT的诞生,轰动全世界。三家的合作被放在聚光灯下,在业内被称为“强强联合”,但是随着时间的推移,最大的赢家似乎一直是英伟达。
目前,英伟达占据全球数据中心AI加速市场82%的份额,而且以95%的市场占有率垄断了全球Al训练领域的市场,且公司市值超越1万亿美元。在8月底的财报会议上,英伟达CFO Colette Kres预计市场对于英伟达数据中心GPU的需求将延续至明年,“随着我们缩短供货周期并增加产能,未来几个季度的供应将继续增加。”
面对成本高、芯片的短缺的挑战,OpenAI和微软都开始自研芯片。消息一出,市场上除了关心芯片性能外,也有不少业内人士对三者的关系,产生了质疑:三者是否会继续保持良好合作关系,亦或是出现“撕破脸”的局面。
另外,谷歌、微软、OpenAI等作为英伟达的重要客户,未来自研的芯片正式应用后,无疑会与英伟达直面竞争,因此业内也出现了“是否会撼动英伟达地位”的声音。
“目前,英伟达人工智能芯片市场处于垄断地位,但是随着其他公司也开始自研芯片,这种局面可能会发生变化。”不过,郭涛判断英伟达在人工智能领域拥有丰富的经验和技术优势,芯片生态体系比较成熟,因此它仍然可能会保持其“霸主”地位。
而在张雪峰看来,英伟达作为AI芯片市场的领先企业,在AI芯片之战仍将保持竞争优势,但是竞争对手通过自研芯片能够更好地满足特定领域和应用的需求,有望推动市场多元化,其‘霸主’地位可能会面临一定的冲击。他表示“随着更多企业,包括大厂和创业公司都意识到自研芯片的重要性,AI芯片之战未来可能呈现多个参与者自研芯片的局面,市场的进一步发展,将取决于技术创新、应用需求和市场竞争力的综合影响。”
综合自财联社、华尔街见闻、凤凰网科技、界面新闻