早在2015年,全球gpu芯片龙头英伟达的创始人黄仁勋就曾犀利地评价竞争对手amd:“我们已经好多年不看amd的动作了,当(英伟达和amd)差距是9跟0的时候,已经不是差距的问题了。” 在图形显示等gpu传统应用市场,英伟达长期占据了80%以上的市场份额,将amd远远甩在后头。但随着ai大模型时代到来,amd正试图凭借空前强大的芯片新品和难得的产业机遇,攻入英伟达的腹地。
“我在不停打仗”,在芯片界铁娘子苏姿丰(lisa su)的职业生涯里,有两场至关重要的战役。
第一场,是在2014年接手amd(美国超威半导体),以力挽狂澜之势让amd从深陷财务危机到一举成为英特尔最强劲对手,股价上涨了40倍。另一场则是在当下,今年6月,amd发布了针对ai需求的最新款芯片instinct mi300,这是其狙击英伟达最强劲的一个武器。
在gpu芯片领域,amd与英伟达的缘分妙不可言。英伟达与amd长期以“八二开”的比例瓜分着全球市场份额,在图形显示等市场并称双雄。而媒体则乐于炒作二者更私人的关系——比如,英伟达ceo黄仁勋与苏姿丰可能存在的“表亲关系”,当然,双方从未在任何场合正式回应过这些话题。
无论关系如何,黄仁勋一点都不手软,他对铁娘子苏姿丰的第二场战役迅速展开了雷霆反击。
北京时间11月13日晚间,英伟达发布了全球最强ai芯片h200,其性能较h100直接翻倍。打了抢先发布mi300的amd一个措手不及。此前,amd表示,公司正在今年第三季度向客户提供样品,产量将在第四季增加。原本mi300将有望成为amd最快销售额破10亿美元的产品。
英伟达称h200将在2024年第二季度开始交付,留给amd抢跑的时间不多。
amd开打第二场“翻身仗”
amd还是乐观了。
今年q3财报发布之际,amd曾大胆给出业绩预期:四季度营收将达到58亿美元至64亿美元之间,预计为61亿美元,同比增长9%——这也将是amd自2022年第三季度以来,最高的季度收入。
这种预期也可以理解,2023年第三季度,amd营收58亿美元,净利润2.99亿美元——是连续7个季度的净利润同比下滑之后,首次实现季度净利润的同比正增长。
而amd几乎将自己未来业绩强劲增长的底牌,全部押注在了一款产品上:
今年6月份,amd专门针对ai大模型训练需求发布的instinct mi300系列芯片。这几乎是全球范围内,第一款能够直接对标英伟达大模型训练芯片h100的产品。
根据amd官方信息,mi300在部分技术指标上相比英伟达的h100更具优势,比如mi300提供的hbm(高带宽内存)密度是h100的2.4倍,hbm带宽是h100的1.6倍。这意味着amd可以运行比英伟达h100更大的模型。
惊艳四座的chatgpt大模型大部分基于英伟达2020年发布的a100芯片进行训练。而在2022年3月份,英伟达面向ai大模型训练需求专门发布了h100芯片。
从亮相开始,h100就迎头赶上了“百模大战”的风口,成为了被各方力量争夺的宝贵算力资源。据坊间传闻,早在今年第三季度时,英伟达h100的订单就已排到了2024年,至今产品稀缺程度有增无减。
尽管如此,在发布会上苏姿丰还是表现得十分有信心:“我们认为,数据中心人工智能加速器(市场)将以超过50%的复合年增长率,从今年的300亿美元左右增长到2027年的1500亿美元以上。”
amd计划在第四季度量产mi300。在此基础上,公司预计在第四季度,包含mi300在内的数据中心gpu业务营收将达到4亿美元;而在整个2024年,公司数据中心gpu产品有望实现20亿美元的销售额。
amd数据中心gpu产品的下游市场既包括科学计算等高性能计算领域,也包括ai领域,但苏姿丰认为后者才是业绩的主要增长动力:“随着2024年的到来,我们预计收入将继续按季度增长,而且,这将主要来自人工智能。”
而其中mi300被寄予厚望,将成为该公司“有史以来最快达成10亿美元销售额的产品”。
此前,amd虽然在gpu市场名列第二,但主要应用于图形处理、消费级产品等传统gpu应用场景,在ai和高性能计算领域始终存在感较低。
从mi300的性能指标而言,amd本来已经几乎具备了与英伟达叫板的能力,直到h200横空出世。在h200发布会结束结束后,amd收盘股价下跌1.52%。
在未来,amd想要在如火如荼的ai技术市场中抢得一席之地,面前的压力仍毋庸多言。
至今amd尚未公布mi300的官方定价,但市场预计,为了增加与英伟达的竞争筹码,amd mi300或许不得不延续其在传统gpu市场的性价比路线。
不仅如此,为了完成预期业绩,amd还于10月份在上海启动了一轮裁员“瘦身”。
据一位amd前员工对「市界」透露,本次amd给出的赔偿条件是“n 3”倍的月工资,主要涉及的部门为soc(系统级芯片技术部门)和rtg(radeon系列显卡技术部门)。
一步慢,步步慢
大模型时代,amd等来了一个翻身机遇,只是对这份机遇amd做出的反应还是晚了。
一位在国内高校任职的ai研究人员告诉「市界」:“除了媒体报道的韩国(指该国电信运营商’kt’)使用amd instinct平台运行了ai大模型的新闻,在日常研究里,我还没有接触或了解到使用amd芯片训练的项目。”
这种情况也反映在了市场数据上,据idc调研,2022年中国ai加速卡(即ai训练芯片)出货量约为109万张,其中英伟达在中国ai加速卡市场份额为85%,华为市占率为10%,百度市占率为2%,寒武纪和燧原科技均为1%。根据这组数据,amd的ai训练芯片在国内市场甚至“没有姓名”,沦为其他。
不仅如此,亚马逊aws、谷歌、腾讯云等全球主要云厂商的ai芯片也大多来自英伟达及自研,采用amd产品的占比较小。
追溯形成显著市场差距的原因,可以将目光转向多年之前。
英伟达创始人黄仁勋曾这样总结:“我们很早地,大约在10年前就发现,(ai)这种制作软件的方式可以改变一切。我们从底层一直到顶层,从各个角度改变了公司。”
在一家美国gpu独角兽企业担任市场总监的lee告诉「市界」:“早在2012年,英伟达就开始投入在深度学习的计算了,而且是在全公司范围内贯彻执行。”而这相较业内普遍意识到ai芯片的重要性,至少早了四五年的时间,领先一个身位。
从2016年开始,英伟达旗下的加速计算gpu产品线(代号“特斯拉”)开始专门针对ai训练任务进行设计。这一年推出的芯片型号为p100,同时配备有英伟达新研发的高速互联技术“nvlink”。而nvlink能够允许cpu、gpu芯片间进行高速交互,进一步提升了运算效率,至今仍是英伟达ai芯片中的核心技术之一。
还是在这一年,英伟达向后来推出了chatgpt的openai捐出了一台搭载了8块p100芯片、价值百万的超级计算机“dgx-1”。在这台超算的机箱上,黄仁勋亲手写道:“为了计算和人类的未来,我捐出世界第一台dgx-1。”
后来的种种迹象都表示,这段时间正是人工智能的黄金发展期。正是在2016年,谷歌alpha go击败了围棋大师李世石,被视为ai技术迈上新台阶的重要标志。不仅如此,ai相关产品、硬件、软件等的市场规模已经超过80亿美元,纽约时报评价称“ai已经到达了一个热潮”。
反观同一时期的amd,虽然同样试图在ai方面有所布局,但彼时其重心更多放在cpu业务线上,并未像英伟达一样全面押注。
2016年,amd正式推出radeon instinct系列产品线,旨在加速深度学习、神经网络和高性能计算等方面应用。
然而从产品更新情况而言,amd对旗下ai芯片的设计显然不够“上心”。在之后的4年间时间里,radeon instinct系列虽然不断更新,但始终与amd的消费级显卡radeon公用基础架构,在计算方面缺乏针对性和高效率,难以满足ai训练的需求。
直到2020年,这种情况才有所转变。这一年,amd将ai芯片产品线更名为“instinct”,并首次抛弃了以往的消费级显卡架构,为其采用了专门设计的cnda计算架构。
在此之后,amd连续更新了三代产品mi100、mi200,以及最新发布的mi300。凭借全新的技术路线,以及采取高性价比的市场策略,amd才开始在ai训练市场中有人问津。
只是,在amd“缺席”ai市场的几年里,英伟达已经建立起了极强的生态壁垒。
英伟达建筑的高墙
lee这样向「市界」描述英伟达在ai领域树立的优势:“真正难的并不是说比别人跑的多快,而是围绕着这一个主题,进行全方位点点滴滴的下注,从语言设计到开发者工具这些周边的东西才是最难得的。”
而周边工具一旦被用户所接受,“客户技术迁移的成本将会是难以想象的高”。
资深ai从业者路云的说法也从侧面印证了这一点,据其回忆:“早在大约10年前,我们学校就给高性能计算相关专业的学生开设了基于cuda的课程。”
cuda是英伟达在2006年推出的通用并行计算架构,借助cuda提供的编程接口和工具集等,开发者可以基于gpu芯片编程、运行复杂的ai算法等等。
全球顶尖ai学者、前百度首席科学家吴恩达曾这样评价cuda:“cuda出现之前,全球能用gpu编程的可能不超过100人,有了cuda之后使用gpu就变成了一件非常轻松的事情。”
这样一代代的开发者和研究者,用汗水浇灌出了英伟达的强大生态。换句话说,即使amd mi300的官方性能指标相比英伟达h100体现出优势,后者的生态壁垒仍旧难以逾越,更别提h200展现出了更强的性能指标。
这样的背景下,amd想要逆风翻盘,除了着力补上生态差距,还不得不在市场策略上别出心裁。
生态方面,2016年,amd推出了对标英伟达cuda的rocm架构。据东吴证券研报,由于rocm平台起步晚,其对于gpu加速库的支持没有英伟达cuda全面。cuda的应用场景基本能够覆盖全场景,但rocm更多用于高性能计算领域,对ai的覆盖稍显不足。
至今,amd rocm平台的工具链已经相对完善,并且能够兼容英伟达的cuda平台。此外,为了进一步优化软件生态,amd还在2023年10月份官宣收购了ai软件企业nod.ai。
对此东吴证券研报评论道:amd的软件生态在公司大力投入和其它厂商积极扶持下,有望彻底改善。
另一方面,amd高性价比的市场策略将是其在ai领域的另一大优势。联博资产管理公司的分析师stacy rasgon认为,提供’平替版的英伟达’,将是amd争取市场支持的关键。
ai研究公司cambrian ai research则分析称,大公司需要“第二供应商”的战略将为amd提供机遇:“像openai和微软这样的公司需要有一个能替代英伟达产品的选择,amd可能会给他们一个无法拒绝的提议,但不要指望能从英伟达那里抢走很多份额。”
无论如何,大模型产业疾速发展带来了巨大的算力缺口:根据openai 数据,模型计算量增长速度远超人工智能硬件算力增长速度,两者之间存在万倍差距。
对于长期在ai领域缺乏存在感的amd而言,它正迎来了最好时机。
参考文献
《“饥渴”的ai时代:amd instinct加速器面前是一条“星光大道”》,快科技
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 ,我们会第一时间配合删除。