集微网报道(林美炳/文)近期,人工智能聊天机器人ChatGPT用户数不断攀升,从100万到1000万,再到1亿,仅用两个月,刷新了人工智能聊天程序用户数增长的记录。
ChatGPT有可能改变搜寻市场的游戏规则,AI聊天机器人热潮席卷全球市场。微软Bing 搜寻引擎将整合ChatGPT;Alphabet旗下谷歌搜寻服务将加入AI聊天机器人技术Bard;百度、阿里巴巴、“俄罗斯版谷歌”Yandex、韩国Naver、Kakao等也纷纷涌入,计划发布各自的AI聊天机器人。
AI聊天机器人需要大规模数据学习和快速运算,对AI芯片的需求将暴增,给低迷的半导体行业带来一股暖流,英伟达、三星电子、SK海力士等都将受益。但是英伟达服务器用AI芯片方案存在发热和功耗过大的问题,谷歌、亚马逊AWS、三星电子、SK海力士、百度等科技巨头厂商也在开发各自的AI专用芯片,试图在提升性能的同时降低功耗,抢占AI芯片新高地。
半导体行业人士指出,尽管目前传统AI芯片占据主流,AI专用芯片蓬勃发展,但是它们都遇到了物理极限,AI芯片的未来可能是量子芯片。
英伟达是ChatGPT热潮最大受益者
英伟达是此次ChatGPT热潮的最大受益者,因为英伟达用于服务器的AI芯片对于超大型AI 模型的学习和推理至关重要,几乎垄断全球服务器用AI芯片市场。
Open AI表示,ChatGPT 是与英伟达和微软合作完成的超级AI。 准确地说,微软已经与英伟达合作,在其云(Azure HPC Cloud)中构建了由大量AI芯片组成的超级计算机(HPC)集群,并将其提供给OpenAI。
据了解,用于 ChatGTP 学习和推理的超级计算机拥有 285000个CPU(中央处理器)内核和10000多颗AI芯片。事实上,如果你问ChatGPT是如何学习的,它会回答,“它正在使用英伟达AI芯片学习和执行。”
OpenAI CEO Sam Altman表示,ChatGPT处理用户查询的每笔成本约为2美分。这是引入和使用英伟达AI芯片所需的成本。如果ChatGPT用户数量增加,云和AI芯片的使用将不可避免地增加,这将增加英伟达的销售额和营业利润。
研究人员Uh Gyu-jin表示:“如果说游戏对英伟达的增长作出了贡献,因为高性能GPU被用来驱动现有的高端游戏,那么最近数据中心销售的增长是急剧的,因为GPU已被用作数据中心加速器。”随着超大型人工智能的需求增加,英伟达的销售额和营业利润有望获得大幅增长。
投资者也注意到了这一点,并将英伟达列为ChatGPT热潮的最大受益者。花旗集团分析师Atif Malik预估,ChatGPT可能会在未来12个月内为英伟达带来30亿美元至110亿美元的销售额。
事实上,从今年开始,英伟达在数据中心领域的销售额有望首次超过游戏,占比达到57%。随着人工智能概念被引入数据中心,其销售额占比将大幅提升。特别是在应用人工智能深度学习技术时,收集和分析大规模信息的云服务必须得到有效管理。因此,英伟达GPU安装在需要深度学习技术的地方越来越多,例如,提供云服务的亚马逊、微软、IBM和阿里巴巴。
英特尔和AMD等其他半导体公司也生产用于服务器的AI芯片,但没有英伟达AI芯片并行处理技术(CUDA)的优势,它们的市场份额仅个位数;而苹果、高通等都专注于为智能手机、平板电脑和物联网等边缘设备开发AI芯片,因此英伟达有望在服务器用的AI芯片领域继续占据主导地位。
HBM需求攀升利好三星、SK海力士
英伟达GPU搭载了包括高带宽存储器(HBM)在内的大量DRAM。三星电子、SK 海力士、美光等有望直接或间接受益于英伟达AI芯片需求的快速增长。因为AI半导体需要“HBM3”才能学习和推理,而 AI芯片仅用于推理需要“GDDR6”和“GDDR7”存储器。
ChatGPT等AI聊天机器人执行大量计算的时候需要高性能和大容量内存的支持。随着AI聊天机器人服务市场爆发,对内存的需求将会增加。三星电子和 SK 海力士一致认为,“ChatGPT 等AI聊天机器人服务中长期将对内存半导体市场产生积极影响。”
三星电子指出, HBM数据处理速度比DRAM快,为GPU和人工智能加速器提供数据的高性能高带宽内存 (HBM) 的需求将会扩大。从长远来看,随着AI聊天机器人服务的扩展,对用于CPU的128GB 或更大容量的高性能 HBM 和高容量服务器 DRAM 的需求预计会增加。
SK海力士解释说,从内存的角度来看,AI聊天机器人需要高性能的DRAM和高性能的计算存储设备,可能加快市场重心转向大容量服务器内存的时间。SK海力士提到,服务器内存从64GB迁移到128GB的速度可能更快。
HBM可以消除 CPU、GPU 和内存之间的性能差距造成的瓶颈,补充了现有 DRAM 的局限性,被认为是一种具有前景的下一代内存产品。CPU和GPU的性能每年都在大幅提升,但支撑它们的内存半导体性能却一直相对滞后,HBM 作为替代方案应运而生。目前,通过与中央处理器 (CPU) 和图形处理器 (GPU) 配对,可以明显提高服务器性能的HBM订单正在明显增加。今年第一季度,HBM供应商三星电子、SK海力士相关业务咨询呈指数级增长。特别是SK海力士,客户的需求电话纷至沓来。一位业内人士透露,“目前,英伟达在大部分服务器 GPU产品中都使用 SK 海力士HBM3”。
HBM唯一缺点是价格高。HBM尽管性能出色,但平均售价至少比最高性能的 DRAM 高出三倍,因为生产过程复杂且需要高水平的工艺。HBM2价格是16Gb DRAM的两倍多,SK海力士HBM3价格已飙升了五倍。从存储半导体企业的角度来看,HBM是一个高附加值领域,供应量越大,利润率就越高。
降功耗需开发专用AI芯片
像人脑一样具有大容量学习能力的快速计算并产生结果的超级人工智能系统需要低功耗、高速的人工智能半导体。但是采用英伟达GPU的计算机系统在运行超级人工智能时存在一定技术瓶颈,存在性能下降、发热和功耗过大的问题。一位半导体行业人士表示,“仅以目前的硬件实现人类水平的人工智能是有限度的,因此各大公司都将重点放在低功耗和速度提升上。”
GPU可能会因为与CPU之间的性能差异而出现瓶颈。也就是说,无论GPU多快结束计算,都要完成CPU的运算才能输出,因此整体性能会受到限制。对此,有人提出了在存储器半导体上叠加高运算的智能型半导体(PIM)的必要性。AI芯片可以在内存内部直接进行AI运算,具有速度快、能耗低的优点。在存储芯片领域具有优势的韩国决定在2022年至2028年内投资4027亿韩元开发PIM芯片,以加强人工智能芯片技术。
实际上,AI专用芯片已经成为各国科技巨头争夺的下一个技术高地。
三星电子、SK海力士是韩国攻关AI芯片的主力军。目前,三星电子正在与韩国学术界、美国哈佛大学和加拿大蒙特利尔大学合作研发NPU。去年12月,三星电子公布了与 Naver 合作开发数据中心 AI芯片的计划。SK海力士通过其子公司 Sapion 开发了性能可与英伟达媲美的AI芯片。目前,SK 海力士正在开发下一代 AI芯片,通过加载HBM3内存可以同时进行学习和推理。
美国微软、亚马逊AWS和谷歌云等科技巨头正在努力开发自己的 AI芯片,以确保在AI和云市场中的霸主地位。目前,微软引入了最多的英伟达 AI芯片,而且还在不断加码。亚马逊AWS和谷歌云在推行双轨战略,在大量引入英伟达 AI芯片的同时开发自己的AI 芯片“Inferentia”和“TPU(TensorFlow Unit)”。
国内寒武纪、百度、比特大陆、深鉴科技等企业以及北京大学、清华大学、中国科学院等高校纷纷涌入AI芯片领域。寒武纪近两年发布第三代云端 AI 芯片思元370。比特大陆发布了算丰第三代AI芯片BM1684。百度云智一体3.0的AI IaaS层核心的昆仑芯已量产数万片,实现大规模商业化落地,昆仑芯3代将于2024年初量产。
全球各国科技巨头涌入AI芯片市场,将不断推动AI芯片市场增长。据Gartner透露,2020年AI芯片市场规模为220亿美元,2023年将扩大2.5倍以上,达到553亿美元;预计2026年将增长至861亿美元。
AI芯片突破还需量子芯片
但是目前芯片技术的发展遇到了物理极限,“摩尔定律”放缓,除非量子计算等获得新的突破,否则AI产业的发展步伐可能会停滞不前。韩国电子通信研究院(ETRI)量子技术研究中心高级研究员Park Seong-soo表示,“ChatGPT也可以用大量的计算资源,但如果与未来的量子计算机结合,它将成为一个更高智能的人工智能。”
量子计算机被誉为新一轮科技革命的战略制高点,能够在众多关键技术领域提供超越经典计算机极限的核心计算能力,在新材料研发、生物医疗、金融分析乃至人工智能领域将发挥重要的作用。
但是目前还很难看到量子技术会在10到20年内完全突破,它是如此的困难和不确定。为了克服摩尔定律,美国IBM计划在2023年制造一台拥有1121个量子比特的量子计算机。韩国SK Telecom 也在发展其在量子芯片设计能力,2011年成立了量子技术研究所,进行全面的量子研究,2018年收购瑞士量子密码公司IDQ。国内的本源量子在2021年交付了第一台量子计算机,使我国成为世界上第三个具备量子计算机整机交付能力的国家。