人类文明的繁衍,源自不断探索新的事物,追求过去无法触及的新世界,但人力终有极限,很多未知的神秘,远非人力所能触达。
例如在疫情防控期间,要实现在人群高密集、高流动的车站码头实时测温,传统人检方式效率低下,只能依靠AI技术来大幅提效。再比如在智能制造的场景中,缺陷视觉检测的AI算法得到应用,做到了比传统模式快很多倍的效率和准确率。
当AI在各种各样的场景中,展现出远超人力的能力水平,AI技术也开始逐渐融入到千行百业的数字化转型,并衍生了一大批极高效能的智慧应用。大量智慧应用的出现,则对智慧算力提出了巨大的需求。
在10月26日举办的AICC人工智能计算大会2021上,中国工程院院士、浪潮首席科学家王恩东说,“传统计算力需求是随着业务量线性增长的,但AI算力却是指数级增长的,相关数据显示:2021年GPU的算力总额已超过了CPU,到2025年则会超过80%。AI的规模化发展,算力将是决定性的力量。”
随着智慧时代的方向成为产业界共识,产业智能化的提速势在必行,行业客户对AI算力的需求也从过去的“用得上”,转向为“用得好”。
AI从基础研究到产业落地,还隔着一道鸿沟
从传统计算到智慧计算,整个产业创新正在发生翻天覆地的变革。
首先,从政策层面看,政府将人工智能技术视为产业变革的核心力量,人工智能不仅是技术创新,更是推动经济发展、社会进步、行业创新的重要驱动力。“十四五”规划纲要更是将新一代人工智能作为要攻关的七大前沿领域之一,鼓励加速人工智能前沿基础理论突破、专用芯片研发、深度学习框架等开源算法平台构建。
其次,从落地层面看,中国从人工智能发展伊始,就注重人工智能技术的落地,在应用落地方面保持全球领先水平,在一些应用技术上具有明显的优势。
我们也看到很多行业正因为AI的融入在发生改变,并大幅推动了行业AI的需求。例如得益于视频、城市大脑等AI应用场景的带动,AI在行业渗透,推动了政府、交通、公共事业、健康等行业的智能化提速。浪潮信息与IDC共同发布的《中国人工智能计算力发展评估报告2021-2022》当中最新的调研显示:2021年,人工智能行业应用渗透度排名TOP5的行业依次为互联网、金融、政府、电信和制造。到未来,零售、医疗、媒体、政府、交通等行业都有可能成为未来AI的主导产业。
第三,普惠和安全的算力服务,成为支撑产业智能化的基石。以智能计算中心为代表的算力基础设施的建设和布局也在逐渐提速。例如我国先后批准设立了北京、上海、合肥等 15 个国家新一代人工智能创新发展试验区。智能计算中心被越来越多的地方视为支撑和引领数字经济、智能产业、智慧城市和智慧社会发展的关键性信息基础设施。
当然,任何行业发展都存在这样的现状:未来很丰满,现实很骨感。
我们仍然看到AI算力与实际的应用场景之间有巨大的落差。IDC的《报告》中也提到:人工智能在训练、验证、部署等阶段往往面临应用场景多元化、数据巨量化带来的诸多挑战。尤其是在多元化方面,人工智能芯片将更加细分多元,同时高算力低能耗且适应各类复杂环境的芯片将更受关注。然而,芯片从造出来到大规模用到产业中,往往还隔着一个巨大的产业链鸿沟。
同时,AI人才与行业需求之间存在巨大的落差。科研机构或者头部公司拥有最多的AI人才,但缺少对传统行业场景和业务规律的理解。而70%以上的传统行业则缺少AI技术人才、AI平台和实践能力,限制着人工智能技术上水平、应用上规模、产业上台阶的发展。
“源1.0”,赋能AI“用得好”
2020年5月,Open AI发表了一篇开创性的论文,题为Language Models are Few-Shot Learners,拥有1750亿个参数的GPT-3由此诞生。它的运行规模一度令人难以置信,举个例子:英语维基百科(约600万个词条)仅占其训练数据的0.6%,可见其训练数据集之巨大。
GPT-3 之所以在发布后受到广泛的关注,就是因为它是一个可以面向“巨量化”挑战的大模型。也加快了人工智能迈向大模型时代的步伐。
我们知道,人工智能与行业之间的最大落差就在于通用性。专用AI解决专用的问题容易,但用AI技术解决通用的需求却很难。因为,一个AI模型往往专用于特定领域,应用于其他领域时效果不好,而训练超大规模模型就能一定程度上解决通用性问题,所以大模型就是解决通用AI能力的“良药”。
这也是业界主流的AI企业重兵布局AI大模型的原因,如谷歌、微软、亚马逊、浪潮和百度,都在AI大模型上做了相应的探索。《报告》也指出:机器学习模型发展愈加复杂,大规模成发展趋势,巨量模型将是规模化创新的基础。
而这亦是浪潮发布AI巨量模型“源1.0”的原因。
公开的数据显示:“源1.0”参数量高达2457亿,训练采用的中文数据集达5000GB,相比GPT3 1750亿参数集、570GB训练数据,参数集规模提升了40%,训练数据规模提升近10倍。是全球最大中文巨量模型,规模也已超越GPT-3。
从技术层面简单总结,“源1.0”有几个大的突破。
第一,更大的规模。在算法上,“源1.0”大模型总共用了 2457亿的参数,超过1750亿参数的GPT-3;同时,通过研制高质量文本分类模型,形成新中文数据集生成方法,最终获得5000GB高质量数据集,是迄今业界最大的高质量中文数据集;在算力效率方面,源1.0大模型用4095PD(PetaFlop/s-day)的计算量,获得高达2457亿的参数量。这些数据目前均为业界最高。
第二,更“博学”的AI能力。“源1.0”聚合了AI最强算力平台、最优质的算法模型开发能力,将支撑和加速行业智能的构建,让各个行业具备可感知、自学习、可进化的能力,最终帮助用户完成业务智能转型升级,以具备通用性的智能大模型成就行业AI大脑。
第三,更普惠。浪潮“源1.0”大模型只是一个开始,他只是提供一片广阔的肥沃土壤,浪潮未来将定向开放大模型API,服务于元脑生态社区内所有开发者,供全球的开发人员在其平台上开发应用于各行各业的应用程序
浪潮信息副总裁刘军也表示,“源1.0”将面向科研机构、元脑伙伴、智能计算中心予以开源开放,降低AI开发者和行业用户的使用门槛,以更通用的人工智能大模型赋能科研创新、公共服务智慧化升级和产业AI化应用,赋能千行百业智慧化升级转型。
赋能AI算力“用得好”,万物“源”始,迈向未来智慧世界的大门已经打开。
客户视角与浪潮的未来之局
客观地说,浪潮信息作为AI基础设施的领导者,对于“源”的布局,或许让很多人充满了疑问。
笔者认为,这是一种客户视角的使然。多年来,浪潮信息通过AI服务器、智能计算中心等基础设施与客户产生联接,并不断获取新的需求。因此浪潮信息无比清楚,客户在算法模型上面临的难题。如果只提供基础的AI算力,只解决了客户“用得上”的问题,并没有解决客户“用得好”的问题。
而大模型最重要的优势是可以让算法模型进入了大规模可复制的工业落地阶段,同时不需要开发使用者再进行大规模的训练,使用小样本就可以训练自己所需模型,能够大大降低开发使用成本。这种方式,明显缩短了AI行业落地的时间,也是“源1.0”要解决的当下客户步入AI时代最紧迫的问题。
另外,从浪潮信息的角度。浪潮信息的AI服务器市占率已位居全球第一,并连续四年中国市场占比超过50%,客观地说浪潮信息也需要一个新的目标,去突破原有的领域,向更为综合性AI能力部署挺进。
在过去几年,在深度学习框架领域,浪潮先后推出了深度学习并行计算框架Caffe-MPI、全球首个FPGA高效AI计算开源框架TF2等等,并在全球顶级的AI赛事上也不断取得好成绩,累计获得56个MLPerfTM全球AI基准测试冠军,这些基础研究工作其实已经为“源”的诞生打下了坚实的基础。
因此,我更倾向于认为“源1.0”的发布,是万事俱备,只欠东风。也是浪潮在面向智慧时代发展,必然会迈出的一步。