来源:全球半导体观察 原作者:竹子
近期,一个叫“chatgpt”的聊天机器人在半导体界声名大噪。这个由人工智能实验室open ai在去年11月底推出的ai程序,在上线5天内就收获超100万的注册量,到今年1月末已经突破1亿。
chatgpt的火爆一定程度上缓和了半导体行业的低落气氛,近期市场消息显示,台积电5nm需求突然大增,第二季度产能利用率或将满载。半导体供应链业内人士透露,台积电急单来自英伟达、amd与苹果的ai、数据中心平台,chatgpt的爆火让客户拉货动能上升。
官方表示,chatgpt的“chat”指聊天,就是它的展现形式;“gpt”则代表generative pre-trained transformer(生成型预训练变换模型),即支撑它运行的预训练模型。
总体而言,chatgpt是一种基于大规模语言模型的超智能对话ai产品,无论是讨论当下互联网这种最新的内容创作方式aigc(ai generated contentai生产内容),还是爆火的chatgpt,其本质都是在探讨其背后的ai产业链。
人工智能三大要素分别是数据、算法、算力。基于openai的第三代大模型gpt-3升级而来的chatgpt,其而算力的最终来源也就是芯片,chatgpt的爆火代表着ai芯片技术的新一轮突破。公开资料显示,ai算力芯片泛指加速ai类应用,主要分为gpu、fpga、asic。
01gpu
由于cpu的算力很有限,且处理并行操作比较吃力,因此一般将cpu搭配加速芯片使用。在ai时代的云端训练芯片中,gpu占据较大的份额,被视为ai时代的算力核心。在gpu市场格局上,英伟达、amd、英特尔三家的营收几乎垄断整个gpu行业。
目前,chatgpt背后的计算集群使用的是英伟达的ai芯片。openai曾表示,chatgpt是与英伟达和微软合作完成的超级ai。微软在自己的云——azue hpc cloud中构建了超级计算机集群,将其提供给openai。据悉,该超级计算机拥有285000个cpu(中央处理器)内核和10000多颗ai芯片。
虽然英伟达在此番占据先发优势,但市场上还有很多企业在迎头赶上,如谷歌的张量处理器tpu、百度的昆仑系列、华为海思的昇腾系列、阿里巴巴平头哥的含光800等。
02fpga
fpga(field programmable gate array)又称现场可编程门阵列,是指一种通过软件手段更改、配置器件内部连接结构和逻辑单元,完成既定设计功能的数字集成电路。
fpga芯片在实时性(数据信号处理速度快)、灵活性等方面优势明显,还可以编程、并行计算,在深度学习领域占据不可替代地位。
相比于cpu/gpu/asic,fpga具有更高的速度和极低的计算能耗,常被用作专用芯片的小批量替代品。在ai模型构建时,fpga要实现深度学习功能,需要与cpu结合,共同应用于深度学习模型,同样可以实现庞大的算力需求。
从市场格局看,全球fpga芯片市场中,赛灵思和英特尔两家企业占据了市场大部分的份额,由于fpga芯片拥有较高的技术和资金壁垒,我国企业在该领域上差距较大。近年来,我国领先企业也在fpga芯片芯片上实现了部分技术突破。如去年8月,京微齐力发布首颗国产22nm的fpga芯片并成功量产。
03asic
asic(application specific integrated circuit),即专用集成电路,其计算能力和计算效率可根据用户特定需求进行定制,广泛应用于人工智能设备、虚拟货币挖矿设备、耗材打印设备、军事国防设备等智慧终端。
asic芯片可根据终端功能不同分为tpu芯片、dpu芯片和npu芯片等。其中,tpu(tensor processing unit)为张量处理器,专用于机器学习。dpu(data processing unit),可为数据中心等计算场景提供引擎。npu(neural-network processing unit)是神经网络处理器,在电路层模拟人类神经元和突触,并用深度学习指令集直接处理大规模电子神经元和突触数据。
相比于gpu和fpga,asic缺乏灵活性,特别是在ai、服务器这类领域,在各种算法不断迭代的情况下,asic芯片的特性反而成为了它的累赘。但地平线ceo余凯曾公开表示,一旦软件算法固定下来,专用集成电路asic一定是未来的方向,按每瓦功耗计算能力看,asic可比gpu提升30-50倍,这也将是未来行业的竞争焦点。
目前,国外谷歌、英特尔、英伟达等科技巨头相继发布了tpu、dpu等asic芯片,国内大厂也开始瞄准这一市场迅速发力,比如寒武纪就推出了一系列asic加速芯片,华为也设计了昇腾310和昇腾910系列asic芯片。
总体来看,在aigc(ai generated content,ai生产内容)推动下,ai产业化由软件向硬件切换,半导体 ai生态逐渐清晰,ai芯片产品将实现大规模落地。硬件端核心包括ai芯片/gpu/cpu/fpga/aisoc等,而在ai芯片中,算力及信息传输速率成为关键技术,芯片性能及成本的平衡也带动周边生态,包括hbm/chiplet等产业链受益。
01新兴存储hbm
公开资料显示,ai对话程序在执行计算期间需要大容量、高速的存储支持,业界预计ai芯片发展也将会进一步扩大高性能存储芯片需求。
三星电子就表示,为gpu和人工智能加速器提供数据的高性能高带宽内存(hbm)的需求将会扩大。从长远来看,随着ai聊天机器人服务的扩展,对用于cpu的128gb 或更大容量的高性能 hbm 和高容量服务器 dram 的需求预计会增加。
近日,韩媒报道2023年开年后三星、sk海力士两家存储大厂hbm订单快速增加,价格也水涨船高,市场人士透露近期hbm3规格dram价格上涨5倍。
02chiplet
此外,chiplet技术也不可忽视,其是布局先进制程、加速算力升级的关键技术。chiplet异构技术不仅可以突破先进制程的封锁,并且可以大幅提升大型芯片的良率、降低设计的复杂程度和设计成本、降低芯片制造成本。
目前,chiplet已广泛应用于服务器芯片。amd是chiplet服务器芯片的引领者,其基于chiplet的第一代amdepyc处理器中,装载8个“zen”cpu核,2个ddr4内存通道和32个pcie通道。2022年amd正式发布第四代epyc处理器,拥有高达96颗5nm的zen4核心,并使用新一代的chiplet工艺,结合5nm和6nm工艺来降低成本。
英特尔第14代酷睿meteor lake首次采用intel 4工艺,首次引入chiplet小芯片设计,预计将于2023年下半年推出,至少性能功耗比的目标要达到13代 raptor lake的1.5倍水平。
近期,英特尔全球高级副总裁、中国区董事长王锐接受澎湃新闻记者采访时表示,会与中国客户研究布局类chatgpt算力模式。“我们跟百度、阿里都有非常深的合作,下一步算力如何帮助我们建立新的模式都是值得期待的。”
在全球数字化、智能化的浪潮下,智能手机、自动驾驶、数据中心、图像识别等应用推动ai芯片市场迅速成长,未来将有更多企业聚焦到ai芯片生产上来。
封面图片来源:拍信网