• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

人工智能行业策略报告:把握赋能、创新与安全三条主线

  • 未来智库
  • 2023年1月05日07时

(报告出品方/作者:中信建投证券,阎贵成、于芳博)

一、人工智能行业简介及投资策略

1.1 人工智能发展历史:一波三折,深度学习引领第三次发展浪潮

人工智能第一次发展浪潮:推理与搜索占据主导,但由于当时机器计算能力的不足而经历了第一次低迷期。人工智能(Artificial Intelligence,缩写 AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技 术及应用系统的一门新的技术科学。这一概念最早由麻省理工学院的约翰·麦卡锡在 1956 年的达特茅斯会议上 提出,随之迎来了人工智能的第一次发展浪潮(1956-1974)。这一时期的核心在于让机器具备逻辑推理能力, 通过推理与搜索尝试开发能够解决代数应用题、证明几何定理、使用英语的机器。该阶段的成果几乎无法解决 实用问题,另外实际应用中人工智能计算量的增长是惊人的,特别是模拟人类感知带来的巨大运算量远超 70 年 代的计算能力,因此人工智能经历了第一次低迷期。

人工智能第二次发展浪潮(1980-1987):专家系统开始商业化,场景局限性限制其发展。这一时期的核心 是基于“专家系统”思想,让 AI 程序能解决特定领域问题,知识库系统和知识工程成为了这一时期的主要研究 方向,专家系统能够根据该领域已有的知识或经验进行推理和判断,从而做出可以媲美人类专家的决策。典型 代表如医学专家系统 MYCIN,MYCIN 具有 450 条规则,其推导患者病情的过程与专家的推导过程类似,开处 方的准确率可以达到 69%,该水平强于初级医师,但比专业医师(准确率 80%)还是差一些。随着人们发现专 家系统具有很强的场景局限性,同时面临着升级迭代的高难度和高昂的维护费用,因而 AI 技术发展经历了第二 次低迷期。

从 1993 年开始,AI 技术步入了第三次发展浪潮:深度学习引领浪潮。这一时期,计算性能上的障碍被逐步克服,2006 年深度学习这一重要理论被提出,并解决了训练多层神经网络时的过拟合问题。2011 年以来,深 度学习算法的突破进一步加速了 AI 技术发展的第三次浪潮,标志性事件是 2012 年 ImageNet 图像识别大赛,其 深度 CNN 网络的错误率仅为 15%左右,远远好于第二名支持向量机算法的 26%,这一结果迅速点燃了产业对 神经网络和深度学习的兴趣,深度学习也快速的实现了商业化。

1.2 人工智能产业链:关注 AI 芯片国产化,看好 AI 与金融、工业和医疗等方 向结合

人工智能产业链:主要分为基础层、技术层和应用层。基础层主要包括人工智能芯片、传感器、云计算、 数据采集及处理等产品和服务,智能传感器、大数据主要负责数据采集,AI 芯片和云计算一起负责运算。技术 层是连接产业链基础层与应用层的桥梁,包括各种深度学习框架、底层算法、通用算法和开发平台等。应用层 则是将人工智能进行商业化应用,主要提供各种行业解决方案、硬件和软件产品。



基础层之 AI 芯片:CPU 凭借通用性,依然在 AI 训练中占据重要位置;GPU 凭借生态优势和强大的计算 能力在 AI 应用中占据主导地位,FPGA/ASIC 未来占比将不断提升。AI 芯片是 AI 加速服务器中用于 AI 训练 与推理的核心计算硬件,主要可以分为 CPU/GPU/FPGA/ASIC/NPU 等。CPU 是目前常见的计算单元,具有很高 的灵活性,但在大规模运算方面的性能和功耗表现一般。GPU 因具有大规模的并行架构而能够在 AI 计算任务 中实现较好的性能表现,但同时他会带来不菲的能耗成本。ASIC 指的是人工智能专用芯片,在 AI 任务中有着 最优秀的性能表现,其缺点是灵活性较低同时具有高昂的研发成本和能耗成本。与 ASIC 相反的是灵活性很高 的可重复编程芯片 FPGA,其高效的异步并行能力帮助其在 AI 计算加速中扮演重要的作用,但其成本较高。目 前,GPU 因其更强的计算能力和更为成熟的编程框架(如 CUDA、OpenCL 等),已经成为当前 AI 应用中的重 要处理器和通用解决方案,而 FPGA 和 ASIC 则在特定的应用场景下有着各自的优势。AI 芯片国产替代空间大。AI 芯片是目前人工智能产业链中与国外差距较大的一个环节,CPU 基本被 Intel 和 AMD 所垄断;GPU 基本被英伟达、AMD 所垄断;FPGA 全球 90%份额集中在 AMD(Xilinx)、Intel(Altera) 和 Lattice 等公司。

除 AI 芯片以外,基础层还包括光学、声学传感器,公司包括舜宇光学、禾赛科技等;计算平台主要指的是 能够为人工智能计算提供所需的专用算力的数据计算中心,主要包括浪潮、阿里云、腾讯云、华为云等。数据 服务主要指的是为各业务场景中的 AI 算法训练与调优而提供的数据库设计、数据采集、数据清洗、数据标注与 数据质检服务,主要公司包括海天瑞声、爱数智慧、云测、标贝科技等;硬件设施主要指的是 AI 芯片和传感器。

技术层为包括核心算法在内的关键技术研发和生产企业,主要分为 AI 软件框架、理论算法、通用技术三 个方面。软件框架简单来说就是库,编程时需导入软件框架,里面有各种模型或算法的一部分,主要提供给使 用者设计自己的 AI 模型。目前市场上主要的深度学习开源框架有 Google 的 TensorFlow、Facebook 的 Pytorch, 而国内企业参与 AI 软件框架开发较晚,主要有百度的飞桨 PaddlePaddle、腾讯 Angel 等。底层算法典型代表如 GNN、CNN、RNN、Transformer 等底层理论,相关参与方包括 DeepMind、OpenAI、阿里达摩院等。通用技术 主要指的是感知、认知、思维、决策等不同的应用方向的技术,包括计算机视觉、自然语言处理、知识图谱、 推荐系统等,相关公司包括商汤科技(计算机视觉)、云从科技(计算机视觉)、科大讯飞(自然语言处理) 等。随着底层理论算法的不断创新和通用技术的不断成熟,人工智能算法模型所需算力呈现指数级增长趋势。2012 年以前,模型的算力需求以接近摩尔定律的速度增长(两年翻一倍)。2012 年以后,模型训练所需计算量 增长接近一年翻 10 倍。



应用层:安防占据 AI 应用主要场景,金融应用 AI 较好,医疗、工业具有一定快速应用前景。在应用场景维度,目前人工智能已在安防、金融、教育、交通、医疗、家居、营销等多垂直领域取得一定发展,尤其是 AI+ 安防、金融、交通领域发展较快,典型公司有海康威视、商汤科技等;应用产品维度广阔,包括自动驾驶汽车、 无人机、智能语音助手、智能机器人等,典型公司包括小马智行、科大讯飞等。从下游需求方来看,安防依然 占据着 AI 主要需求,金融赛道则是下一个应用较好的场景,金融行业本身有较好的信息化基础以及数据积累, 并且对精准营销、智能风控、反欺诈和反洗钱等机器学习产品有强烈需求,因此金融赛道应用 AI 较好。医疗、 工业等赛道未来具有一定快速增长潜力,如 AI 在新药研发、手术机器人等领域的应用,工业领域也从机器视觉 质检进一步拓展至更多领域。

从整体市场规模上来看,人工智能行业整体市场呈现稳步增长的趋势。2021 年全球市场人工智能市场收入 规模(含软件、硬件及服务)达 850 亿美元。IDC 预测,2022 年该市场规模将同比增长约 20%至 1017 亿美元, 并将于 2025 年突破 2000 亿美元大关,CAGR 达 24.5%。中国人工智能市场规模(含软件、硬件及服务)达 82 亿美元,占全球市场规模的 9.6%,在全球人工智能产业化地区中仅次于美国和欧盟,位居全球第三。数据显示, 中国人工智能市场规模由 2016 年的 154 亿元增长至 2020 年的 1280 亿元,年均复合增长率为 69.9%。2022 年中 国人工智能市场规模将达 2729 亿元。

计算机视觉和自然语言处理是商业化落地较快的两项人工智能通用技术。计算机视觉相关技术已经十分成熟,技术落地效果超过人类水平,目前国内有 35%的 AI 企业聚集计算机视觉领域,2020 年市场规模近千亿, 在所有领域中占比最高,是目前最具商业化价值的 AI 赛道。自然语言处理技术逐步实现从学术研究发展到商业 应用推广的转变,核心产品及带动的相关产业规模均稳步增长,2021 年自然语言处理核心产品规模预计达到 219 亿元,相关产业规模达到 514 亿元,未来几年年增长率均维持在 20%左右。



1.3 人工智能产业 2023 年投资策略

人工智能本质上是工具,要结合算法成熟度、数据积累和算力情况等多方面去判断其在不同领域的应用情 况,同时下游行业发展的不同周期也一定程度上影响 AI 的应用,我们认为未来 AI 投资方向主要来自四个方面:

第一,算法相对比较成熟,数据训练也达到商业化要求,处于从 1 到 N 渗透的阶段,典型的如深度学习算 法在金融、教育、工业等领域的应用,重点关注教育行业复苏以及工业领域的 AI 应用。深度学习在视觉、自 然语言处理均属于发展多年且成熟度较高的算法,随着数据的不断积累和硬件边际成本的降低,在该领域不断 渗透,尤其是以安防、金融、教育和工业等领域渗透较好。展望明年,我们认为,安防、教育等行业今年受疫 情以及政府支出缩减等影响,明年有望复苏,同时受益于财政补贴等因素影响。工业和 机器视觉的结合,是未来几年 AI 应用最重要的方向之一,核心成长逻辑有三方面:一是下游高成长带动需求, 如新能源领域快速发展带动了相关智能视觉检测设备;二是国产替代,成本叠加服务优势,有望逐步替代基恩 士、康耐视等;三是新冠疫情下,制造业对机器替代人的诉求更强了,该领域公司都具备品类拓张的能力。由 于多数工业领域的机器视觉公司主要收入来自消费电子领域,今年受下游需求影响增速较慢,明年有望复苏。

第二,算法尚不成熟,数据积累量不够,算力也刚刚突破,整体看仍处于从 0 到 1 阶段,典型的如自动驾 驶。我们认为智能驾驶是明年重要景气赛道之一:一是展望明年,消费需求有所复苏;二是智能驾驶的渗透率 继续提升,明年下半年比亚迪、广汽 Aion、吉利极氪等传统车厂明年都会有硬件达到 L4 级别的自动驾驶车型 量产;三是人民币进入升值通道,板块毛利率将逐步修复。因此,明年整个板块在总量、渗透率还有盈利水平上都将有向好的边际变化。

第三,新算法的应用,实现从 0 到 1,创造出新的需求。如 Diffusion Model(扩散模型)的推出,基于扩 散模型的文本生成图像模型越来越多,并很快扩展到文本生成视频、文本生成 3D、文本生成音频等,创造出 新的业态和应用。

第四,AI 软硬件平台的国产化比例提升。在中美贸易战、科技战持续深化的背景下,加强对卡脖子的关键 核心技术研发的支持,加速国产替代的步伐,重点看好 FPGA、EDA 等细分板块。

二、人工智能算法

2.1 深度学习引领风潮

深度学习是多层人工神经网络和训练它的方法。人工智能是个大范畴,机器学习是人工智能的一个研究分 支——通过计算模型和算法从数据中学习规律,机器学习有很多种算法,包括神经网络、kNN、朴素贝叶斯、 支持向量机(SVM)等算法。其中,神经网络经过不断的迭代,从一层迭代到多层,因此可以实现更准确的判 断,标准性事件是 ImageNet 图像识别比赛中,深度神经网络战胜支持向量机算法,并在此后逐步超越人类。其 中,深度学习的理论基础就是神经网络,神经网络层数够深就可以称为深度模型。

深度学习是过去十年 AI 研究最热方向,也是商业化应用最广泛的算法之一。根据人工智能发展报告(2020) 数据显示,过去十年中,有 5405 篇以卷积神经网络为研究主题的论文在人工智能国际顶会顶刊论文中发表, 其总引用量达 299729,并且在这些顶会顶刊论文引用量排名前十的论文中出现过 125 次,是 2011-2020 年最热 门的 AI 研究主题。深度学习通过学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字, 图像和声音等数据的解释有很大的帮助。深度学习在包括计算机视觉、自然语言处理、推荐系统等相关领域都 取得了优异成果。



神经网络的研究是深度学习发展的基础,上个世纪 50-60 年代神经网络只能处理线性分类,因此应用领域 狭窄,使得神经网络研究陷入 20 年停滞。在深度学习概念被明确提出之前,针对神经网络的研究为后续深度学 习的提出和发展完成了基础性工作。第一代神经网络从 1958 年感知机算法被提出开始,其可以对输入的多维数 据进行二分类,并通过梯度下降(使网络的预测值与网络的实际/期望值之间的差异不断缩小)的方法从训练样本中自动学习更新权值(模型进行分类的参数),由此引发了第一次神经网络研究的热潮。1969 年,Minsky 在 著作中证明了感知机本质上只是线性模型,对于即使是最简单的非线性问题都无法正确分类,随后导致了对神 经网络的研究陷入了近 20 年的停滞。

上个世纪 80-90 年代神经网络具备持续优化和解决非线性能力后,开启第二代神经网络研究热潮,但由于 存在梯度消失问题,研究也逐渐冷淡。Hinton 于 1986 年提出了反向传播算法(从最后输出的神经元开始,反向 更新迭代每一个神经元的权值,计算当前数据通过神经网络后的结果与实际结果的差距,从而根据差距进行参 数优化),并采用 Sigmoid 作为激活函数进行了非线性映射,让神经网络具有了解决非线性问题的能力,由此 开启了第二代神经网络研究热潮。但后续由于神经网络缺乏相应的严格数学理论支持,甚至被指出存在梯度消 失问题(随神经网络层数增多,靠近输入层的层之间的权重无法得到有效修正),严重影响深度神经网络的训练 效率和效果,因而神经网络的第二次热潮也逐渐冷淡。这一时期中,也出现了具有革新意义的模型,如 CNN-LeNet 和 LSTM 模型,其分别在手写数字识别、序列建模两个方面取得了良好效果,但由于神经网络研究整体处于下 坡而并没有引起足够关注。解决了梯度消失以及利用 GPU 进行深度学习训练后,深度学习图像识别准确率大幅提升,掀起深度学习 第三次研究热潮,并持续至今。2006 年 Hiton 提出了梯度消失的解决方案以及利用 GPU 进行深度学习训练,首 次提出了深度学习这一概念。2011 年,新的 ReLU 激活函数被提出,有效抑制了梯度消失的问题。2011 年,微 软首次将深度学习应用在语音识别上,取得了重大突破。2012 年,Hiton 课题组参加 ImageNet 图像识别比赛, 其深度学习模型 AlexNet 夺得冠军,识别率远远超越了基于 SVM 方法的第二名。理论上的不断完善和硬件算力 (GPU)的突破共同在全世界范围内掀起了研究深度学习的热潮并持续至今。

2012 年开始,在计算机视觉领域内,深度学习不断迭代出性能更好的架构。如 2014 年的 VGG、GoogleNet。与之前的模型相比,VGG 通过增加网络深度的方法,在一定程度上提升了神经网络的效果。其中 VGG-16 包含 了 16 层,参数量达到了 1.38 亿。而 GoogleNet(Inception)则采用宽度代替深度,并引入了模块化思想,其核 心思想是分别用不同大小的卷积模块对前层的输入进行运算,再对各个模块运算的结果进行通道组合。最终 GoogleNet(Inception)以远小于 VGG 的参数量实现了相当的性能效果。



2015 年的 ResNet 通过残差结构进一步优化了神经网络的性能,而后 MobileNet 的提出让神经网络嵌入到 移动端成为可能,NAS 和 RegNet 等算法及模型的应用,使得神经网络可以由机器自动设计。ResNet 的核心思 想在于在输出跟输入之间引入一个短路连接(残差模块),让每一层的输入在网络深度增加的时候也能得以保 留,进而解决了由于网络深度过大带来的梯度消失问题,让训练出成百上千层的神经网络成为可能。2017 年, 谷歌团队提出 MobileNet 这一轻量级网络结构,相比于传统的卷积操作能够大大的减少参数量和提高网络运行的特性,进而让其能够有效嵌入到移动端使用的网络模型中。2019 年开始,神经网络架构搜索(Neural Architecture Search,简称 NAS)开始兴起,核心思路是从手工设计神经网络到机器自动设计神经网络。此后,RegNet 进一步 优化这种机器自动设计神经网络的过程,RegNet 也是搜索最优的网络结构,但是又与 NAS 有明显区别,NAS 在定义的搜索空间内找到一个最优网络,RegNet 则是在一个巨大的初始搜索空间中,不断缩减,最终获得一个 高性能模型更加集中的子空间,在这个过程中,发掘网络优化准则,增强网络优化的可解释性。

自然语言处理领域中的 Transformer 结构的提出是深度学习发展过程中的重要里程碑,为后续深度学习的 进一步发展奠定基础。2017 年,为 NLP 下游任务中的机器翻译而提出的 Transformer 模型成为了新的重要创新。其利用多个注意力模块的组合,让神经网络得以利用有限的资源从大量信息中快速筛选出高价值信息,不断提 取并学习目标对象中更为重要的特征,进而实现性能的提升。后续 OpenAI 和 Google 基于 Transformer 分别提出 了 GPT 和 BERT,提升了诸多自然语言处理下游项目的最优性能。后续 Transformer 强大的特征提取能力被包括 计算机视觉在内的其他人工智能领域广泛采用,其核心注意力模块逐渐成为深度学习中不可或缺的部分,大幅 推进了各领域人工智能算法的性能表现。后续人工智能深度学习中的大部分模型框架也都是建立在 Transformer 的基础上,包括引发热议的 GPT-3 和 ChatGPT(2.3 节)。至此,深度学习便从最初简单的感知机算法,简单 的神经网络,发展到目前参数量达到数千万亿的庞大而复杂的神经网络,成为当下人工智能技术、应用、产业 中的主流解决方案。

深度学习这一技术所展现出来的变革世界的潜力超越了过去的科技创新,预计将以前所未有的方式改变世 界的生产生活方式,创造大量的经济价值。根据 ARK 数据显示,过去二十年来,互联网为全球股票市值增加了 13 万亿美元。而截至 2020 年,深度学习已经创造了 2 万亿美元的市值。根据 ARK 测算,深度学习将在未来 15-20 年内,为全球股票市场增加 30 万亿美元的市值。



2.2 计算机视觉:AI 下游最好的应用方向

计算机视觉是“赋予机器自然视觉能力”的学科。实际上,计算机视觉是研究视觉感知问题的学科:视觉 感知是指对“环境表达和理解中,对视觉信息的组织、识别和解释的过程”。核心问题是研究如何对输入的图 像信息进行组织,对物体和场景进行识别,进而对图像内容给予解释。更进一步的说,就是指用摄影机和计算 机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成为更适合人眼观 察或传送给仪器检测的图像。从计算机视觉的整理发展历程上来看,在研究对象的丰富、研究方法的革新、研究数据的完善等过程中不 断发展。50 年代,主题是二维图像的分析和识别。60 年代,开创了三维视觉理解为目的的研究。70 年代,出 现课程和明确理论体系。1989 年,Yann LeCun 将一种后向传播风格学习算法应用于卷积神经网络结构。在完成 该项目几年后,LeCun 发布了 LeNet-5——这是第一个引入我们今天仍在使用的一些基本成分的现代网络。90 年代,特征对象识别开始成为重点。21 世纪初,出现真正拥有标注的高质量数据集。随后便是 Hinton 提出深度 学习,其学生于 2012 年赢得 ImageNet 大赛,让 CNN 真正家喻户晓,也让深度学习方法计算机视觉研究领域流 行,在应用端实现了百花齐放。

计算机视觉领域中早期的重要算法同时也是深度学习发展中的重要革新(2.1 节),后续计算机视觉在内容 生成、特征提取两个方面又向前迈出了一大步。2018 年末,英伟达发布的视频到视频生成(Video-to-Video synthesis),其通过精心设计的发生器、鉴别器网络以及时空对抗物镜,合成高分辨率、照片级真实、时间一致 的视频,实现了让 AI 更具物理意识,更强大,并能够推广到新的和看不见的更多场景。2019 年,更强大的 GAN, BigGAN 被提出,其拥有更强的学习技巧,由它训练生成的图像连它自己都分辨不出真假,被誉为史上最强的 图像生成器。2020 年,随着 VIT 的提出,Transformer 开始在计算机视觉领域进行应用,颠覆了传统的 CNN 结 构,后续 Swim-Transformer 被提出,通过分而治之的思想解决了 Transformer 应用到图像领域时面临的:视觉实 体变化大影响不同场景下性能和图像的高分辨率带来的高计算量问题,在计算机视觉的多个下游任务中实现了 对 CNN 结构的压倒性优势。

随着计算机视觉算法和技术的不断成熟,下游应用场景也逐步渗透和拓展。从 2018-2021 获得投资的计算 机视觉企业来看,其业务领域遍布公安、交通、金融、工业、医疗等各行各业。从核心产品和产业规模来看, 计算机视觉产品技术在泛安防中的应用深受政策及财政支持,多年以来一直是计算机视觉乃至整个国内人工智 能产业实际落地的重要基石。2021 年,国内泛安防领域计算机视觉核心产品市场规模已达到 531 亿元,占计算 机视觉总核心产品规模的 70.7%,这一领域的代表公司有商汤科技、海康威视、大华股份;金融领域主要通过 计算机视觉产品技术完成人脸识别、证照识别及行为动作检测等工作,代表公司有云从科技(人脸识别),格 灵深瞳(行为动作识别);医疗领域中,主要借助计算机视觉技术进行 AI 医学影像辅助诊断及新型智能医疗器 械开发,代表公司为依图科技;互联网领域中,计算机视觉算法技术主要基于 AI 技术开放平台,通过 API 调用 模式开放给更广泛的开发者,代表平台有阿里云(阿里巴巴)、腾讯云(腾讯)、华为云(华为)。工业领域 中,视觉算法被应用在生产过程中的工况监视、成品检验、质量控制等方面,主力打造生产制造智能化,主要 代表公司为凌云光(零件生产监测)、奥普特等。随着计算机视觉相关技术及硬件设施的加速发展与成熟,以 及各行业数字化程度的不断提升,计算机视觉有望在更多具体场景中创造更大的经济价值。



从竞争格局上分析,目前中国计算机视觉行业主要分为三大阵营:1)AI 算法公司,多以细分赛道为具体 发力点,提供定制化的解决方案,代表企业为“CV 四小龙”商汤科技、旷视科技、云从科技、依图科技及格灵 深瞳等;2)互联网巨头,借助更完整的产业生态逐步在各个领域进行渗透,代表企业包括阿里巴巴、百度、腾 讯、华为等;3)传统安防巨头,在云边融合的架构下,借助原有的硬件优势和市场优势,逐步引入算法,研发 智能化解决方案,代表公司包括海康威视,大华股份等。目前我国计算机视觉市场呈现出市场集中度高的特点, 以“CV 四小龙”为代表的头部企业已逐渐占据国内 CV 的主要市场份额,2020 年,商汤科技市场份额排名第 一,达到 17.4%;其次为旷视科技,市占率为 15.2%;云从科技及依图科技分别占比 9.8%、9%。目前 CV 四小 龙等公司凭借算法享有一定的先发优势,但随着计算机视觉技术进一步走向具体场景的商业化应用,在场景应 用层面享有更多资源的互联网巨头和拥有硬件优势的传统安防巨头也将获得更大发展机会,未来的核心比拼仍 将是应用端的商业化落地。

2.3 AIGC 成为人工智能新方向,扩散模型引发研究热潮

AIGC 即 AI-Generated Content,是一种新的内容生产方式。AI 从理解内容,走向了可以生成内容,甚至 能够创造出独立价值和独立视角的内容。事实上,使用计算机生成内容的想法自上个世纪五十年代就已经出现, 早期的尝试侧重通过让计算机生成照片和音乐来模仿人类的创造力,但是与当今合成媒体不同的是,早期阶段 生成的内容很容易与人类创建的内容区分开来。人工智能经历数十年的重大飞跃,目前使用计算机生成的内容 已经达到高水平的真实感。根据中国信通院划分,AIGC 经历了早期萌芽阶段(1950s-1990s),沉淀积累阶段(1990s-2010s)以及快 速发展阶段(2010s-至今)。其中,早期萌芽期受限于科技水平,AIGC 仅限于小范围实验,并没有取得重大 突破,例如通过将计算机程序中的控制变量换成音符完成了历史上第一支由计算机创作的音乐作品——弦乐四 重奏《依利亚克组曲(Illiac Suite)》,或者世界第一款可人机对话的机器人“伊莉莎”等。沉淀积累阶段受益 于深度学习的重大突破,自然语言处理、语音识别等领域开始向实用性转变,例如此阶段诞生了全世界第一部 完全由人工智能创作的小说;微软推出全自动同声传译系统。快速发展时期,AIGC 迎来百发齐放阶段,该阶 段人工智能算法可以生成极高质量的图片、视频、绘画作品等。

AIGC 当前快速发展得益于生成模型的飞跃。与用于监督任务的判别模型不同的是,生成模型通过学习某 个样本生成的概率对新数据进行建模,即判别模型可以识别图像中的人,而生成模型可以生成一个以前从未存 在过的人的新图像。生成模型的飞跃是 GAN(生成对抗网络)的出现,自 GAN 推出后,AI 生成的媒体模型已 经实现了逼真的合成,包括照片级图像的生成、声音克隆以及面部识别等。AI 内容创作也已经完成了从文字到 图画再到视频的跃迁。

GAN 网络包括两部分,一个生成器和一个判别器。生成器负责生成类似输入数据的新内容,判别器是将生 成的输出与真实数据区分开来,这两个部分在一个 GAN 网络反馈循环中相互竞争并试图超越对方,导致生成输 出的真实性逐渐增加。在 GAN 网络基础上有两个经典的延伸,一个是 StyleGAN,能够通过将图像不同部位进 行区分,从而能够直观控制生成图像的细节;另外一个是 in-domain GAN,支持对 GAN 生成图像进行编辑,从 而可以在现有图像进出上进行增添元素。除了用于图像处理上,GAN 网络也被用于视频配音、图像动画等应用 中。AIGC 中,文本生成领域也得益于 GPT-3 等语言模型的出现而大放异彩,GPT-3 在用于文本处理之外,也 可以用于文本到图像的生成。



AIGC 已被广泛用于多种行业,包括娱乐、客户服务与营销。例如在移动程序 Reface 中,用户能够在视频 剪辑和 GIF 中换脸以与朋友分享;在 Pinscreen 上创建 AI 虚拟助手,在直播中进行面部替换;甚至于可以在视 频中生成嘴唇运动模型,从而允许将视频翻译成另外一种语言,嘴唇运动和配音之间没有任何明显差异。根据 Capterra 调研显示,虽然只有 33%的营销人员使用 AIGC,但大多数都对 AIGC 内容质量都感到满意。

AIGC 领域投资力度空前。AIGC 文字生成领域,负责文字生成的 AIGC 公司彩云小梦、聆心智能获得了天 使轮融资,Jasper.ai 更是在 A 轮融资阶段获得了 1.25 亿美元的融资,估值 15 亿美元。AIGC 图像生成领域,负 责 AI 作画的初创公司诗云科技先后获得了天使轮、Pre-A 轮融资,ZMO.AI 获得了 800 万美元的 A 轮融资,英 国开源人工智能公司 Stability AI 获得了 1.01 亿美元的融资,目前该公司估值高达 10 亿美元,成为了行业独角 兽。AIGC 视频生成领域,负责产出视频的小冰公司 A 轮融资由高瓴资本领投,目前估值超过 10 亿美元,Meta 的新产品Make-A-Video也可以直接通过文字生成视频,谷歌也推出了生成视频的 AI模型Imagen Video、Phenaki。

扩散模型(Diffusion Model)正引起 AIGC 领域新一波浪潮。生成模型主要包括 GAN(生成对抗网络)、 VAE(变分自编码器)、基于流的模型以及扩散模型等。GAN 模型具有对抗性训练性质,具有潜在的不稳定训 练和较少的生成多样性;VAE 依赖于替代损失;基于流的模型必须使用专门的体系结构来构建可逆变换。扩散 模型的灵感来自非平衡热力学,模型定义了一个扩散步骤的马尔可夫链,在正向扩散过程中,将随机噪声添加 到数据中,然后学习反向扩散过程,从噪声中构建所需的数据样本。与 VAE 或基于流的模型不同,扩散模型是 通过固定过程学习的,并且潜在变量具有高维性。在 web of science 平台上,通过关键字“diffusion model”在 web of science 核心合集数据库中按照主题检索(检索时间为 2022 年 11 月 30 日),2020 年相关主题论文为 446 篇,2021 年相关论文 456 篇,为近二十年高峰。



扩散模型成为 ICLR 热门关键词之一。根据人工智能顶级会议 ICLR 2023 发布的评审结果,扩散模型成了 今年ICLR的热门关键词之一,以扩散模型为研究主题的投稿论文数量出现暴涨。扩散模型引发了席卷式的 AIGC 热潮,今年 4 月 OpenAI 发布文本生成图像模型 DALL·E 2,之后谷歌推出 Imagen,直接对标 DALL·E 2,文本 生成图像领域开始出现激烈竞争。今年 8 月,初创公司 Stability.AI 发布深度学习文生图模型 Stable Diffusion, 开源后更是一石激起千层浪,后续基于扩散模型的文本生成图像模型层出不穷,并很快扩展到文本生成视频、 文本生成 3D、文本生成音频等。

扩散模型主要包括三个子类别,已应用于各种生成建模任务。第一类扩散模型为 DDPM(去噪扩散概率模 型),DDPM 是一种潜在变量模型,利用潜在变量来估计概率分布,可以看做是一种特殊的 VAE;第二类扩散 模型是 NCSN(噪声条件评分网络),通过评分匹配训练共享神经网络来估计不同噪声水平下受扰数据分布的 评分函数;第三类扩散模型是 SDE(随机微分方程),代表模拟扩散的方式。当前扩散模型已用于各种生成建 模任务,如图像生成、图像超分辨率、图像填充、图像编辑等领域。未来,扩散模型将在图像去雾化、视频异 常检测、物体检测、视频模拟等领域有所突破。

2.4 NLP 发展情况

自然语言处理(natural language processing,NLP)是基于自然语言理解和自然语言生成的信息处理技术, 近些年来,自然语言处理在机器翻译、智能语言助手、文本自动分类都取得了突破性进展。1950 年,图灵发表论文“计算机器与智能”,其中提到著名的用于衡量机器智能程度的图灵测试,可以被 认为是自然语言的开端,自然语言处理的技术发展大致可以分为三个阶段:规则—统计—深度学习。20 世纪 50年代到 90 年代,研究人员重点关注语言的规则,从语言学的角度来解析自然语言的规则结构,从而实现自然语 言的处理,但是这个阶段还不能处理复杂的语言问题,因而没有太大的应用价值。20 世纪 90 年代以后,随着 互联网的高速发展,语料库的日益丰富、计算机运行速度的提升以及统计方法的成熟,极大地推动了自然语言 处理技术的发展。

2006 年深度学习算法提出,随后很快被应用到自然语言处理领域,取得了惊人的成绩和广泛的应用。诞生 了多种神经网络语言模型,包括多层感知机(MLP)、卷积神经网络(CNN)、循环神经网络(RNN)和长短 记忆(LSTM)网络,但是都存在一定的不足,MLP 难以捕捉局部特征,CNN 难以获得远距离特征,RNN 难 以充分利用并行计算加速,LSTM 减少了网络的层数,相对来说更容易优化。2017 年,采用注意力机制的 Transformer 模型被引入到自然语言处理以后取得了极大的成功。注意力机制 更加关注上下文的相关程度和深层的语义信息,因而 Transformer 模型在长距离建模和训练速度方面都优于传统 的神经网络模型。近年来,在 Transformer 模型的基础之上,衍生出了 GPT、BERT 等超大规模的动态预训练语 言模型,除此以外,还有基于 Word2vec 的词向量方法提出的 ELMo 模型也得到了大规模的应用,ELMo 考虑了 上下文的词向量表示,较好的解决了多义词的问题。

GPT 模型是 OpenAI 公司于 2018 年 6 月提出的动态预训练模型,版本也在不停更新迭代,最新版本 GPT-3 是目前最为强大的预训练模型之一,于 2020 年 5 月提出。GPT 每代模型的参数数目不断提升,初始 GPT 版本 只有 1.17 亿个参数,GPT-2 参数超过 10 亿,GPT-3 参数高达 1750 亿,使用了高达 45TB 的训练样本。GPT-3 已经商业化落地,基于 GPT-3 产生的 APP 达 300 多个,覆盖传媒、营销等领域,OpenAI 以 API 的形式向开发者提供有偿的 GPT-3 模型使用权限,按照 token(1000 tokens=750 words)使用量收费,1000 tokens 收费在 0.0004~0.2 美元之间。BERT 模型由 Goegle 于 2018 年 10 月提出,BERT 使用包含 1.1 亿个参数的 BERTBASE 和包含 3.4 亿个参数 的 BERTLARGE,在自然语言识别的 SQuAD 测试中,BERT 模型的表现甚至超越了人类。基于 BERT 模型衍生出 了更多具备特定优势的模型,例如增强长文本理解能力的 XLNet,具备强大文本生成能力的 BART 等。

随着预训练语言模型的提出和计算机算力的快速提升,自然语言处理技术已经进入全新的发展阶段。预训 练模型通过无需人工标注的大规模文本库进行高算力的预先训练,得到通用的语言模型和表现形式,再经过特 定应用环境对预训练模型进行微调,从而在各种下游应用领域得到目标任务的快速收敛和准确率提升。各种预 训练语言模型还在快速的更新迭代,不断刷新自然语言处理任务的表现记录,预训练模型已经在自然语言处理 中得到了广泛应用。当前自然语言处理技术在某些领域已经可以媲美人类水平,同时具备多种功能应用,包括 文本检索、信息过滤、机器翻译、客服问答、文本生成等,在金融、教育、医疗、互联网行业当中得到了广泛 的应用,随着自然语言处理和传统行业的深度融合,将人力从部分重复性的语言工作当中解放了出来,实现了 人工智能替代。

2022 年 11 月 30 日,OpenAI 发布了 ChatGPT 人机对话交互模型,相比过去的人机对话模型,ChatGPT 展 现出更贴近人类的思维逻辑,可以回复用户的连续问题,具有一定的道德准则,减少了错误问答的出现概率, 具备代码的编写和 debug 功能。ChatGPT 在人机对话上到达了前所未有的高度,模型开放测试一周用户便突破 了百万级别。ChatGPT 作为 GPT3.5 的微调版本,采用了人类反馈强化学习方式(RLHF)和近端优化策略(PPO), 通过奖励模型的设定,极大减少了无效的、编造的、有害的答案出现概率,更多输出了人们期望的答案。当前 ChatGPT 已经在诸多问答环节里表现出极高的拟人化,足以以假乱真。目前 ChatGPT 处于免费的开源公测阶段, 仍在优化迭代过程中。我们预计,超大规模的自然语言预处理模型将率先在传媒营销、搜索引擎增强、代码编 程等领域实现商业落地。当前自然语言处理的快速发展已让我们更加临近图灵测试的奇点,未来人工智能将深 刻地改变我们的生产生活方式。我们应当重点关注自然语言处理的技术进展、大规模商业的落地途径以及我国 超大规模预训练模型的发展进展。

三、AI 基础层及应用层投资机会:自动驾驶、机器视觉景气度高,FPGA 芯片国产替代空间大

3.1 自动驾驶:技术不断突破,渗透率不断提升

3.1.1 自动驾驶技术不断突破,Transformer 模型应用进一步提升准确率

视觉 Transformer 正推动自动驾驶向前迈进。自动驾驶初期阶段,主要目标是让汽车在单车道内行驶,随 着驾驶复杂性,需要对路况进行影像提取与 3D 建模等。特斯拉自动驾驶算法使用的是多任务学习 HydraNets 架构,从而让汽车共享相同神经网络或特征提取器的 同时能进行交通灯检测、车辆避让等多项任务。特斯拉自动驾驶算法中,首先让车载摄像头使用 RegNet(残差网络)对路况/汽车进行原始图像提取。在每个摄像头都处理完单个图像后,使用具有多头自注意力的 Transformer 模型进行处理,Transformer 模型不仅解决了 CNN 算法在 BEV(鸟瞰图)遮挡区域预测问题,同 时还有更高的性能和算法准确度。后续将处理结果进行多尺度特征、视频神经网络等处理,从而完成整个自动 驾驶算法。近年来 Transformer 凭借传统 CNN 算法所不能企及的感知能力以及其优秀的鲁棒性和泛化性,已 逐步取代 IPM、Lift-splat、MLP 成为 BEV(鸟瞰图)感知领域的主流算法。



特斯拉中的 Transformer 模型侧重于使用交叉注意力。根据特斯拉 2021 人工智能日,特斯拉 Transformer 算法主要原理为:首先初始化一个输出空间大小的栅格,在输出空间中利用正弦和余弦的位置编码进行填充, 用多层感知机将其编码成一组查询向量。所有的图像及其特征均生成属于自己的键和值。最后将键和值查询输 入到注意力中。我们认为 Transformer 模型因其注意力机制解决了 CNN 中卷积层遮挡区域检测问题,成为了自动驾驶领 域的首选,交叉注意力机制目前也更有利于 Transformer 模型在汽车上进行部署,Transformer 模型正推动自 动驾驶技术实现飞跃式的迭代。2022 年 6 月 2 日,马斯克发布推特称,Transformer 正在取代 C 启发式算法去处 理视觉神经网络中大量的节点,特斯拉全自动驾驶正在使用运行在 TRIP 芯片上的 GPT 算法实现计算机视觉。根据特斯拉 2022AI 开放日,特斯拉全自动驾驶(Full Self Driving(beta))客户已从 2021 年的 2000 个增长到 2022 年的 16000 个。

2022 年 11 月 24 日,马斯克发布推特称,特斯拉全自动驾驶(Full Self Driving(beta))已经可以提供给 北美任何一个购买相关服务的车主使用,成为特斯拉 Autopilot/AI 团队一个重要里程碑。在特斯拉的引领下, 自动驾驶功能渗透率将不断提升,其中智能驾驶域控制器率先放量。

3.1.2 智能驾驶渗透率继续提升,L3 车型开始落地

深圳发布《深圳经济特区智能网联汽车管理条例》,自动驾驶政策放开临近。近些年来,为了支持自动驾 驶等智能汽车行业的发展,我国政府陆续发布了许多政策。例如,2018 年工信部发布《车联网(智能网联汽车) 产业发展行动计划》,指出要加快建设智能网联汽车制造业创新中心,促进产业链上下游及与相关行业之间的 融合。2022 年 11 月,工信部发布《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》,将 在全国智能网联汽车道路测试与示范应用工作基础上,选出符合条件的企业和智能网联汽车产品,开展准入试 点,其中智能网联汽车搭载的自动驾驶功能为 L3 和 L4 级。2022 年 6 月,深圳市发布《深圳经济特区智能网 联汽车管理条例》,这是国内首部关于智能网联汽车管理的法规,对智能网联汽车的准入登记、上路行驶等事 项做出具体规定。北京、上海、重庆、四川等多地也均发布相关支持政策。

L2 级别自动驾驶前装渗透率不断提升。根据上险量数据,2022 年 10 月我国智能汽车销量 39.73 万辆,同比增长 68.1%,渗透率为 24.78%。在 2022 年世界智能网联汽车大会上,工信部副部长辛国斌介绍,今年上半年 具备组合驾驶辅助功能的乘用车销量达 288 万辆,渗透率升至 32.4%,同比增长 46.2%。国内自动驾驶正进入发 展快车道。根据高工智能研究院数据,截至 2022 年 9 月,我国前向 L2 级 ADAS 前装渗透率已达 27.7%,2019-2021 年该数据分别为 2%、12%、19.4%。未来国内自动驾驶级别将从 L2 向 L3/L4 转换,例如上海市发布《上海市 加快智能网联汽车创新发展实施方案》指出,到 2025 年,上海市初步建成国内领先的智能网联汽车创新发展体 系,产业规模力争达到 5000 亿元,具备组合驾驶辅助功能(L2 级)和有条件自动驾驶功能(L3 级)汽车占新 车生产比例超过 70%,具备高度自动驾驶功能(L4 级及以上)汽车在限定区域和特定场景实现商业化应用。



2023 年新出自动驾驶车型中 L2 依旧为主流,L3/L4 开始落地。2023 年多家车厂推出 L3 级别自动驾驶汽 车,从半自动驾驶阶段跨越至特定场景中完全自动驾驶阶段。例如现代汽车将在 2023 年推出包括捷尼赛思 G90 和起亚 EV9 在内的多款 L3 级别自动驾驶汽车;宝马 L3 自动驾驶系统“Personal Pilot”将在 2023 年底推出,并将 在宝马 7 系列上使用;小米纯电汽车搭载 L3 级别自动驾驶系统,目前正处于测试阶段,预计 2024 年上半年量 产;奇瑞与华为将合作在 2023 年推出搭载 L3 级别自动驾驶系统的 E03 与 E0Y。部分自动驾驶汽车车厂直接跳 过 L3,直接从 L2 迈向 L4 级别。例如通用公司旗下的 Cruise 支持 L4 级别驾驶,推出 Origin 车型;百度发布 Apollo RT6,支持 L4 级别自动驾驶,并将于 2023 年开始试运营。

3.2 FPGA:高成长、高壁垒的优质赛道,看好 FPGA 芯片国产替代

3.2.1 FPGA:时延低、单位能耗比低、并行运算更高效的可编程芯片,中国市场快速增长

FPGA 的全称为 Field-Programmable Gate Array,即现场可编程门阵列。主要由可编程的逻辑单元(LC)、 输入输出单元(IO)和开关连线阵列(SB)三个部分构成。可编程逻辑单元通过数据查找表 LUT 中存放的二进制数 据来实现不同的电路功能,开关阵列通过内部 MOS 管的开关控制信号连线的走向。

FPGA 的无指令特征,使其具有时延低、单位能耗比低、并行运算更高效三大特征。1.时延低:因无指令 的特征,所有程序都自存储器读取结果,不需要像 CPU 一样进行程序编译等过程,因此算法运行时间远小于 CPU 和 GPU,适用于时延要求高的领域。2.单位能耗比低:无指令特征下,节省了编码、译码等过程,因此能 耗比更低。3.并行运算更高效:因无指令特征,FPGA 可以做到异步的并行,如果说 GPU 的计算是 1 名指挥员 协调 10 条生产线,ASIC/FPGA 就是由 10 名指挥员分别指挥自己的生产线。因此在执行并行运算的时候(AI 领域),与 CPU、GPU 相比,FPGA 具有更高的速度和极低的计算能耗,使深度学习实时计算更容易在端侧执 行。

FPGA 的最大特点是可编程特性。逻辑单元、开关阵列可编程,使得 FPGA 功能可以随时改变,从而具有 可编程特性。FPGA 基于的是查找表技术,任何逻辑都储存在 SRAM 电路中,而 SRAM 电路是易失性存储器, 断电后数据则不被保存,因此 FPGA 通过改写 SRAM 中的数据表以及开关阵列,即可实现不同功能。

全球市场快速增长:根据 Frost&Sullivan 数据,2019 年全球 FPGA 芯片产业规模约为 56.8 亿美元,2016-2019 年复合增速为 9.38%。随着全球新一代通信设备部署以及人工智能与自动驾驶技术等新兴市场领域需求的不断 增长,FPGA 市场规模预计将持续提高。中国市场增速快于全球市场:根据 Frost&Sullivan 数据,中国 FPGA 市场从 2016 年的约 65.5 亿元增长至 2019 年的 129.6 亿元,复合增速为 25.48%。



工业、汽车电子、数据中心成为 FPGA 增长最快的细分市场。FPGA 芯片因其现场可编程的灵活性和不断 提升的电路性能,拥有丰富的下游应用领域,包括网络通信、工业控制、消费电子、数据中心、汽车电子等。2020 年中国 FPGA 市场下游应用中,通信领域和工业控制占比最高,分别达到 41%和 32%。随着智能汽车、 AI 推理的不断渗透,汽车电子、数据中心、工业成为 FPGA 增长最快的细分市场,预计 2022-2025 年汽车 FPGA 市场复合增长率将达到 13.3%,数据中心 FPGA 市场复合增长率将达到 12.7%,除此之外,工业视觉也有较快 的增长。

海外龙头 AMD 和 Intel 的 FPGA 产品价格上涨,凸显行业景气度。根据国际电子商情的消息,由于疫情 冲击、供需情况紧张和产品成本上涨,AMD 将从 2023 年 1 月 9 日起对旗下 Xilinx 品牌的 FPGA 产品进行涨价, 其中 Spartan 6 系列涨价 25%,Versal 系列不涨价,其他 Xilinx 产品全部涨价 8%。此外 Xilinx 产品的产能也受 到影响,产品的交货周期存在不同程度的延长,16nm UltraScale+系列、20nm UltraScale 系列、28nm 7 系列都需 要 20 周,预计到 2023 年第二季度末才能缓解交付压力。剩余 Xilinx 成熟节点产品的标准交货周期持续到 2023 年第一季度末。2022 年 7 月底,Intel 也通知其 FPGA 产品从 2022 年 10 月 9 日起全线涨价,其中 Arria V、Arria 10、Cyclone IV、Cyclone V、Cyclone 10、MAX V、MAX 10、eASIC 等新款涨价 10%,Arria II、 Cyclone II、 Cyclone III、MAX II、Stratix III、Stratix IV、Stratix V、EPCQ-A 等旧型号产品涨价 20%。两家海外龙头的涨价 主要集中在旧产品和中低端市场,属于国产替代的可覆盖范围。海外 FPGA 产品的涨价将提高国内公司的使用 成本,从而推动国产替代的节奏。

全球 FPGA 公司均呈现快速增长,:1)AMD:全球第一大 FPGA 公司 Xilinx 于 2020 年以 350 亿美元的 价格被 AMD 收购,该交易于 2022 年 2 月 14 日完成。去掉原本属于 AMD 嵌入式芯片业务合并报表因素影响, 2022 Q2 和 Q3 的 AMD 的 FPGA 业务营收达到 12.01 亿美元和 12.62 亿美元,与对应的 Xilinx 财年数据比较, 同比增长 36.63%和 34.83%;2)Intel FPGA 业务预计今年增速达 26%,持续推出新产品,行业成长空间广阔。2022 英特尔 FPGA 中国技术周上,公司预计今年 FPGA 业务收入超 24 亿美金,同比去年 19 亿美金增长 26%,是过去五年来增速最快的一年;3)Lattice 营收近五年持续增长,2021 年后增速加快,主要增长点为工业和汽 车、通信与计算两大板块。2021 年收入 5.15 亿美元,同比增长 26.3%,2022 年前三季度收入 4.8 亿美元,同比 增长 29.8%,增速进一步加快。工业和汽车主要用于工业自动化和机器人、ADAS 和信息娱乐应用,在 2021 年 收入 2.26 亿美金,同比增长 34.4%。2022Q1-Q3 收入 2.3 亿美元,同比增长 38.6%,是增速和占比最大的一块。通信和计算主要用于数据中心服务器、客户端计算和 5G 基础设施,在 2021 年收入 2.18 亿美元,同比增长 24.8%。2022Q1-Q3 收入 2.05 亿美元,同比增长 29.7%。消费和许可与服务业务开始增长,在 2021 年分别同比增长 11.3% 和 4.4%。FPGA:高成长、高壁垒的优质赛道:随着架构、先进制程的迭代,FPGA 从传统通信密集领域的应用拓展 到了计算密集领域,包括 AI、边缘计算、自动驾驶等新领域的应用,整个行业打开了新的成长空间。

3.2.2 FPGA 呈现寡头垄断市场格局,国产替代空间大

全球 FPGA 市场呈现寡头垄断格局:从全球 FPGA 市场竞争格局来看,相关市场目前基本由龙头企业把控, Xilinx 和 Intel 占比达到 80%,目前中国厂商在全球市场中所占份额较低。中国 FPGA 市场由赛灵思(Xilinx)和英特尔(Intel)两家供应商主导,两家公司在中国的市场份额超过 70%。目前本土供应商也占据了一定市场份额,2021 年在中国的总份额超过 15%,随着国产化的推进,国内市场具有 广阔的提升空间。



美国限制国内 AI 芯片发展,FPGA 最大下游通信领域频受制裁:2022 年 10 月 7 日,拜登政府宣布了一项 关于人工智能(AI)和半导体技术对中国的新出口管制政策。此外,部分公司也受到制裁。以华为为例,美国 政府禁止华为购买美国元器件和软件。通信是 FPGA 最大的下游市场,在中国市场中占比超过 40%,华为是全 球第一大通信设备商,2021 年占全球通信设备市场 28.7%的份额,是通信 FPGA 主要需求方,以华为为主的这 些受到制裁的大客户无法或受限制使用国外 FPGA。信创快速推进,FPGA 将受益于信创发展:自 2021 年以来,继党政信创展开后,包括三大运营商及金融机 构持续展开国产化服务器集采,表明信创产业正在不断向行业延伸。信创产业庞大,其中芯片、整机、操作系 统、数据库、中间件是重要的产业链环节。2022 年下半年开始信创将继续快速推进,整体大趋势已经形成。FPGA 作为重要的计算芯片,服务器中将其应用于后端的通信板卡。同时,FPGA 是电力、交通领域重要的通信部件, 在银行系统中应用于企业级交换机路由器,在云计算中也起到运算加速作用。

3.3 AI+工业:助力制造业转型升级,看好国产替代机会

我们认为,在人工智能和工业制造的结合过程中,应当重点关注工业机器视觉、工业互联网和 EDA。

3.3.1 工业机器视觉助力制造业转型升级,技术突破加速国产替代

根据美国自动化协会定义:机器视觉是光学、机械、电子、计算、软件等技术一体化的工业应用系统,其 利用相机和计算机代替人的视觉感知和判断能力,自动采集并分析图象,以获取用于控制或评估特定活动所需 的数据。主要由成像、信号分析与处理、决策与执行三个关键环节构成。功能上具体可以分为识别、测量、定 位和检测四种。

在工业应用场景中,机器视觉相比人眼视觉在识别精确度、识别速度、环境要求、识别客观性、可靠性、 工作效率、数据价值方面均存在显著优势,能够较好的替代人工进行工作。随着深度学习、3D 视觉技术、高精 度成像技术和机器视觉互联互通等技术的持续发展,机器视觉的性能优势将进一步扩大,应用场景也将持续拓 展。同时,在人力成本日益增长的背景下,机器视觉在成本端上也具有明显优势,机器视觉也将助力企业实现 降本增收。此外,通过机器视觉设备可以收集生产过程中的各种数据,进而推动工业互联网的发展进程。

工业机器视觉产业链上游为零部件及软件算法,是产业链中价值较高的部分,中游为视觉装备及方案,下 游为具体的应用场景与行业。上游零部件主要包括光源(及其控制器)、工业镜头、工业相机及机器视觉软件 算法。根据华经产业研究院数据,零部件及软件算法为机器视觉系统主要的成本来源,占比之和达到 80%。组 装集成和维护占比较少,分别占 15%和 5%。

随我国工业制造转型升级和数字化不断推进,工业机器视觉产业市场规模增长迅速。GGII 数据显示,2021 年中国机器视觉市场规模 138.16 亿元(未包含自动化集成设备规模),同比增长 46.79%。其中,2D 与 3D 视 觉市场规模分别为 126.65 亿、11.51 亿元。出于宏观经济回暖、新基建投资增加、制造业自动化等推进因素, 根据 GGII 预测,2022 至 2025 年,中国机器视觉市场规模同比增速维持在 30%-40%之间,至 2025 年我国机器 视觉市场规模将达到 468.74 亿元,市场潜力巨大。下游应用领域上,GGII 数据显示,3C 电子行业是工业机器 视觉应用最多的下游领域;半导体、汽车、锂电池、食品饮料、物流仓储等行业亦为主要应用领域。


国产工业机器视觉企业在各自领域不断发展成熟,逐步实现国产替代。机器视觉海外龙头康耐视、基恩士 均有较为完整的产业链布局,且技术实力领先,国产厂商则有所侧重,如精测电子和华兴源创主营视觉设备、 奥普特从光源等核心硬件拓展核心零部件完整布局、凌云光基于软件算法能力发展可配置视觉系统、视觉设备 业务。随着技术的不断成熟,国产厂商已在行业的细分领域中打破国外企业垄断,例如奥普特已成为光源的龙 头企业,天准科技、矩子科技、凌云光已成为视觉系统及装备的头部厂商。整体上看,根据 GGII 数据显示,2021 年国产品牌机器视觉市场份额占比 58.43%,国产渗透率逐步提升。随着新能源、汽车电子及半导体等下游行业 的扩产加速,工业机器视觉的国产化替代进程将进一步提速。

3.3.2 全球 EDA 行业呈现寡头垄断格局,国产厂商迎来发展机遇期

EDA 板块:增速稳定、高壁垒、高估值板块。1)增速稳定:EDA 公司商业模式大多数为按年付费,一般 收费在 IC 设计公司收入的 1%-3%之间,占 IC 公司收入比重较低,并且 EDA 公司议价权较高,因此对于成熟 稳定的客户,每年给 EDA 公司付费基本稳定或者略有增长,商业模式和高壁垒决定了 EDA 公司受下游需求波 动影响较小。EDA 行业增长一是受益于 IC 设计门槛降低,IC 公司数量越来越多,二是 IC 品类不断拓张,比如 第三代半导体的出现,三是伴随着先进制程迭代,产品复杂度提高带来的单价提升。加上盗版等因素的存在, 实际上有部分需求并未体现在 EDA 公司收入中,通过盗版的不断转化,EDA 龙头公司中长期均保持稳定增长。2)高壁垒;技术壁垒本身较高,需要强大的数学物理基础理论支撑,对算法要求很高。同时用户协同壁垒较高, 制造、设计、EDA 厂商三方形成稳定的生态圈,新进入者极难打破。因此,高壁垒以及良好的业务稳定性和成 长性,使得 EDA 公司如新思科技、Cadence 在美股半导体板块中估值一直相对较高。

EDA 行业保持稳定增长,国内增速更快。根据赛迪数据,2020 年全球 EDA 行业实现总销售额 72.3 亿美元, 同比增长 10.7%。预计至 2024 年,全球市场规模有望达到 105 亿美元,2020-2024 年复合年均增长率为 7.8%。2020 年国内 EDA 市场规模为 66.2 亿,预计至 2024 年,我国 EDA 工具市场规模有望达到 115 亿元人民币,2020 至 2024 年的市场规模符合年均增长率近 17%。



EDA 结合人工智能是趋势。EDA 问题具有高维度、不连续、非线性和高阶交互的特性,机器学习等算法 能够显著提高 EDA 的自主程度,提升 IC 设计效率,缩短研发周期。人工智能赋能 EDA 主要从 Inside 和 Outside 两方面实现,从 Inside 方面,通过机器学习对 DRC、能耗、时序等预测,在参数模型建立过程中实现参数的优 化,同时实现更高效的物理空间设计。Outside 方面,通过机器学习方式,减少人工干预,极大释放劳动力。

EDA巨头积极进行人工智能与芯片设计的深度融合。EDA巨头Cadence发布了内嵌人工智能算法的Innovus, Project Virtus,Signoff Timing 等工具,实现了全流程数字化智能化。Mentor 通过机器学习 OPC 将光学邻近效应 修正(OPC)输出预测精度提升到纳米级,同时将执行时间缩短 3 倍。Synopsys 推出业界首个用于芯片设计的自 主人工智能应用程序——DSO.aiTM。国产 EDA 产商迎来新战略机遇期。目前全球 EDA 工具上大约有近百家,排名前三的公司分别是新思科技 (Synopsys)、铿腾电子(cadence)和明导(Mentor),三家巨头占据着全球近 7 成左右的市场份额,在中国 的市占率更是超过 95%。2022 年 8 月生效的《2022 芯片与科学法案》对 EDA 软件进行了出口管制,芯片核心 技术自主可控势在必行,国产 EDA 厂商迎来重要的发展机遇。



(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

获取精品报告请登录【未来智库官网】www.vzkoo.com。
立即登录请点击下方“阅读原文”。


Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM