2020 年, 5G 商用将会进一步加速, 这样的背景下, 半导体行业将会迎来一次换 "芯" 潮, 同时在三星, 台积电等厂商的努力下, 芯片的制程, 工艺也将迎来大的变局.
2019 年, 是特别的一年, 手机芯片, 自动驾驶芯片, AI 推理, 训练芯片等密集发布. 包括华为, AWS, 英伟达, 阿里巴巴等巨头企业, 均拿出自己的 "杀手锏". 这些 "杀手锏" 在不同程度上提振了自己在行业的影响力, 也给产业带来巨大变革.
首先, 从总体市场上来看, 发布最为集中的是 5G 芯片, 华为的麒麟 990 5G 处理器集成巴龙 5000 基带给其他厂商后续产品带来借鉴. 高通依旧选择了保守的方式应对市场竞争, 联发科, 三星重新发力芯片中高端市场, 又给市场给来一层 "迷雾".
其次, 其他芯片领域也 "战事" 激烈, 比如 AI 推理, 训练芯片, 华为, 阿里巴巴, AWS, 英特尔巨头的加入, 给市场上的创业企业将会带来怎样的冲击, 还是未知. 那么这种情况下, 回顾 2019 年的重磅产品, 对产业, 对行业将有重要的意义.
下面, 中国软件网重磅发布 2019 年十二大半导体, 芯片产品, 以飨读者.
1. 华为麒麟 990 5G 处理器
2019 年 9 月, 华为发布了麒麟 990 系列芯片, 为加快 5G 商用的步伐, 华为也是业界第一家发布 5G 芯片的厂商. 华为麒麟 990 5G 处理器首次集成了巴龙 5000 基带, 支持 5G 网络. 使用台积电二代的 7nm 以及 EUV 先进工艺技术.
同上一代麒麟 980 芯片基础架构相同, GPU 采用 ARM 的 Mali-G76.CPU 方面, 两个 2.86GHz 的 ARM Cortex A76 核心, 两个 2.36GHz 的 A76 核心, 四个 1.95GHz 的 A55 核心. 更重要的是, 在 AI 方面, 麒麟 990 采用了新一代达芬奇架构, AI 性能大幅度提高.
2. 英伟达自动驾驶芯片 NVIDIA DRIVE AGX ORIN
2019 年 12 月, 英伟达 GTC CHINA 大会上, 英伟达发布了最强自动驾驶系统级芯片 ORIN.ORIN 不是一款简单的芯片, 设计参考数据中心, 支持虚拟化, 采用应用隔离. 内存涉及到计算的部分均通过加速引擎进行加密, 保证每一台车的计算是独立的.
ORIN 包含 170 亿个晶体管, 8 个核心. 算力可达 200TOPS, 是上一代芯片 Drive Xaiver 算力的 7 倍, 更超过特斯拉今年推出的自动驾驶芯片 Autopilot Hardware 3.0. 除了强大的计算能力, 安全同样有所保障, ORIN 的 CPU 和 GPU 可锁步运行. ORIN 覆盖从 L2 到 L5 的自动驾驶技术, 计划 2022 年投产使用.
3.AWS Inferentia 和 Graviton2
2019 年 AWS re:Invent 大会上, AWS 推出一款机器学习专用芯片 Inferentia 和一款基于 ARM 架构的高性能计算处理器芯片 Graviton2.Inferentia 具有高吞吐量, 低延迟, 性能稳定持久等优点的同时, 也具备经济效益优势. Inferentia 支持主流框架 INT8,FP16 等, 也支持 TensorFlow,Caffe2,ONNX 等在内的多款机器学习框架.
Graviton2 来源于 gravity 引力, 比 X86 同类产品的性价比高 40%, 计算量提升 4 倍. Graviton2 已经针对 AWS 云原生应用进行了优化, 基于 64 位 ARM Neoverse 内核和 AWS 片上定制系统设计, 并且每个核心的浮点性能提升了 2 倍. 可用于科学和高性能工作负载领域, 最多支持 64 个虚拟 CPU,25Gbps 网络和 18Gbps EBS 带宽. Inferentia 和 Graviton2 的发布, 可以看作 AWS 开始重点发力 AI 芯片和服务器芯片两大战场.
4.ARM Mali-G77 GPU
2019 年, ARM 发布了新一代 Mali-G77 GPU,Mali-G77 采用了全新架构 Valhall. 这意味着, 与 Mali-G71 至 Mali-G76 的架构 Bifrost 不同, 全新架构 Valhal 在旧架构上做了重要升级, 通过设计 ISA 总线和计算核心, 弥补了以往 Bifrost 架构的主要缺点.
ARM 官方数据显示, Mali-G77 较前代效能提高 30%, 性能提高 30%, 机器学习能力提高 60%. 每平方毫米性能较前代提升 1.4 倍, 实现 30% 的同比能效改进的同时, 比 Mali-G72 节省 50% 的功耗. 从以往几代产品的应用情况华为麒麟, 三星猎户座市场表现优良, 因而可以预计 Mali-G77 GPU 将会在未来厂商中得到较大范围应用.
5. 苹果 A13 Bionic
2019 年 9 月, 苹果秋季发布会上, 推出了新一代 A13 仿生芯片, A13 仿生芯片搭载于 iPhone 11 系列新品手机上. 新品发布会上, 苹果占用较长时间, 介绍了 iPhone 11 系列高流畅性能背后的 "功臣". 苹果称, A13 Bionic 是有史以来最快的 A 系列芯片, 拥有 85 亿个晶体管, 功率更低, 比 A12 提升 20%.
A13 的 CPU 有两个高性能核心, 速度提升 20%, 功耗降低 30%; 四个效能核心, 速度提升 20%, 功耗降低 40%.GPU 则为四核心设计, 速度提升 20%, 功耗降低 40%. 此外, A13 的 8 核神经计算引擎, 优化了手机摄影, 视频功能. 在工艺制程上, A13 采用了先进的 7nm 工艺.
6. 高通骁龙 865
2019 年年底, 高通骁龙夏威夷技术峰会上, 高通一口气发布骁龙 765, 骁龙 765G, 骁龙 865 三款移动平台, 覆盖高中低端所有机型. 其中高端骁龙 865 芯片将成为 2020 年与苹果, 华为竞争的利器. 与华为策略不同, 高通骁龙 865 为了照顾 4G 厂商, 并未集成 5G 基带.
从性能上看, 5G,AI, 摄像较上一代产品均有较大幅度提高. CPU 采用 Kryo 585 架构, 包括一个 2.84GHz 的 Cortex-A77, 三个 2.42GHz 的 Cortex A77, 以及四个 1.8GHz 的 Cortex-A55. 性能, 能效均提高了 25%.GPU 采用 Adreno 650, 性能提升 25%, 能效提升 35%.
骁龙 865 支持 20 亿像素 / 秒的处理速度, 支持 2 亿像素摄像头; 支持 4K 120 帧, 8K 30 帧的录制. 搭载第五代 AI Engine 引擎, 运算能力达 15 万亿次 / 秒, 比上一代引擎运算能力增加一倍多. 无论在摄影, 视频拍摄, 5G 网络, Wi-Fi 6 连接, 骁龙 865 均表现出色.
7. 联发科天玑 1000
2019 年, 联发科推出了酝酿许久的旗舰 5G 芯片天玑 1000, 该款芯片是联发科在 5G 商用时代冲击高端市场的重磅产品. 天玑 1000 采用集成 M70 5G 基带的方案, 台积电 7nm 工艺制造. 天玑 1000 的 CPU 采用八核设计, 四个 2.6Ghz 主频的 Cortex-A77 大核, 四个 Cortex-A55 小核心.
GPU 采用最新的九核心 Mali-G77 MC9(Multi Core), 性能提升 40%.AI 运算方面, 采用六核心 APU 3.0 组合, 两个大核, 三个小核, 一个微小核. 所以综合天玑 1000 的 CPU,GPU,AI 等各个方面的性能, 均能够对高通, 三星等竞争对手产生较大的威胁, 具备一定的市场竞争力.
8. 三星 Exynos 980
2019 年 9 月, 三星推出了 Exynos 980 5G 芯片, 该款产品与手机厂商 vivo 共同打造, 并搭载在 vivo 新一代旗舰终端 vivo X30 系列手机上. Exynos 980 采用 8 纳米 FinFET 制程工艺, CPU 有两个 2.2GHz 的 Cortex-A77 核心, 以及六颗 1.8GHz 的 A55 核心. GPU 采用 Mali-G76 MP5. 内置 NPU 神经网处理器, 人工智能计算性能优化约 2.7 倍.
Exynos 980 可处理 1.08 亿像素拍摄的图像, 最多可以连接五个图像传感器, 支持三个传感器同时驱动, NPU 性能加持后, 可通过 AI 技术识别拍摄物体形态, 周围环境, 调节至拍摄最佳状态. 在网络方面, Exynos 980 支持 NSA/SA 双模网络, 支持 Wi-Fi 6.
9. 阿里巴巴含光 800
2019 年 9 月, 阿里巴巴首次推出了 AI 推理芯片含光 800. 根据阿里巴巴公布的数据显示, 含光 800 是全球最强 AI 推理芯片, 主要应用于云端视觉场景. 其性能, 能效比均为第一名, 1 颗含光 800 的算力相当于 10 颗 GPU.
目前, 含光 800 已大规模应用于阿里巴巴内部核心业务中, 比如视频图像识别, 分类, 搜索, 城市大脑等. 未来还可应用于医疗影像, 自动驾驶等领域. 在城市大脑中实时处理杭州主城区交通视频应用场景中, 传统 GPU 需要 40 颗, 而用含光 800 仅需 4 颗, 延时降至 150ms, 大幅度提高效率.
10. 寒武纪思元 270
2019 年 6 月, 寒武纪宣布推出第二代云端 AI 芯片思元 270(MLU270) 和板卡产品, 思元 270 采用采用寒武纪公司自主研发的 MLUv02 指令集, 可支持视觉, 语音, 自然语言处理以及传统机器学习等高度多样化的人工智能应用, 为视觉应用集成了充裕的视频和图像编解码硬件单元.
同时, 思元 270 处理非稀疏深度学习模型理论峰值性能提升至上一代 MLU100 的 4 倍, 理论峰值达到每秒 128 万亿次人工智能基本运算 (INT8). 支持多种运算精度, 比如 INT4,INT8,INT16,INT32 等, 同时兼容 INT4 和 INT16 运算, 其中 INT4 理论峰值达每秒 256 万亿次, INT16 理论峰值达每秒 64 万亿次.
11. 英特尔 NNP-T 和 NNP-I
2019 年 8 月, 英特尔发布两款 AI 芯片 (Nervan 神经网络处理器)NNP-T 和 NNP-I.NNP-T 用于训练, 代号 SpringCrest;NNP-I 用于推理, 代号 SpringHill. 具体而言, NNP-T 采用台积电 16nm FF + 制程, 拥有 270 亿个晶体管, 硅片面积 680 平方毫米. 主要用于深度学习训练, 可从头开始构建大规模深度学习模型, TensorFlow,PaddlePaddle,PYTORCH 训练框架.
而 NNP-I 采用 10nm 技术以及 Ice Lake 内核打造, 由以色列海法研发中心开发, 同样支持所有主流深度学习框架. 作为一款专门用于大型数据中心的推理芯片, NNP-I 能加速大规模深度学习部署, 利用最小的能量处理高负载工作, ResNet50 上的效率可达 4.8TOPs/W, 而功率范围在 10W 至 50W 之间. 互联网社交巨头 Facebook 已开始使用 NNP-I 芯片. AI 时代, 英特尔正以全面解决方案商的角色进入市场.
12. 华为 Ascend 910
2019 年 8 月, 华为隆重发布了算力最强, 训练速度最快的 AI 芯片 Ascend910(昇腾 910). 根据华为介绍, Ascend 910 的算力是国际顶尖 AI 芯片的 2 倍, 相当 50 个当前最新最强的 CPU. 其训练速度, 也比当前最新最强的芯片提升了 50% 至 100%.
同时, 华为还发布了新一代 AI 开源计算框架 MindSpore, 对标谷歌的 TensorFlow 和 Facebook 的 PyTorch,MindSpore 将会在 2020 年第一季度全面开源, 开放.
来源: http://news.51cto.com/art/202002/610253.htm