前言:
最近,研究了一下GPU以及App的渲染流程与原理。
首先,感谢 QiShare团队 的指导与支持,以及 鹏哥(@snow) 对本文的审核与帮助。
接下来,让我们开始我们今天的探索之旅。
一、浅谈GPU
GPU(
Graphics Processing Unit
):
又名图形处理器,是显卡的 “核心”。
主要负责图像运算工作,具有高并行能力,通过计算将图像显示在屏幕像素中。
GPU的工作原理,简单来说就是:
—— 将 “3D坐标” 转换成 “2D坐标” ,再将 “2D坐标” 转换为 “实际有颜色的像素” 。
那么,GPU具体的工作流水线 会分为“六个阶段”,分别是:
顶点着色器
=>
形状装配=>
几何着色器=>
光栅化=>
片段着色器=>
测试与混合
- 第一阶段:顶点着色器(Vertex Shader)
该阶段输入的是顶点数据(Vertex Data
),顶点数据是一系列顶点的集合。顶点着色器主要的目的是把 3D 坐标转为 “2D” 坐标,同时顶点着色器可以对顶点属性进行一些基本处理。
( 一句话简单说,确定形状的点。)
- 第二阶段:形状装配(Shape Assembly)
该阶段将顶点着色器输出的所有顶点作为输入,并将所有的点装配成指定图元的形状。
图元(Primitive
) 用于表示如何渲染顶点数据,如:点、线、三角形。
这个阶段也叫图元装配。
( 一句话简单说,确定形状的线。)
- 第三阶段:几何着色器(Geometry Shader)
该阶段把图元形式的一系列定点的集合作为输入,通过生产新的顶点,构造出全新的(或者其他的)图元,来生成几何形状。
( 一句话简单说,确定三角形的个数,使之变成几何图形。)
- 第四阶段:光栅化(Rasterization)
该阶段会把图元映射为最终屏幕上相应的像素,生成片段。片段(Fragment
) 是渲染一个像素所需要的所有数据。
( 一句话简单说,将图转化为一个个实际屏幕像素。)
- 第五阶段:片段着色器(Fragment Shader)
该阶段首先会对输入的片段进行裁切(Clipping
)。裁切会丢弃超出视图以外的所有像素,用来提升执行效率。并对片段(Fragment
)进行着色。
( 一句话简单说,对屏幕像素点着色。)
- 第六阶段:测试与混合(Tests and Blending)
该阶段会检测片段的对应的深度值(z 坐标),来判断这个像素位于其它图层像素的前面还是后面,决定是否应该丢弃。此外,该阶段还会检查 alpha
值( alpha
值定义了一个像素的透明度),从而对图层进行混合。
( 一句话简单说,检查图层深度和透明度,并进行图层混合。)
(PS:这个很关键,会在之后推出的“App性能优化实战”系列博客中,是我会提到优化UI性能的一个点。)
因此,即使在片段着色器中计算出来了一个像素输出的颜色,在经历测试与混合图层之后,最后的像素颜色也可能完全不同。
关于混合,GPU采用如下公式进行计算,并得出最后的实际像素颜色。
R = S + D * (1 - Sa)
含义:
R:Result,最终像素颜色。
S:Source,来源像素(上面的图层像素)。
D:Destination,目标像素(下面的图层像素)。
a:alpha,透明度。
结果 = S(上)的颜色 + D(下)的颜色 * (1 - S(上)的透明度)
GPU渲染流水线的完整过程,如下图所示:
问:CPU vs. GPU?
这里引用我们团长(@月影)之前分享的一页PPT:
由于屏幕每个像素点有每一帧的刷新需求,所以对GPU的并行工作效率要求更高。
简单说完了GPU渲染的流水线,我们来聊一聊App的渲染流程与原理。
iOS App的渲染主要分为以下三种:
- 原生渲染
- 大前端渲染(
WebView
、类React Native
) - Flutter渲染
二、原生渲染
说到原生渲染,首先想到的就是我们最熟悉使用的iOS渲染框架:UIKit
、SwiftUI
、Core Animation
、Core Graphics
、Core Image
、OpenGL ES
、Metal
。
-
UIKit
:日常开发最常用的UI框架,可以通过设置UIKit
组件的布局以及相关属性来绘制界面。其实本身UIView
并不拥有屏幕成像的能力,而是View
上的CALayer
属性拥有展示能力。(UIView
继承自UIResponder
,其主要负责用户操作的事件响应,iOS事件响应传递就是经过视图树遍历实现的。) -
SwiftUI
:苹果在WWDC-2019
推出的一款全新的“声明式UI”框架,使用Swift
编写。一套代码,即可完成iOS
、iPadOS
、macOS
、watchOS
的开发与适配。(关于SwiftUI
,我去年写过一篇简单的Demo
,可供参考:《用SwiftUI写一个简单页面》) -
Core Animation
:核心动画,一个复合引擎。尽可能快速的组合屏幕上不同的可视内容。分解成独立的图层(CALayer
),存储在图层树中。 -
Core Graphics
:基于Quartz
高级绘图引擎,主要用于运行时绘制图像。 -
Core Image
:运行前图像绘制,对已存在的图像进行高效处理。 -
OpenGL ES
:OpenGL for Embedded Systems
,简称GLES
,是OpenGL
的子集。由GPU
厂商定制实现,可通过C/C++
编程操控GPU
。 -
Metal
:由苹果公司实现,WWDC-2018
已经推出Metal2
,渲染性能比OpenGL ES
高。为了解决OpenGL ES
不能充分发挥苹果芯片优势的问题。
那么,iOS原生渲染的流程有那几部分组成呢?
主要分为以下四步:
第一步:更新视图树、图层树。(分别对应
View
的层级结构、View
上的Layer
层级结构)第二步:CPU开始计算下一帧要显示的内容(包括视图创建、布局计算、视图绘制、图像解码)。当
runloop
在kCFRunLoopBeforeWaiting
和kCFRunLoopExit
状态时,会通知注册的监听,然后对图层打包,打完包后,将打包数据发送给一个独立负责渲染的进程Render Server
。
前面 CPU 所处理的这些事情统称为Commit Transaction
。
- 第三步:数据到达
Render Server
后会被反序列化,得到图层树,按照图层树的图层顺序、RGBA
值、图层frame
来过滤图层中被遮挡的部分,过滤后将图层树转成渲染树,渲染树的信息会转给OpenGL ES
/Metal
。
- 第四步:
Render Server
会调用GPU
,GPU
开始进行前面提到的顶点着色器、形状装配、几何着色器、光栅化、片段着色器、测试与混合六个阶段。完成这六个阶段的工作后,就会将CPU
和GPU
计算后的数据显示在屏幕的每个像素点上。
那么,关于iOS原生渲染的整体流程,我也画了一张图:
三、大前端渲染
1. WebView:
对于WebView
渲染,其主要工作在WebKit
中完成。
WebKit
本身的渲染基于macOS
的Lay Rendering
架构,iOS
本身渲染也是基于这套架构。
因此,本身从渲染的实现方式来说,性能应该和原生差别不大。
但为什么我们能明显感觉到使用WebView
渲染要比原生渲染的慢呢?
第一,首次加载。会额外多出网络请求和脚本解析工作。
即使是本地网页加载,WebView
也要比原生多出脚本解析的工作。
WebView
要额外解析HTML+CSS+JavaScript
代码。第二,语言解释执行性能来看。JS的语言解析执行性能要比原生弱。
特别是遇到复杂的逻辑与大量的计算时,WebView
的解释执行性能要比原生慢不少。第三,
WebView
的渲染进程是独立的,每一帧的更新都要通过IPC
调用GPU
进程,会造成频繁的IPC
进程通信,从而造成性能消耗。并且,两个进程无法共享纹理资源,GPU
无法直接使用context
光栅化,而必须要等待WebView
通过IPC
把context
传给GPU
再光栅化。因此GPU
自身的性能发挥也会受影响。
因此,WebView
的渲染效率,是弱于原生渲染的。
2. 类React Native(使用JavaScriptCore
引擎做为虚拟机方案)
代表:React Native
、Weex
、小程序等。
我们以 ReactNative
举例:
React Native
的渲染层直接走的是iOS原生渲染,只不过是多了Json
+JavaScript
脚本解析工作。
通过JavaScriptCore
引擎将“JS”与“原生控件”产生相对应的关联。
进而,达成通过JS
来操控iOS
原生控件的目标。
(简单来说,这个json
就是一个脚本语言到本地语言的映射表,KEY
是脚本语言认识的符号,VALUE
是本地语言认识的符号。)
简单介绍一下,
JavaScriptCore
:
JavaScriptCore
是iOS
原生与JS
之间的桥梁,其原本是WebKit
中解释执行JavaScript
代码的引擎。目前,苹果公司有JavaScriptCore
引擎,谷歌有V8
引擎。
但与 WebView
一样,RN也需要面临JS语言解释性能的问题。
因此,从渲染效率角度来说,WebView < 类ReactNative < 原生。
(因为json
的复杂度比html
+css
低)
四、Flutter渲染
首先,推荐YouTube上的一个视频:《Flutter's Rendering Pipeline》专门讲Flutter
渲染相关的知识。
1. Flutter的架构:
可以看到,Flutter
重写了UI
框架,从UI
控件到渲染全部自己重新实现了。
不依赖 iOS
、Android
平台的原生控件,
依赖Engine(C++)
层的Skia
图形库与系统图形绘制相关接口。
因此,在不同的平台上有了相同的体验。
2. Flutter的渲染流程:
简单来说,Flutter的界面由Widget
组成。
所有Widget
会组成Widget Tree
。
界面更新时,会更新Widget Tree
,
再更新Element Tree
,最后更新RenderObjectTree
。
更新Widget
的逻辑如下:
\ | newWidget == null | newWidget != null |
---|---|---|
child == null | 返回null | 返回新的Element |
child != null | 移除旧的child并返回null | 如果旧child被更新就返回child,否则返回新的Element |
接下来的渲染流程,
Flutter
渲染在 Framework
层会有 Build
、Widget Tree
、Element Tree
、RenderObject Tree
、Layout
、Paint
、Composited Layer
等几个阶段。
在 Flutter
的 C++
层,使用 Skia
库,将 Layer
进行组合,生成纹理,使用 OpenGL
的接口向 GPU
提交渲染内容进行光栅化与合成。
提交到 GPU
进程后,合成计算,显示屏幕的过程和 iOS
原生渲染基本是类似的,因此性能上是差不多的。
更多细节,可以查看:《Flutter 究竟是如何渲染的?》
五、总结对比
渲染方式 | 语言 | 性能 | 对应群体 |
---|---|---|---|
原生 | Objective-C、Swift | ★★★ | iOS开发者 |
WebView | HTML、CSS、JavaScript | ★ | 前端开发者 |
类React Native | JavaScript | ★★ | 前端开发者 |
Flutter | Dart | ★★★ | Dart开发者 |
但Flutter的优势在于:
- 跨平台,可以同时运行在
iOS
、Android
两个平台。 - 热重载(
Hot Reload
),省去了重新编译代码的时间,极大的提高了开发效率。 - 以及未来谷歌新系统
“Fuchsia”
的发布与加持。如果谷歌未来的新系统Fuchsia
能应用到移动端,并且领域替代Android
。由于Fuchsia
的上层是Flutter
编写的,因此Flutter
开发成为了移动端领域的必选项。同时Flutter
又支持跨平台开发,那么其他领域的技术栈存在的价值会越来越低。
当然,苹果的希望在于 SwiftUI
。
如果 Fuchisa
最终失败了,SwiftUI
也支持跨端了。同时,SwiftUI
本身也支持热重载。也许也是一个未来呢。
期待,苹果今年6月的线上WWDC-2020
吧,希望能给我们带来不一样的惊喜。
参考与致谢:
1.《iOS开发高手课》(戴铭老师)
2.《你不知道的GPU》(月影)
3.《Flutter从加载到显示》 (圣文前辈)
4.《UIKit性能调优实战讲解》(bestswifter)
5.《iOS - 渲染原理》
6.《iOS 图像渲染原理》
7.《计算机那些事(8)——图形图像渲染原理》
8.《WWDC14:Advanced Graphics and Animations for iOS Apps》