屏幕显示图像的原理
CRT的电子枪按上图,从上到下一行一行扫描,扫描到底部的时候代表一帧结束。为了把视频控制器与显示器的显示过程同步,显示器(硬件)会发送一系列的时钟信号。水平同步信号(HSync),根据这个信号扫描每一行。垂直同步信号(VSync),根据这个信号扫描下一帧。
CPU,GPU和显示器会按照上图的流程协同工作。CPU计算好内容,CPU渲染结果给到帧缓冲器,视频控制器根据时钟信号从FrameBuffer中读取每一帧内容,经过数模转换给到显示器显示。
FrameBuffer只有一个的时候,帧的读取和刷新都有一定的性能问题。所以一般会增加FrameBuffer数量。CPU和GPU把下一帧的内容提前渲染好放到另一个FrameBuffer,GPU 会直接把视频控制器的指针指向该FrameBuffer,从而提高性能。
但引入了新问题,假如当前FrameBuffer的内容,显示器还没读取完毕,这时候切换FrameBuffer,就会渲染下一帧的内容,导致画面断层撕裂。为了解决这个问题,GPU引入了垂直同步机制(V-Sync),当开启垂直同步后,GPU会等待显示器的VSync信号发出,才会渲染下一帧内容和刷新FrameBuffer,使得画面更加流畅。
在iOS平台,显示渲染的核心是CoreAnimation。Core Animation是依赖于OpenGL/Metal做GPU渲染,CoreGraphics做CPU渲染。
CoreAnimation会在Runloop的beforeWaiting和exit时机注册监听。当一个事件到来,比如触摸事件,导致界面发生变化,会进行可能的UI组建创建,布局计算,调整视图层级,调整视图属性等,这些变化会被CALayer捕捉到,并通过CATranscation提交到一个中间状态去。等待Runloop的通知发出后,通过IPC发送给RenderServer,解析视图层级树,生成绘制指令,再通过OpenGL或Metal驱动GPU进行渲染,渲染结果放到FrameBuffer。再由显示器发出的VSync信号进行新的一帧的显示。
知道了成像的基本流程,接下来看下这过程关键组件所做的工作(CPU,GPU)。
CPU
视图创建
属性更改调整
布局计算
图片解码
绘制
GPU
图形处理单元,负责对图像的处理,采集图片和形状,运行变换,应用纹理和混合,最终把它们输送到屏幕上。
其实这个过程也可以用CPU完成,GPU诞生之前就是这样做的。但是随着图像效果越来越复杂,CPU不堪重负,所以诞生了GPU。架构与CPU基本相似,也是包含逻控制单元,寄存器,逻辑运算单元,但GPU有更多的运算单元,更适合做高并发的图像操作,浮点运算,矩阵变换等。
一般应用程序是通过OpenGL/Metal,驱动GPU渲染。OpenGL只是一套规范,并不是API,而驱动实现了这套规范,所以一般是硬件生产商产出。
GPU的处理本质是矩阵变换,简单概括可以为两个步骤:1、把 3D 坐标转换为 2D 坐标;2、把 2D 坐标转变为实际的有颜色的像素。
顶点着色器:顶点数据是一系列顶点的集合。顶点着色器主要的目的是把 3D 坐标转为另一种 3D 坐标。
图元装配:根据顶点数据,作为输入,把所有的点装配成指定图元的形状
几何着色器:可能变换成其它形状的图元
光栅化:将几何信息转换成一个个的栅格组成的图像的过程。根据三角形顶点的位置,来确定需要多少个像素点才能构成这个三角形
片段着色器:计算一个像素的最终颜色,上色
Alpha测试和混合(Blending):检测片段的对应的深度(和模板(Stencil))值,用它们来判断这个像素是其它物体的前面还是后面,决定是否应该丢弃。也会检查alpha值并对物体进行混合(Blend)。