MelonTeam 移动终端前沿技术的探索者

关于GPUImage

2017-05-27
doreencao
ios

本文内容参考自以下文章:KM文章一张图教你看懂GPUImageiOS 图像处理系列 - GPUImage源码解读(一),博文GPUImage文集。文中不再详细标注引用来源。

**

关于GPUImage

GPUImage框架是一个开源iOS类库,基于OpenGL进行图像和视频处理,借助GPU加速实现各种滤镜效果,并支持摄像头拍摄实时渲染。

它具有以下特性:

·             对OpenGL资源创建和滤镜做统一封装,接口简单易用,内置cache模块进行framebuffer管理。

·             框架设计灵活,支持上下级滤镜的串联、并联,以实现复杂的滤镜响应链。

·             有丰富的输入、输出组件及封装好的内置滤镜,可满足大多数场景的应用。

·             可继承GPUImageFilter实现自定义滤镜效果,扩展非常方便。

GPUImage框架

GPUImage功能的实现依赖四个部分:资源管理、Sources、Filters、Outputs。核心架构用下图概括:

1.     **资源管理**

      

GLProgram是GPUImage对OpenGL ES中的program的封装,可用vertexShader和fragmentShader创建GLProgram对象,实现自定义滤镜效果。

GPUImageContext是GPUImage对OpenGL ES上下文的封装,并添加GPUImge相关的上下文,如上下文队列(contextQueue,解决OpenGLContext不是多线程安全的问题)、CV纹理缓存(coreVideoTexttureCache)、framebuffer缓存、program使用的缓存等。

GPUImageFramebuffer是管理纹理缓存格式、帧缓存的buffer,完成缓存创建、指定渲染目标、调整视口、解锁等。其中,newCGImageFromFramebufferContents函数从缓存中获取图像数据,创建CGImageRef并返回。

GPUImageFramebufferCache是GPUImageFramebuffer的管理类。

2.     **Sources**

      

Sources目录结构如上图所示。GPUImageOutput是其他输入源的基类,输入组件将图像或视频帧数据转换成OpenGL纹理传递给滤镜组件。下面以滤镜视频拍摄这一场景下使用的GPUImageVideoCamera为例进行介绍。

GUPImagVideoCamera利用AVCaptureSession从AV输入设备采集数据。

      流程概述如下:

1) 找到摄像头设备_inoutCamera、麦克风_microphone,创建摄像头输入videoInput和麦克风输入audioInput,设置为_captureSession的输入。

2) 创建摄像头输出videoOutput和麦克风输出audioOutput,设置为_captureSession的输出,设置二者的输出delegate。

3)     调用[_captureSessionstartRunning]开始获取音视频数据。

4)      音频数据到达后发送给设置的audioEncordingTarget处理。

5)     视频数据到达后利用下面的函数处理回调:

摄像头默认采样格式为YUV420,Y通道数据和UV通道数据分别存放在两个plane中,processVideoSampleBuffer:函数将两个plane的数据取出,处理后在convertYUVToRGBOutput函数中通过颜色转换的shader,得到了RGB格式的GPU纹理提供给下一级滤镜组件,完成数据输入工作。

3.     **Filters**

      

GPUImageFilter是各滤镜类的基类。它实现了GPUImageInput协议,可以作为输出对象。GPUImageInput定义了组件作为响应链中的target(上一级组件的输出对象)需要实现的接口。

另一方面GPUImageFilter继承自Sources中的GPUImageOutput,因此一个滤镜组件也可以作为输入对象。基于这种设计,输入组件、滤镜组件、输出组件可以链式串联起来,推动输入数据的处理与传递。

GPUImageFilter及子类接受一个或多个输入,调用关联的GLProgram进行渲染,将结果输出到targets属性保存的对象列表中的每一个对象。输入、输出的纹理由GPUImageFrameBuffer管理。

输入数据通过setInputFramebuffer:接口传入,由响应链中的上一级组件调用。

读入输入数据后,下图接口实现了渲染和数据向下级组件的传递。

其中,renderToTextureWithVertices:函数实现滤镜渲染,将渲染结果输出到outputframebuffer指定的缓存。

informTargetsAboutNewFrameAtTime:将自己获得的渲染结果数据传递给下一级组件,并推动其处理数据。

4.     **Outputs**

      

Outputs组件是响应链的终点,负责将处理结果输出。这组组件同样实现GPUImageInput协议,处理上一级组件的输出结果。GPUImageView是UIView的子类,用于实时将滤波结果显示在屏幕上,GPUImageMovieWriter将滤镜视频保存在本地,GPUImageTextureOutput输出GPU纹理,GPUImageRawDataOutput提供输出完成的delegate回调和读区像素数据的接口。录制滤镜视频时需要用到GPUImageView和GPUImageMovieWriter。

GPUImageMovieWriter将视频输出到磁盘,通过设置、使用AVAssetWriter,在newFrameReadyAtTime:中实现功能。

GPUImageView内部将自己的CALayer申明为CAEAGLayer,在初始化后调用createDisplayFramebuffer方法:

将renderBuffer和CALayer关联,newFrameReadyAtTime:渲染后图像会输出至CALayer上。

录制滤镜视频

下面的例子利用GPUImage录制视频、实现实时的滤镜效果渲染并将视频文件保存到本地。

通过GPUImageVideoCamera采集视频和音频数据,音频直接传递至GPUImageMovieWriter;视频传入滤镜链,经过滤镜处理后,输出的渲染结果传递给GPUImageMovieWriter准备写入本地文件,并通过GPUImageView显示在屏幕上。

下图是视频录制页面,使用内置滤镜GPUImageSwirlFilter,屏幕下方滑动条可以调整滤波核参数,实时的改变滤镜渲染的效果(本例表现为螺旋形的角度)。点击左上方按钮启动/结束录制,结束录制后视频文件保存在本地相册。

录制界面

设置响应链:

点击录制按钮开始录制视频,用NSURL及尺寸初始化_movieWriter:

结束录制:

其他滤镜效果:

   

玻璃球                                       阴影边框

   

                         泊松图像融合                            左图中的水印原图

   

  形态学开运算                               形态学闭运算

   

                        风格化之素描画                                卡通

__

#


下一篇 走进 Masonry

说一说

目录