Unity视频播放总结

发表于2015-12-09
评论4 6.3k浏览

Unity视频播放有很多种实现方式,可根据要求来选择适当的实现,这里总结一下:

1. MovieTexture

    Unity标准接口,支持的播放视频格式有.mov、.mpg、.mpeg、.mp4、.avi和.asf。仅支持PC端的本地视频播放。
    1. 在游戏对象中播放,就好比在游戏世界中创建一个Plane面对象,摄像机直直的照射在这个面上   
    在新建的一个plane平面,将其纹理绑定为电影纹理即可
     //设置当前对象的主纹理为电影纹理
renderer.material.mainTexture = movTexture;
//设置电影纹理播放模式为循环
movTexture.loop = true;
    并可通过
        movTexture.Play();
        movTexture.Pause();
                movTexture.Stop();
    来进得播放控制。
    此时可以通过直接缩放plane平面来达到缩放视频的目的
    至于MovieTexture的赋值,在4.6x/5.0x版本上是无法通过将视频拖入Project视频来自动造成纹理的,之前的老版本是可行的。
 
    2. 在GUI层面播放。它其实和贴图非常相像,因为播放视频用到的MovieTexture属于贴图Texture的子类。
 
//绘制电影纹理
GUI.DrawTexture (new Rect (0,0, Screen.width, Screen.height),movTexture,ScaleMode.StretchToFill); 
    播放视频的大小是屏幕的宽高,如果想动态的修改视频的宽或高直接修改new Rect() 视频显示区域即可

2. Handheld.PlayFullScreenMovie

    Unity标准的视频播放接口,支持的播放视频格式有.mov、.mpg、.mpeg、.mp4、.avi和.asf。支持PC/移动端播放,支持本地在线播放
    url_movie = "http://dl.nbrom.cn/17051/c3e408229342723fbdf62d0bcf1d549c.mp4?fsname=Criminal_Minds_S01E01.mp4";
    Handheld.PlayFullScreenMovie(url_movie, Color.black, FullScreenMovieControlMode.Full);    
    Handheld.PlayFullScreenMovie("test.mp4"Color.black, FullScreenMovieControlMode.CancelOnInput);
    将视频文件放置在Assets/StreamingAssets/路径下
上面的方法在移动端是边下载边播放网络视频的,属于在线播放,不好的地方就是,再次观看还需要再次加载。可能在播放的时候判断是否已下载到本地如果在本地就可以播放本地,如果没有再从网上下载到本地
3. MobileMovieTexture
  Unity移动端第三方插件视频播放,分免费版和收费版,免费版视频加了水印,收费版无水印,但该插件本身有很多bug,其中最重要的是没有音频。它也不支持在线视频播放。
4. EasyMovieTexture
  Unity移动端第三方视频播放插件,支持视频本地播放,支持RTSP。
    1>. 初始化加载,该部分主要在Unity中将播放视频的地址(本地/URL)传送到Android,并完成MediaPlayer的初始化
        
            
    2>. Android创建一个Surface,并将其与之前创建的MediaPlayer绑定
        
    3>. 结合视频绘制载体计算图像拉伸比
        
    4>. 根据视频宽高比创建VideoTexture并传到Android与
        m_VideoTexture = new Texture2D(Call_GetVideoWidth(), Call_GetVideoHeight(), TextureFormat.RGB565, false);
        Call_SetUnityTexture(m_VideoTexture.GetNativeTextureID());
    5>. 设置视频窗口,完成TextureId与surface的绑定
        SetWindowSize(GetVideoWidth(),GetVideoHeight(),m_iUnityTextureID ,m_bRockchip);
    6>. 更新纹理
        Call_UpdateVideoTexture();
        m_SurfaceTexture.updateTexImage();
    7>. 播放视频
        使用MediaPlayer播放视频
5. MediaPlayer + SurfaceTexture

播放组件上层使用MediaPlayer处理,在成功创建设置好setDataSource需要创建GL_TEXTURE_EXTERNAL_OES格式的纹理IDMediaPlayer生成联系。


这里我们需要使用SurfaceTexture理由,它能代替SurfaceHolder,使得当我指定图像流的输出目标为照相机预览或视频解码时们在每一帧中得到的所有数据不需要直接用于显示在设备上,而可以选择先输出到SurfaceTexture上,在上屏之前可能做一些自定义扩展调用updateTexImage()时,用来创建SurfaceTexture的纹理对象内容被更新为包含图像流中最近的图片。

   SurfaceTexture对象可以在任何线程里创建。但updateTexImage()只能在包含纹理对象的OpenGL ES上下文所在的线程里创建。可以得到帧信息的回调可以在任何线程被调用。这一点要注意上下文如果一致,视频无法上屏。

   这里还有个要求就是创建纹理的时候,需要使用使用GL_TEXTURE_EXTERNAL_OES作为纹理目标,其是OpenGL ES扩展GL_OES_EGL_image_external定义的。这种纹理目标会对纹理的使用方式造成一些限制。每次纹理绑定的时候,都要绑定到GL_TEXTURE_EXTERNAL_OES,而不是GL_TEXTURE_2D。而且,任何需要从纹理中采样的OpenGL ES 2.0 shader都需要声明其对此扩展的使用,例如,使用指令”#extension GL_OES_EGL_image_external:require”。这些shader也必须使用samplerExternalOES采样方式来访问纹理。这部分在后面采样器中有说明。

几个重要的技术点如下:

  • Shader采样 YUV->RGB

这里片元着色器的使用如下:

Shader是针对GL_TEXTURE_EXTERNAL_OES一种扩展完成YUVRGB转换样出来数据需要绘制Unity纹理,这里面不能直接操作,需要借助FBOEGLImage操作。该片着色器的写法使用SurfaceTexture里面已经有提及。

  • EGLImage

    EGLImage代表一种由EGL客户API(如OpenGLOpenVG)创建的共享资源类型。它的本意是共享2D图像数据,而在这里使用它的目的在于经过EGLImage创建的2D纹理能够bind到任意的载体GameObject上面。

 

   如何创建EGLImage,创建的标准接口如下

EGLImageKHR eglCreateImageKHR(

                            EGLDisplay dpy,

                            EGLContext ctx,

                            EGLenum target,

                            EGLClientBuffer buffer,

                            const EGLint *attrib_list);

target决定了创建EGLImage的方式,例如在Android系统中专门定义了一个称为EGL_NATIVE_BUFFER_ANDROID的Target,支持通过ANativeWindowBuffer创建EGLImage对象,而Buffer则对应创建EGLImage对象时的使用数据来源。

1) 首先需要一个ANativeWindowBuffer

buffer可以通过ANativeWindow的接口dequeueBuffer来获取

这个对象api接口多,buffer的管理类似于如下

这部分操作可以参考下面这篇文章

http://tangzm.com/blog/?p=167

 

在获取buffer之前要创建一个ANativeWindow对象


2) 通过ANativeWindowBuffer创建EGLImage


3) 成功创建了EGLImage后,可能通过它来创建一个2D纹理

这个2D纹理在后面创建FBO时候会用到

  • FBO - Frame Buffer Object

FBO即帧缓存对象,它是OpenGL管线的最终渲染目的地。在OpenGL渲染管线中,几何数据和纹理在FBO内部经过多次转化和多次测试,最后以二维像素的形式显示在屏幕上。它是一些二维数组和OpenG所使用的存储区的集合:颜色缓存、深度缓存、模板缓存和累计缓存。默认情况下,OpenGL将帧缓冲区作为渲染最终目的地。此帧缓冲区完全由window系统生成和管理。这个默认的帧缓存被称作“window系统生成”(window-system-provided)的帧缓冲区。

有两种类型的“帧缓存关联图像”:纹理图像(texture images)和渲染缓存图像(renderbuffer images)。如果纹理对象的图像数据关联到帧缓存,OpenGL执行的是“渲染到纹理”(render to texture)操作。如果渲染缓存的图像数据关联到帧缓存,OpenGL执行的是离线渲染(offscreen rendering)。

具体的操作如下:

这里使用通过一步EGLImage生成的2D纹理mTex,这样的话后续就可以通过操作FBO对象来获取MediaPlayerSurfaceTexture中的每一帧数据

关于FBO的详细接口说明,可下面链接

    http://blog.csdn.net/dreamcs/article/details/7691690

  • SurfaceTexture.updateTexImage

MediaPlayer当新的帧流可用时,调用updateTexImage从图像流中提取最近一帧到纹理图像中,此时由于同一个上下文中,首先需要执行一次FBO绑定操作,这由于GL_TEXTURE_EXTERNAL_OES的特性决定的实际上这个操作是为了准备的。

然后将shader采样出来的数据帧跟Unity纹理ID绑定后就可上

PS: 这里没有代码的详细逻辑,只是原理,可能理解不到位的地方,欢迎指

如社区发表内容存在侵权行为,您可以点击这里查看侵权投诉指引