FFmpeg编写一个简单播放器步骤

上传人:e****s 文档编号:112370894 上传时间:2022-06-22 格式:DOCX 页数:49 大小:72.38KB
返回 下载 相关 举报
FFmpeg编写一个简单播放器步骤_第1页
第1页 / 共49页
FFmpeg编写一个简单播放器步骤_第2页
第2页 / 共49页
FFmpeg编写一个简单播放器步骤_第3页
第3页 / 共49页
点击查看更多>>
资源描述
如何用FFmpeg编写一个简单播放器详细步骤FFmpeg, 播放器, 编写FFMPEG是一个很好的库,可以用来创建视频应用或者生成特定的工具。FFMPEG几乎为你把所有的繁重工作都做了,比 如解码、编码、复用和解复用。这使得多媒体应用程序变得容易编写。它是一个简单的,用C编写的,快速的并且能够解码 几乎所有你能用到的格式,当然也包括编码多种格式。唯一的问题是它的文档基本上是没有的。有一个单独的指导讲了它的基本原理另外还有一个使用doxygen生成的文档。这就是为什么当我决定研究 FFMPEG来弄清楚音视频应用程序是如何工作的过程中,我决定把这个过程用文档的形式记录并且发布出来作为初学指导的原因。在FFMPEG工程中有一个示例的程序叫作ffplay。它是一个用C编写的利用ffmpeg来实现完整视频播放的简单播放器。这个指导将从原来Martin Bohme写的一个更新版本的指导开始(我借鉴了一些),基于Fabrice Bellard的ffplay,我将从那里开发一个可以使用的视频播放器。在每一个指导中,我将介 绍一个或者两个新的思想并且讲解我们如何来实现它。每一个指导都会有一个C源文件,你可以下载,编译并沿着这条思路来自己做。源文件将向你展示一个真正 的程序是如何运行,我们如何来调用所有的部件,也将告诉你在这个指导中技术实现的细节并不重要。当我们结束这个指导的时候,我们将有一个少于1000行代码的可以工作的视频播放器。在写播放器的过程中,我们将使用SDL来输出音频和视频。SDL是一个优秀的跨平台的多媒体库,被用在MPEG播放、模拟器和很多视频游戏中。你将需要下载并安装SDL开发库到你的系统中,以便于编译这个指导中的程序。这篇指导适用于具有相当编程背景的人。至少至少应该懂得C并且有队列和互斥量等概念。你应当了解基本的多媒体中的像波形一类的概念,但是你不必知道的太 多,因为我将在这篇指导中介绍很多这样的概念。更新:我修正了在指导7和8中的一些代码错误,也添加-lavutil参数。欢迎给我发邮件到dranger,讨论关于程序问题、疑问、注释、思路、 特性等任何的问题指 导1:制作屏幕录像源代码:tutorial01.c概要电影文件有很多基本的组成部分。首先,文件本身被称为容 器Container,容器的类型决定了信息被存放在文件中的位置。AVI和 Quicktime就是容器的例子。接着,你有一组流, 例如,你经常有的是一个音频流和一个视频流。(一个流只是一种想像出来的词语,用来表示一连 串的通过时间来串连的数据元素)。在流中的数据元素被称为帧Frame。 每个流是由不同的编码器来编码生成的。编解码器描述了实际的数据是如何被编码Coded和解码DECoded的,因此它的名字叫做CODEC。Divx和 MP3就是编解码器的例子。接着从流中被读出来的叫做包 Packets。包是一段数据,它包含了一段可以被解码成方便我们最后在应用程序中操作的原始帧的数据。根据我们的目的,每个包包含 了完整的帧或者对于音频来说是许多格式的完整帧。基本上来说,处理视频和音频流是很容易的:10 从video.avi文件中打开视频流video_stream20 从视频流中读取包到帧中30 如果这个帧还不完整,跳到2040 对这个帧进行一些操作50 跳回到20在这个程序中使用ffmpeg来处理多种媒体是相当容易的,虽然很多程序 可能在对帧进行操作的时候非常的复杂。因此在这篇指导中,我们将打开一个文件,读取里面的视频流,而且我们对帧的操作将是把这个帧写到一个PPM文件中。打开文件首先,来看一下我们如何打开一个文件。通过ffmpeg,你必需先初始化这个库。(注意在某些系统中必需 用和来替换)#include #include .int main(int argc, charg *argv) av_register_all();这里注册了所有的文件格式和编解码器的库,所以它们将被自 动的使用在被打开的合适格式的文件上。注意你只需要调用av_register_all()一次,因此我们在主函数main()中来调用它。如果你喜欢, 也可以只注册特定的格式和编解码器,但是通常你没有必要这样做。现在我们可以真正的打开文件:AVFormatContext *pFormatCtx;/ Open video fileif(av_open_input_file(&pFormatCtx, argv1, NULL, 0, NULL)!=0)return -1; / Couldnt open file我们通过第一个参数来获得文件名。这个函数读取文件的头部并且把信息保存到我们给的AVFormatContext结构体中。最后三个参数用来指定特殊的 文件格式,缓冲大小和格式参数,但如果把它们设置为空NULL或者0,libavformat将自动检测这些参数。这个函数只是检测了文件的头部,所以接着我们需要检查在文件中的流的信息:/ Retrieve stream informationif(av_find_stream_info(pFormatCtx)streams填充上正确的信息。我们引进一个手工调试的函数来看一下里面有什么:/ Dump information about file onto standard errordump_format(pFormatCtx, 0, argv1, 0);现在pFormatCtx-streams仅仅是一组大小为pFormatCtx-nb_streams的指针,所以让我们先跳过它直到 我们找到一个视频流。int i;AVCodecContext *pCodecCtx;/ Find the first video streamvideoStream=-1;for(i=0; inb_streams; i+)if(pFormatCtx-streams-codec-codec_type=CODEC_TYPE_VIDEO) videoStream=i; break;if(videoStream=-1)return -1; / Didnt find a video stream/ Get a pointer to the codec context for the video streampCodecCtx=pFormatCtx-streamsvideoStream-codec;流中关于编解码器的信息就是被我们叫做codec context(编解码器上下文)的东西。这里面包含了流中所使用的关于编解码器的所有信息,现在我们有了一个指向他的指针。但是我们必需要找到真正的 编解码器并且打开它:AVCodec *pCodec;/ Find the decoder for the video streampCodec=avcodec_find_decoder(pCodecCtx-codec_id);if(pCodec=NULL) fprintf(stderr, Unsupported codec!n);return -1; / Codec not found/ Open codecif(avcodec_open(pCodecCtx, pCodec)flags和添 加一个hack来粗糙的修正帧率。这两个修正已经不在存在于ffplay.c中。因此,我必需假设它们不再必要。我们移除了那些代码后还有一个需要指出的 不同点:pCodecCtx-time_base现在已经保存了帧率的信息。time_base是一个结构体,它里面有一个分子和分母 (AVRational)。我们使用分数的方式来表示帧率是因为很多编解码器使用非整数的帧率(例如NTSC使用29.97fps)。保存数据现在我们需要找到一个地方来保存帧:AVFrame *pFrame;/ Allocate video framepFrame=avcodec_alloc_frame();因为我们准备输出保存24位RGB色的PPM文件,我们必需把帧的格式从原来的转换为RGB。FFMPEG将为我们做这些转换。在大多数项目中(包括我们 的这个)我们都想把原始的帧转换成一个特定的格式。让我们先为转换来申请一帧的内存。/ Allocate an AVFrame structurepFrameRGB=avcodec_alloc_frame();if(pFrameRGB=NULL)return -1;即使我们申请了一帧的内存,当转换的时候,我们仍然需要一个地方来放置原始的数据。我们使用avpicture_get_size来获得我们需要的大小, 然后手工申请内存空间:uint8_t *buffer;int numBytes;/ Determine required buffer size and allocate buffernumBytes=avpicture_get_size(PIX_FMT_RGB24, pCodecCtx-width, pCodecCtx-height);buffer=(uint8_t *)av_malloc(numBytes*sizeof(uint8_t);av_malloc是ffmpeg的malloc,用来实现一个简单的malloc的包装,这样来保证内存地址是对齐的(4字节对齐或者2字节对齐)。它并不能保 护你不被内存泄漏,重复释放或者其它malloc的问题所困扰。现在我们使用avpicture_fill来把帧和我们新申请的内存来结合。关于AVPicture的结成:AVPicture结构体是AVFrame结 构体的子集AVFrame结构体的开始部分与AVPicture结构体是一样的。/ Assign appropriate parts of buffer to image planes in pFrameRGB/ Note that pFrameRGB is an AVFrame, but AVFrame is a superset/ of AVPictureavpicture_fill(AVPicture *)pFrameRGB, buffer, PIX_FMT_RGB24, pCodecCtx-width, pCodecCtx-height);最后,我们已经准备好来从流中读取数据了。读取数据我们将要做的是通过读取包来读取整个视频流,然后把它解码成帧,最好后转换格式并且保存。int frameFinished;AVPacket packet;i=0;while(av_read_frame(pFormatCtx, &packet)=0) / Is this a packet from the video stream?if(packet.stream_index=videoStream) / Decode video frame avcodec_decode_video(pCodecCtx, pFrame, &frameFinished, packet.data, packet.size); / Did we get a video frame? if(frameFinished) / Convert the image from its native format to RGB img_convert(AVPicture *)pFrameRGB, PIX_FMT_RGB24, (AVPicture*)pFrame, pCodecCtx-pix_fmt, pCodecCtx-width, pCodecCtx-height); / Save the frame to disk if(+iwidth, pCodecCtx-height, i); / Free the packet that was allocated by av_read_frameav_free_packet(&packet);这个循环过程是比较简单的:av_read_frame()读取一个包并且把它保存到AVPacket结构体中。注意我们仅仅申请了一个包的结构体 ffmpeg为我们申请了内部的数据的内存并通过packet.data指针来指向它。这些数据可以在后面通过av_free_packet()来释 放。函数avcodec_decode_video()把包转换为帧。然而当解码一个包的时候,我们可能没有得到我们需要的关于帧的信息。因此,当我们得 到下一帧的时候,avcodec_decode_video()为我们设置了帧结束标志frameFinished。最后,我们使用 img_convert()函数来把帧从原始格式(pCodecCtx-pix_fmt)转换成为RGB格式。要记住,你可以把一个 AVFrame结构体的指针转换为AVPicture结构体的指针。最后,我们把帧和高度宽度信息传递给我们的SaveFrame函数。关于包Packets的注释从技术上讲一个包可以包含部分或者其它的数据,但是 ffmpeg的解释器保证了我们得到的包Packets包含的要么是完整的要么是多种完整的帧。现在我们需要做的是让SaveFrame函数能把RGB信息定稿到一个PPM格式的文件中。我们将生成一个简单的PPM格式文件,请相信,它是可以工作 的。void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame) FILE *pFile;char szFilename32;inty;/ Open filesprintf(szFilename, frame%d.ppm, iFrame);pFile=fopen(szFilename, wb);if(pFile=NULL) return;/ Write headerfprintf(pFile, P6n%d %dn255n, width, height);/ Write pixel datafor(y=0; ydata0+y*pFrame-linesize0, 1, width*3, pFile);/ Close filefclose(pFile);我们做了一些标准的文件打开动作,然后写入RGB数据。我们一次向文件写入一行数据。PPM格式文件的是一种包含一长串的RGB数据的文件。如果你了解 HTML色彩表示的方式,那么它就类似于把每个像素的颜色头对头的展开,就像#ff0000#ff0000.就表示了了个红色的屏幕。(它被保存成 二进制方式并且没有分隔符,但是你自己是知道如何分隔的)。文件的头部表示了图像的宽度和高度以及最大的RGB值的大小。现在,回顾我们的main()函数。一旦我们开始读取完视频流,我们必需清理一切:/ Free the RGB imageav_free(buffer);av_free(pFrameRGB);/ Free the YUV frameav_free(pFrame);/ Close the codecavcodec_close(pCodecCtx);/ Close the video fileav_close_input_file(pFormatCtx);return 0;你会注意到我们使用av_free来释放我们使用avcode_alloc_fram和av_malloc来分配的内存。上面的就是代码!下面,我们将使用Linux或者其它类似的平台,你将运行:gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lz -lavutil -lm如果你使用的是老版本的ffmpeg,你可以去掉-lavutil参数:gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lz -lm大多数的图像处理函数可以打开PPM文件。可以使用一些电影文件来进行测试如何用FFmpeg编写一个简单播放器详细步骤介绍(3)FFmpeg, 播放器, 编写上来得到这个库的源代码或者如果有可能的话你可以直接下载开发包到你的操作系统中。按照这个指导,你将需要编译这个库。(剩下的几个指导中也是一样)SDL库中有许多种方式来在屏幕上绘制图形,而且它有一个特殊的方式来在屏幕上显示图像这种方式叫做YUV覆盖。YUV(从技术上来讲并不叫YUV而是叫做YCbCr)是一种类似 于RGB方式的存储原始图像的格式。粗略的讲,Y是亮度分量,U和V是色度分量。(这种格式比RGB复杂的多,因为很多的颜色信息被丢弃了,而且你可以每 2个Y有1个U和1个V)。SDL的YUV覆盖使用一组原始的YUV数据并且在屏幕上显示出他们。它可以允许4种不同的 YUV格式,但是其中的YV12是最快的一种。还有一个叫做YUV420P的YUV格式,它和YV12是一样的,除了U和V分量的位置被调换了以外。 420意味着它以4:2:0的比例进行了二次抽样,基本上就意味着1个颜色分量对应着4个亮度分量。所以它的色度信息只有原来的1/4。这是一种节省带宽 的好方式,因为人眼感觉不到这种变化。在名称中的P表示这种格式是平面的简单的说就是Y,U和V分量分别在不同的数组中。FFMPEG可以把图像格式 转换为YUV420P,但是现在很多视频流的格式已经是YUV420P的了或者可以被很容易 的转换成YUV420P格式。于是,我们现在计划把指导1中的SaveFrame()函数替换掉,让它直接输出我们的帧到屏幕上去。但一开始我们必需要先看一下如何使用SDL库。首先 我们必需先包含SDL库的头文件并且初始化它。#include #include if(SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER) fprintf(stderr, Could not initialize SDL - %sn, SDL_GetError();exit(1);SDL_Init()函数告诉了SDL库,哪些特性我们将要用到。当然SDL_GetError()是一个用来手工除错的函数。创建一个显示现在我们需要在屏幕上的一个地方放上一些东西。在SDL中显示图像的基本区域叫做面surface。SDL_Surface *screen; screen = SDL_SetVideoMode(pCodecCtx-width, pCodecCtx-height, 0, 0);if(!screen) fprintf(stderr, SDL: could not set video mode - exitingn);exit(1);这就创建了一个给定高度和宽度的屏幕。下一个选项是屏幕的颜色深度0表示使用和当前一样的深度。(这个在OS X系统上不能正常工作,原因请看源代码)现在我们在屏幕上来创建一个YUV覆盖以便于我们输入视频上去:SDL_Overlay *bmp; bmp = SDL_CreateYUVOverlay(pCodecCtx-width, pCodecCtx-height, SDL_YV12_OVERLAY, screen);正如前面我们所说的,我们使用YV12来显示图像。显示图像前面那些都是很简单的。现在我们需要来显示图像。让我们看一下是如何来处理完成后的帧的。我们将原来对RGB处理的方式,并且替换SaveFrame() 为显示到屏幕上的代码。为了显示到屏幕上,我们将先建立一个AVPicture结构体并且设置其数据指针和行尺寸来为我们的YUV覆盖服务:if(frameFinished) SDL_LockYUVOverlay(bmp); AVPicture pict; pict.data0 = bmp-pixels0; pict.data1 = bmp-pixels2; pict.data2 = bmp-pixels1; pict.linesize0 = bmp-pitches0; pict.linesize1 = bmp-pitches2; pict.linesize2 = bmp-pitches1; / Convert the image into YUV format that SDL uses img_convert(&pict, PIX_FMT_YUV420P, (AVPicture *)pFrame, pCodecCtx-pix_fmt, pCodecCtx-width, pCodecCtx-height); SDL_UnlockYUVOverlay(bmp); 首先,我们锁定这个覆盖,因为我们将要去改写它。这是一个避免以后发生问题的好习惯。正如前面所示的,这个AVPicture结构体有一个数据指针指向一 个有4个元素的指针数据。由于我们处理的是YUV420P,所以我们只需要3个通道即只要三组数据。其它的格式可能需要第四个指针来表示alpha通道或 者其它参数。行尺寸正如它的名字表示的意义一样。在YUV覆盖中相同功能的结构体是像素pixel和程度pitch。(程度pitch是在SDL里用来表 示指定行数据宽度的值)。所以我们现在做的是让我们的覆盖中的pict.data中的三个指针有一个指向必要的空间的地址。类似的,我们可以直接从覆盖中得到行尺寸信息。像 前面一样我们使用img_convert来把格式转换成PIX_FMT_YUV420P。绘制图像但我们仍然需要告诉SDL如何来实际显示我们给的数据。我们也会传递一个表明电影位置、宽度、高度和缩放大小的矩形参数给SDL的函数。这样,SDL为我 们做缩放并且它可以通过显卡的帮忙来进行快速缩放。SDL_Rect rect; if(frameFinished) / Convert the image into YUV format that SDL uses img_convert(&pict, PIX_FMT_YUV420P, (AVPicture *)pFrame, pCodecCtx-pix_fmt, pCodecCtx-width, pCodecCtx-height); SDL_UnlockYUVOverlay(bmp); rect.x = 0; rect.y = 0; rect.w = pCodecCtx-width; rect.h = pCodecCtx-height; SDL_DisplayYUVOverlay(bmp, &rect);现在我们的视频显示出来了!让我们再花一点时间来看一下SDL的特性:它的事件驱动系统。SDL被 设置成当你在SDL中点击或者移动鼠标或者向它发送一个信号它都将产生一个事件的驱动方式。如果你的程序想要处理用户输入的话,它就会检测这些事件。你的程 序也可以产生事件并且传递给SDL事件系统。当使用SDL进行多线程编程的时候,这相当有用,这方面代码我们可以在指导4中看到。在这个程序中,我们将在 处理完包以后就立即轮询事件。现在而言,我们将处理SDL_QUIT事件以便于我们退出:SDL_Event event; av_free_packet(&packet); SDL_PollEvent(&event); switch(event.type) case SDL_QUIT: SDL_Quit(); exit(0); break; default: break; 让我们去掉旧的冗余代码,开始编译。如果你使用的是Linux或者其变体,使用SDL库进行编译的最好方式 为:gcc -o tutorial02 tutorial02.c -lavutil -lavformat -lavcodec -lz -lm sdl-config -cflags -libs这里的sdl-config命令会打印出用于gcc编译的包含正确SDL库的适当参数。为了进行编译,在你自己的平台你可能需要做的有点不同:请查阅一下 SDL文档中关于你的系统的那部分。一旦可以编译,就马上运行它。当运行这个程序的时候会发生什么呢?电影简直跑疯了!实际上,我们只是以我们能从文件中解码帧的最快速度显示了所有的电影的帧。现在我们没有任何代码来计 算出我们什么时候需要显示电影的帧。最后(在指导5),我们将花足够的时间来探讨同步问题。但一开始我们会先忽略这个,因为我们有更加重要的事情要处理: 音频!指 导3:播放声音现在我们要来播放声音。SDL也为我们准备了输出声音的方法。函数SDL_OpenAudio()本身就是用来打开声音设备的。它使用一个叫做 SDL_AudioSpec结构体作为参数,这个结构体中包含了我们将要输出的音频的所有信息。在我们展示如何建立之前,让我们先解释一下电脑是如何处理音频的。数字音频是由一长串的样本流组成的。每个样本表示声音波形中的一个值。声音按照一个特定 的采样率来进行录制,采样率表示以多快的速度来播放这段样本流,它的表示方式为每秒多少次采样。例如22050和44100的采样率就是电台和CD常用的 采样率。此外,大多音频有不只一个通道来表示立体声或者环绕。例如,如果采样是立体声,那么每次的采样数就为2个。当我们从一个电影文件中等到数据的时候,我们不知道我们将得到多少个样 本,但是ffmpeg将不会给我们部分的样本这意味着它将不 会把立体声分割开来。SDL播放声音的方式是这样的:你先设置声音的选项:采样率(在SDL的结构体中被叫做freq的表示频率frequency),声音通道数和其它的参 数,然后我们设置一个回调函数和一些用户数据userdata。当开始播放音频的时候,SDL将不断地调用这个回调函数并且要求它来向声音缓冲填入一个特 定的数量的字节。当我们把这些信息放到SDL_AudioSpec结构体中后,我们调用函数SDL_OpenAudio()就会打开声音设备并且给我们送 回另外一个AudioSpec结构体。这个结构体是我们实际上用到的因为我们不能保证得到我们所要求的。设置音频目前先把讲的记住,因为我们实际上还没有任何关于声音流的信息。让我们回过头来看一下我们的代码,看我们是如何找到视频流的,同样我们也可以找到声音流。/ Find the first video streamvideoStream=-1;audioStream=-1;for(i=0; i nb_streams; i+) if(pFormatCtx-streams-codec-codec_type=CODEC_TYPE_VIDEO & videoStream streams-codec-codec_type=CODEC_TYPE_AUDIO & audioStream streamsaudioStream-codec;包含在编解码上下文中的所有信息正是我们所需要的用来建立音频的信息:wanted_spec.freq = aCodecCtx-sample_rate;wanted_spec.format = AUDIO_S16SYS;wanted_spec.channels = aCodecCtx-channels;wanted_spec.silence = 0;wanted_spec.samples = SDL_AUDIO_BUFFER_SIZE;wanted_spec.callback = audio_callback;wanted_spec.userdata = aCodecCtx;if(SDL_OpenAudio(&wanted_spec, &spec) codec_id);if(!aCodec) fprintf(stderr, Unsupported codec!n);return -1;avcodec_open(aCodecCtx, aCodec);队列嗯!现在我们已经准备好从流中取出声音信息。但是我们如何来处理这些信息呢?我们将会不断地从文件中得到这些包,但同时SDL也将调用回调函数。解决方法 为创建一个全局的结构体变量以便于我们从文件中得到的声音包有地方存放同时也保证SDL中的声音回调函数audio_callback能从这个地方得到声 音数据。所以我们要做的是创建一个包的队列queue。在ffmpeg中有一个叫AVPacketList的结构体可以帮助我们,这个结构体实际是一串包 的链表。下面就是我们的队列结构体:typedef struct PacketQueue AVPacketList *first_pkt, *last_pkt;int nb_packets;int size;SDL_mutex *mutex;SDL_cond *cond; PacketQueue;首先,我们应当指出nb_packets是与size不一样的size表示我们从packet-size中得到的字节数。你会注意到我们有一 个互斥量mutex和一个条件变量cond在结构体里面。这是因为SDL是在一个独立的线程中来进行音频处理的。如果我们没有正确的锁定这个队列,我们有 可能把数据搞乱。我们将来看一个这个队列是如何来运行的。每一个程序员应当知道如何来生成的一个队列,但是我们将把这 部分也来讨论从而可以学习到SDL的函数。一开始我们先创建一个函数来初始化队列:void packet_queue_init(PacketQueue *q) memset(q, 0, sizeof(PacketQueue);q-mutex = SDL_CreateMutex();q-cond = SDL_CreateCond();接着我们再做一个函数来给队列中填入东西:int packet_queue_put(PacketQueue *q, AVPacket *pkt) AVPacketList *pkt1;if(av_dup_packet(pkt) pkt = *pkt;pkt1-next = NULL;SDL_LockMutex(q-mutex);if (!q-last_pkt) q-first_pkt = pkt1;else q-last_pkt-next = pkt1;q-last_pkt = pkt1;q-nb_packets+;q-size += pkt1-pkt.size;SDL_CondSignal(q-cond);SDL_UnlockMutex(q-mutex);return 0;函数SDL_LockMutex()锁定队列的互斥量以便于我们向队列中添加东西,然后函数SDL_CondSignal()通过我们的条件变量为一个接 收函数(如果它在等待)发出一个信号来告诉它现在已经有数据了,接着就会解锁互斥量并让队列可以自由访问。下面是相应的接收函数。注意函数SDL_CondWait()是如何按照我们的要求让函数阻塞block的(例如一直等到队列中有数据)。int quit = 0;static int packet_queue_get(PacketQueue *q, AVPacket *pkt, int block) AVPacketList *pkt1;int ret;SDL_LockMutex(q-mutex);for(;) if(quit) ret = -1; break; pkt1 = q-first_pkt; if (pkt1) q-first_pkt = pkt1-next; if (!q-first_pkt) q-last_pkt = NULL; q-nb_packets-; q-size -= pkt1-pkt.size; *pkt = pkt1-pkt; av_free(pkt1); ret = 1; break; else if (!block) ret = 0; break; else SDL_CondWait(q-cond, q-mutex); SDL_UnlockMutex(q-mutex);return ret;正如你所看到的,我们已经用一个无限循环包装了这个函数以便于我们想用阻塞的方式来得到数据。我们通过使用SDL中的函数SDL_CondWait()来 避免无限循环。基本上,所有的CondWait只等待从SDL_CondSignal()函数(或者SDL_CondBroadcast()函数)中发出 的信号,然后再继续执行。然而,虽然看起来我们陷入了我们的互斥体中如果我们一直保持着这个锁,我们的函数将永远无法把数据放入到队列中去!但 是,SDL_CondWait()函数也为我们做了解锁互斥量的动作然后才尝试着在得到信号后去重新锁定它。意外情况你们将会注意到我们有一个全局变量quit,我们用它来保证还没有设置程序退出的信号(SDL会自动处理TERM类似的信 号)。否则,这个线程将不停地运行直到我们使用kill -9来结束程序。FFMPEG同样也提供了一个函数来进行回调并检查我们是否需要退出一些被阻塞的函数:这个函数就是 url_set_interrupt_cb。int decode_interrupt_cb(void) return quit;.main() .url_set_interrupt_cb(decode_interrupt_cb); . SDL_PollEvent(&event);switch(event.type) case SDL_QUIT: quit = 1;.当然,这仅仅是用来给ffmpeg中的阻塞情况使用的,而不是SDL中的。我们还必需要设置quit标志为1。为队列提供包剩下的我们唯一需要为队列所做的事就是提供包了:PacketQueue audioq;main() .avcodec_open(aCodecCtx, aCodec);packet_queue_init(&audioq);SDL_PauseAudio(0);函数SDL_PauseAudio()让音频设备最终开始工作。如果没有立即供给足够的数据,它会播放静音。我们已经建立好我们的队列,现在我们准备为它提供包。先看一下我们的读取包的循环:while(av_read_frame(pFormatCtx, &packet)=0) / Is this a packet from the video stream?if(packet.stream_index=videoStream) / Decode video frame . else if(packet.stream_index=audioStream) packet_queue_put(&audioq, &packet); else av_free_packet(&packet);注意:我们没有在把包放到队列里的时候释放它,我们将在解码后来释放它。取出包现在,让我们最后让声音回调函数audio_callback来从队列中取出包。回调函数的格式必需为void callback(void *userdata, Uint8 *stream, int len),这里的userdata就是我们给到SDL的指针,stream是我们要把声音数据写入的缓冲区指针,len是缓冲区的大小。下面就是代码:void audio_callback(void *userdata, Uint8 *stream, int len) AVCodecContext *aCodecCtx = (AVCodecContext *)userdata;int len1, audio_size;static uint8_t audio_buf(AVCODEC_MAX_AUDIO_FRAME_SIZE * 3) / 2;static unsigned int audio_buf_size = 0;static unsigned int audio_buf_index = 0;while(len 0) if(audio_buf_index = audio_buf_size) audio_size = audio_decode_frame(aCodecCtx, audio_buf, sizeof(audio_buf); if(audio_size 0) audio_buf_size = 10
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 商业管理 > 商业计划


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!