ffplay中的代码充分调用了ffmpeg中的函数库,因此,想学习ffmpeg的利用,或基于ffmpeg开拓一个自己的播放器,ffplay都是一个很好的切入点。 ffplay源码编译见[公众年夜众号:断点实验室]的前述文章 [ffplay源码编译]。 由于ffmpeg本身的开拓文档比较少,且ffplay播放器源码的实现相对繁芜,除了根本的ffmpeg组件调用外,还包含视频帧的渲染、音频帧的播放、音视频同步策略及线程调度等问题。
因此,这里我们以ffmpeg官网推举的一个ffplay播放器简化版本的开拓例程为根本,在此根本上循规蹈矩由浅入深,终极磋商实现一个视频播放器的完全逻辑。
ffplay播放器简化版本开拓例程可在ffmpeg官网[documentation]页面的右下角找到,点击An FFmpeg and SDL Tutorial即可打开找到对应的源码。

这里对个中部分难以理解的代码进行了修正,并对险些所有代码逐行注释,方便大家理解
1、项目编译环境搭建这里仍以Ubuntu 16.04 LTS为根本进行讲述,由于ffmpeg支持多个主流平台,且api接口在各个平台是同等的,因此其他平台也可参照本文内容,后续会将代码移植到windows等其他平台,方便大家调试。
源码的编译除了ffmpeg环境外,还须要SDL-1.x版本的支持,用于供应视频帧的渲染及音频帧的播放。
1.1 sdl库编译
SDL(Simple DirectMedia Layer)是一个跨平台的多媒体和游戏开拓包,供应2D,音频,事宜驱动,多线程和定时器等做事,它利用C措辞写成,供应了多种掌握图像、声音、输出的函数,让开发者只要用相同或是相似的代码就可以开拓出跨多个平台(Linux、Windows、Mac OS X等)的运用软件。
SDL: Simple DirectMedia Layer is a cross-platform development library designed to provide low level access to audio, keyboard, mouse, joystick, and graphics hardware via OpenGL and Direct3D. It is used by video playback software, emulators, and popular games including Valve's award winning catalog and many Humble Bundle games.
可通过下面的链接下载SDL-1.2.15源码,把稳,例程中依赖的SDL版本与ffplay中有所不同 https://www.libsdl.org/download-1.2.php
下载完成后解压进入sdl源码目录,可通过下面的配置方法天生Makefile文件
./configure --prefix=/usr/local/3rdparty/sdl
天生Makefile文件后,输入make命令即可开始编译过程,编译完成后,实行make install命令进行安装
make make install
安装完成后,会在configure指定的目录下找到sdl的目录,由于sdl以库文件的办法供应支持,因此在sdl/bin目录下没有对应的可实行文件。
1.2 sdl环境变量配置
sdl编译完成后,还须要让系统能够找到对应的安装位置。打开/etc/profile配置文件,在该文件底部添加sdl的环境变量
#SDL ENVIRONMENTexport C_INCLUDE_PATH=/usr/local/3rdparty/sdl/include/SDL:$C_INCLUDE_PATHexport LD_LIBRARY_PATH=/usr/local/3rdparty/sdl/lib:$LD_LIBRARY_PATHexport PKG_CONFIG_PATH=/usr/local/3rdparty/sdl/lib/pkgconfig:$PKG_CONFIG_PATH
1.3 项目源码编译
项目源码可采取如下Makefile脚本进行编译
tutorial01: tutorial01.c gcc -o tutorial01 -g3 tutorial01.c -I${FFMPEG_INCLUDE} -I${SDL_INCLUDE} \ -L${FFMPEG_LIB} -lavutil -lavformat -lavcodec -lswscale -lswresample -lz -lm \ `sdl-config --cflags --libs`clean: rm -rf tutorial01 rm -rf .ppm
实行make命令开始编译,编译完成后,可在源码目录天生名为[tutorial01]的可实行文件。
1.4 验证
与ffplay的利用方法类似,实行[tutorial01 url]命令,可以看到在源码目录天生的后缀名为.ppm的图像
./tutorial01 rtmp://58.200.131.2:1935/livetv/hunantv
ppm图像在linux平台下可直接打开,看到有ppm图像天生,即可确定项目能够正常事情,输入Ctrl+C结束程序运行。
ppm格式的图像平时不太常用,大家没有必要做深入研究,这里仅用于对编译结果的验证。
PPM: A PPM file is a 24-bit color image formatted using a text format. It stores each pixel with a number from 0 to 65536, which specifies the color of the pixel. PPM files also store the image height and width, whitespace data, and the maximum color value. The portable pixmap format (PPM), the portable graymap format (PGM) and the portable bitmap format (PBM) are image file formats designed to be easily exchanged between platforms.
领取C++音视频开拓学习资料:点击→音视频开拓(资料文档+视频教程+口试题)(FFmpeg+WebRTC+RTMP+RTSP+HLS+RTP)
2 源码剖析
上述例程除了天生几张图片外,彷佛什么也做不了,彷佛离一个功能完全的视频播放器还有很远的间隔。 只管如此,例程依然包含了ffmpeg视频开拓用到的险些所有关键的api与数据构造。后面的内容会在此根本上不断的完善,直至实现一个完全的视频播放器。
2.1 流程
下面给出例程的流程图,流程非常大略,所有代码都运行在主线程中,流程涉及api及数据构造的含义都在例程源码中有详细的注释。
2.2 源码中涉及的api及组件
由于篇幅的限定,这里先简要先容每个组件及api的含义,后续文章中会深入先容每个组件及api的利用方法
组件:
AVFormatContext 保存文件容器封装信息及码流参数的构造体AVCodecContext 解码器高下文工具,解码器依赖的干系环境、状态、资源以及参数集的接口指针AVCodec 保存编解码器信息的构造体,供应编码与解码的公共接口AVPacket 卖力保存压缩编码数据干系信息的构造体,每帧图像由一到多个packet包组成AVFrame 保存音视频解码后的数据,如状态信息、编解码器信息、宏块类型表,QP表,运动矢量表等数据SwsContext 描述转换器参数的构造体api :
av_register_all 注册所有ffmpeg支持的多媒体格式及编解码器avformat_open_input 打开视频文件,读文件头内容,取得文件容器的封装信息及码流参数并存储在pFormatCtx中avformat_find_stream_info 取得文件中保存的码流信息,并添补到pFormatCtx->stream 字段avcodec_find_decoder 根据视频流对应的解码器高下文查找对应的解码器,返回对应的解码器avcodec_alloc_context3 复制编解码器高下文工具,用于保存从视频流中抽取的帧avcodec_open2 打开解码器av_frame_alloc 为解码后的视频信息构造体分配空间并完成初始化操作av_read_frame 从文件中依次读取每个图像编码数据包,并存储在AVPacket数据构造中avcodec_decode_video2 解码完全的一帧数据,若一个packet无法解码一个完全的视频帧,则在ffmpeg后台掩护的缓存行列步队会持续等待多个packet,直到能够解码出一个完全的视频帧为止3 ffmpeg能帮我们做什么视频开拓涉及到多种视频格式的编解码,多种文件格式及传输协议的解封装等操作,很难一下子全部节制。 ffmpeg通过其封装的api及组件,为我们屏蔽了不同视频封装格式及编码格式的差异,以统一的api接供词给给开拓者利用,开拓者不须要理解每种编码办法及封装办法详细的技能细节,只须要调用ffmpeg供应的api就可以完成解封装和解码的操作了。 至于视频帧的渲染及音频帧的播放,ffmpeg就无能为力了,因此须要借助类似sdl库等其他组件完成,后面的章节会为大家先容连续先容。
4 源码清单
// tutorial01.c// Code based on a tutorial by Martin Bohme (boehme@inb.uni-luebeckREMOVETHIS.de)// Tested on Gentoo, CVS version 5/01/07 compiled with GCC 4.1.1// With updates from https://github.com/chelyaev/ffmpeg-tutorial// Updates tested on:// LAVC 54.59.100, LAVF 54.29.104, LSWS 2.1.101 // on GCC 4.7.2 in Debian February 2015//// Updates tested on:// Mac OS X 10.11.6// Apple LLVM version 8.0.0 (clang-800.0.38)//// A small sample program that shows how to use libavformat and libavcodec to read video from a file.//// Use//// $ gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lswscale -lz -lm//// to build (assuming libavutil/libavformat/libavcodec/libswscale are correctly installed your system).//// Run using//// $ tutorial01 myvideofile.mpg//// to write the first five frames from "myvideofile.mpg" to disk in PPM format.// comment by breakpointlab@outlook.com#include <libavcodec/avcodec.h>#include <libavformat/avformat.h>#include <libswscale/swscale.h>#include <libavutil/imgutils.h>#include <stdio.h>// compatibility with newer API#if LIBAVCODEC_VERSION_INT < AV_VERSION_INT(55,28,1)#define av_frame_alloc avcodec_alloc_frame#define av_frame_free avcodec_free_frame#endif//保存PPM文件void SaveFrame(AVFrame pFrame, int width, int height, int iFrame) { FILE pFile;//定义文件工具 char szFilename[32];//定义输出文件名 // Open file,打开文件 sprintf(szFilename, "frame%d.ppm", iFrame);//格式化输出文件名 pFile = fopen(szFilename, "wb");//打开输出文件 if (pFile == NULL) {//检讨输出文件是否打开成功 return; } // Write header indicated how wide & tall the image is,向输出文件中写入文件头 fprintf(pFile, "P6\n%d %d\n255\n", width, height); // Write pixel data,write the file one line a time,一次一行循环写入RGB24像素值 int y; for (y = 0; y < height; y++) { fwrite(pFrame->data[0]+ypFrame->linesize[0], 1, width3, pFile); } // Close file,关闭文件 fclose(pFile);}int main(int argc, char argv[]) {/--------------参数定义-------------/ // Initalizing these to NULL prevents segfaults! AVFormatContext pFormatCtx = NULL;//保存文件容器封装信息及码流参数的构造体 AVCodecContext pCodecCtxOrig = NULL;//解码器高下文工具,解码器依赖的干系环境、状态、资源以及参数集的接口指针 AVCodecContext pCodecCtx = NULL;//编码器高下文工具,用于PPM文件输出 AVCodec pCodec = NULL;//保存编解码器信息的构造体,供应编码与解码的公共接口,可以看作是编码器与解码器的一个全局变量 AVPacket packet;//卖力保存压缩编码数据干系信息的构造体,每帧图像由一到多个packet包组成 AVFrame pFrame = NULL;//保存音视频解码后的数据,如状态信息、编解码器信息、宏块类型表,QP表,运动矢量表等数据 AVFrame pFrameRGB = NULL;//保存输出24-bit RGB的PPM文件数据 struct SwsContext sws_ctx = NULL;//描述转换器参数的构造体 int numBytes;//RGB24格式数据长度 uint8_t buffer = NULL;//解码数据输出缓存指针 int i,videoStream;//循环变量,视频流类型标号 int frameFinished;//解码操作是否成功标识/-------------参数初始化------------/ if (argc<2) {//检讨输入参数个数是否精确 printf("Please provide a movie file\n"); return -1; } // Register all available formats and codecs,注册所有ffmpeg支持的多媒体格式及编解码器 av_register_all(); /----------------------- Open video file,打开视频文件,读文件头内容,取得文件容器的封装信息及码流参数并存储在pFormatCtx中 read the file header and stores information about the file format in the AVFormatContext structure The last three arguments are used to specify the file format, buffer size, and format options but by setting this to NULL or 0, libavformat will auto-detect these -----------------------/ if (avformat_open_input(&pFormatCtx, argv[1], NULL, NULL) != 0) { return -1; // Couldn't open file. } /----------------------- 取得文件中保存的码流信息,并添补到pFormatCtx->stream 字段 check out & Retrieve the stream information in the file then populate pFormatCtx->stream with the proper information pFormatCtx->streams is just an array of pointers, of size pFormatCtx->nb_streams -----------------------/ if (avformat_find_stream_info(pFormatCtx, NULL) < 0) { return -1; // Couldn't find stream information. } // Dump information about file onto standard error,打印pFormatCtx中的码流信息 av_dump_format(pFormatCtx, 0, argv[1], 0); // Find the first video stream. videoStream=-1;//视频流类型标号初始化为-1 for (i=0;i<pFormatCtx->nb_streams;i++) {//遍历文件中包含的所有流媒体类型(视频流、音频流、字幕流等) if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO) {//若文件中包含有视频流 videoStream = i;//用视频流类型的标号修正标识,使之不为-1 break;//退出循环 } } if (videoStream==-1) {//检讨文件中是否存在视频流 return -1; // Didn't find a video stream. } // Get a pointer to the codec context for the video stream,根据流类型标号从pFormatCtx->streams中取得视频流对应的解码器高下文 pCodecCtxOrig = pFormatCtx->streams[videoStream]->codec; /----------------------- Find the decoder for the video stream,根据视频流对应的解码器高下文查找对应的解码器,返回对应的解码器(信息构造体) The stream's information about the codec is in what we call the "codec context. This contains all the information about the codec that the stream is using -----------------------/ pCodec = avcodec_find_decoder(pCodecCtxOrig->codec_id); if (pCodec == NULL) {//检讨解码器是否匹配 fprintf(stderr, "Unsupported codec!\n"); return -1; // Codec not found. } // Copy context,复制编解码器高下文工具,用于保存从视频流中抽取的帧 pCodecCtx = avcodec_alloc_context3(pCodec);//创建AVCodecContext构造体工具pCodecCtx if (avcodec_copy_context(pCodecCtx, pCodecCtxOrig) != 0) {//复制编解码器高下文工具 fprintf(stderr, "Couldn't copy codec context"); return -1; // Error copying codec context. } // Open codec,打开解码器 if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) { return -1; // Could not open codec. } // Allocate video frame,为解码后的视频信息构造体分配空间并完成初始化操作(构造体中的图像缓存按照下面两步手动安装) pFrame = av_frame_alloc(); // Allocate an AVFrame structure,为转换PPM文件的构造体分配空间并完成初始化操作 pFrameRGB = av_frame_alloc(); if (pFrameRGB == NULL) {//检讨初始化操作是否成功 return -1; } // Determine required buffer size and allocate buffer,根据像素格式及图像尺寸打算内存大小 numBytes = av_image_get_buffer_size(AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height, 1); buffer = (uint8_t ) av_malloc(numBytes sizeof(uint8_t));//为转换后的RGB24图像配置缓存空间 // Assign appropriate parts of buffer to image planes in pFrameRGB Note that pFrameRGB is an AVFrame, but AVFrame is a superset of AVPicture // 为AVFrame工具安装图像缓存,将out_buffer缓存挂到pFrameYUV->data指针构造上 av_image_fill_arrays(pFrameRGB->data, pFrameRGB->linesize, buffer, AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height, 1); // Initialize SWS context for software scaling,设置图像转换像素格式为AV_PIX_FMT_RGB24 sws_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB24, SWS_BILINEAR, NULL, NULL, NULL);/--------------循环解码-------------/ i = 0;// Read frames(2 packet) and save first five frames to disk, /----------------------- read in a packet and store it in the AVPacket struct ffmpeg allocates the internal data for us,which is pointed to by packet.data this is freed by the av_free_packet() -----------------------/ while (av_read_frame(pFormatCtx, &packet) >= 0) {//从视频文件或网络流媒体中依次读取每个图像编码数据包,并存储在AVPacket数据构造中 // Is this a packet from the video stream,检讨数据包类型 if (packet.stream_index == videoStream) { /----------------------- Decode video frame,解码完全的一帧数据,并将frameFinished设置为true 可能无法通过只解码一个packet就得到一个完全的视频帧frame,可能须要读取多个packet才行 avcodec_decode_video2()会在解码到完全的一帧时设置frameFinished为真 Technically a packet can contain partial frames or other bits of data ffmpeg's parser ensures that the packets we get contain either complete or multiple frames convert the packet to a frame for us and set frameFinisned for us when we have the next frame -----------------------/ avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet); // Did we get a video frame,检讨是否解码出完全一帧图像 if (frameFinished) { // Convert the image from its native format to RGB,//将解码后的图像转换为RGB24格式 sws_scale(sws_ctx, (uint8_t const const ) pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize); if (++i <= 5) {// Save the frame to disk,将前5帧图像存储到磁盘上 SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i); } } } // Free the packet that was allocated by av_read_frame,开释AVPacket数据构造中编码数据指针 av_packet_unref(&packet); }/--------------参数撤销-------------/ // Free the RGB image buffer av_free(buffer); av_frame_free(&pFrameRGB); // Free the YUV frame. av_frame_free(&pFrame); // Close the codecs. avcodec_close(pCodecCtx); avcodec_close(pCodecCtxOrig); // Close the video file. avformat_close_input(&pFormatCtx); return 0;}