2023-02-24:请用go语言调用ffmpeg,解码mp4文件并保存为YUV420SP格式文件,采用YUV420P转YUV420SP的方式。
2023-02-24:请用go语言调用ffmpeg,解码mp4文件并保存为YUV420SP格式文件,采用YUV420P转YUV420SP的方式。
答案2023-02-24:
使用 github.com/moonfdd/ffmpeg-go 库。
解码后就是yuv420p,然后用SwsScale函数转换成yuv420sp,最后保存y和uv两个分量。
命令如下:
go run ./examples/a07.2video_decode_mp42yuv420sp_swscale/main.go
参考了07:解码视频并保存为YUV格式文件,代码用golang编写。代码如下:
package main
import (
"fmt"
"os"
"os/exec"
"unsafe"
"github.com/moonfdd/ffmpeg-go/ffcommon"
"github.com/moonfdd/ffmpeg-go/libavcodec"
"github.com/moonfdd/ffmpeg-go/libavformat"
"github.com/moonfdd/ffmpeg-go/libavutil"
"github.com/moonfdd/ffmpeg-go/libswscale"
)
func main() {
os.Setenv("Path", os.Getenv("Path")+";./lib")
ffcommon.SetAvutilPath("./lib/avutil-56.dll")
ffcommon.SetAvcodecPath("./lib/avcodec-58.dll")
ffcommon.SetAvdevicePath("./lib/avdevice-56.dll")
ffcommon.SetAvfilterPath("./lib/avfilter-56.dll")
ffcommon.SetAvformatPath("./lib/avformat-58.dll")
ffcommon.SetAvpostprocPath("./lib/postproc-55.dll")
ffcommon.SetAvswresamplePath("./lib/swresample-3.dll")
ffcommon.SetAvswscalePath("./lib/swscale-5.dll")
genDir := "./out"
_, err := os.Stat(genDir)
if err != nil {
if os.IsNotExist(err) {
os.Mkdir(genDir, 0777) // Everyone can read write and execute
}
}
filePath := "./resources/big_buck_bunny.mp4" //文件地址
videoStreamIndex := -1 //视频流所在流序列中的索引
ret := int32(0) //默认返回值
//需要的变量名并初始化
var fmtCtx *libavformat.AVFormatContext
var pkt *libavformat.AVPacket
var codecCtx *libavcodec.AVCodecContext
var avCodecPara *libavcodec.AVCodecParameters
var codec *libavcodec.AVCodec
yuvFrame := libavutil.AvFrameAlloc()
nv12Frame := libavutil.AvFrameAlloc()
for {
//=========================== 创建AVFormatContext结构体 ===============================//
//分配一个AVFormatContext,FFMPEG所有的操作都要通过这个AVFormatContext来进行
fmtCtx = libavformat.AvformatAllocContext()
//==================================== 打开文件 ======================================//
ret = libavformat.AvformatOpenInput(&fmtCtx, filePath, nil, nil)
if ret != 0 {
fmt.Printf("cannot open video file\n")
break
}
//=================================== 获取视频流信息 ===================================//
ret = fmtCtx.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("cannot retrive video info\n")
break
}
//循环查找视频中包含的流信息,直到找到视频类型的流
//便将其记录下来 保存到videoStreamIndex变量中
for i := uint32(0); i < fmtCtx.NbStreams; i++ {
if fmtCtx.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_VIDEO {
videoStreamIndex = int(i)
break //找到视频流就退出
}
}
//如果videoStream为-1 说明没有找到视频流
if videoStreamIndex == -1 {
fmt.Printf("cannot find video stream\n")
break
}
//打印输入和输出信息:长度 比特率 流格式等
fmtCtx.AvDumpFormat(0, filePath, 0)
//================================= 查找解码器 ===================================//
avCodecPara = fmtCtx.GetStream(uint32(videoStreamIndex)).Codecpar
codec = libavcodec.AvcodecFindDecoder(avCodecPara.CodecId)
if codec == nil {
fmt.Printf("cannot find decoder\n")
break
}
//根据解码器参数来创建解码器内容
codecCtx = codec.AvcodecAllocContext3()
codecCtx.AvcodecParametersToContext(avCodecPara)
if codecCtx == nil {
fmt.Printf("Cannot alloc context.")
break
}
//================================ 打开解码器 ===================================//
ret = codecCtx.AvcodecOpen2(codec, nil)
if ret < 0 { // 具体采用什么解码器ffmpeg经过封装 我们无须知道
fmt.Printf("cannot open decoder\n")
break
}
// //================================ 设置数据转换参数 ================================//
img_ctx := libswscale.SwsGetContext(codecCtx.Width, codecCtx.Height, codecCtx.PixFmt, //源地址长宽以及数据格式
codecCtx.Width, codecCtx.Height, libavutil.AV_PIX_FMT_NV12, //目的地址长宽以及数据格式
libswscale.SWS_BICUBIC, nil, nil, nil) //算法类型 AV_PIX_FMT_YUVJ420P AV_PIX_FMT_BGR24
// //==================================== 分配空间 ==================================//
// //一帧图像数据大小
numBytes := libavutil.AvImageGetBufferSize(libavutil.AV_PIX_FMT_RGB32, codecCtx.Width, codecCtx.Height, 1)
out_buffer := libavutil.AvMalloc(uint64(numBytes))
os.Remove("./out/result.yuv")
file, err := os.OpenFile("./out/result.yuv", os.O_CREATE|os.O_RDWR, 0777)
if err != nil {
fmt.Println("open file failed,err:", err)
return
}
w := codecCtx.Width
h := codecCtx.Height
//=========================== 分配AVPacket结构体 ===============================//
i := 0
pkt = libavcodec.AvPacketAlloc() //分配一个packet
pkt.AvNewPacket(codecCtx.Width * codecCtx.Height) //调整packet的数据
//会将pFrameRGB的数据按RGB格式自动"关联"到buffer 即pFrameRGB中的数据改变了
//out_buffer中的数据也会相应的改变
libavutil.AvImageFillArrays((*[4]*byte)(unsafe.Pointer(&nv12Frame.Data)), (*[4]int32)(unsafe.Pointer(&nv12Frame.Linesize)), (*byte)(unsafe.Pointer(out_buffer)), libavutil.AV_PIX_FMT_NV12,
codecCtx.Width, codecCtx.Height, 1)
//=========================== 读取视频信息 ===============================//
for fmtCtx.AvReadFrame(pkt) >= 0 { //读取的是一帧视频 数据存入一个AVPacket的结构中
if pkt.StreamIndex == uint32(videoStreamIndex) {
if codecCtx.AvcodecSendPacket(pkt) == 0 {
for codecCtx.AvcodecReceiveFrame(yuvFrame) == 0 {
i++
img_ctx.SwsScale((**byte)(unsafe.Pointer(&yuvFrame.Data)),
(*int32)(unsafe.Pointer(&yuvFrame.Linesize)),
0,
uint32(codecCtx.Height),
(**byte)(unsafe.Pointer(&nv12Frame.Data)),
(*int32)(unsafe.Pointer(&nv12Frame.Linesize)))
bytes := []byte{}
//y
ptr := uintptr(unsafe.Pointer(nv12Frame.Data[0]))
for j := int32(0); j < w*h; j++ {
bytes = append(bytes, *(*byte)(unsafe.Pointer(ptr)))
ptr++
}
//uv
ptr = uintptr(unsafe.Pointer(nv12Frame.Data[1]))
for j := int32(0); j < w*h/2; j++ {
bytes = append(bytes, *(*byte)(unsafe.Pointer(ptr)))
ptr++
}
//写文件
file.Write(bytes)
}
}
}
pkt.AvPacketUnref() //重置pkt的内容
}
fmt.Printf("There are %d frames int total.\n", i)
file.Close()
break
}
// //===========================释放所有指针===============================//
libavcodec.AvPacketFree(&pkt)
codecCtx.AvcodecClose()
libavformat.AvformatCloseInput(&fmtCtx)
fmtCtx.AvformatFreeContext()
libavutil.AvFrameFree(&yuvFrame)
_, err = exec.Command("./lib/ffplay.exe", "-pixel_format", "nv12", "-video_size", "640x360", "./out/result.yuv").Output()
if err != nil {
fmt.Println("play err = ", err)
}
}
公众号:福大大架构师每日一题