随笔分类 - 音视频
摘要:1. 实时音视频开发主要步骤 2. 概述 前面我们通过两篇文章分别介绍了视频采集的两种方式:采集摄像头和采集屏幕。获取数据之后,如果是要本地显示,那么就像我们之前做的那样,直接渲染出来就行;方式如果是进行存储或者进行传输,往往需要对数据进行编码压缩。 webrtc中的视频编解码部分的主要实现是位于m
阅读全文
摘要:1. 实时音视频开发主要步骤 2. 屏幕采集 在上一篇文章中我们讲述了如何采集摄像头的数据,这篇文章就主要讲述如何采集屏幕的数据。 摄像头采集使用的模块主要是webrtc::VideoCaptureModule,代码位于modules/video_capture下; 屏幕采集主使用的模块主要是web
阅读全文
摘要:1. 实时音视频开发主要步骤 2. 数据采集 音频的采集主要来自麦克风; 视频的采集源主要有两个: 1. 摄像头; 2. 屏幕。 这里先介绍如何采集摄像头数据。 2.1 环境 我这里使用的是Ubuntu,因此和windows会稍微有些差别,但是都可以通过example下的peerconnection
阅读全文
摘要:在做webrtc测试时,会发现它提供的peerconnection_client是抓取摄像头画面的,在没有摄像头的机器上,它是不会传输视频数据的。这对于想在我的Linux台式机上调试webrtc代码不大方便。 实际上,在src/modules/video_capture/linux/device_i
阅读全文
摘要:官方文档: http://webrtc.github.io/webrtc-org/native-code/development/ 1.环境准备 1.1 安装depot_tools git clone https://chromium.googlesource.com/chromium/tools/
阅读全文
摘要:WebRTC建立通信过程 基础设施:必要的信令服务和 NAT 穿越服务 clientA 和 clientB 分别创建 RTCPeerConnection 并为输出端添加本地媒体流。如果是视频通话类型,则意味着,两端都需要添加媒体流进行输出。 本地 ICE 候选信息采集完成后,通过信令服务进行交换。
阅读全文
摘要:一. 前言 基于学习ffmpeg和sdl,写一个视频播放器是个不错的练手项目。 视频播放器的原理很多人的博客都有讲过,这里出于自己总结的目的,还是会做一些概况。 二. 视频播放器基本原理 2.1 解封装 视频文件基本上都是将编码好的音频和视频数据封装在一起形成的,因此拿到视频文件的第一步就是先将它解
阅读全文
摘要:直播系统最简单地包括推流和拉流,在这里先使用nginx rtmp module作为流媒体服务器。 流媒体服务器搭建 1. nginx rtmp module下载和安装 源码地址:https://github.com/arut/nginx rtmp module 使用git命令下载:git clone
阅读全文