用live555做本地视频采集转发,附源码

        在分别做了基于live555与Darwin两种开源服务器的转发服务器后,不得不说Darwin确实在架构以及性能方面较live555略胜一筹,不过没关系,以live555的更新速度,作者的负责,相信在客户端开发以及ipC等方面会给大家带来不少帮助,不罗嗦,今天要给大家带来的是基于live555的本地视频实时采集与转发的介绍(有代码噢~).。

        在对live555做二次开发时,最好的方式就是尽量多地去继承自live555,而不要去改动开源代码本身,尤其是一开始接触live555,这样在live555官方升级后,我们再对本地代码进行升级时,就可以比较少地去考虑自己对live555的修改了,省时省力,效果还不错。

       不论是做远端采集转发还是本地采集转发,我们首先要做的就是继承live555中的OnDemandServerMediaSubsession类来实现自己需求的OnDemand类,按照类名Subsession,表示的只是一种类型媒体的会话,如果有多种类型媒体需要转发(比如音频、视频),那么就需要实现多种OnDemandServerMediaSubsession的继承,来个性化对不同媒体的转发,那么今天我们只对H264视频进行本地采集和转发,我们实现的类命名为:H264LiveVideoServerMediaSubsession,主要重写的方法有

private: // redefined virtual functions
  virtual FramedSource* createNewStreamSource(unsigned clientSessionId,
					      unsigned& estBitrate);
  virtual RTPSink* createNewRTPSink(Groupsock* rtpGroupsock,
                                    unsigned char rtpPayloadTypeIfDynamic,
				                    FramedSource* inputSource);
protected:
  virtual char const* sdpLines();


其中 CreateNewRTPSink类似于H264VideoFileServerMediaSubsession直接返回H264VideoRTPSink对象就行了

RTPSink* H264LiveVideoServerMediaSubsession::createNewRTPSink(Groupsock* rtpGroupsock,
								  unsigned char rtpPayloadTypeIfDynamic,
								  FramedSource* /*inputSource*/) {
  return H264VideoRTPSink::createNew(envir(), rtpGroupsock, 96, 0, "H264");
}

关键部分就是createNewStreamSource函数,创建自定义的Source来采集视频,提供H264VideoRTPSink基类MultiFramedRTPSink通过packFrame()调用fSource->getNextFrame(...),一次获取一个完整帧进行转发。那么我们先实现的就是这个Source:

同样,我们实现的自定义source类继承自H264VideoStreamFramer,重写virtual void doGetNextFrame();方法实现本地采集数据的获取:

void MyH264VideoStreamFramer::doGetNextFrame()
{
    TNAL* pNal = NULL;//TNAL自定义的存储单帧数据的结构体
    unsigned char* pOrgImg;
    
    //获取NAL,如果m_pNalArray还有未取完的,先发送完,如果发送完了,从pH264Enc中获取最新数据帧,存入m_pNalArray链表
    if((m_pNalArray != NULL) && (m_iCurNal < m_iCurNalNum))
    {
        pNal = &m_pNalArray[m_iCurNal];//m_pNalArray存储TNAL的链表,存储本地采集的数据链表
    }
    else
    {
        m_pH264Enc->CleanNAL(m_pNalArray, m_iCurNalNum);//清空m_pNalArray链表
        m_iCurNal = 0;
        
        pOrgImg = m_pCamera->QueryFrame();
        gettimeofday(&fPresentationTime, NULL);//同一帧的NAL具有相同的时间戳

         m_pH264Enc->Encode(pOrgImg, m_pNalArray, m_iCurNalNum);
        pNal = &m_pNalArray[m_iCurNal];
    }
    m_iCurNal++;

    unsigned char* realData = pNal->data;//转发的数据指针
    unsigned int realLen = pNal->size;//转发的数据长度
    
    if(realLen < fMaxSize)        
    {            
      memcpy(fTo, realData, realLen);//复制到fTo中,fTo为转发的中转地址      
    }        
    else        
    {           
      memcpy(fTo, realData, fMaxSize);            
      fNumTruncatedBytes = realLen - fMaxSize;        
    } 

    fDurationInMicroseconds = 40000;//控制播放速度
    //gettimeofday(&fPresentationTime, NULL);

    fFrameSize = realLen;        
    afterGetting(this); //通知RTPSink,数据获取完成 
}

那么再回到H264LiveVideoServerMediaSubsession类中,CreateNewSource返回的为MyH264VideoStreamFramer对象

  return MyH264VideoStreamFramer::createNew(envir(), NULL);

于是整个live555从source到sink的连接流程就通了,那么为什么要重写sdpLines函数呢?这里只是一种简单形式的转发实现,其sdp信息并未真实构造,所以就写成了固定的格式,大家也可以按照自己的方式去重写

char const* H264LiveVideoServerMediaSubsession::sdpLines()
{
    return fSDPLines = 
        "m=video 0 RTP/AVP 96\r\n"
        "c=IN IP4 0.0.0.0\r\n"
        "b=AS:96\r\n"
        "a=rtpmap:96 H264/90000\r\n"
        "a=fmtp:96 packetization-mode=1;profile-level-id=000000;sprop-parameter-sets=H264\r\n"
        "a=control:track1\r\n";
}


至于本地Camera视频的采集以及H264 Encode,因人而异,对不同的设备也有不同的样式,附上的代码中实现的是windows本地的camera YUV视频采集以及264编码,感谢分享!


源码下载地址:http://pan.baidu.com/s/1hqIHMj6

------------------------------------------------------------
本文转自www.easydarwin.org,更多开源流媒体解决方案,请关注我们的微信:EasyDarwin 



posted @ 2012-12-07 17:05  Babosa|EasyDarwin  阅读(315)  评论(0编辑  收藏  举报