WebRTC中的NetEQ

NetEQ使得WebRTC语音引擎能够快速且高解析度地适应不断变化的网络环境,确保了音质优美且缓冲延迟最小,其集成了自适应抖动控制以及丢包隐藏算法。

WebRTC和NetEQ概述

WebRTC

WebRTC (Web Real-Time Communications) 是一项实时通讯技术,它允许网络应用或者站点,在不借助中间媒介的情况下,建立浏览器之间点对点(Peer-to-Peer)的连接,实现视频流和(或)音频流或者其他任意数据的传输。WebRTC包含的这些标准使用户在无需安装任何插件或者第三方的软件的情况下,创建点对点(Peer-to-Peer)的数据分享和电话会议成为可能。

WebRTC主要由语音引擎、视频引擎和传输引擎组成:

  • Voice Engine(音频引擎)
    • iSAC/iLBC Codec(音频编解码器,前者是针对宽带和超宽带,后者是针对窄带)
    • NetEQ for voice(处理网络抖动和语音包丢失)
    • Echo Canceler(回声消除)/ Noise Reduction(噪声抑制)
  • Video Engine(视频引擎)
    • VP8 Codec(视频图像编解码器)
    • Video jitter buffer(视频抖动缓冲器,处理视频抖动和视频信息包丢失)
    • Image enhancements(图像质量增强)
  • Transport
    • SRTP(安全的实时传输协议,用以音视频流传输)
    • Multiplexing(多路复用)
    • P2P,STUN+TURN+ICE(用于NAT网络和防火墙穿越)
    • 除此之外,安全传输可能还会用到DTLS(数据报安全传输),用于加密传输和密钥协商
    • 整个WebRTC通信是基于UDP的

音频引擎的工作流程:

  • 发送端采集音频信号,并进行回声抑制、噪声消除、自动增益控制等前处理;
  • 对处理后的数据进行编码,并封装为数据包;
  • 数据包在网络上传输至接收端;
  • 接收端解包,进行NetEQ中的抖动消除、丢包补偿、解码,另外噪声抑制、自动增益控制等后处理,并将处理后的信号回传到发送端以进行回声抑制;
  • 处理后的音频送入声卡播放。

参见:Tinywan/WebRTC-tutorial

NetEQ

NetEQ主要作用:消除由于网络环境变化造成的丢包数据包到达间隔抖动
目标函数:

\[数据包i的IAT+数据包i在缓冲区的缓冲时间==数据包(i+1)的IAT+数据包(i+1)在缓冲区的缓冲时间 \]

其中,IAT为数据包到达时间间隔。

抖动定义

接收端数据包\(i\)到达间隔平均数据包到达间隔之差定义为抖动

\[J_i=E(T)-T_i\quad i=1,2,...,n \]

其中,\(T_i\)为第\(i\)个数据包到达间隔;\(E(T)\)为平均数据包到达间隔,当数据流为固定码率时,\(E(T)\)应等于或接近于数据包发送间隔。

抖动是一组由时间间隔差组成的序列,假设发送端每30ms产生一个数据包,也即是数据包发送间隔为30ms,在理想情况下,接收端对于任意\(i\)\(E(T)=30ms,T_i=30ms,J_i=0\)。当\(J_i>0\)时,称作正抖动,说明数据包提前到达,对应于数据包的堆积,虽然保证了语音的完整性,但容易造成接收端抖动缓冲区溢出并且增大了延迟。当\(J_i<0\),称作负抖动,说明数据包延迟到达或丢包。无论是由于超时和缓存溢出均可导致数据包丢失,因此不管是何种抖动,都会增加丢包概率。

抖动通常使用抖动缓冲进行消除,待播放时再以平滑的速率从缓冲区中取出,经解压后从声卡中取出播放。抖动消除的理想情况是:在网络上传输时延和缓冲时延相等。此时对每一个数据包的时延预判准确,既能够按照时序播放每一个数据包,又能够最大限度的减少缓冲时间从而减少整体延迟。抖动缓冲控制算法包括静态抖动缓冲控制和自适应抖动缓冲控制算法。自适应抖动缓冲控制算法:缓冲区大小随着实际网络状况而变化,接收端将当前收到的数据包延迟和算法中保存的延迟信息比较,而从调整当前缓冲区大小,NetEQ使用的就是自适应抖动控制。

丢包隐藏

丢包隐藏又称丢包补偿(Packet Loss Compensation, PLC)。所谓丢包隐藏就是试图产生一个相似的音频数据包或噪声包以替代丢失的数据包,基于音频的短时相似性,在丢包率低时(小于15%)尽可能提升音质。

ZcaqRH.png

  • 基于插入。插入一个填充包来修复丢包,而填充包一般很简单,比如插入静音包、噪声包或者简单重复前面的包。优势:实现简单;缺点:恢复效果差,没有利用其它语音信息重建信号。
  • 基于重构。通过丢包前后的解码信息重构一个数据包,重构修补技术使用压缩算法来获得编码参数。优势:合成的丢失包效果最好;缺点:计算量最大。
  • 基于插值。通过模式匹配和插值技术创建与丢失包相似的数据包。该方法考虑了音频的变化信息。比基于插入的方法效果要好,实现难度要大。

NetEQ模块

NetEQ主要包含MCU和DSP两个模块:

  • 微处理单元(Micro Control Unit, MCU),主要作用是根据当前情况做出相应动作,具体而言就是安排数据包的插入并控制数据包的输出。数据包的插入主要是确定从网络中到达的数据包在缓冲区的插入位置,而控制数据包的输出则是需要考虑什么时候输出数据以及输出哪一个数据。
  • 数字信号处理(Digital Signal Process, DSP),主要作用是将MCU中提取到的数据包进行信号处理, 包括解码,加减速,丢包补偿,融合等。

NetEQ基本输入输出

本单元主要介绍NetEQ输入数据包和输出音频数据,以及4种数据缓冲区。

NetEQ存取数据包的接口

NetEQ有两个比较重要对外的接口,一是向NetEQ模块插入从网络取得的RTP数据包interface/neteq.h/InsertPacket(),二是从NetEQ模块提取处理后的PCM音频数据interface/neteq.h/GetAudio()

向NetEQ中送入数据包

neteq_impl.cc中,NetEQ存数据包的具体实现是InsertPacket(),而大部分工作由InsertPacket()调用的InsertPacketInternal()完成。主要是初始化NetEQ(第一次时调用,如刷新缓冲区,重置timestamp_scaler,更新编解码器等),更新RTCP统计信息,解析RTP数据包,插入到抖动缓冲区PacketBuffer等。

InsertPacket()函数签名:

int NetEqImpl::InsertPacket(const RTPHeader& rtp_header,
                            rtc::ArrayView<const uint8_t> payload,
                            uint32_t receive_timestamp)

另外,在解析网络的RTP数据包时,进行了时间戳的转换。主要解决了RTP采用的外部时间戳和代码内使用的内部时间戳不一致的情况,主要由TimeStampScaler完成时间戳的转换:

时间戳缩放TimeStampScaler

TimestampScaler类负责将外部时间戳转换为内部时间戳,或者将内部时间戳转化为外部时间戳。

timestamp_scaler.h

// This class scales timestamps for codecs that need timestamp scaling.
// This is done for codecs where one RTP timestamp does not correspond to
// one sample.
class TimestampScaler {
 public:
  explicit TimestampScaler(const DecoderDatabase& decoder_database)
      : first_packet_received_(false),
        numerator_(1),
        denominator_(1),
        external_ref_(0),
        internal_ref_(0),
        decoder_database_(decoder_database) {}
...
};
  • 外部时间戳:外部时间戳即为RTP携带的时间戳,表示RTP报文发送的时钟频率,单位为样本数而非真正的时间单位秒等。
    • 在语音中,通常等于PCM语音的采样率,RTP携带Opus编码数据包时,时钟频率为固定的48kHz,但采样率可以有很多值。
    • 在视频中,无论是何种视频编码,外部时间戳(时钟频率)都设置为固定的90kHz。
  • 内部时间戳:WebRTC使用的时间戳。

外部时间戳转换为内部时间戳时就是将外部时间戳按照采样率缩放。假设初始内部时间戳为0,则:

\[内部时间戳+=(外部时间戳间隔*采样率)/外部时钟频率\\ 也即:内部时间戳+=(外部时间戳间隔/外部时钟频率)*采样率 \]

timestamp_scaler.cc

numerator_ = info->SampleRateHz();
...
denominator_ = info->GetFormat().clockrate_hz;
...
const int64_t external_diff = int64_t{external_timestamp} - external_ref_;
...
internal_ref_ += (external_diff * numerator_) / denominator_;

反之,将内部时间戳转换为外部时间戳就是按照采样率扩大。假设初始外部时间戳为0,则:

\[外部时间戳+=(内部时间戳间隔*外部时钟频率)/采样率 \]

const int64_t internal_diff = int64_t{internal_timestamp} - internal_ref_;
return external_ref_ + (internal_diff * denominator_) / numerator_;

WebRTC:源码时间戳缩放类TimestampScaler解析

WebRTC中的Opus编码揭秘

从NetEQ中取处理后的音频数据

neteq_impl.cc中,NetEQ取音频数据的具体实现由GetAudio()提供,大部分工作由GetAudioInternal()完成。主要是获取MCU决策,解码,VAD检测,DSP信号处理,将处理完成后的音频数据存入语音缓冲区SyncBuffer,更新背噪参数,更新已播放时间戳等。

主要流程:

  1. 获得下一步的操作operation;
  2. 根据operation提取数据到解码缓冲区(decoder_buffer_);
  3. 处理后的数据存入算法缓冲区(algorithm_buffer_);
  4. 将算法缓冲区的数据复制到语音缓冲区(sync_buffer_);
  5. 将语音缓冲区中的数据提取到output

GetAudio()函数签名:

int NetEqImpl::GetAudio(AudioFrame* audio_frame, bool* muted)

NetEQ的4个缓冲区

  • 抖动缓冲区

    暂存从网络获得的音频数据包。

    packet.h

    // Struct for holding RTP packets.
    struct Packet {
    ...
      uint32_t timestamp;
      uint16_t sequence_number;
      uint8_t payload_type;
      // Datagram excluding RTP header and header extension.
      rtc::Buffer payload;
      Priority priority;
      std::unique_ptr<TickTimer::Stopwatch> waiting_time;
      std::unique_ptr<AudioDecoder::EncodedAudioFrame> frame;
    ...
    };
    typedef std::list<Packet> PacketList;
    

    packet_buffer.h

      // This is the actual buffer holding the packets before decoding.
      class PacketBuffer {
       public:
        enum BufferReturnCodes {
          kOK = 0,
          kFlushed,
          kNotFound,
          kBufferEmpty,
          kInvalidPacket,
          kInvalidPointer
        };
      ...
      };
    

    实现抖动缓冲区的类PacketBuffer使用一个整数型max_number_of_packets_表示抖动缓冲区所容纳的最多网络包的数量,使用一个typedef std::list<Packet> PacketList成员变量保存数据包。

  • 解码缓冲区

    抖动缓冲区中的数据包通过解码器解码成为PCM原始音频数据,暂存到解码缓冲区。

    neteq_impl.h

    std::unique_ptr<int16_t[]> decoded_buffer_ RTC_GUARDED_BY(crit_sect_);
    
    size_t decoded_buffer_length_ RTC_GUARDED_BY(crit_sect_);
    
    static const size_t kMaxFrameSize = 5760;  // 120 ms @ 48 kHz.
    
    decoded_buffer_(new int16_t[decoded_buffer_length_]);
    

    解码缓冲区的定义是一个带符号的16位整型数组,固定长度5760

  • 算法缓冲区

    NetEQ将解码缓冲区中的数据进行拉伸、平滑处理后将结果暂存到DSP算法缓冲区。

    audio_multi_vector.h

    class AudioMultiVector {
     public:
      // Creates an empty AudioMultiVector with |N| audio channels. |N| must be
      // larger than 0.
      explicit AudioMultiVector(size_t N);
    
      // Creates an AudioMultiVector with |N| audio channels, each channel having
      // an initial size. |N| must be larger than 0.
      AudioMultiVector(size_t N, size_t initial_size);
    ...
     protected:
      std::vector<AudioVector*> channels_;
      size_t num_channels_;
    ...
    };
    

    算法缓冲区由一个AudioMultiVector类实现,包含std::vector<AudioVector*> channels_size_t num_channels_成员变量。AudioMultiVector通过通道数num_channels_创建AudioVector,一个通道对应一个AudioVector

    audio_vector.h

    class AudioVector {
     public:
      // Creates an empty AudioVector.
      AudioVector();
    
      // Creates an AudioVector with an initial size.
      explicit AudioVector(size_t initial_size);
     ...
    };
    

    AudioVector实际上是封装的类似于标准库vector的类,只不过大小固定。size_t begin_index_size_t end_index_相当于vectorbegin()end()函数,返回开始和尾部下一个对应的迭代器。

  • 语音缓冲区

    算法缓冲区中的数据会被塞到语音缓冲区中,声卡每隔10ms会从语音缓冲区中提取长度为10ms(80@8kHz个样本点)的语音数据播放。

    sync_buffer.h

    class SyncBuffer : public AudioMultiVector {
     public:
      SyncBuffer(size_t channels, size_t length)
          : AudioMultiVector(channels, length),
            next_index_(length),
            end_timestamp_(0),
            dtmf_index_(0) {}
    ...
    };
    

    语音缓冲区的实现类SyncBuffer继承自算法缓冲区的AudioMultiVector,但是多了next_index_end_timestamp_两个成员变量。

    • next_index_ 指示待播放的第一个样本点。
    • end_timestamp_ 指示SyncBuffer中最后一个样本点的时间戳。

MCU决策分析

网络延迟统计算法(target_level,即BLo)

本部分参见类DelayManager

  1. 统计数据包到达时间间隔Iat(以数据包个数为单位)计算方法如下:

    \[packet\_len\_sample=\frac{timestamp-last\_timestamp}{sequence\_number-last\_seq\_no}\\ packet\_len\_ms=\frac{1000*packet\_len\_samp}{sample\_rate\_hz}\\ iat\_packets=\frac{packet\_iat\_count\_ms}{packet\_len\_ms} \\ iat\_packets=\left\{\begin{matrix} max(iat\_packets+(last\_seq\_no-sequence\_number+1),0)\quad 乱序 \\ iat\_packets+(last\_seq\_no-sequence\_number+1) \end{matrix}\right. \]

    其中,timestamp为当前数据包时间戳,last_timestamp为上一个数据包的时间戳,sequence_number为当前数据包序列号,last_seq_no为上一个数据包序列号,sample_rate_hz为频率(每秒多少样本点),packet_iat_count_ms为自上一个数据包经历的时间。
    上式中,计算Iat时乱序和正常情况方法一致,但是要确保iat_packets始终为正。假设发送端每30ms产生一个数据包(每一个数据包长度为30ms),0s时该数据包被发送,在90ms时接收端接收到该数据包并计算Iat(网络传输等花费了90ms),则此时Iat=90/30=3

  2. 更新直方图,即更新Iat从0到64的概率分布
    代码中使用iat_vector_向量保存该直方图,其中每一个下标对应一个Iat值,下标对应的元素为相应发生的概率值。

    • iat_vector_向量中的每个元素首先乘遗忘因子\(f\)iat_factor_,使用遗忘因子对概率遗忘:

      \[p'_i=p_i\times f\quad i=0,1,...,64 \]

    • 增大本次计算到的Iat的概率\(p_{Iat}=p_{Iat}+(1-f)\)
      这样,在iat_vector_中,除了Iat对应的概率增加,其余概率都会减少

    • 归一化iat_vector_

    • 更新遗忘因子\(f\),使\(f\)为递增趋势,即通话时间越长,包间隔的概率分布应该越稳定。该遗忘因子iat_factor_应趋近于kIatFactor_。其中kIatFactor_为0.9993(32745@Q15)。

  3. 计算TargetLevel

    • 统计直方图上大于95%概率的最小Iat值,也就是说该Iat值能够覆盖到至少95%的情况,并且Iat值最小。

    • 统计Iat峰值

      Iat峰值满足下述两个条件之一:

      \[\left\{\begin{matrix} Iat\_peak=target\_level+peak\_detection\_threshold\_ \\ Iat\_peak=2\times target\_level \end{matrix}\right. \]

      当发生Iat峰值时的计时器小于等于kMaxPeakPeriodMs时,存储该峰值;否则如果峰值间隔小于2*kMaxPeakPeriodMs时,认为这是不正确的峰值,重新获取峰值计时器并寻找下一个峰值;如果峰值间隔大于2*kMaxPeakPeriodMs时,这有可能是网络环境已经发生了变化,直接重置整个统计(包括计时器,历史峰值数组等)。

      之后检查峰值数值有足够历史数据并且历史计时器小于2*MaxPeakPeriod(),如果符合要求,返回Iat峰值历史数据中最大的Iat值(max_peak)。

    • 计算target_level_

      • 如果没有寻找到Iat峰值,则target_level_就是概率大于95%时的Iat

      • 如果寻找到Iat峰值:

        \[target\_level=max(target\_level,max\_peak) \]

    该算法基本思想:有一个到达间隔时间直方图iat_vector,这个直方图每一项代表一种延迟情况。比如花费一个包时间才到达的Iat对应iat_vector下标为1,提前到达的数据包对应的Iat统一为0,iat_vector下标表示Iat,里面的存储内容表示该间隔的概率。每来一个数据包就更新一下这个直方图,增大这个数据包的Iat对应的概率,减小其它Iat的概率,确保整个概率和为1。然后求sum(iat_vector[:index])>0.95最小的index,更新Iat峰值,结合两者求得target_level(即BLo)。网络抖动延迟反映的是网络抖动情况,如理想情况下,每隔30ms应该收到一个数据包,现在网络突然发生抖动,下一个数据包与之前数据包到达间隔变为35ms,这部分算法就是为了获得target_level值以反映该情况。

    实际上使用TargetLevel和PacketBuffer匹配,最好情况是TargetLevel对应的SyncBuffer的播放速度和PacketBuffer收包速度一致,既降低了延迟又保证了通话质量。(如果不一致就加减速,增加噪声包等)

    这体现了抖动消除的核心思想,即通过加减速等来实现自适应抖动缓冲区的物理设计。

抖动延迟统计算法(filter_current_level,即BLc)

本部分参见BufferLevelFilter

抖动延迟统计的是抖动缓冲区的自适应平均值,计算方法如下:

\[filtered\_current\_level=(level\_factor * filtered\_current\_level) +\\ (1 - level\_factor) * buffer\_size\_packets; \]

其中,buffer_size_packets为缓冲区中的数据包个数;filtered_current_level为当前抖动缓冲区自适应平均值,单位为数据包个数;level_factor根据当前统计到的覆盖95%的延迟包个数(即上述的target_level,这里称作target_buffer_level)计算方式如下:

\[f=\left\{\begin{matrix} \frac{251}{256}\quad target\_buffer\_level<=1 \\ \frac{252}{256}\quad 2<=target\_buffer\_level<=3 \\ \frac{253}{256}\quad 4<=target\_buffer\_level<=7 \\ \frac{254}{256}\quad target\_buffer\_level>7 \end{matrix}\right. \]

level_factor_计算方式可以看到,NetEQ计算抖动延迟的规则为:target_buffer_level越大,遗忘系数level_factor越大,而遗忘系数越大表示需要更多的样本来计算平均值,这也就是说NetEQ为了保证网络状况较差时仍然能得到更加准确的抖动延迟统计信息,需要参考更多的历史信息。

MCU控制机制

本部分参见DecisionLogic

第一步将sync_bufferend_timestamp赋值给target_timestamp,第二步是查找抖动缓冲区中的available_timestamp(下一个包的时间戳),根据这两个参数决定MCU从抖动缓冲区中提取数据的准确性和顺序性。

MCU决策

MCU首先检测抖动缓冲区是否为空,如果为空,发出丢包隐藏的控制命令。

  • 如果检测到target_timestamp == available_timestamp,就先判断上一播放模式。如果是丢包隐藏播放kModeExpand||play_dtmf,就发出正常播放控制命令。否则参考抖动延迟filtered_current_leveltarget_level之间的关系,再决定加速或减速播放(网络数据包到达间隔比抖动缓冲区包延迟还大,也就是说网络数据包迟迟不来,要减速;网络数据包到达间隔比抖动缓冲区包延迟小,网络数据包来的快了,要积压在抖动缓冲区了,加速播放)

  • 如果检测到target_timestamp < avaliable_timestamp,假设上一个模式不是kModeExpand且实际缓冲区大小小于理论缓冲区大小时,继续进行丢包隐藏控制命令。如果上述条件不满足,且buffer size大于20ms,则进行kMerge融合,buffer size小于等于20ms时仍做丢包隐藏。

也就是说当数据包正常到来,缓冲区延迟(BLc)大于网络延迟(BLo),说明此时缓冲区数据累积,需要加速;否则需要减速。当需要播放的数据包没有到来,但是BLc>BLo,则需要merge融合,否则一直等待,并做丢包补偿expand;当BLcBLo相差不大时,可以进行正常的播放。

综上,MCU控制命令发生的条件:

  • 正常播放的枚举为kNormal,必要条件为target_timestamp == available_timestamp,即当前帧接收正常,且满足:
  1. 上一个模式是丢包隐藏或者是播放DTMF;

  2. 上一模式不是丢包隐藏且不播放DTMF

\[\left\{\begin{matrix} \frac{3}{4}BLo<BLc<4*BLo \\ \frac{3}{4}BLo<BLc<\mathop{max}(BLo,\frac{3}{4}BLo+\frac{20}{packet\_len\_ms}) \end{matrix}\right. \]

代码里面,称3/4*BLo为lower_limit,3/4*BLo+20/packet_len_ms为higher_limit;packet_len_ms默认为30

  • 加速播放的枚举为kAccelerate,加速播放的原因是播放数据正常到达,但网络延迟已经小于抖动缓冲区的延迟,因此要加速播放。加速播放的必要条件为target_timestamp == available_timestamp并且上一个播放模式不是丢包隐藏,且满足以下条件之一:

\[\left\{\begin{matrix} BLc\geq \mathop{max}(BLo,\frac{3}{4}BLo+\frac{20}{packet\_len\_ms})且timescale\_hold\_off==0 \\ BLc\geq 4*BLo \end{matrix}\right. \]

其中,timescale_hold_off初始化为\(2^5\),每次加速或减速右移一位,该参数主要是为了防止连续的加速或减速对听感有损伤。

  • 减速播放的枚举为kPreemptiveExpand,又称优先扩展。减速播放的原因是要播放的数据正常到达,但抖动延迟小于网络延迟,就需要进行减速播放。减速播放的必要条件仍然是target_timestamp == available_timestamp并且上一个播放模式不是丢包隐藏,且满足:

\[BLc<=\frac{3}{4}BLo且timescale\_hold\_off==0 \]

  • 丢包隐藏发生条件

丢包隐藏的枚举为kExpand,又称扩展。丢包隐藏的原因是要播放的数据包还没有被接收。MCU做出丢包隐藏主要有两种情况:第一种情况是VoIP刚刚建立阶段,还没有数据包到达NetEQ时,MCU均做出丢包隐藏的操作。第二种情况是要播放的数据还没有到达,但抖动缓冲区中有其它数据在缓存中。

  • 融合的枚举为kMerge,主要用于丢包隐藏(expand)后的数据和从抖动缓冲区中提取到的数据相衔接的过程。融合发生的必要条件是avaliable_timestamp > target_timestamp,上一次NetEQ的播放模式为丢包隐藏且抖动缓冲区不为空,且需要满足下列条件之一:

1)丢包隐藏的限制次数没有到,但是目前抖动缓冲区的时延已经过大;

2)在抖动缓冲区中可以播放的数据包之前的数据还没有补偿完,但丢包隐藏超过限制次数(10次);

3)抖动缓冲区中的可播放的数据包之前的数据已经补偿完;

4)抖动缓冲区中可以播放的数据帧与需要播放的数据帧相差太远(大于100ms)。

  • 未定义的枚举为kUndefined,主要用于重置。用于一些意外的情况,如之前的模式返回错误kModeError但包头packet_header不为空;如语音缓冲区的时间戳大于抖动缓冲区的时间戳,也就是说语音缓冲区中的音频数据产生在抖动缓冲区的未来,这有可能是切换了一个新的数据流或编解码器出现的,也应重置。

DSP模块

基音

基音,即发出的振动频率最低的声音,其余为泛音,携带着声音的大部分能量,其对应的频率称作基频,对应的周期为基音周期(pitch)

基于自相关函数的基音周期检测

由于语音是非平稳信号,所以语音一般采用短时自相关函数,即:

\[R_n(\tau)=\sum_{m=0}^{N-1-\tau} [X(n+m)w(m)][X(n+m+\tau)w(m+\tau)] \]

其中,\(X\)为语音信号,\(n\)为窗函数从第\(n\)个样本点加入,\(m\)为窗长,\(\tau\)为移动距离。短时自相关函数有以下性质:

1)如果语音信号是周期函数,周期为\(P\),即:\(X(n)=X(n+P)\),那么自相关函数也是周期函数,且周期为\(P\)

2)当\(\tau =...,-P,0,P,...\)周期处,信号的自相关函数处于极大值。

3)自相关函数为偶函数,即\(R_n(-\tau)=R_n(-\tau)\)

短时自相关函数进行基音周期检测的原理就是利用自相关函数在基音周期处取得极大值的特点。

WSOLA算法

语音时长调整,就是要在不改变语音音调并保证良好音质的前提下,使语音在时间轴上被拉伸或压缩,即所谓的变速不变调。语音时长调整算法可分为时域调整和频域调整,时域调整以波形相似叠加(Waveform Similarity-based OverLap-Add, WSOLA)为代表。相对于频域算法计算量较小,而频域调整适用于频谱变化剧烈的波形如音乐数据。参见:《A Review of Time-Scale Modification of Music Signals》

ZHVGWQ.png

时长变换可分为三个步骤:将音频按帧分解;将分解好的帧重新定位;合成最终音频。WSOLA采用的就是这种分解合成的思想:1)输入原始信号\(x\)和调整分析帧(adjusted analysis frame)\(x'_m\),该帧已被加窗并且拷贝到输出信号\(y\);2)在扩展帧域\(x_{m+1}^+\)中选择与调整分析帧\(x_m'\)\(\tilde{x}_m\)最相似的帧\(x'_{m+1}\);3)将调整分析帧加窗并拷贝到输出信号\(y\)

ZHZfjs.png

在原始的时间伸缩调整TSM(Time-Scale Modification)的第一步就是将信号\(x\)分解为短的调整分析帧\(x_m, m\in Z\),每个调整分析帧有\(N\)个样本点,每个分析帧帧移\(H_a\)个样本点:

\[x_m(r)= \left\{\begin{matrix} x(r+mH_a),\quad if\ r\in [-\frac{N}{2}:\frac{N}{2}-1], \\ 0,\quad otherwise \end{matrix}\right. \]

WSOLA中,第\(m\)次迭代的调整分析帧定义为:

\[x'_m(r)=\left\{\begin{matrix} x(r+mH_a+\Delta_m),\quad if\ r\in[-\frac{N}{2}:\frac{N}{2}-1], \\ 0,\quad otherwise \end{matrix}\right. \]

其中,\(H_a\)为帧间距;\(\Delta _m\in [-\Delta_{max}:\Delta_{max}]\),而\(\Delta _{max}\in Z\)个样本点;\(N\)为该帧长度。如上图5红色实线框所示。

\(\tilde {x}_m\)定义为:

\[\tilde{x}_m(r)=\left\{\begin{matrix} x(r+mH_a+\Delta_m+H_s),\quad if\ r\in [-\frac{N}{2}:\frac{N}{2}-1] \\ 0,\quad otherwise \end{matrix}\right. \]

\(H_s\)可认为是伸缩后变化的长度。如上图5蓝色虚线部分。

\(x_{m+1}^+\)定义为:

\[x_{m+1}^+=\left\{\begin{matrix} x(r+(m+1)H_a),\quad if\ r\in [-\frac{N}{2}-\Delta _{max}:\frac{N}{2}-1+\Delta_{max}], \\ 0,\quad otherwise \end{matrix}\right. \]

寻找目标的调整帧\(x'_{m+1}\)必须在扩展帧域\(x_{m+1}^+\)内。

因此整个算法的核心思想就是在\(x'_{m+1}\)寻找与\(\tilde{x}_m\)最相似的调整帧\(x'_{m+1}\)。衡量两个帧的相似度可以使用互相关系数:

\[c(p,q,\Delta)=\sum_{r\in Z}q(r)p(r+\Delta) \]

其中,\(p\)\(q\)为偏移\(\Delta \in Z\)个样本点的信号。目标就是选择最优偏移值\(\Delta _{m+1}\)以最大化\(\tilde{x}_m\)\(x_{m+1}^+\)的互相关系数:

\[\Delta_{m+1}=\mathop{argmax}_{\Delta\in[-\Delta_{max}:\Delta_{max}]}c(\tilde{x}_m,x_{m+1}^+,\Delta) \]

其中,偏移值\(\Delta_{m+1}\)就指示了调整分析帧\(x'_{m+1}\)在扩展帧域\(x_{m+1}^+\)中的位置。

一言以蔽之,与普通的Time-scale modification(TSM)相比,WSOLA首先确定一个区域,在这个区域内选择一个相似的帧拼接上去。

DSP处理流程

丢包处理

expand

丢包隐藏使用语音缓冲区中最新的256个样本数作为丢包隐藏的参考数据源,使用audio_history指向这些样本点。用于丢包隐藏的一帧数据长度为256个样本而不同于正常的一帧语音数据的240(30ms@8kHz)个样本长度,其原因是不做丢包隐藏时,NetEQ可能会选择加速、减速、融合等处理,因此会拉伸语音长度,所选样本数需要大于240.

丢包隐藏时,根据上一语音帧的线性预测系数LPC建模,重建语音信号然后加载一定的随机噪声;连续丢包隐藏时,均使用同一个线性预测系数LPC重建语音信号,注意这里需要减少连续重建信号间的相关性,因此丢包隐藏产生的数据包能量递减;最后为了语音连续,需要做平滑处理。当需要进行丢包补偿时,从存储最近70ms的语音缓冲区中取出最新的一帧数据并计算该帧的LPC系数即可。

融合处理

merge

融合操作发生在上一帧和当前数据帧不是连续的情况下,需要融合操作的平滑。

  1. 首先使用丢包隐藏获得长度为(120+80+2)个样本的补偿序列expanded_[202]expanded_[202]是由Sync Buffer中剩余样本sync_buffer_->next_index()及其之后的所有样本和expand操作之后的数据expand_temp的数据拼接而成。该部分参见Merge::GetExpandedSignal()

  2. 确定该补偿序列从第几个样本开始与解码后的数据序列相关性最大,设相关性最大时,滑动窗口已经滑动了best_correlation_index个样本。

    该部分参见Merge::CorrelateAndPeakSearch()

  3. 平滑处理

之后需要对解码端的数据进行平滑处理,由于merge操作发生在丢包补偿PLC之后,所以DSP的平滑系数\(\alpha\)不应为1,因此解码后的数据都要进行平滑处理。而解码数据分为两部分,前一部分用于与expanded_的数据进行混合并平滑(该部分数据记作\(B\)),后一个部分仅仅进行平滑即可(该部分数据记作\(D\))。则平滑处理可以表述为:

\[\left\{\begin{matrix} B'[i]=(\alpha +0.004*i)B[i]+0.5 \\ E[i]=(\alpha +0.004*i)D[i]+0.5 \end{matrix}\right. \]

其中,\(B'[i]\)是解码数据的前半部分处理得到的,用于后续与expand_混合;\(E[i]\)是解码数据的后半部分处理得到的,可以直接输出到算法缓冲区。

NetEQ采用每1ms让平滑系数递增0.032(每毫秒处理8个样本点,8*0.004)的方式对解码后的数据进行平滑处理。丢包补偿时采用递减的方法对数据进行平滑,而merge采用递增方法进行平滑处理。接下来处理相关性最大的两段数据:丢包补偿的数据和解码的数据,将这两段数据混合的依据是时间上的相关性。因为丢包补偿的数据先于解码数据,因此混合的方式是,混合后最开始的数据与丢包补偿的相关性最大,后面的数据与解码数据相关性最大,也就是说递减丢包隐藏的数据样本,递增解码的数据样本,具体而言:

\[C[i]=\frac{202-P-i}{201-P}A[i]+\frac{i+1}{201-P}B'[i]+0.5 \]

其中,\(P\)为上述中找到两序列相关性最大的开始索引best_correlation_index\(A\)为丢包补偿产生的序列\(expand\_\)\(B'\)为3中解码数据平滑处理后的序列。该部分参见DSPHelper::CrossFade()。

由于merge操作在最开始的丢包隐藏中,使用了语音缓存区sync_buffer还未播放的sync_buffer_->next_index()及其之后的样本,在操作完成之后需要将这部分数据复制回sync_buffer_并且从输出中删除该部分数据:

  // Copy back the first part of the data to |sync_buffer_| and remove it from
  // |output|.
  sync_buffer_->ReplaceAtIndex(*output, old_length, sync_buffer_->next_index());
  output->PopFront(old_length);

  // Return new added length. |old_length| samples were borrowed from
  // |sync_buffer_|.
  return static_cast<int>(output_length) - old_length;

正常处理

normal

正常处理发生在提取得到的数据正好符合播放要求,所以可以直接将该网络包解码后送入语音缓冲区中去,但是由于NetEQ的DSP有五种处理类型,因此正常处理时还需要考虑上一次的DSP处理类型。

为了使经过PLC补偿的帧与接下来没有丢包的帧保持语音连续,需要进行平滑处理。因此当NetEQ的上一次处理模式为expand时,需要求出一个平滑系数\(\alpha\),对当前要进行正常处理的这帧先进行平滑处理。NetEQ对64个样本(即8ms的数据)采用移动平均法计算平滑系数:

\[\alpha=\mathop{max}(\alpha*\alpha_e,\sqrt{\frac{\sum_{i=0}^{i=63}BGN[i]^2}{\sum_{i=0}^{i=63}D[i]^2}}) \]

上式中,\(\alpha\)DSP的平滑系数,一般情况下置为1,经过丢包补偿(PLC)后小于1;\(\alpha_e\)为丢包补偿时用的用来减少连续丢包补偿时相关性的系数;\(i\)为第\(i\)个样本;\(BGN\)为背景噪声;\(D\)为解码后的样本数据。

根据平滑系数\(\alpha\)更新解码后的数据:

\[D'[i]=(\alpha+0.004*i)D[i]+0.5\quad 0\leq i<len \]

int32_t scaled_signal = (*output)[channel_ix][i] *
            external_mute_factor_array[channel_ix];
// Shift 14 with proper rounding.
(*output)[channel_ix][i] =
    static_cast<int16_t>((scaled_signal + 8192) >> 14);
// Increase mute_factor towards 16384.
external_mute_factor_array[channel_ix] = static_cast<int16_t>(std::min(
    external_mute_factor_array[channel_ix] + increment, 16384));

其中\(len\)为解码后的数据长度,即样本数;\(D\)为解码后的样本数据。

NetEQ采用每1ms使平滑系数增加0.032(代码中叫做muted increase by 0.64 for every 20 ms (NB/WB 0.0040/0.0020@Q14).)的方式对解码后的数据进行平滑,最后将解码并处理后的数据全部放在算法缓存区中。

加速播放

accelerate

加速处理主要用于加速播放,使用时机是抖动延迟累积过大时,这时网络上的数据源源不断的过来,数据包被累积在NetEQ中,在不丢包的情况下,解决数据包在抖动缓冲区中的累积,减少抖动延迟的关键措施。使用WSOLA算法在时域上压缩语音信号。

处理流程:

1)判断解码缓冲区中是否有足够的数据(输入数据必须大于等于30ms,也就是多于240个样本,30ms@8kHz),如果少于30ms的数据,直接把输入复制到输出;否则进行第2步。该部分参见Accelerate::Process()

2)根据短时自相关函数计算经解码的一帧数据流的基音周期。一帧语音数据长30ms@8kHz,共240个样本点。具体的,取50个样本作为短时自相关函数中的\(X(n+m)\),长度相同的移动窗以移位距离\(\tau\)为10开始移动,\(\tau\)最大值为100,求出相关性最大的移位距离\(\tau\),在此基础上加上20个样本的误差,就得到基音周期。该部分参见TimeStretch::Process()

3)计算数据流15ms前后的两个基音周期的相关性best_correlation,相关性的计算公式:

\[best\_correlation=\frac{\sum_{i=0}^{p-1}A[i]B[i]}{\sqrt{\sum_{i=0}^{p-1}A[i]^2*\sum_{i=0}^{p-1}B[i]^2}} \]

其中,\(A[i],B[i]\)为15ms前后的两个样本点区域(即上述理论部分的\(x'_m,x'_{m+1}\))。该部分位于TimeStretch::Process()

4)当相关性大于kCorrelationThreshold(0.9, 14746@Q14)时,将两个基音周期交叉混合后输出,否则直接将解码缓冲区数据移动到输出(算法缓冲区)。

当相关性符合要求时,语音帧15ms前后的两个基音依据时间上的相关性进行交叉混合,即:

\[C[i]=\frac{p-i}{1+p}A[i]+\frac{i+1}{1+p}B[i]+0.5\quad i=0,1,2,...,p-1 \]

交叉混合部分参加AudioVector::CrossFade()

一言以蔽之,加速处理就是将两个基音混合成一个并取代原始的两个基音从而缩短了语音长度。因此经过加速的语音帧,其长度缩短。

减速

PreemptiveExpand

1)判断解码缓冲区是否有一个语音帧,也就是decoder_buffer至少有30ms@8kHz的样本,即判断解码缓冲区是否有数据。此外,应该为减速结果提供overlap_samples_个样本点的空间。如果上述结果不满足,直接将解码缓冲区的数据移动到算法缓冲区作为输出。否则继续下面步骤;

2)根据短时自相关函数计算一帧语音数据的基音周期;

3)计算该语音数据15ms前后的两个基音周期的相关性best_correlation

4)当相关性大于kCorrelationThreshold时,将两个基音周期交叉混合后输出,否则直接将解码缓冲区的数据移动到输出。

减速处理和加速处理的唯一不同之处就是将两个基音混合成一个并插入到两个基音之间从而延长语音长度。

DSP后续处理

WebRTC语音引擎每10ms从NetEQ取10ms处理完成的语音数据传输到声卡播放。在NetEQ内部,这10ms的数据由语音缓冲区sync_buffer提供。如果语音缓冲区中未播放的数据小于10ms,就从算法缓冲区取出一定量的样本点凑够10ms再输出。输出最先开始等待播放的10ms数据,语音缓冲区保留最新播放的旧数据和经过处理的等待播放的新数据。播放和未播放的分界点由成员变量next_index_指示。由于每个数据包语音时长30ms,而NetEQ只输出10ms,因此并不是每次从NetEQ提取数据都会执行解码操作。

NetEQ改进

基于语音质量评估的NetEQ,对E-Model的改进

在E-Model的基础上加入了抖动因子\(I_j\),量化公式变为:

\[R=R_0-I_s-I_d-Ie\_eff-I_j+A \]

其中,抖动因子\(I_j\)建模为:

\[I_j=S_6T^6+S_5T^5+S_4T^4+S_3T^3S_2T^2+S_1T+S_0 \]

其中,\(T=\mathop{ln}(1+t_j)\)\(t_j\)为抖动缓冲区的大小,单位为毫秒;\(S_0\)~\(S_6\)为常数,使其抖动缓冲小于20ms时抖动因子剧烈增大,大于30ms时对数增大。

吴江锐. WebRTC语音引擎中NetEQ技术的研究[D]. 西安电子科技大学, 2013.

自适用比特率控制算法

提出了一种基于带宽估计的自适应比特率控制算法DBLA,主要由两部分组成:1)在接收端,基于延迟和缓冲的带宽估计算法;2)在发送端,基于损失的带宽估计和比特率控制方法。

X. Tian, S. Jia, P. Dong, T. Zheng and X. Yan, "An Adaptive Bitrate Control Algorithm for Real-Time Streaming Media Transmission in High-Speed Railway Networks," 2018 10th International Conference on Communication Software and Networks (ICCSN), Chengdu, 2018, pp. 328-333.

posted @ 2019-10-08 19:30  冬色  阅读(3355)  评论(0编辑  收藏  举报