摘要: 基于信号协方差模型DOA的盲声源分离[1]。 在此基础上,作者团队于2018年又发布了一篇文章,采用分级和时间差的空间协方差模型及非负矩阵分解的多通道盲声源分离[2]。 摘要 本文通过对短时傅立叶变换混合信号的源空间协方差矩阵(SCM)的估计,解决多通道麦克风阵列的声源分离问题。在许多传统的音频分离 阅读全文
posted @ 2018-09-17 16:54 Skye_Zhao 阅读(593) 评论(0) 推荐(0) 编辑
摘要: 最近看文献发现插值有很多用处,这篇博客是用来梳理和记录的。 其他参考: https://blog.csdn.net/shenziheng1/article/details/53373807 1、插值方法原理详解【转】 转载于http://www.cnblogs.com/duye/p/8671820. 阅读全文
posted @ 2018-08-27 00:17 Skye_Zhao 阅读(3782) 评论(0) 推荐(0) 编辑
摘要: Virtual Microphone Array. 基阵的角度分辨力受到基阵孔径的限制,俗称“瑞利限”。虚拟阵列扩展技术,构造虚拟阵元位置处的信号或信息,扩展阵列孔径,提高角度分辨力。主要又三种虚拟阵列扩展方法:四阶累积量法、外推法、内插法。四阶累积量虚拟阵列扩展法能够抑制高斯噪声,将基阵扩展到二倍 阅读全文
posted @ 2018-08-23 08:58 Skye_Zhao 阅读(3678) 评论(0) 推荐(0) 编辑
摘要: 盲源分离(Blind Source Separation, BSS)是解决“鸡尾酒会问题(The Cocktail Party Problem)”的利器之一,其目的就是要将各个源信号,或后续问题中需要用到的某个或某些源信号从观测得到的混合信号中分离出来。所谓“盲源”,指的是源信号本身的波形、源信号的 阅读全文
posted @ 2018-08-12 21:37 Skye_Zhao 阅读(884) 评论(0) 推荐(0) 编辑
摘要: 说话人识别(Speaker Recognition,SR),又称声纹识别(Voiceprint Recognition,VPR),顾名思义,即通过声音来识别出来“谁在说话”,是根据语音信号中的说话人个性信息来识别说话人身份的一项生物特征识别技术。便于比较,语音识别(Automatic Speech 阅读全文
posted @ 2018-07-26 00:04 Skye_Zhao 阅读(19282) 评论(0) 推荐(3) 编辑
摘要: 基于子阵列互累积量(Cross-Cumulant)的远场和近场混合声源定位[1]。 文中采用Uniform linear array (ULA)阵列,将其分为两个互相重叠的子阵列,构建关于子阵列输出信号的两个特殊cross-cumulant matrices,而这两个矩阵仅仅与源信号的DOA有关。 阅读全文
posted @ 2018-07-09 00:03 Skye_Zhao 阅读(557) 评论(0) 推荐(0) 编辑
摘要: Chirp信号是一个典型的非平稳信号,在通信、声纳、雷达等领域具有广泛的应用。 简介 Chirp译名:啁啾(读音:“周纠”),是通信技术有关编码脉冲技术中的一种术语,是指对脉冲进行编码时,其载频在脉冲持续时间内线性地增加,当将脉冲变到音频地,会发出一种声音,听起来像鸟叫的啁啾声,故名“啁啾”。 后来 阅读全文
posted @ 2018-06-02 21:49 Skye_Zhao 阅读(33475) 评论(3) 推荐(1) 编辑
摘要: 基于MATLAB内建函数的FIR设计。 fir1函数 功能:设计标准频率响应的基于窗函数的FIR滤波器。 语法: b=fir1(n,Wn); b=fir1(n,Wn,‘ftytpe’); b=fir1(n,Wn,Window); b=fir1(n,Wn,‘ftype’,Window); 说明:fir 阅读全文
posted @ 2018-06-02 12:26 Skye_Zhao 阅读(654) 评论(0) 推荐(0) 编辑
摘要: 简介 EM算法即期望最大化算法,由Dempster等人在1976年提出[1]。这是一种迭代法,用于求解含有隐变量的最大似然估计、最大后验概率估计问题。至于什么是隐变量,在后面会详细解释。EM算法在机器学习中有大量成功的应用,典型是求解高斯混合模型,隐马尔可夫模型。如果你要求解的机器学习模型中有隐变量 阅读全文
posted @ 2018-06-01 15:00 Skye_Zhao 阅读(348) 评论(0) 推荐(0) 编辑
摘要: 克拉美-罗界。又称Cramer-Rao lower bounds(CRLB),克拉美-罗下界。 克拉美罗界是对于参数估计问题提出的,为任何无偏估计量的方差确定了一个下限。无偏估计量的方差只能无限制的逼近CRB,而不会低于CRB,因此这个界也可以称为CRLB,意为克拉美罗下界。 CRLB可以用于计算无 阅读全文
posted @ 2018-05-31 23:15 Skye_Zhao 阅读(4693) 评论(0) 推荐(0) 编辑
摘要: Wideband DOA Estimation。 语音信号以及野外的车辆信号的声音都是宽带信号,所以传统的窄带DOA算法(MUSIC,ESPRIT等)都不适用。需要采用宽带DOA算法来计算目标信号的波达角。 信号处理方法中,广泛采用的是分频处理方法。得益于快速傅里叶变换(FFT)在时频分析中的快速性 阅读全文
posted @ 2018-05-31 10:15 Skye_Zhao 阅读(4163) 评论(0) 推荐(0) 编辑
摘要: 机器学习中的统计学方法。 从机器学习的核心视角来看,优化(optimization)和统计(statistics)是其最最重要的两项支撑技术。统计的方法可以用来机器学习,比如:聚类、贝叶斯等等,当然机器学习还有很多其他的方法,如神经网络(更小范围)、SVM。 机器学习约等于统计+优化,它可以看作是一 阅读全文
posted @ 2018-05-25 11:20 Skye_Zhao 阅读(519) 评论(0) 推荐(0) 编辑
摘要: bootstrap方法是一种重采样技术,用于通过抽样数据集来估计总体统计数据。是一种面向应用的、基于大量计算的统计思维——模拟抽样统计推断。 它可以用来估计统计数据,例如平均值或标准差。在应用机器学习中,当对不包含在训练数据中的数据进行预测时,它用于评估机器学习模型的技能。 评估机器学习模型技能结果 阅读全文
posted @ 2018-05-25 09:34 Skye_Zhao 阅读(903) 评论(0) 推荐(0) 编辑
摘要: Boosting 是一种从一些弱分类器中创建一个强分类器的集成技术(提升算法)。 它先由训练数据构建一个模型,然后创建第二个模型来尝试纠正第一个模型的错误。不断添加模型,直到训练集完美预测或已经添加到数量上限。 Bagging与Boosting的区别:取样方式不同。Bagging采用均匀取样,而Bo 阅读全文
posted @ 2018-05-22 23:04 Skye_Zhao 阅读(398) 评论(0) 推荐(0) 编辑
摘要: Bagging和随机森林RF。 随机森林是最受欢迎和最强大的机器学习算法之一。它是一种称为Bootstrap Aggregation或bagging的集成机器学习算法。 bootstrap是一种强大的统计方法,用于从数据样本中估计数量,比如均值。可以取大量的数据样本,计算平均值,然后平均所有的平均值 阅读全文
posted @ 2018-05-21 14:18 Skye_Zhao 阅读(166) 评论(0) 推荐(0) 编辑
摘要: 支持向量机SVM。 简介 SVM核函数包括线性核函数、多项式核函数、径向基核函数、高斯核函数、幂指数核函数、拉普拉斯核函数、ANOVA核函数、二次有理核函数、多元二次核函数、逆多元二次核函数以及Sigmoid核函数。 支持向量机可能是最受欢迎的机器学习算法之一。 超平面是一个分割输入变量空间的线。在 阅读全文
posted @ 2018-05-18 21:53 Skye_Zhao 阅读(404) 评论(0) 推荐(0) 编辑
摘要: 分类和决策树(DT)。 决策树是预测建模机器学习的一种重要算法。 决策树模型的表示是二叉树。就是算法和数据结构中的二叉树,没什么特别的。每个节点表示一个单独的输入变量(x)和该变量上的左右孩子(假设变量为数值)。 树的叶节点包含一个输出变量(y),用于进行预测。通过遍历树,直到到达叶节点并输出叶节点 阅读全文
posted @ 2018-05-17 23:02 Skye_Zhao 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 朴素贝叶斯算法。 朴素贝叶斯是一种简单但功能强大的预测建模算法。该模型由两种类型的概率组成,可以直接从训练数据中计算:每个类的概率。每个类给定每个x值的条件概率。一旦计算出概率模型,就可以利用贝叶斯定理对新数据进行预测。 当你的数据是实值时,通常假设高斯分布(钟形曲线),这样你就可以很容易地估计这些 阅读全文
posted @ 2018-05-17 23:00 Skye_Zhao 阅读(193) 评论(0) 推荐(0) 编辑
摘要: K近邻算法。 KNN算法非常简单,非常有效。KNN算法适合样本较少典型性较好的样本集。 KNN的模型表示是整个训练数据集。也可以说是:KNN的特点是完全跟着数据走,没有数学模型可言。 对一个新的数据点进行了预测,通过对K个最类似的实例(邻居)的整个训练集进行搜索,并对这些K实例的输出变量进行汇总。对 阅读全文
posted @ 2018-05-17 22:59 Skye_Zhao 阅读(171) 评论(0) 推荐(0) 编辑
摘要: 学习矢量量化。 k近邻的缺点是你需要维持整个数据集的训练。 学习矢量量化算法(简称LVQ)是一种人工神经网络算法,它允许你选择要挂在多少个训练实例上,并精确地了解这些实例应该是什么样子。 LVQ的表示是一个codebook 向量的集合。这些都是在开始时随机选择的,并根据学习算法的多次迭代对训练数据集 阅读全文
posted @ 2018-05-17 22:57 Skye_Zhao 阅读(384) 评论(0) 推荐(0) 编辑