摘要: 前言 最近在学习 5G NR 的仿真,无论是控制信道还是数据信道,都涉及到信道估计的相关算法,如 LMMSE 和 基于 PDP 的 LMMSE 算法等。并且常常把信道估计和信道均衡搞混,因为都有 MMSE 算法?于是打算从基本概念、常用算法及其公式推导等方面学习一下信道估计理论,并将学习的博客资料整 阅读全文
posted @ 2022-08-28 22:37 无发可理的理发师 阅读(12475) 评论(1) 推荐(3) 编辑
摘要: 在 5G NR 的 PUCCH 仿真中遇到了有关虚警率和漏警率的概念。在此记录一下。文章内容来自于:虚警率、漏警率 一、相关概念 真实值(actual value)、预测值(predicted value) actual value 指真实记录的已发生的测量结果值;predicted value 指 阅读全文
posted @ 2022-08-28 14:36 无发可理的理发师 阅读(5783) 评论(0) 推荐(1) 编辑
摘要: 最近看论文时遇到很多有关矩阵迹的相关运算,故在网上搜索了不少相关资料,将其整理为此文。包含矩阵的迹相关的概念、性质和运算(如求导);此外还包含共轭转置对矩阵的求导——将矩阵本身和其共轭转置当作两个无关的变量即可。 修改记录: 2024/03/14 修正了复数矩阵中带共轭的求导公式 增加了常用矩阵求导 阅读全文
posted @ 2022-08-24 11:31 无发可理的理发师 阅读(17815) 评论(0) 推荐(2) 编辑
摘要: 前言 本文简要介绍两种非梯度优化方法:坐标下降法和块坐标下降法。二者用于求解无约束优化问题,属于直接法。 我一直没太搞清楚坐标下降和坐标轮换的区别,但感觉应该是一个东西?都是循环沿单一维度进行线性搜索直至函数收敛,只是看很多坐标轮换法的介绍文章,提到该方法无需知道目标函数的解析式,但其实二者本质应该 阅读全文
posted @ 2022-08-21 11:04 无发可理的理发师 阅读(4509) 评论(0) 推荐(0) 编辑
摘要: 前言 记录遇到的通信中的数学优化方法。本文所介绍的是分式规划(Fractional Programming,FP)在以和速率最大化为目标的波束赋形问题求解中的应用。其关键思想有二: 利用 Lagrange 对偶将 SINR 项提取至 log 函数外面; FP 中的 二次变换(Quadratic Tr 阅读全文
posted @ 2022-08-20 19:24 无发可理的理发师 阅读(3169) 评论(5) 推荐(0) 编辑
摘要: 介绍一个复杂的机器学习系统如何组成 一、照片光学字符识别(Photo Optical Character Recognition,photo OCR) 如查找图片时,输入照片上存在的词语就可以将该照片搜索出来。 OCR步骤:文本检测、字符分割、字符分类(识别) 其中第3步可以利用之前学习的神经网络进 阅读全文
posted @ 2022-08-19 17:43 无发可理的理发师 阅读(135) 评论(0) 推荐(0) 编辑
摘要: 1. 基于内容的推荐系统(Content-based recommender systems) 如将每部电影的内容划分为爱情元素(romance) $x_1$ +动作元素(action)$x_2$ ,并且有一定的数值描述该电影成分。根据用户对电影的评价分数及相应电影的内容分布情况训练某个用户对于电影 阅读全文
posted @ 2022-08-19 17:27 无发可理的理发师 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 例:飞机引擎检测、欺诈检测(用户的网站行为检测) 一、高斯分布 $X\sim N(\mu,\sigma^2)$ $p(x;\mu,\sigma^2)=\frac{1}{\sqrt{2\pi}\sigma}\exp(-\frac{(x-\mu)^2}{2\sigma^2})$ 参数估计:估计参数 $\ 阅读全文
posted @ 2022-08-19 17:26 无发可理的理发师 阅读(224) 评论(0) 推荐(0) 编辑
摘要: 一、无监督学习 定义:训练数据不带有任何标签。算法的目的是找到数据本身具有的结构特征。 经典的算法:聚类(cluster)、降维(dimensionality reduction) 二、K-means 聚类 2.1 算法步骤: Input: K(簇的数量) 无标签训练集${x^{(1)},x^{(2 阅读全文
posted @ 2022-08-19 17:26 无发可理的理发师 阅读(146) 评论(0) 推荐(0) 编辑
摘要: 应用于大数据集较为合适的两种算法:随机梯度下降 和 mini-batch 梯度下降。 一、随机梯度下降(stochastic gradient descent) 由于之前实现梯度下降时,每次迭代都需要考虑所有样本,因此也称为批量梯度下降(batch gradient descent)。如 $\the 阅读全文
posted @ 2022-08-19 17:26 无发可理的理发师 阅读(98) 评论(0) 推荐(0) 编辑