[Bayes] Latent Gaussian Process Models

比较难理解,通过做题来入门。

目的:简单的了解下相关概念。

 

基础

 

热身

目的:找x到y的映射关系。

假设:Q latent functions {fi}

fj 作为先验,跟x没什么直接关系,x只是作为承载超参数的载体。共有Q个,也就是有Q套超参数。

对于公式(4),x --> f --> (noise) --> y,大概就是这么个关系。

因为noise,当然y是iid。

由公式(3)可见,f也是iid。

一般而言,Q等于多分类的类别数量,P = 1即可(无需one-hot)。

 

开始

没看错,这么多符号,需要缕一缕,看不懂的概念可以参考以下链接。

Ref: Generic Inference in Latent Gaussian Process Models

(5) (6) (7) 其实跟(3)一回事:

既然多出了变量u,就分解出来看看:

带入已知条件,最后得:

高斯与高斯的联姻,结果还是高斯,就是在说这个。

 


 

这里主要是熟悉两个bound,对比下效果,以下是背景。

Inducing variables:ui

简单的理解为重要的某些点即可。

两个bound如下,可见后者计算复杂度更低。

 

posted @   郝壹贰叁  阅读(735)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示