摘要: 本笔记主体框架主要参考自姜罕老师所做的技术分享,本人对其中的一些具体技术细节做了资料搜集与补充。 参考材料: https://zhuanlan.zhihu.com/p/369635307 1. 概述 本节主要介绍搜索引擎的一些基本概念(如搜索引擎的分类、搜索好坏的衡量指标)以及搜索系统的基本架构 1 阅读全文
posted @ 2023-09-13 16:39 空口吃大蒜 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 1. A Model-Agnostic Causal Learning Framework for Recommendation using Search Data. WWW 2022 从因果分析的角度看,用于表示特征的embedding向量与用户的点击反馈有着复杂的关系。作者认为,这种复杂的关系可 阅读全文
posted @ 2023-08-14 10:21 空口吃大蒜 阅读(80) 评论(0) 推荐(0) 编辑
摘要: # n-gram 模型 参考:https://zhuanlan.zhihu.com/p/32829048 简介:一个句子或者一个联想词语,可以使用链式规则建模,利用马尔科夫链的假设(当前词语的产生只与前n个词语产生的概率相关)。n-gram中的n指的就是马尔科夫链假设中的长度。 定义:一元模型uni 阅读全文
posted @ 2023-08-14 10:19 空口吃大蒜 阅读(214) 评论(0) 推荐(0) 编辑
摘要: Author: Hanwang Zhang, Xinting Hu Create_time: April 24, 2022 11:01 AM Edited_by: Huang Yujun Publisher: CVPR 2021 Org: Nanyang Technological Universi 阅读全文
posted @ 2023-04-11 20:12 空口吃大蒜 阅读(232) 评论(0) 推荐(0) 编辑
摘要: Create_time: April 27, 2022 5:21 PM Edited_by: Huang Yujun Org: Google Research, Northeastern University Learning to Prompt for Continual Learning [38 阅读全文
posted @ 2023-04-11 20:07 空口吃大蒜 阅读(531) 评论(2) 推荐(0) 编辑
摘要: Author: Alexander Kolesnikov Key_words: nearest-mean-of-exemplar rule, prioritized exampler selection,representation learning Create_time: September 1 阅读全文
posted @ 2023-04-11 20:05 空口吃大蒜 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 1.逆强化学习与强化学习的联系 强化学习的基本模型是马尔可夫决策过程(Markov Decision Process,MDP),其可以使用五元组来表示: $(S,A,P,R,T/\gamma)$ ,分别代表状态空间、动作空间、状态转移概率、奖赏函数、迭代次数(折损因子)。实际上,在之前的学习中,我们 阅读全文
posted @ 2023-04-11 20:02 空口吃大蒜 阅读(594) 评论(0) 推荐(0) 编辑
摘要: 由于在学习ros的过程中,发现教程中介绍到的Turtlebot3具有较为完备的硬件设计,以及软件驱动功能包,十分适合我们项目在算法仿真上的工作.所以就此展开对turtlebot3的学习,将重点研究可能用到的机器人运动/LDS/Slam等几个部分. 涉及到的turtlebot3功能包的安装与测试,可参 阅读全文
posted @ 2023-04-11 19:59 空口吃大蒜 阅读(334) 评论(0) 推荐(0) 编辑
摘要: 这是一篇Ros+python的样例笔记,主要介绍了ros的三种通信方式Topic、service、action的基本使用方法及使用样例 阅读全文
posted @ 2023-04-11 19:55 空口吃大蒜 阅读(313) 评论(0) 推荐(0) 编辑
摘要: 1.1. 简介 强化学习(reinforcement learning)是机器学习的一个重要分支,其具有两个重要的基本元素:状态和动作。类似于编译原理中的自动机,或数据结构中的AOE图,强化学习研究的就是怎样找到一种最好的路径,使得不同状态之间通过执行相应动作后转换,最终到达目标状态。先介绍几个名词 阅读全文
posted @ 2023-04-07 22:02 空口吃大蒜 阅读(181) 评论(3) 推荐(2) 编辑