上一页 1 2 3 4 5 6 7 ··· 31 下一页
摘要: k匿名性 在上一篇文章差分隐私进阶-去标识和重标识攻击中使用重标识攻击来获取隐私数据,这篇文章就介绍了使用k-匿名性来解决这个问题。 属性定义:令B(A1,A2,..,An)是一个有限数据的元组(一行数据称为元组)表格,其中表格B的有限属性集为$Q_T={A_1, A_2, ...,A 阅读全文
posted @ 2023-02-18 10:42 青山新雨 阅读(537) 评论(0) 推荐(0) 编辑
摘要: 去标识 去标识:是指从数据集中删除标识信息的过程。 标识信息的模糊定义:凡是能够根据信息序列精确定位到某个具体事物的信息序列。比如,每个人的身份证号,每个人的(家庭住址,姓名)的信息元组等等。 import pandas as pd import numpy as np import matplot 阅读全文
posted @ 2023-02-18 10:40 青山新雨 阅读(222) 评论(0) 推荐(0) 编辑
摘要: 今天,想使用vscode的jupyter写写笔记,想latex是否可以自动补全,发现可以使用vscode的插件实现这个功能。但是需要下载taxlive文件。但是,清华的下载非常慢,于是找了阿里镜像。还是阿里镜像好! https://mirrors.aliyun.com/CTAN/systems/te 阅读全文
posted @ 2023-02-17 21:12 青山新雨 阅读(280) 评论(0) 推荐(0) 编辑
摘要: 可信执行环境是从底层硬件和操作系统开始出发,提供一个隔离的运行环境,保护代码和数据不被攻击者攻击。 可信执行环境简介 可信执行环境:满足以下两个条件的一组支撑应用的软硬件组合: 可以避免软件层面的攻击 可以避免硬件层面的攻击 可信执行环境需要满足以下几个特征: 软硬件协同的安全机制:可信执行环境及其 阅读全文
posted @ 2023-02-17 18:00 青山新雨 阅读(673) 评论(0) 推荐(0) 编辑
摘要: 基本形式 给定由d个属性描述的示例x=(x1,x2,...,xd)T,线性模型试图通过一个线性组合来进行预测的函数,既: $$ f(\vec{x})=w_1x_1+w_2x_2+...+w_dx_d+b\ \to f(\vec{x}) = \vec{w}^T\vec{x 阅读全文
posted @ 2023-02-17 16:19 青山新雨 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 实现方法与性质 离散值域:随机回答 在很多场合,回答是或者不是,本身就属于隐私数据。也就是说有些隐私是离散的数据。 随机回答的局部差分隐私:考虑任意一个被调查者i。由于数据只有一条xi,所以只需要考虑Pr[ARR(xi)=0]Pr[ARR(xi)=1]。 比如$A_{ 阅读全文
posted @ 2023-02-16 19:00 青山新雨 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 问题模型及定义 注意:密码学方法保证的是计算过程的隐私性,差分隐私保证的是计算结果的隐私性。 差分隐私的核心是保护个人数据的隐私,而不是保护群体数据的隐私。 差分隐私问题模型:一个受信任的数据监管方C拥有一组数据χ=X1,X2,..,Xn。该数据监管方的目标是给出一个随机算法$ 阅读全文
posted @ 2023-02-16 15:36 青山新雨 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 隐私计算学习目录 隐私计算基础 差分隐私-问题和定义+ 差分隐私-实现方法与性质+ 可信执行环境+ 隐私计算-进阶 差分隐私进阶-去标识和重标识攻击 差分隐私进阶-k匿名化+ 阅读全文
posted @ 2023-02-16 13:34 青山新雨 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 经验误差和过拟合 评价模型好坏的几个指标: 正确率:在m个样本中有a个样本正确,则精度为acc=am 错误率:在m个样本中有m-a个样本错误,则误差为err=1acc 训练误差: 在训练样本中的误差为训练误差。 泛化误差:在测试样本中的误差为泛化误差。 在一个全 阅读全文
posted @ 2023-02-15 10:08 青山新雨 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 复杂网络目录目录 阅读全文
posted @ 2023-02-14 18:10 青山新雨 阅读(13) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 31 下一页
more_horiz
keyboard_arrow_up light_mode palette
选择主题
点击右上角即可分享
微信分享提示