随笔分类 - 人工智能
摘要:大家好,我是独孤风。 又到了本周的开源项目推荐。近一年多的时间,人工智能迎来了大爆发。GPT相关的大模型的发展让很多领域都发生了巨大的变化。 但是虽然GPT的自然语言识别功能异常的强大,但回答给我们的知识内容并不尽如人意。那么,有没有可以在本地部署搭建的AI知识库项目呢? 今天为大家推荐的就是一个纯
阅读全文
摘要:uploading-image-126879.png 近期,OpenAI宣布GPT应用商店正式上线,目前拥有plus的用户已经可以体验了。 OpenAI将GPT应用商店命名为GPTs,这也是之前发布会就宣传的内容,终于上线了。简单的说,GPT应用商店类似于手机上的应用商店,在这里用户可以自己做一个应
阅读全文
摘要:上周,OpenAI开发者大会上OpenAI发布了一系列震撼人心的功能。而最让我感兴趣的,就是GPT4的数据分析功能了。话不多说,赶紧上号体验一下。 在最新登录GPT4的时候,都会有下面这个提示,目前已经支持联网,分析数据,生成图片的功能了。这是plus用户都可以使用的。 然后我们可以在上方很容易的选
阅读全文
摘要:近日华为发布了《智能世界2030》报告,探索未来十年的趋势。华为汪涛以“无界探索,翻开未来”为主题演讲。本文带大家来看一下这份124页的报告主要讲了什么内容,同时也关注下和大数据发展的关系。 报告全文从医、食、住、行、城市、企业、能源和数据可信等八个领域展望了2030年一些可能的变化,引用了一些预测
阅读全文
摘要:推荐系统(Recommender Systems) 大数据流动 专注于大数据实时计算,数据治理,数据可视化等技术分享与实践。 请在后台回复关键字下载相关资料。相关学习交流群已经成立,欢迎加入~
阅读全文
摘要:异常检测(Anomaly Detection) 给定数据集 𝑥(1),𝑥(2),..,𝑥(𝑚),我们假使数据集是正常的,我们希望知道新的数据 𝑥𝑡𝑒𝑠𝑡 是不是异常的,即这个测试数据不属于该组数据的几率如何。我们所构建的模型应该能根据 该测试数据的位置告诉我们其属于一组数据的可能性
阅读全文
摘要:降维(Dimensionality Reduction) 降维的目的:1 数据压缩 这个是二维降一维 三维降二维就是落在一个平面上。 2 数据可视化 降维的算法只负责减少维数,新产生的特征的意义就必须由我们自 己去发现了。 主成分分析(PCA)是最常见的降维算法。 在 PCA 中,我们要做的是找到一
阅读全文
摘要:无监督学习 没有标签 聚类(Clustering) 图上的数据看起来可以分成两个分开的点集(称为簇),这就是为聚类算法。 此后我们还将提到其他类型的非监督学习算法,它们可以为我们找到其他类型的结构或者其他的一些模式,而不只是簇。 K-均值是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据聚类
阅读全文
摘要:与逻辑回归和神经网络相比,支持向量机或者简称 SVM,更为强大。 人们有时将支持向量机看作是大间距分类器。 这是我的支持向量机模型代价函数 这样将得到一个更好的决策边界 理解支持向量机模型的做法,即努力将正样本和负用最大间距分开。 实际上应用支持向量机的时候, 当𝐶不是非常大的时候, 它可以忽略掉
阅读全文
摘要:获得更多的训练实例——通常是有效的,但代价较大,下面的方法也可能有效,可考虑 先采用下面的几种方法。 1.尝试减少特征的数量 2.尝试获得更多的特征 3.尝试增加多项式特征 4.尝试减少正则化程度𝜇 我们需要使用交叉 验证集来帮助选择模型。 即:使用 60%的数据作为训练集,使用 20%的数据作为
阅读全文
摘要:无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时, 计算的负荷会非常大。 比如识别图像,是否是一辆汽车,可能就需要判断太多像素。 这时候就需要神经网络。 神经网络是模拟人类大脑的神经网络,由神经元,输入树突,输出树突构成。 由此设计神经网络模型: x1,x2,x3是输入单元,将原始数据给
阅读全文
摘要:过拟合(over-fitting) 欠拟合 正好 过拟合 怎么解决 1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一 些模型选择的算法来帮忙(例如 PCA) 2.正则化。 保留所有的特征,但是减少参数的大小(magnitude) 回归问题的模型是 是高次项导致了这个问题
阅读全文
摘要:逻辑回归(Logistic Regression) 线性回归用来预测,逻辑回归用来分类。 线性回归是拟合函数,逻辑回归是预测函数 逻辑回归就是分类、 分类问题用线性方程是不行的 线性方程拟合的是连续的值 逻辑回归是分类问题 比如肿瘤问题 只有 0 ,1 两种情况 逻辑回归的方程写成 X是特征向量 t
阅读全文
摘要:机器学习(三) 多变量线性回归(Linear Regression with Multiple Variables) 同样是预测房价问题 如果有多个特征值 那么这种情况下 假设h表示为 公式可以简化为 两个矩阵相乘 其实就是所有参数和变量相乘再相加 所以矩阵的乘法才会是那样 那么他的代价函数就是 同
阅读全文
摘要:面积与房价 训练集 (Training Set) Size Price 2104 460 852 178 。。。。。。 m代表训练集中实例的数量x代表输入变量 y代表输出变量 (x,y)代表训练集中的实例 h代表方案或者假设 h = a x + b 输入变量输入给h 得到输出结果 因为只有一个特征
阅读全文
摘要:首先,人工智能(Artificial Intelligence)有很多领域: 包括机器学习(Machine Learning)、专家系统、、进化计算、模糊逻辑、计算机视觉、自然语言处理、推荐系统等。 所以机器学习是一种实现人工智能的技术,而另一个深度学习(Deep Learning)是一种实现机器学
阅读全文