08 2018 档案

摘要:不想整理代码了。先给个结果图: loss这么大,结果这么准确。我也搞不懂是怎么肥事呀。 AUC也没什么问题。暂时认为是好的吧。 下面是源码dataUtil用来对数据预处理: import pandas as pd import numpy as np def load_csv(filename): 阅读全文
posted @ 2018-08-27 19:35 超级学渣渣 阅读(6886) 评论(0) 推荐(0) 编辑
摘要:机器学习离不开数据,数据分析离不开pandas。昨天感受了一下,真的方便。按照一般的使用过程,将pandas的常用方法说明一下。 首先,我们拿到一个excel表,我们将之另存为csv文件。因为文件是实验室的资源,我就不分享了。 首先是文件读取 我们调用read_csv文件可以直接读取csv文件。其返 阅读全文
posted @ 2018-08-27 11:05 超级学渣渣 阅读(394) 评论(0) 推荐(0) 编辑
摘要:使用tf.train.Saver()保存到checkpoint文件,我们可以用tensorflow查看。 阅读全文
posted @ 2018-08-25 20:36 超级学渣渣 阅读(169) 评论(0) 推荐(0) 编辑
摘要:我们通过tf.train.Saver()来保存和重载变量 实现是保存 通过调用saver的save方法来保存,返回一个str,代表了路径。 然后展示的是我们保存部分变量和重载: 如果Saver中不传入参数,则会将所有的变量都保存。传入字典,则会按照字典中的key-value对变量进行保存。 对于不需 阅读全文
posted @ 2018-08-25 20:32 超级学渣渣 阅读(156) 评论(0) 推荐(0) 编辑
摘要:代码写的再好,没有图别人也不知道好在哪。 我们在使用tensorflow的时候,使用tensorboard可以直观的看到我们的网络结构,甚至它可以计算卷积和池化的维度(我不知道是不是因为我已经运行了一遍,所以维度显示出来了) 首先是开启tensorboard的代码: 因为我用pip下载了tensor 阅读全文
posted @ 2018-08-25 19:45 超级学渣渣 阅读(388) 评论(0) 推荐(0) 编辑
摘要:算的的上是自己搭建的第一个卷积神经网络。网络结构比较简单。 输入为单通道的mnist数据集。它是一张28*28,包含784个特征值的图片 我们第一层输入,使用5*5的卷积核进行卷积,输出32张特征图,然后使用2*2的池化核进行池化 输出14*14的图片 第二层 使用5*5的卷积和进行卷积,输出64张 阅读全文
posted @ 2018-08-25 16:38 超级学渣渣 阅读(4748) 评论(0) 推荐(0) 编辑
摘要:从昨天晚上,到今天上午12点半左右吧,一直在调这个代码。最开始训练的时候,老是说loss:nan 查了资料,因为是如果损失函数使用交叉熵,如果预测值为0或负数,求log的时候会出错。需要对预测结果进行约束。 有一种约束方法是:y_predict=max(y,(0,1e-18])。也就是将小于0的数值 阅读全文
posted @ 2018-08-25 14:35 超级学渣渣 阅读(519) 评论(0) 推荐(0) 编辑
摘要:不做卷积,只是增加多层神经网络层。 #-*- encoding:utf-8 -*- #!/usr/local/env python import numpy as np import tensorflow as tf from tensorflow.examples.tutorials.mnist 阅读全文
posted @ 2018-08-24 20:45 超级学渣渣 阅读(442) 评论(0) 推荐(0) 编辑
摘要:我们不做卷积。直接将x输入到网络中去。最后用softmax作为激活函数 大概结构,我这里没法上传,等我回去在传。 阅读全文
posted @ 2018-08-24 20:26 超级学渣渣 阅读(588) 评论(0) 推荐(0) 编辑
摘要:学习了tensorflow的线性回归。 首先是一个sklearn中makeregression数据集,对其进行线性回归训练的例子。来自腾讯云实验室 import tensorflow as tf import numpy as np class linearRegressionModel: def 阅读全文
posted @ 2018-08-24 19:52 超级学渣渣 阅读(1358) 评论(0) 推荐(0) 编辑
摘要:tf.Variable __init__( initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, variable_def=None, dt 阅读全文
posted @ 2018-08-24 10:29 超级学渣渣 阅读(4832) 评论(0) 推荐(0) 编辑
摘要:tf.square square( x, name=None ) 功能说明: 计算张量对应元素平方 参数列表: 参数名必选类型说明 x 是 张量 是 half, float32, float64, int32, int64, complex64, complex128 其中一种类型 name 否 s 阅读全文
posted @ 2018-08-24 10:17 超级学渣渣 阅读(916) 评论(0) 推荐(0) 编辑
摘要:tf.squared_difference squared_difference( x, y, name=None ) 功能说明: 计算张量 x、y 对应元素差平方 参数列表: 参数名必选类型说明 x 是 张量 是 half, float32, float64, int32, int64, comp 阅读全文
posted @ 2018-08-24 10:11 超级学渣渣 阅读(7282) 评论(0) 推荐(1) 编辑
摘要:今天连接到服务器后,安装anaconda。虽然在安装过程中选择将anaconda加入到系统变量中去。而且在 ~/.bashrc 中确实有 export PATH="/home/xnh/anaconda2/bin:$PATH" 这句话。搜索结果都是说,因为用了dash,改成bash就可以了。 http 阅读全文
posted @ 2018-08-23 15:18 超级学渣渣 阅读(5967) 评论(0) 推荐(0) 编辑
摘要:tf.reduce_mean reduce_mean( input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None ) 功能说明: 计算张量 input_tensor 平均值 参数列表: 参数名必选类型说明 阅读全文
posted @ 2018-08-23 12:02 超级学渣渣 阅读(3024) 评论(0) 推荐(0) 编辑
摘要:tf.nn.bias_add bias_add( value, bias, data_format=None, name=None ) 功能说明: 将偏差项 bias 加到 value 上面,可以看做是 tf.add 的一个特例,其中 bias 必须是一维的,并且维度和 value 的最后一维相同, 阅读全文
posted @ 2018-08-23 12:00 超级学渣渣 阅读(573) 评论(0) 推荐(0) 编辑
摘要:tf.placeholder placeholder( dtype, shape=None, name=None ) 功能说明: 是一种占位符,在执行时候需要为其提供数据 参数列表: 参数名必选类型说明 dtype 是 dtype 占位符数据类型 shape 否 1 维整形张量或 array 占位符 阅读全文
posted @ 2018-08-23 11:59 超级学渣渣 阅读(323) 评论(0) 推荐(0) 编辑
摘要:tf.constant constant( value, dtype=None, shape=None, name='Const', verify_shape=False ) 功能说明: 根据 value 的值生成一个 shape 维度的常量张量 参数列表: 参数名必选类型说明 value 是 常量 阅读全文
posted @ 2018-08-23 10:47 超级学渣渣 阅读(2904) 评论(0) 推荐(0) 编辑
摘要:tf.truncated_normal truncated_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) 功能说明: 产生截断正态分布随机数,取值范围为 [ mean - 2 * stdde 阅读全文
posted @ 2018-08-23 09:58 超级学渣渣 阅读(8205) 评论(0) 推荐(1) 编辑
摘要:tf.nn.sigmoid_cross_entropy_with_logits sigmoid_cross_entropy_with_logits( _sentinel=None, labels=None, logits=None, name=None ) 功能说明: 先对 logits 通过 si 阅读全文
posted @ 2018-08-23 09:51 超级学渣渣 阅读(1375) 评论(0) 推荐(0) 编辑
摘要:unstaged changes 建好仓库,连接到git之后,在上传代码的时候发现有一些代码是unstaged changes状态。这样的文件是没法上传到git上去的。解决方法是给这些文件增加index 原因是:虽然这些文件在本地创建好了,但是没有同步到local的仓库上。增加index将之同步到本 阅读全文
posted @ 2018-08-17 14:13 超级学渣渣 阅读(745) 评论(0) 推荐(0) 编辑
摘要:描述:做一个如图所示的篮球比赛记分板。 <?xml version="1.0" encoding="utf-8"?> <android.support.constraint.ConstraintLayout xmlns:android="http://schemas.android.com/apk/ 阅读全文
posted @ 2018-08-05 19:23 超级学渣渣 阅读(295) 评论(0) 推荐(0) 编辑
摘要:任务:做这样一个界面,选择数量,自动计算价格。超级简单。。 <?xml version="1.0" encoding="utf-8"?> <android.support.constraint.ConstraintLayout xmlns:android="http://schemas.androi 阅读全文
posted @ 2018-08-05 16:02 超级学渣渣 阅读(284) 评论(0) 推荐(0) 编辑
摘要:学习到一种使用 RelativeLayout 设置背景图片的方法, 效果如图: <?xml version="1.0" encoding="utf-8"?> <android.support.constraint.ConstraintLayout xmlns:android="http://sche 阅读全文
posted @ 2018-08-04 10:31 超级学渣渣 阅读(440) 评论(0) 推荐(0) 编辑
摘要:答案来自 stack flow 修改: res -> values -> style.xml style name="AppTheme" parent="Base.Theme.AppCompat.Light.DarkActionBar" 这对我来说是有效的。 阅读全文
posted @ 2018-08-04 00:47 超级学渣渣 阅读(2465) 评论(0) 推荐(0) 编辑
摘要:<LinearLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height="match_parent" andr 阅读全文
posted @ 2018-08-02 23:14 超级学渣渣 阅读(162) 评论(0) 推荐(0) 编辑
摘要:做一个如图所示的布局。 <RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height="matc 阅读全文
posted @ 2018-08-02 23:12 超级学渣渣 阅读(106) 评论(0) 推荐(0) 编辑
摘要:通过id设置相对兄弟元素对齐。 <RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height=" 阅读全文
posted @ 2018-08-01 19:45 超级学渣渣 阅读(350) 评论(0) 推荐(0) 编辑
摘要:相对布局,用来设置相对父级视图的位置 阅读全文
posted @ 2018-08-01 15:42 超级学渣渣 阅读(273) 评论(0) 推荐(0) 编辑
摘要:设置layout_weight的元素将按照比例均分剩余的屏幕。 比如 有四个元素分别设置layout_weight 为1,2,3,4,则他们分别占有10%、20%、30%、40%的屏幕 话不多说,上图: 阅读全文
posted @ 2018-08-01 15:32 超级学渣渣 阅读(103) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示