基于手机传感器数据使用 CNN 识别用户行为的 Tensroflow 实现

传感器数据集

这个项目使用了 WISDM (Wireless Sensor Data Mining) Lab 实验室公开的 Actitracker 的数据集。 WISDM 公开了两个数据集,一个是在实验室环境采集的;另一个是在真实使用场景中采集的,这里使用的是实验室环境采集的数据。

  • 测试记录:1,098,207 条
  • 测试人数:36 人
  • 采样频率:20 Hz
  • 行为类型:6 种
    • 走路
    • 慢跑
    • 上楼梯
    • 下楼梯
    • 站立
  • 传感器类型:加速度
  • 测试场景:手机放在衣兜里面

数据分析

从 实验室采集数据下载地址 下载数据集压缩包,解压后可以看到下面这些文件:

  • readme.txt
  • WISDM_ar_v1.1_raw_about.txt
  • WISDM_ar_v1.1_trans_about.txt
  • WISDM_ar_v1.1_raw.txt
  • WISDM_ar_v1.1_transformed.arff

我们需要的是包含 RAW 数据的 WISDM_ar_v1.1_raw.txt 文件,其他的是转换后的或者说明文件。文件的每一行数据包含了测试id,行为类型,时间,加速度x,加速度y和加速度z。

这是一个不平衡的数据集,各个行为类型的数据比例不同,官方的描述文件中也提到:

  • Walking: 424,400 (38.6%)
  • Jogging: 342,177 (31.2%)
  • Upstairs: 122,869 (11.2%)
  • Downstairs: 100,427 (9.1%)
  • Sitting: 59,939 (5.5%)
  • Standing: 48,395 (4.4%)

 

创建、训练并测试模型

模型可以分为数据输入模型,训练模型创建和测试评估模型。

数据输入类型可以分为数据集加载,数据标准化,创建输入数据。

加载数据集

  文件的数据保存在 WISDM_ar_v1.1_raw.txt中,可以用pandas里面的函数,read_csv()进行读取。

def read_data(file_path):
    column_names = ['user-id', 'activity', 'timestamp', 'x-axis', 'y-axis', 'z-axis']
    data = pd.read_csv(file_path, header=None, names=column_names)
    return data

 

数据标准化

  对变量的标准差标准化:标准差标准化是将某变量中的观察值减去该变量的平均数,然后除以该变量的标准差。即

       x’ik = (xik -mean )/sk

    经过标准差标准化后,各变量将有约一半观察值的数值小于0,另一半观察值的数值大于0,变量的平均数为0,标准差为1。经标准化的数据都是没有单位的纯数量。对变量进行的标准差标准化可以消除量纲(单位)影响和变量自身变异的影响。但有人认为经过这种标准化后,原来数值较大的的观察值对分类结果的影响仍然占明显的优势,应该进一步消除大小因子的影响。尽管如此,它还是当前用得最多的数据标准化方法。

# 数据标准化
def feature_normalize(dataset):
    mu = np.mean(dataset, axis=0)
    sigma = np.std(dataset, axis=0)
    return (dataset - mu) / sigma

 

创建输入数据

创建输入数据,每一组数据包含x,y,z三个轴的90条连续记录,用‘stats.mode’方法获取这90条记录中出现次数最多的行为作为该组行为的标签,

def segment_signal(data, window_size=90):
    segments = np.empty((0, window_size, 3))
    labels = np.empty((0))
    print len(data['timestamp'])
    count = 0
    for (start, end) in windows(data['timestamp'], window_size):
        print count
        count += 1
        x = data["x-axis"][start:end]
        y = data["y-axis"][start:end]
        z = data["z-axis"][start:end]
        if (len(dataset['timestamp'][start:end]) == window_size):
            segments = np.vstack([segments, np.dstack([x, y, z])])
            labels = np.append(labels, stats.mode(data["activity"][start:end])[0][0])
    return segments, labels

 

 

训练模型创建(cnn的结构如下):

 

  • 输入:1*90大小的向量,3通道.(每天轴为一个通道,90为连续的90条记录)
  • 第一层卷积:1*10大小的卷积核60个。
  • 第一层max-pooling:20*1的核。
  • 第二层卷积:1*6卷积核10个。
  • 第一层全连接:有1000个隐藏的神经元,采用tanh的激活函数
  • Softmax层:归一化。

 训练过程采用的是梯度下降算法。

卷积函数和池化函数的定义:

def depthwise_conv2d(x, W):
    return tf.nn.depthwise_conv2d(x, W, [1, 1, 1, 1], padding='VALID')

# 为输入数据的每个 channel 执行一维卷积,并输出到 ReLU 激活函数
def apply_depthwise_conv(x, kernel_size, num_channels, depth):
    weights = weight_variable([1, kernel_size, num_channels, depth])
    biases = bias_variable([depth * num_channels])
    return tf.nn.relu(tf.add(depthwise_conv2d(x, weights), biases))

# 在卷积层输出进行一维 max pooling
def apply_max_pool(x, kernel_size, stride_size):
    return tf.nn.max_pool(x, ksize=[1, 1, kernel_size, 1],
                          strides=[1, 1, stride_size, 1], padding='VALID')

卷积网络的建立:

# 下面是使用 Tensorflow 创建神经网络的过程。
X = tf.placeholder(tf.float32, shape=[None,input_height,input_width,num_channels])
Y = tf.placeholder(tf.float32, shape=[None,num_labels])

c = apply_depthwise_conv(X,kernel_size,num_channels,depth)
p = apply_max_pool(c,20,2)
c = apply_depthwise_conv(p,6,depth*num_channels,depth//10)

shape = c.get_shape().as_list()
c_flat = tf.reshape(c, [-1, shape[1] * shape[2] * shape[3]])

f_weights_l1 = weight_variable([shape[1] * shape[2] * depth * num_channels * (depth//10), num_hidden])
f_biases_l1 = bias_variable([num_hidden])
f = tf.nn.tanh(tf.add(tf.matmul(c_flat, f_weights_l1),f_biases_l1))

out_weights = weight_variable([num_hidden, num_labels])
out_biases = bias_variable([num_labels])
y_ = tf.nn.softmax(tf.matmul(f, out_weights) + out_biases)

损失函数集训练函数

loss = -tf.reduce_sum(Y * tf.log(y_))
optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(loss)

 

 

测试评估模型

测试评估函数

correct_prediction = tf.equal(tf.argmax(y_,1), tf.argmax(Y,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

 

我们将所有的数据进行7/3分,7用于对模型进行训练,3用于对模型精度进行测试,其结果如下:

Precision 0.888409996548

Recall 0.884568153909

f1_score 0.880684696544

可以看成在在只迭代了8次的情况之下,等到了0.88的精度,效果非常好。

 

posted on 2016-12-13 22:03  麦冬  阅读(5234)  评论(12编辑  收藏  举报