摘要:
Relu Relu(Linear rectification function)是深度学习中的一种激活函数 其函数表达式为:f(x)=max(0,x) 其函数图像为: 该函数主要用于cnn卷积神经网络的卷积(Convolution)和池化(MaxPooling)中,因为经过卷积运算和池化运算后的图像 阅读全文
摘要:
什么是cnn卷积神经网络?ta有什么用呢? 这些问题是否现在或者曾经是你们心中的问题? #cnn卷积神经网络详解 cnn卷积神经网络是一种人工智能网络,用于图片识别、图片分类等。 那怎么可以进行图片识别、分类等问题呢? 传一些图片进去为什么能实现训练和分类呢? 明明就是一张人们可见的图片,怎么能用于 阅读全文
摘要:
原理 比如这么一句话:“这手机的画面极好,操作也比较流畅。不过拍照真的太烂了!系统也不好。” ① 情感词 要分析一句话是积极的还是消极的,最简单最基础的方法就是找出句子里面的情感词,积极的情感词比如:赞,好,顺手,华丽等,消极情感词比如:差,烂,坏,坑爹等。出现一个积极词就+1,出现一个消极词就-1 阅读全文
摘要:
首先先导入所需要的库 import sys from matplotlib import pyplot from tensorflow.keras.utils import to_categorical from keras.models import Sequential from keras.l 阅读全文
摘要:
题目: 用双指针遍历两个数组,来找最小距离,如果此时左指针指向的元素小于有指针指向的元素,则让左指针加1,否则让右指针加1,如果两者指向的元素一样,则已经到了最小距离,跳出循环。 代码: import math m,n=map(int,input().split()) m=list(map(int, 阅读全文