随笔分类 -  ML/DL

摘要:LLL(Life Long Learning)&灾难性遗忘(Catastrophic Forgetting) https://www.youtube.com/watch?v=Y9Jay_vxOsM Life Long Learning 通常机器学习中,单个模型只解决单个或少数几个任务。对于新的任务, 阅读全文 »
posted @ 2023-05-06 15:41 noobwei 阅读(395) 评论(0) 推荐(0) 编辑
摘要:神经网络分为两种,前馈型神经网络与后馈型(递归型)神经网络 前馈型神经网络典型的有:卷积神经网络(Convolutional Neural Networks, CNN);后馈型(递归型)神经网络的典型有:循环神经网络(Recurrent Neural Network, RNN);LSTM是一种改进之 阅读全文 »
posted @ 2023-05-05 19:12 noobwei 阅读(165) 评论(0) 推荐(0) 编辑
摘要:0 改进的点 增加input,为input增加循环 load_data增加归一化,与之对应输出时需要将归一化还原 存疑的点 分类阈值是否和常识一样为0.5/如果改成不是奇偶数判断(例如是否被3整除)阈值是否是0.5 BATCH_SIZE:即一次训练所抓取的数据样本数量,更改之后有什么影响,built 阅读全文 »
posted @ 2022-11-15 14:23 noobwei 阅读(109) 评论(0) 推荐(0) 编辑
摘要:小摆几天😊 https://zhuanlan.zhihu.com/p/30823399 keras.model.fit https://keras-zh.readthedocs.io/models/model/ y=None, #输入的y标签值 batch_size=None, #整数 ,每次梯度 阅读全文 »
posted @ 2022-11-01 14:15 noobwei 阅读(51) 评论(0) 推荐(0) 编辑
摘要:神经网络 https://www.ibm.com/cn-zh/cloud/learn/neural-networks 神经网络反映人类大脑的行为,允许计算机程序识别模式,以及解决人工智能、机器学习和深度学习领域的常见问题。 神经网络,也称为人工神经网络 (ANN) 或模拟神经网络 (SNN),是机器 阅读全文 »
posted @ 2022-10-28 12:19 noobwei 阅读(329) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示