上一页 1 2 3 4 5 6 7 8 ··· 34 下一页
摘要: import numpy as np class NeuralNetwork: def __init__(self, input_size, output_size): self.input_size = input_size self.output_size = output_size self. 阅读全文
posted @ 2023-03-26 10:35 Please Call me 小强 阅读(22) 评论(0) 推荐(0) 编辑
摘要: #coding: utf8 import math # x1, x2输入神经元 x1=1 x2=2 # w1,w2分别为x1,x2的权重 w1=0.2 w2=0.3 # b为输出神经元的偏移量 b = 0.1 target = 1 # 目标值 def f(w1, w2, b): return x1 阅读全文
posted @ 2023-03-25 22:11 Please Call me 小强 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 一次函数:y=kx+b (k≠0) 二次函数:y=ax2+bx+c (a≠0) 三次函数 y=ax^3+bx^2+cx+d (a≠0,b,c,d为常数) 四次函数y=ax4+bx3+cx2+dx+e (a≠0,b,c,d,e为常数) 绝对值函数 y=∣x∣ 常作abs(x) 几何意义 ∣x∣表示x轴 阅读全文
posted @ 2023-03-23 00:30 Please Call me 小强 阅读(108) 评论(0) 推荐(0) 编辑
摘要: #coding=utf8 import json,math,requests import numpy as np import matplotlib.pyplot as plt from scipy.stats import gaussian_kde from scipy.integrate im 阅读全文
posted @ 2023-03-16 00:40 Please Call me 小强 阅读(24) 评论(0) 推荐(0) 编辑
摘要: Q-Learning算法 理论 Q-Learning是一种强化学习算法,用于学习在给定状态下采取不同行动的最佳策略。其公式如下: $Q(s,a) \leftarrow (1 - \alpha) \cdot Q(s,a) + \alpha \cdot (r + \gamma \cdot \max_{a 阅读全文
posted @ 2023-03-15 16:17 Please Call me 小强 阅读(486) 评论(0) 推荐(0) 编辑
摘要: static touchNode (node:cc.Node) { const glPos = node.convertToWorldSpaceAR(cc.v2()); setTimeout(() => { this.touchSimulation(glPos); }, 0); } // 模拟点击 阅读全文
posted @ 2023-02-24 19:24 Please Call me 小强 阅读(223) 评论(0) 推荐(0) 编辑
摘要: 普通方法的hook非常so easy, 就不用记录了。 现在记录一下hook set get方法: class A{ constructor(){ this._age = 0; } get age(){ return this._age; } set age(v){ console.log('aa' 阅读全文
posted @ 2023-01-06 17:57 Please Call me 小强 阅读(89) 评论(0) 推荐(0) 编辑
摘要: -1% --> +1.0101% -2% --> +2.0408% -3% --> +3.0928% -4% --> +4.1667% -5% --> +5.2632% -6% --> +6.3830% -7% --> +7.5269% -8% --> +8.6957% -9% --> +9.890 阅读全文
posted @ 2022-12-30 20:22 Please Call me 小强 阅读(57) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-06-03 23:18 Please Call me 小强 阅读(60) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_41800366/article/details/86583789 根据这篇文章,根据自己的理解,实际应用了一下梯度下降 #coding:utf-8 import numpy as np w = 2 b = 2 lr = 0.01 # 学习率 not 阅读全文
posted @ 2022-06-03 16:43 Please Call me 小强 阅读(55) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 34 下一页