我的github
posts - 3243,  comments - 42,  views - 158万

实验前

复制代码
import tensorflow as tf
import numpy as np
#create data
x_data=np.random.rand(100).astype(np.float32)#训练样本
y_data=x_data*0.1+0.3#求参数(隐去真实参数和函数式)怎么知道样本符合的这是线性函数呢?如果假设样本符合的是二次函数呢?能求出参数值吗?
###create tensorflow structure start###
Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0))#随机参数初值
biases = tf.Variable(tf.zeros([1]))
y=Weights*x_data+biases#按随机参数拟合的y值一开始和y_data真值差很大
loss = tf.reduce_mean(tf.square(y-y_data))#损失值
optimizer = tf.train.GradientDescentOptimizer(0.5)
###create tensorflow structure end###
train = optimizer.minimize(loss)#训练
init = tf.initialize_all_variables()#初始化
sess = tf.Session()
sess.run(init)
for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(Weights), sess.run(biases))
复制代码

实验后:Weights、biases初始值为随机值,但是随着迭代它们会趋近于真值。条件为loss最小。

复制代码
import tensorflow as tf
import numpy as np
#create data
x_data=np.random.rand(100).astype(np.float32)
y_data=x_data*0.1+0.3
###create tensorflow structure start###
Weights = tf.Variable(tf.random.uniform([1],-1.0,1.0))
biases = tf.Variable(tf.zeros([1]))
y=Weights*x_data+biases
loss = tf.reduce_mean(input_tensor=tf.square(y-y_data))
optimizer = tf.compat.v1.train.GradientDescentOptimizer(0.5)
###create tensorflow structure end###
train = optimizer.minimize(loss)
init = tf.compat.v1.initialize_all_variables()
sess = tf.compat.v1.Session()
sess.run(init)
for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(Weights), sess.run(biases))
复制代码

代码对比可看出代码前后的变化

https://blog.csdn.net/u012223913/article/details/79097297

posted on   XiaoNiuFeiTian  阅读(716)  评论(0编辑  收藏  举报
编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示