gpt4 book ai didi

pytorch动态神经网络(拟合)实现

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 30 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章pytorch动态神经网络(拟合)实现由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

(1)首先要建立数据集 。

?
1
2
3
4
5
import torch  #引用torch模块
import matplotlib.pyplot as plt #引用画图模块
x = torch.unsqueeze(torch.linspace( - 1 , 1 , 100 ),dim = 1 ) #产生(-1,1)的100个点横坐标,dim表示维度,表示在这里增加第二维
y = x. pow ( 2 ) + 0.2 * torch.rand(x,size())
#0.2*torch.rand(x,size())是为了产生噪点使数据更加真实

(2)建立神经网络 。

?
1
2
3
4
5
6
7
8
9
10
11
import torch
imoort torch.nn.functional as F #激励函数在这个模块里
class Net (torch.nn.Module): #Net要继承torch中Module
( 1 )首先有定义(建立)神经网络层
def __init__( self ,n_feature,n_hidden,n_output):
#__init__表示初始化数据
   super (Net, self ).__init__() #Net的对象self转换为类nn.module的对象,然后在用nn.Module的方法使用__init__初始化。
self .hidden = torch.nn.Linear(n_feature,n_hidden)
#建立隐藏层线性输出
self .predict = torch.nn.Linear(n_hidden,n_output)
#建立输出层线性输出

(2)建立层与层之间的关系 。

?
1
2
3
4
5
6
7
def forward ( self ,x):
# 这同时也是 Module 中的 forward 功能
x = F.relu( self ,hidden(x))
#使用激励函数把数据激活
return x #输出数据
net = Net(n_feature = 1 ,n_hidden = 10 ,n_output = 1 )
#一个隐藏层有10节点,输出层有1节点,输出数数据为一个

(3)训练网络 。

?
1
2
3
4
5
6
7
8
optimizer = torch.optim.SGD(net.parameter().lr = 0.2 ) #传入 net 的所有参数, lr代表学习率,optimizer是训练工具
loss_func = torch.nn.MSELoss() #预测值和真实值的误差计算公式 (均方差)
for t in range ( 100 ):
prediction = net(x) # 喂给 net 训练数据 x, 输出预测值
   loss = loss_func(prediction, y)  # 计算两者的误差
   optimizer.zero_grad() # 清空上一步的残余更新参数值
   loss.backward()    # 误差反向传播, 计算参数更新值
   optimizer.step()    # 将参数更新值施加到 net 的 parameters 上

(四)可视化训练 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import matplotlib.pyplot as plt
plt.ion() # 画图
plt.show()
for t in range ( 200 ):
   ...
   loss.backward()
   optimizer.step()
   # 接着上面来
   if t % 5 = = 0 :
     # plot and show learning process
     plt.cla()
     plt.scatter(x.data.numpy(), y.data.numpy())
     plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-' , lw = 5 )
     plt.text( 0.5 , 0 , 'Loss=%.4f' % loss.data.numpy(), fontdict = { 'size' : 20 , 'color' : 'red' })
     plt.pause( 0.1 )

会得到如下图像:

pytorch动态神经网络(拟合)实现

整体代码如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
import torch
import matplotlib.pyplot as plt
x = torch.unsqueeze(torch.linspace( - 2 , 2 , 100 ),dim = 1 )
y = x. pow ( 2 ) + 0.2 * torch.rand(x.size())
import torch
import torch.nn.functional as F
class Net(torch.nn.Module):
   def __init__( self ,n_feature,n_hidden,n_output):
     super (Net, self ).__init__()
     self .hidden = torch.nn.Linear(n_feature,n_hidden)
     self .predict = torch.nn.Linear(n_hidden,n_output)
   def forward( self ,x):
     x = F.relu( self .hidden(x))
     x = self .predict(x)
     return x
net = Net(n_feature = 1 ,n_hidden = 10 ,n_output = 1 )
optimizer = torch.optim.SGD(net.parameters(),lr = 0.3 )
loss_func = torch.nn.MSELoss()
plt.ion()
plt.show()
for t in range ( 100 ):
   prediction = net(x)
   loss = loss_func(prediction,y)
   optimizer.zero_grad()
   loss.backward()   
   optimizer.step()
   if t % 5 = = 0 :
 
     plt.cla()
     plt.scatter(x.data.numpy(), y.data.numpy())
     plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-' , lw = 5 )
     plt.text( 0.5 , 0 , 'Loss=%.4f' % loss.data.numpy(), fontdict = { 'size' : 20 , 'color' : 'red' })
     plt.pause( 0.1 )

【参考文献】https://mofanpy.com/tutorials/machine-learning/torch/regression/ 。

到此这篇关于pytorch动态神经网络(拟合)实现的文章就介绍到这了,更多相关pytorch动态神经网络内容请搜索我以前的文章或继续浏览下面的相关文章希望大家以后多多支持我! 。

原文链接:https://blog.csdn.net/weixin_51524769/article/details/114786395 。

最后此篇关于pytorch动态神经网络(拟合)实现的文章就讲到这里了,如果你想了解更多关于pytorch动态神经网络(拟合)实现的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com