gpt4 book ai didi

neural-network - 为什么在神经网络类定义中使用多个 ReLU 对象?

转载 作者:行者123 更新时间:2023-12-05 06:15:04 24 4
gpt4 key购买 nike

最近我观察到,在定义神经网络时,我们多次为每一层定义单独的 ReLU 对象。为什么我们不能在需要的地方使用相同的 ReLU 对象。

例如而不是像这样写-

def __init__(self):
self.fc1 = nn.Linear(784, 500)
self.ReLU_1 = nn.ReLU()
self.fc2 = nn.Linear(500, 300)
self.ReLU_2 = nn.ReLU()

def forward(x):
x = self.fc1(x)
x = self.ReLU_1(x)
x = self.fc2(x)
x = self.ReLU_2(x)

为什么我们不能使用

def __init__(self):
self.fc1 = nn.Linear(784, 500)
self.ReLU = nn.ReLU()
self.fc2 = nn.Linear(500, 300)

def forward(x):
x = self.fc1(x)
x = self.ReLU(x)
x = self.fc2(x)
x = self.ReLU(x)

这是 PyTorch 特有的东西吗?

最佳答案

我们可以这样做。第一个变体只是为了清楚起见。

关于neural-network - 为什么在神经网络类定义中使用多个 ReLU 对象?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62593134/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com