- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我实现了一个简单的神经网络。它适用于“sigmoid + 交叉熵”、“sigmoid + 二次成本”和“tanh + 二次成本”,但不适用于“tanh + 交叉熵”(不比随机猜测好)。谁能帮我弄清楚为什么?看看FullConnectedLayer的代码:
class FullConnectedLayer(BaseLayer):
"""
FullConnectedLayer
~~~~~~~~~~~~~~~~~~~~
Data members:
sizes ---- <type list> sizes of the network
n_layers ---- <type int> number of sublayers
activation ---- <type Activation> activation function for neurons
weights ---- <type list> to store weights
biases ---- <type list> to store biases
neurons ---- <type list> to store states (outputs) of neurons
zs ---- <type list> to store weighted inputs to neurons
grad_w ---- <type list> to store gradient of Cost w.r.t weights
grad_b ---- <type list> to store gradient of Cost w.r.t biases
---------------------
Methods:
__init__(self, sizes, activation = Sigmoid())
size(self)
model(self)
feedforward(self, a)
backprop(self, C_p)
update(self, eta, lmbda, batch_size, n)
"""
def __init__(self, sizes, activation = Sigmoid(), normal_initialization = False):
"""
The list ''sizes'' contains the number of neurons in repective layers
of the network. For example, sizes = [2, 3, 2] represents 3 layers, with
the first layer having 2 neurons, the second 3 neurons, and the third 2
neurons.
Note that the input layer may be passed by other layer of another type
when connected after the layer, and we don't set biases for this layer.
Also note that the output layer my be passed to other layer if connected
before the layer, in this case, just assign the outputs to its inputs.
For examle, Layer1([3, 2, 4])->Layer2([4, 6, 3])->Layer3([3, 2]). Just
assign the output of Layer1 to the input Layer2, it will be safe.
"""
BaseLayer.__init__(self, sizes, activation)
if normal_initialization:
self.weights = [np.random.randn(j, i)
for i, j in zip(sizes[:-1], sizes[1:])]
else:
self.weights = [np.random.randn(j, i) / np.sqrt(i)
for i, j in zip(sizes[:-1], sizes[1:])]
self.biases = [np.random.randn(j, 1) for j in sizes[1:]]
self.grad_w = [np.zeros(w.shape) for w in self.weights]
self.grad_b = [np.zeros(b.shape) for b in self.biases]
def feedforward(self, a):
"""
Return output of the network if ''a'' is input.
"""
self.neurons = [a] # to store activations (outputs) of all layers
self.zs = []
for w, b in zip(self.weights, self.biases):
z = np.dot(w, self.neurons[-1]) + b
self.zs.append(z)
self.neurons.append(self.activation.func(z))
return self.neurons[-1]
def backprop(self, Cp_a):
"""
Backpropagate the delta error.
------------------------------
Return a tuple whose first component is a list of the gradients of
weights and biases, whose second component is the backpropagated delta.
Cp_a, dC/da: derivative of cost function w.r.t a, output of neurons.
"""
# The last layer
delta = Cp_a * self.activation.prime(self.zs[-1])
self.grad_b[-1] += delta
self.grad_w[-1] += np.dot(delta, self.neurons[-2].transpose())
for l in range(2, self.n_layers):
sp = self.activation.prime(self.zs[-l]) # a.prime(z)
delta = np.dot(self.weights[-l + 1].transpose(), delta) * sp
self.grad_b[-l] += delta
self.grad_w[-l] += np.dot(delta, self.neurons[-l - 1].transpose())
Cp_a_out = np.dot(self.weights[0].transpose(), delta)
return Cp_a_out
def update(self, eta, lmbda, batch_size, n):
"""
Update the network's weights and biases by applying gradient descent
algorithm.
''eta'' is the learning rate
''lmbda'' is the regularization parameter
''n'' is the total size of the training data set
"""
self.weights = [(1 - eta * (lmbda/n)) * w - (eta/batch_size) * delta_w\
for w, delta_w in zip(self.weights, self.grad_w)]
self.biases = [ b - (eta / batch_size) * delta_b\
for b, delta_b in zip(self.biases, self.grad_b)]
# Clear ''grad_w'' and ''grad_b'' so that they are not added to the
# next update pass
for dw, db in zip(self.grad_w, self.grad_b):
dw.fill(0)
db.fill(0)
这里是tanh函数的代码:
class Tanh(Activation):
@staticmethod
def func(z):
""" The functionality. """
return (np.exp(z) - np.exp(-z)) / (np.exp(z) + np.exp(-z))
@staticmethod
def prime(z):
""" The derivative. """
return 1. - Tanh.func(z) ** 2
下面是交叉熵类的代码:
class CrossEntropyCost(Cost):
@staticmethod
def func(a, y):
"""
Return the cost associated with an output ''a'' and desired output
''y''.
Note that np.nan_to_num is used to ensure numerical stability. In
particular, if both ''a'' and ''y'' have a 1.0 in the same slot,
then the expression (1-y) * np.log(1-a) returns nan. The np.nan_to_num
ensures that that is converted to the correct value(0.0).
"""
for ai in a:
if ai < 0:
print("in CrossEntropyCost.func(a, y)... require a_i > 0, a_i belong to a.")
exit(1)
return np.sum(np.nan_to_num(-y * np.log(a) - (1-y) * np.log(1-a)))
@staticmethod
def Cp_a(a, y):
"""
Cp_a, dC/da: the derivative of C w.r.t a
''a'' is the output of neurons
''y'' is the expected output of neurons
"""
#return (a - y) # delta
return (a - y) / (a * (1 - a))
编辑: 似乎问题在于tanh
的范围是-1
到+1
,这对于交叉熵来说是非法的。但是如果我只想要一个 tanh
激活和一个交叉熵成本,我应该如何处理呢?
最佳答案
回答晚了,但我认为值得一提。
如果您想使用 tanh 激活函数,而不是使用交叉熵成本函数,您可以修改它以提供介于 -1 和 1 之间的输出。
同样的看起来像:
((1 + y)/2 * log(a)) + ((1-y)/2 * log(1-a))
将其用作成本函数将使您可以使用 tanh 激活。
关于python - 具有 'tanh' 作为激活和 'cross-entropy' 作为成本函数的神经网络不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38199601/
这与 Payubiz payment gateway sdk 关系不大一体化。但是,主要问题与构建项目有关。 每当我们尝试在模拟器上运行应用程序时。我们得到以下失败: What went wrong:
我有一个现有的应用程序,其中包含在同一主机上运行的 4 个 docker 容器。它们已使用 link 命令链接在一起。 然而,在 docker 升级后,link 行为已被弃用,并且似乎有所改变。我们现
在 Internet 模型中有四层:链路 -> 网络 -> 传输 -> 应用程序。 我真的不知道网络层和传输层之间的区别。当我读到: Transport layer: include congesti
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
前言: 生活中,我们在上网时,打开一个网页,就可以看到网址,如下: https😕/xhuahua.blog.csdn.net/ 访问网站使用的协议类型:https(基于 http 实现的,只不过在
网络 避免网络问题降低Hadoop和HBase性能的最重要因素可能是所使用的交换硬件,在项目范围的早期做出的决策可能会导致群集大小增加一倍或三倍(或更多)时出现重大问题。 需要考虑的重要事项:
网络 网络峰值 如果您看到定期的网络峰值,您可能需要检查compactionQueues以查看主要压缩是否正在发生。 有关管理压缩的更多信息,请参阅管理压缩部分的内容。 Loopback IP
Pure Data 有一个 loadbang 组件,它按照它说的做:当图形开始运行时发送一个 bang。 NoFlo 的 core/Kick 在其 IN 输入被击中之前不会发送其数据,并且您无法在 n
我有一台 Linux 构建机器,我也安装了 minikube。在 minikube 实例中,我安装了 artifactory,我将使用它来存储各种构建工件 我现在希望能够在我的开发机器上做一些工作(这
我想知道每个视频需要多少种不同的格式才能支持所有主要设备? 在我考虑的主要设备中:安卓手机 + iPhone + iPad . 对具有不同比特率的视频进行编码也是一种好习惯吗? 那里有太多相互矛盾的信
我有一个使用 firebase 的 Flutter Web 应用程序,我有两个 firebase 项目(dev 和 prod)。 我想为这个项目设置 Flavors(只是网络没有移动)。 在移动端,我
我正在读这篇文章Ars article关于密码安全,它提到有一些网站“在传输之前对密码进行哈希处理”? 现在,假设这不使用 SSL 连接 (HTTPS),a.这真的安全吗? b.如果是的话,你会如何在
我试图了解以下之间的关系: eth0在主机上;和 docker0桥;和 eth0每个容器上的接口(interface) 据我了解,Docker: 创建一个 docker0桥接,然后为其分配一个与主机上
我需要编写一个java程序,通过网络将对象发送到客户端程序。问题是一些需要发送的对象是不可序列化的。如何最好地解决这个问题? 最佳答案 发送在客户端重建对象所需的数据。 关于java - 不可序列化对
所以我最近关注了this有关用 Java 制作基本聊天室的教程。它使用多线程,是一个“面向连接”的服务器。我想知道如何使用相同的 Sockets 和 ServerSockets 来发送对象的 3d 位
我想制作一个系统,其中java客户端程序将图像发送到中央服务器。中央服务器保存它们并运行使用这些图像的网站。 我应该如何发送图像以及如何接收它们?我可以使用同一个网络服务器来接收和显示网站吗? 最佳答
我正在尝试设置我的 rails 4 应用程序,以便它发送电子邮件。有谁知道我为什么会得到: Net::SMTPAuthenticationError 534-5.7.9 Application-spe
我正在尝试编写一个简单的客户端-服务器程序,它将客户端计算机连接到服务器计算机。 到目前为止,我的代码在本地主机上运行良好,但是当我将客户端代码中的 IP 地址替换为服务器计算机的本地 IP 地址时,
我需要在服务器上并行启动多个端口,并且所有服务器套接字都应在 socket.accept() 上阻塞。 同一个线程需要启动客户端套接字(许多)来连接到特定的 ServerSocket。 这能实现吗?
我的工作执行了大约 10000 次以下任务: 1) HTTP 请求(1 秒) 2)数据转换(0.3秒) 3)数据库插入(0.7秒) 每次迭代的总时间约为 2 秒,分布如上所述。 我想做多任务处理,但我
我是一名优秀的程序员,十分优秀!