- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在尝试计算大约 100 个节点的矩阵中拓扑属性的标准差。我要编写的代码如下:
如何计算标准差
(需要用方括号结束)
X在哪里
如何计算拓扑性质X
但是a应该换成g。
因此,我编写了以下代码。我用大约 85 个节点的随机图试运行了代码。因此,S
和 G
都是一个 85 x 85 矩阵,其中所有条目都是 0 和 1 之间的 float ,n
是节点数,在这种情况下为 85。输入到代码中的是M_std
(type = numpy.ndarray, S
in input of function),是g_{ij}的标准差矩阵,M_p
(type = numpy.ndarray,函数输入中的G)是g_{ij}的期望值矩阵。 Derivative
指的是 (delta X)/(delta g_{ij})。 Std_1
是正方形之间的所有内容。
import networkx as nx
import numpy as np
import math
def new_calc_std_1(S, G, n):
std_1 = 0
for e in range(n):
for f in range(n):
derivative = 0
for i in range(n):
for j in range(n):
for k in range(n):
if i == j or i == k or j == k:
None
elif (e not in [i,j,k]) or (f not in [i,j,k]):
None
else:
if e == i and f == j:
deriv += -G[j,i]*G[j,k]*(1-G[k,j])*(1-G[i,k])*(1-G[k,i])
elif e == j and f == i:
deriv += (1-G[i,j])*G[j,k]*(1-G[k,j])*(1-G[i,k])*(1-G[k,i])
elif e == j and f == k:
deriv += (1-G[i,j])*G[j,i]*(1-G[k,j])*(1-G[i,k])*(1-G[k,i])
elif e == k and f == j:
deriv += -(1-G[i,j])*G[j,i]*G[j,k]*(1-G[i,k])*(1-G[k,i])
elif e == i and f == k:
deriv += -(1-G[i,j])*G[j,i]*G[j,k]*(1-G[k,j])*(1-G[k,i])
elif e == k and f == i:
deriv += -(1-G[i,j])*G[j,i]*G[j,k]*(1-G[k,j])*(1-G[i,k])
else:
derivative += 0
std_1 += (S[e,f]*derivative)**2
std_1 = math.sqrt(std_1)
return std_1
这总共花费了 21 分钟。我试着找到一个解决方案,然后我读到我必须尽量减少 for 循环的使用,尤其是在 python 中。因此我将代码重写为
def new_new_calc_std_1(S, G, n):
blwsqrt = 0
for e in range(n):
for f in range(n):
derivative = 0
for z in range(n):
if e == f or f == z or z == e:
None
else:
derivative += -G[f,e]*G[f,z]*(1-G[z,f])*(1-G[e,z])*(1-G[z,e]) - (1-G[e,z])*G[z,e]*G[z,f]*(1-G[f,z])*(1-G[f,e]) + (1-G[f,e])*G[e,z]*(1-G[z,e])*(1-G[f,z])*(1-G[z,f]) - (1-G[f,z])*G[z,f]*G[z,e]*(1-G[e,z])*(1-G[f,e]) + (1-G[z,e])*G[e,z]*(1-G[f,e])*(1-G[z,f])*(1-G[f,z]) - (1-G[z,f])*G[f,z]*G[f,e]*(1-G[z,e])*(1-G[e,z])
blwsqrt += (derivative*S[e,f])**2
std_1 = math.sqrt(blwsqrt)
return(std_1)
print(new_new_calc_std_1(M_std, M_p, n))
令我惊讶的是,这花费了完全相同的时间。然后我尝试对矩阵进行舍入。这也没有用。然后我读到我可能使用了太多 python,应该更多地使用 scipy,但我不知道在这个特定实例中如何使用。 你们知道如何优化此代码以使其花费的时间少于 21 分钟吗,或者这就是我必须处理的问题。这是上一篇文章的更新版本。对于最后一个,我感到非常抱歉。
附言我正在使用 2.5 GHz Intel Core 5 并在 jupyter notebook 中运行计算。
P.P.S M_std
的一个例子是
[[0.45 0.39 0.45 ... 0.41 0.43 0.39]
[0.5 0.46 0.5 ... 0.48 0.49 0.47]
[0.5 0.46 0.49 ... 0.47 0.49 0.46]
...
[0.48 0.42 0.47 ... 0.44 0.46 0.43]
[0.5 0.46 0.49 ... 0.47 0.49 0.46]
[0.47 0.42 0.47 ... 0.43 0.46 0.42]]
和M_p
[[0.29 0.18 0.28 ... 0.21 0.25 0.19]
[0.45 0.31 0.44 ... 0.35 0.4 0.32]
[0.44 0.3 0.42 ... 0.34 0.39 0.31]
...
[0.35 0.23 0.34 ... 0.26 0.31 0.24]
[0.43 0.3 0.42 ... 0.34 0.39 0.31]
[0.33 0.22 0.33 ... 0.25 0.29 0.23]]
最佳答案
如果您使用的是 Python2,我建议您使用 xrange
而不是 range
。 xrange
效率更高,因为它不会预先生成整个序列。
我还建议使用 itertools.product
而不是嵌套的 for 循环。
尝试类似 for (e,f,z) in product(xrange(n), xrange(n), xrange(n)):
关于python - 嵌套for循环慢速python计算特殊标准差,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50749481/
我的应用程序上有一个抽屉式菜单,它在桌面上运行良好,但在任何移动设备上我都看到一个丑陋的卡顿。 在 header 中,我有一个 bool 值,在单击汉堡包时将其设置为 true/false,这会将 o
在CLRS书中,自上而下的heapify构建堆的复杂度为O(n)。也可以通过反复调用插入来建立堆,其最坏情况下的复杂度为nlg(n)。 我的问题是:对于后一种方法性能较差的原因,是否有任何见解? 我问
我在所有层和输出上使用 sigmoid,得到的最终错误率为 0.00012,但是当我使用理论上更好的 Relu 时,我得到了最差的结果。谁能解释为什么会发生这种情况?我正在使用一个非常简单的 2 层实
我想计算有多少人(百分比)在我的测试中表现比我差。 这是我想要的结果: student | vak | resultaat | percentielscore ---------+-------
令人惊讶的是,使用 PLINQ 并没有在我创建的一个小测试用例上产生好处;事实上,它比通常的 LINQ 还要糟糕。 测试代码如下: int repeatedCount = 10000000;
我正在开发一个高度基于 map 的应用程序,并且我正在使用 MBXMapKit 框架(基于 MapKit 构建)以便在我的 MapView 中显示自定义 Mapbox map 图 block 而不是默
这个问题在这里已经有了答案: Is it always better to use 'DbContext' instead of 'ObjectContext'? (1 个回答) 关闭 9 年前。
我正在尝试使用 FFmpeg 进行一些复杂的视频转码(例如连接多个文件)。为此,我一直在尝试使用 filter_complex,但我注意到我之前使用普通视频过滤器看到的质量略有下降。 为了仔细检查,我
我是 R 中并行计算的新手,想使用并行包来加速我的计算(这比下面的示例更复杂)。但是,与通常的 lapply 函数相比,使用 mclapply 函数的计算时间更长。 我在我的笔记本电脑上安装了一个全新
我正在尝试使用 BERT 解决文档排名问题。我的任务很简单。我必须对输入文档进行相似度排名。这里唯一的问题是我没有标签——所以它更像是一个定性分析。 我正在尝试一系列文档表示技术——主要是 word2
如何计算两点的差?例如:(5,7) - (2,3) = (3,4) using point = boost::geometry::model::point point p1 (2, 3); point
我是 ARKit 的新手,在检查了一些示例代码后,如 https://developer.apple.com/sample-code/wwdc/2017/PlacingObjects.zip我想知道是
社区。 我正在编写一些机器学习代码,将一些数据分类。 我尝试了不同的方法,但是当我使用SVM时,我遇到了这个问题。 我有一组简单的数据(3 个类别,6 个特征),当我使用具有固定参数(C=10、gam
我只是在查看不同问题的答案以了解更多信息。我看到一个answer这表示在 php 中编写 是不好的做法 for($i=0;$i
我正在编写一个界面,我必须在其中启动 4 个 http 请求才能获取一些信息。 我用两种方式实现了接口(interface): 使用顺序 file_get_contents。 使用多 curl 。 我
我想用随机数来愚弄一下,如果 haskell 中的随机生成器是否均匀分布,因此我在几次尝试后写了下面的程序(生成的列表导致堆栈溢出)。 module Main where import System.
我在 Tensorflow 中构建了一个 LSTM 分类器(使用 Python),现在我正在做一系列基准测试来衡量执行性能。基准测试代码加载在训练期间保存的模型并针对大量输入执行它。我有一个 Pyth
不久前,我重构了单元格渲染器组件以实现性能提升(我有一个巨大的表格)。我从功能性无状态组件重构为 PureComponent。例如: import React from 'react'; import
当我改变缓冲区的大小时,我得到了无法从 BufferedReader 解释的奇怪结果。 我曾强烈期望性能会随着缓冲区大小的增加而逐渐增加, yield 递减设置相当快,此后性能或多或少会持平。但看起来
我正在尝试为 1000 个正面+负面标签的 IMDB 评论 (txt_sentoken) 和 Java 的 weka API 构建一个基于朴素贝叶斯的分类器。 由于我不知道 StringToWordV
我是一名优秀的程序员,十分优秀!