- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我对 python/编码总体来说是新手。我花了一些时间来生成下面的代码(对此感到非常自豪),但我现在遇到了性能问题 - 不知道如何解决它们。
我的任务如下:每个产品都有交货时间和生产时间戳。生产时间可以是发货前1天15:00至发货前30分钟。我想将每个交货小时的生产时间聚合为 15 分钟间隔,并在每个间隔内对生产的单位执行几个简单的操作(并非所有这些都是内置函数) -成交量加权平均价格、总数量、标准差等。
我的问题:该数据集由大约 1100 万个数据点组成。计算 6 个月期间的值花了我超过 24 小时。我尝试循环执行 sql 查询,只导入了 15 分钟的时间段,但情况更糟
我的问题:您认为有什么方法可以提高此操作的性能吗?那就太棒了<3
<小时/>原始输入数据如下所示:
列 交货开始 交货结束 生产日期 时间 价格EURpMW 数量MW p*Q
73 2017-01-03 01:00:00 2017-01-03 02:00:00 2017-01-02 19:03:00 37,4 20 748
80 2017-01-03 01:00:00 2017-01-03 02:00:00 2017-01-02 19:08:00 35,9 25 897,5
86 2017-01-03 01:00:00 2017-01-03 02:00:00 2017-01-02 19:23:00 36,3 1 36,3
94 2017-01-03 01:00:00 2017-01-03 02:00:00 2017-01-02 19:24:00 35,3 0,4 14,12
915 2017-01-03 02:00:00 2017-01-03 03:00:00 2017-01-02 23:47:00 33,7 5 168,5
929 2017-01-03 02:00:00 2017-01-03 03:00:00 2017-01-02 23:50:00 32,6 0,3 9,78
340 2017年1月3日 02:00:00 2017-01-03 03:00:00 2017-01-02 22:17:00 34 7,9 268,6
345 2017-01-03 02:00:00 2017-01-03 03:00:00 2017-01-02 22:19:00 34 0,8 27,2
输出数据如下所示:
index StartDelivery Production(intervall) Quantity VWAP
17 2017-01-03 01:00:00 2017-01-02 19:00:00 45 36,56666667
18 2017-01-03 01:00:00 2017-01-02 19:15:00 1,4 36,01428571
...
69 2017-01-03 02:00:00 2017-01-02 22:15:00 8,7 34
70 2017-01-03 02:00:00 2017-01-02 23:45:00 5,3 33,63773585
<小时/>
到目前为止我的代码:
import mysql.connector
import numpy as np
import pandas as pd
import datetime
conn=mysql.connector.connect(user='AriHeck',password='none',host='local',database='DataEvaluation', port=3308)
df = pd.read_sql("select StartOfDelivery,EndOfDelivery,ProdDateTime,PriceEURpMW,QuantityMW, PriceEURpMW*QuantityMW as 'p*Q' from `Production`\
where timestampdiff(hour,StartOfDelivery,EndOfDelivery)=1 AND StartOfDelivery >= '2017-01-03 01:00:00' AND StartOfDelivery < '2017-01-03 03:00:00'", con=conn)
#Delivery Time Loop
dt=datetime.datetime.strptime('2017-01-03 01:00:00', "%Y-%m-%d %H:%M:%S")
end_date=datetime.datetime.strptime('2017-01-05 00:00:00', "%Y-%m-%d %H:%M:%S")
#Dummies loops
incr_delivery_loop=datetime.timedelta(hours=1)
incr_production_loop=datetime.timedelta(minutes=15)
delta_start=datetime.timedelta(days=1)
delta_end=datetime.timedelta(minutes=30)
#Dummies Data
a=1
delivery_array=[0]*a
production_array=[0]*a
time_remaining_array=[0]*a
VWAP_array=np.zeros(a)
quantity_array=np.zeros(a)
#Start Delivery time loop
while (dt <= end_date):
#Production Time Loop:
#Start Production: 1 Day before delivery 15:00 (3:00 PM), End Production 30 mins before delivery
prod_time=(dt-delta_start).replace(hour=15)
end_prod=dt-delta_end
while (prod_time<=end_prod):
quantity=df[(df['StartOfDelivery']==dt)& (df['ProdDateTime']>=prod_time) & (df['ProdDateTime']<(prod_time+incr_production_loop))].QuantityMW.sum()
if (quantity==0):
VWAP=0
else:
#Calculate Volume Weighted Average Price
pq_total=df[(df['StartOfDelivery']==dt)& (df['ProdDateTime']>=prod_time) & (df['ProdDateTime']<(prod_time+incr_production_loop))]['p*Q'].sum()
VWAP=pq_total/quantity
#Save values to arrays
VWAP_array=np.append(VWAP_array,VWAP)
quantity_array=np.append(quantity_array,quantity)
delivery_array.append(dt)
production_array.append(prod_time)
#Increments
prod_time=prod_time+incr_production_loop
dt=dt+incr_delivery_loop
#END LOOPS
#Save to Dataframe
WAP_dict={'TimeOfDelivery':delivery_array,
'ProductionDateTime':production_array,
'VWAP':VWAP_array,
'Quantity':quantity_array,}
df_WAP=pd.DataFrame(WAP_dict)
df_WAP=df_WAP[['TimeOfDelivery','ProductionDateTime','Quantity','VWAP']]
#Output
print(df_WAP.head(50))
Python 3.4、Windows 10、Eclipse IDE
最佳答案
欢迎使用Python! Profiling您的代码将是一个很好的起点:)
也就是说,随着数据集的增长,每次调用:
df['some_column']==some_variable
变得更贵。如果您在处理 2 天的数据时性能良好,但在扩展到 6 个月时性能下降,这可能是罪魁祸首。
尝试通过在 SQL 查询末尾添加 order by StartOfDelivery
来对数据进行预排序。然后将数据帧拆分为数据帧列表,其中每个子帧仅包含循环体内所需的 15 分钟增量的记录。
然后您可以将该列表作为主循环进行迭代,而不是:
while (dt <= end_date):
这应该消除所有数据帧过滤,并使您的执行时间随数据集大小呈线性缩放。
关于python - 通过从 SQL DB 导入的 pd 数据帧的子集提高循环性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45237670/
在这段令人惊叹的视频 ( https://www.youtube.com/watch?v=udix3GZouik ) 中,Alex Blom 谈到了 Ember 在移动世界中的“黑客攻击”。 在 22
我们希望通过我们的应用收集使用情况统计信息。因此,我们希望在服务器端的某个地方跟踪用户操作。 就性能而言,哪个选项更合适: 在 App Engine 请求日志中跟踪用户操作。即为每个用户操作写入一个日
在针对对象集合的 LINQ 查询的幕后究竟发生了什么?它只是语法糖还是发生了其他事情使其更有效的查询? 最佳答案 您是指查询表达式,还是查询在幕后的作用? 查询表达式首先扩展为“普通”C#。例如: v
我正在构建一个简单的照片库应用程序,它在列表框中显示图像。 xaml 是:
对于基于 Web 的企业应用程序,使用“静态 Hashmap 存储对象” 和 apache java 缓存系统有何优缺点?哪一个最有利于性能并减少堆内存问题 例如: Map store=Applica
我想知道在性能方面存储类变量的最佳方式是什么。我的意思是,由于 Children() 函数,存储一个 div id 比查找所有其他类名更好。还是把类名写在变量里比较好? 例如这样: var $inne
我已经阅读了所有这些关于 cassandra 有多快的文章,例如单行读取可能需要大约 5 毫秒。 到目前为止,我不太关心我的网站速度,但是随着网站变得越来越大,一些页面开始需要相当多的查询,例如一个页
最近,我在缓存到内存缓存之前的查询一直需要很长时间才能处理!在这个例子中,它花费了 10 秒。在这种情况下,我要做的就是获得 10 个最近的点击。 我感觉它加载了所有 125,592 行然后只返回 1
我找了几篇文章(包括SA中的一些问题),试图找到基本操作的成本。 但是,我尝试制作自己的小程序,以便自己进行测试。在尝试测试加法和减法时,我遇到了一些问题,我用简单的代码向您展示了这一点
这个问题在这里已经有了答案: Will Java app slow down by presence of -Xdebug or only when stepping through code? (
我记得很久以前读过 with() 对 JavaScript 有一些严重的性能影响,因为它可能对范围堆栈进行非确定性更改。我很难找到最近对此的讨论。这仍然是真的吗? 最佳答案 与其说 with 对性能有
我们有一个数据仓库,其中包含非规范化表,行数从 50 万行到 6 多万行不等。我正在开发一个报告解决方案,因此出于性能原因我们正在使用数据库分页。我们的报告有搜索条件,并且我们已经创建了必要的索引,但
我有一条有效的 SQL 语句,但需要很长时间才能处理 我有一个 a_log 表和一个 people 表。我需要在 people 表中找到给定人员的每个 ID 的最后一个事件和关联的用户。 SELECT
很难说出这里问的是什么。这个问题是含糊的、模糊的、不完整的、过于宽泛的或修辞性的,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开它,visit the help center 。 已关
通常当我建立一个站点时,我将所有的 CSS 放在一个文件中,并且一次性定义与一组元素相关的所有属性。像这样: #myElement { color: #fff; background-
两者之间是否存在任何性能差异: p { margin:0px; padding:0px; } 并省略最后的分号: p { margin:0px; padding:0px } 提前致谢!
我的应用程序 (PHP) 需要执行大量高精度数学运算(甚至可能出现一共100个数字) 通过这个论坛的最后几篇帖子,我发现我必须使用任何高精度库,如 BC Math 或 GMP,因为 float 类型不
我一直在使用 javamail 从 IMAP 服务器(目前是 GMail)检索邮件。 Javamail 非常快速地从服务器检索特定文件夹中的消息列表(仅 id),但是当我实际获取消息(仅包含甚至不包含
我非常渴望开发我的第一个 Ruby 应用程序,因为我的公司终于在内部批准了它的使用。 在我读到的关于 Ruby v1.8 之前的所有内容中,从来没有任何关于性能的正面评价,但我没有发现关于 1.9 版
我是 Redis 的新手,我有一个包含数百万个成员(member) ID、电子邮件和用户名的数据集,并且正在考虑将它们存储在例如列表结构中。我认为 list 和 sorted set 可能最适合我的情
我是一名优秀的程序员,十分优秀!