- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我遇到的问题,似乎没有任何答案,是我需要处理一个非常大的文本文件(来自 GUDID 的 gmdnTerms.txt 文件),操作数据以合并行复制 ID,为键值对创建适当的列,并将结果转储到 CSV 文件。除了实现多线程之外,我已经做了我能想到的一切来提高效率。我需要能够对文本文件进行迭代和构建数据帧的过程进行多线程处理。多线程教程没有多大帮助。希望有经验的Python程序员能够给出明确的答案。以下是整个程序。请帮忙,在具有 16GB RAM 和 SSD 的 4.7GHz 处理器(8 核)上,当前运行时间超过 20 小时。
#Assumptions this program makes:
#That duplicate product IDs will immediately follow each other
#That the first line of the text file contains only the keys and no values
#That the data lines are delimited by a "\n" character
#That the individual values are delimited by a "|" character
#The first value in each line will always be a unique product ID
#Each line will have exactly 3 values
#Each line's values will always be in the same order
#Import necessary libraries
import os
import pandas as pd
import mmap
import time
#Time to run
startTime = time.time()
#Parameters of the program
fileLocation = "C:\\Users\User\....\GMDNTest.txt"
outCSVFile = "GMDNTermsProcessed.csv"
encodingCSVFile = "utf-8"
#Sets up variables to be used later on
df = pd.DataFrame()
keys = []
idx = 0
keyNum = 0
firstLine = True
firstValue = True
currentKey = ''
#This loops over each line in text file and collapses lines with duplicate Product IDs while building new columns for appropriate keys and values
#These collapsed lines and new columns are stored in a dataframe
with open (fileLocation, "r+b") as myFile:
map = mmap.mmap(myFile.fileno(), 0, access=mmap.ACCESS_READ)
for line in iter(map.readline, ""):
#Gets keys from first line, splits them, stores in list
if firstLine == True:
keyRaw = line.split("|")
keyRaw = [x.strip() for x in keyRaw]
keyOne = keyRaw[0]
firstLine = False
#All lines after first go through this
#Collapses lines by comparing the unique ID
#Stores collapsed KVPs into a dataframe
else:
#Appends which number of key we are at to the key and breaks up the values into a list
keys = [x + "_" + str(keyNum) for x in keyRaw]
temp = line.split("|")
temp = [x.strip() for x in temp]
#If the key is the same as the key on the last line this area is run through
#If this is the first values line it also goes through here
if temp[0] == currentKey or firstValue == True:
#Only first values line hits this part; gets first keys and builds first new columns
if firstValue == True:
currentKey = temp[0]
df[keyOne] = ""
df.at[idx, keyOne] = temp[0]
df[keys[1]] = ""
df.at[idx, keys[1]] = temp[1]
df[keys[2]] = ""
df.at[idx, keys[2]] = temp[2]
firstValue = False
#All other lines with the same key as the last line go through here
else:
headers = list(df.columns.values)
if keys[1] in headers:
df.at[idx, keys[1]] = temp[1]
df.at[idx, keys[2]] = temp[2]
else:
df[keys[1]] = ""
df.at[idx, keys[1]] = temp[1]
df[keys[2]] = ""
df.at[idx, keys[2]] = temp[2]
#If the current line has a different key than the last line this part is run through
#Sets new currentKey and adds values from that line to the dataframe
else:
idx+=1
keyNum = 0
currentKey = temp[0]
keys = [x + "_" + str(keyNum) for x in keyRaw]
df.at[idx, keyOne] = temp[0]
df.at[idx, keys[1]] = temp[1]
df.at[idx, keys[2]] = temp[2]
#Don't forget to increment that keyNum
keyNum+=1
#Dumps dataframe of collapsed values to a new CSV file
df.to_csv(outCSVFile, encoding=encodingCSVFile, index=False)
#Show us the approx runtime
print("--- %s seconds ---" % (time.time() - startTime))
最佳答案
我不能保证这会更快,但请尝试一下,让我知道它是如何进行的,它根据您的示例数据正确且快速地运行
import csv
import itertools
import sys
input_filename = sys.argv[1]
output_filename = sys.argv[2]
with open(input_filename, 'r') as input_file, \
open(output_filename, 'w') as output_file:
input_reader = csv.reader(input_file, delimiter='|')
header = next(input_reader)
header_1_base = header[1]
header_2_base = header[2]
header[1] = header_1_base + '_0'
header[2] = header_2_base + '_0'
current_max_size = 1
data = {}
for line in input_reader:
line[0] = line[0].strip()
# line[1] = line[1].strip()
# line[2] = line[2].strip()
if line[0] in data:
data[line[0]].append(line[1:])
if len(data[line[0]]) > current_max_size:
current_max_size += 1
header.append('{0}_{1}'.format(header_1_base, current_max_size - 1))
header.append('{0}_{1}'.format(header_2_base, current_max_size - 1))
else:
data[line[0]] = [line[1:]]
output_writer = csv.writer(output_file, lineterminator='\n')
output_writer.writerow(header)
for id in data:
output_writer.writerow(itertools.chain([id], itertools.chain(*data[id])))
它没有使用 pandas 数据框,因为您的目标似乎是转换为 csv 格式,而是使用简单的 python 字典。此版本中也没有多线程,但如果需要的话可以稍后添加一些。我猜您将遇到的最大瓶颈是,如果您的系统内存不足并开始交换,那么我们可以考虑其他方法来加快速度。
更新 - 以上是针对 python3 将其转换为 python2 的更改:
output_writer.writerow(itertools.chain([id], itertools.chain(*data[id])))
至
output_writer.writerow([x for x in itertools.chain([id], itertools.chain(*data[id]))])
关于python - 使用多线程加速 Pandas 数据帧的创建,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49434728/
我想在我的 iPhone 应用程序中加入线性回归。经过一些搜索,我发现 Accelerate Framework 中的 LAPACK 和 BLAS 是正确的库。但是我很难将加速框架添加到我的 XCod
有什么方法可以加速 JS 脚本(我指的是一些复杂的 DOM 操作,比如游戏或动画)? 最佳答案 真的没有办法真正加快速度。您可以压缩它,但不会快很多。 关于Javascript 加速?,我们在Stac
有时,我必须为一个项目重新导入数据,从而将大约 360 万行读入 MySQL 表(目前是 InnoDB,但我实际上并不局限于这个引擎)。 “加载数据文件...”已被证明是最快的解决方案,但它有一个权衡
在尝试计算加速时,我被卡住了。所以给出的问题是: 问题 1 如果程序的 50% 增强了 2 倍,其余 50% 增强了 4 倍,那么由于增强而导致的整体加速是多少? Hints:考虑增强前(未增强)机器
目前我正在处理实时绘图,但可视化非常慢。我想知道你可以做些什么来加速 Matplotlib 中的事情: 后端如何影响性能?是否有后端 实时绘图比其他人更好吗? 我可以降低分辨率以提高 FPS 吗? 如
我有一个小型测试框架。它执行一个循环,执行以下操作: 生成一个小的 Haskell 源文件。 使用 runhaskell 执行此操作.该程序生成各种磁盘文件。 处理刚刚生成的磁盘文件。 这种情况发生了
这是我的网站:Instant-YouTube 如您所见,加载需要很长时间。在 IE8 及以下甚至有时会导致浏览器崩溃。我不确定是什么原因造成的。可能是 Clicksor 广告,但我认为是 swfobj
是否可以加速 SKSpriteNode? 我知道可以使用 node.physicsBody.velocity 轻松设置速度但是设置它的加速度有多难? 最佳答案 从牛顿第二定律倒推运动:F = m.a您
有没有人有加速 FCKEditor 的技术?是否有一些关键的 JavaScript 文件可以缩小或删除? 最佳答案 在最新版本 (3.0.1) 中,FCKEditor 已重命名为 CKEditor .
我有以下 MySQL 查询,需要一天多的时间才能执行: SELECT SN,NUMBER FROM a WHERE SN IN (SELECT LOWER_SN FROM b WHER
我现在正在开发一款使用加速来玩的游戏。我找到了如何让我的元素移动,但不改变它的“原点”,或者更准确地说,改变加速度计算的原点: 事实上,我的图像是移动的,它的中心是这样定义的: imageView.c
我有一个 mysql 表,其中存储有 4 列的成员消息: message_id(主键,自增) sender_id( key ) receiver_id( key ) 消息内容 我做了很多 SELECT
我在 cuda_computation.cu 中有以下代码 #include #include #include #include void checkCUDAError(const char
我正在使用 BeautifulSoup 在 for 循环中解析数千个网站。这是我的代码片段: def parse_decision(link): t1 = time.time() de
我正在使用 OpenCV 2.4 (C++) 在灰度图像上进行寻线。这涉及一些基本的图像处理步骤,如模糊、阈值、Canny 边缘检测器、梯度滤波器或霍夫变换。我必须在数千张图像上应用寻线算法。 考虑到
当我试图连续生成四次相同的报告时,我刚刚分析了我的报告应用程序。第一个用了 1859 毫秒,而后面的只用了 400 到 600 毫秒。对此的解释是什么?我能以某种方式使用它来使我的应用程序更快吗?报告
当我打开 Storyboard文件时,由于其中包含的 VC 数量,打开它需要 1-2 分钟。加快速度的最佳做法是什么?我们应该将一些 VC 移动到不同的 Storyboard文件中吗?我们是否应该使用
我有一个包含多个页面的 UIPageViewController。每个页面都是相同的 View Controller ,但会跟踪页码并显示 PDF 的正确页面。问题是每个 PDF 页面都需要在 cur
这实际上是两个问题,但它们非常相似,为了简单起见,我想将它们放在一起: 首先:给定一个已建立的 Java 项目,除了简单的代码内优化之外,还有哪些不错的方法可以加快它的速度? 其次:在用Java从头写
我有一个包含 1000 个条目的文档,其格式类似于:
我是一名优秀的程序员,十分优秀!