- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
在Ashton String task ,目标是:
Arrange all the distinct substrings of a given string in lexicographical order and concatenate them. Print the Kth character of the concatenated string. It is assured that given value of K will be valid i.e. there will be a Kth character.
输入格式
:
First line will contain a number T i.e. number of test cases. First line of each test case will contain a string containing characters (a−z) and second line will contain a number K.
输出格式
:
Print Kth character ( the string is 1 indexed )
约束
是
1 ≤ T ≤ 5
1 ≤ length ≤ 105
K will be an appropriate integer.
例如,给定输入:
1
dbac
3
输出将是:c
我已经尝试使用这段代码完成任务,它适用于相对较短的字符串:
from itertools import chain
def zipngram(text, n=2):
words = list(text)
return zip(*[words[i:] for i in range(n)])
for _ in input():
t = input()
position = int(input())-1 # 0th indexing
chargrams = chain(*[zipngram(t,i) for i in range(1,len(t)+1)])
concatstr = ''.join(sorted([''.join(s) for s in chargrams]))
print (concatstr[position])
但是如果输入文件是这样的:http://pastebin.com/raw/WEi2p09H所需的输出是:
l
s
y
h
s
解释器会抛出一个MemoryError
:
Traceback (most recent call last):
File "solution.py", line 11, in <module>
chargrams = chain(*[zipngram(t,i) for i in range(1,len(t)+1)])
File "solution.py", line 11, in <listcomp>
chargrams = chain(*[zipngram(t,i) for i in range(1,len(t)+1)])
File "solution.py", line 6, in zipngram
return zip(*[words[i:] for i in range(n)])
File "solution.py", line 6, in <listcomp>
return zip(*[words[i:] for i in range(n)])
MemoryError
如何解决 MemoryError?是否可以使用 native python2 或 python3 以另一种方式解决?
我尝试通过使用 heapq
修剪堆栈来解决 MemoryError
但现在它进入了 super 缓慢的运行时推送和弹出堆而不是占用太多内存.
from itertools import chain
import heapq
t = int(input())
s = list(input())
k = int(input())
stack = []
for n in range(1,len(s)+1):
for j in range(n):
ngram = (''.join(s[j:]))
ngram_len = len(ngram)
# Push the ngram into the heapq.
heapq.heappush(stack, ngram)
pruned_stack = []
temp_k = 0
# Prune stack.
while stack != [] and temp_k < k:
x = heapq.heappop(stack)
pruned_stack.append(x)
temp_k+=len(x)
# Replace stack with pruend_stack.
stack = pruned_stack
print (''.join(chain(*pruned_stack))[k])
有没有办法在不使用太多内存导致 MemoryError
和 heapq
推送和弹出运行时太慢之间取得平衡?
最佳答案
MemoryError
表示程序消耗了所有可用内存并因此崩溃。
一个可能的解决方案是使用惰性的迭代器(它们也可以在 Py2 中工作,但 Py3 对它们有更好的支持)(它们只按需计算值,而不是一次全部计算)。
使你的程序适应生成器应该只需要很小的改变,在不使用列表的情况下索引生成器(这会抵消懒惰的好处)参见:Get the nth item of a generator in Python
关于python - 克服 Ashton String 任务中的 MemoryError/Slow Runtime,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34531136/
我试图在一个非 Django 特定的共享虚拟主机上部署 Django。 Host 提供旧版本的 python 安装,但由于我有 ssh 访问能力,我设法通过在我的主文件夹中本地安装它们来使用我需要的模
我是初学者。我最近看到 Mandelbrot set 太棒了,所以我决定用 python 绘制这个集合。但是有一个问题,当我运行这段代码时出现“内存错误”。 这条语句 num_set = gen_nu
假设以下情况:我得到了一个双模网络的邻接矩阵,其中一个维度代表一些项目(帖子)和每个项目下出现的其他标签。现在我想折叠那个双模式网络以获得一个单模式网络的项目到项目关系,其中每个链接的值代表两个项目的
我正在尝试通过从文件中读取数据来绘制具有多种颜色的热图。我可以很好地生成 2D 和法线热图,但无法像附加图像那样绘制。当使用随机数时,我可以绘制它但是在从文件中读取数据时它显示错误。 上面的热图是用随
我正在尝试从维基百科文本数据中训练word2vec模型,因为我正在使用以下代码。 import logging import os.path import sys import multiproces
处理.xml文件= 1,45 Gb时出现MemoryError错误。我试图在一个较小的文件上运行它,并且它可以工作,因此代码中不应有任何错误。该代码本身意味着打开一个xml文件,在其中做一些事情并将其
当我尝试使用以下代码在大型数据帧上删除重复的时间戳时,出现了 MemoryError。 import dask.dataframe as dd path = f's3://{container_nam
尝试分割非常大的字符串时出现内存错误。 data = load_data(file_name) # loads data string from file splited_data = data.sp
我需要扫描两个大的 txt 文件(都是大约 100GB,10 亿行,几列)并取出某一列(写入新文件)。文件看起来像这样 ID*DATE*provider 1111*201101*1234 1234*2
我在第 3 轮 nfind(while 循环)中执行的代码有什么问题,返回符合 CACHE[sha] = number 的 MemoryError?在系统上有足够的内存,并且在 while 循环的每一
我试图避免在我的 mp3 收藏中重复(非常大)。我想通过检查文件内容来检查重复项,而不是查找相同的文件名。我已经编写了下面的代码来执行此操作,但它会在大约一分钟后抛出 MemoryError。关于如何
我正在尝试编写一个程序来计算给定字符串 s 中字符 'a' 的出现次数,只考虑第一个 字符串的 n 个字符。如果字符串的长度小于数字 n,例如 s = "abca" 和 n = 10,则 s 应该变成
我的环境是 Python 3.6 64 位和 64 位 win 10 16GB 内存。 我有一个形状为 (260923,) 的 ndarray。我想找到大于阈值的所有元素的索引。我正在使用这段代码,但
我遇到了一个奇怪的MemoryError,我不明白它为什么会出现。代码示例: # some setup import numpy as np import pandas as pd import ra
我正在尝试处理一个 3GB 的 XML 文件,并且在读取文件并将一些数据存储在字典中的循环中间出现内存错误。 class Node(object): def __init__(self, os
我正在处理一个包含大数据的项目,在运行我的脚本时经常遇到 MemoryError。它在我的脚本读取的文件列表上包含一个循环,在 3 或 4 个文件之后,出现此错误。 我想写这样的东西: with op
我正在尝试对一堆图像(>40k)执行平均缩放。当我将大小为 (3,256,256) 的图像读入 np 数组时,内存使用率为 %40(60 GB 中,使用 htop 检查)。但是,当我运行 arr.st
我有一个小的 Python (2.7.10) 脚本,您可以在下面看到它。 def numbers_calc(max_num, num_step): """Returns every numbe
我正在编写一个 python 脚本来读取两个 csv 文件。代码片段如下。如果文件包含少量记录(8,000 条),则代码可以完美运行,但是如果文件包含大量记录(120,000 条),我会在线上遇到 M
我有一段 python 代码会在一段时间后生成一个 MemoryError。我知道它会消耗大量内存。因此,我决定将代码放在 try/except block 中,这样框架看起来如下所示: while
我是一名优秀的程序员,十分优秀!