gpt4 book ai didi

python - 重新组织Python字典中的输出数据

转载 作者:太空宇宙 更新时间:2023-11-03 18:43:21 25 4
gpt4 key购买 nike

我需要创建稀疏向量,我想使用 python 来尝试它。我已经拥有创建向量所需的所有数据,因此我的任务基本上是重新格式化/重新排列我拥有的信息。

我的输入文件是一个 5GB 文件,包含 3 个制表符分隔的列,例如:

abandonment-n   about+n-the+v-know-v    1
abandonment-n above+ns-j+vn-pass-continue-v 1
abandonment-n after+n-the+n-a-j-stop-n 1
abandonment-n as+n-the+ns-j-aid-n 1
cake-n against+n-the+vg-restv 1
cake-n as+n-a+vd-require-v 1
cake-n as+n-a-j+vg-up-use-v 1
cake-n as+n-the+ns-j-aid-n 2
dog-n as+n-a-j+vg-up-use-v 7
dog-n as+n-the+ns-j-aid-n 5

我想要的输出如下

2   7
1 1 1 1
1 1 1 2
7 5

其中,第一行指定维度(本质上是唯一的行//列)第二行以稀疏格式开始实际矩阵。

我认为最有效的方法是 python 。然而,由于我已经计算了数据的相应权重,我不认为 numpy 中的类或者对于向量,例如发现 herehere在这种情况下是必要的。那么,有人知道我如何开始解决 python 中的这个重新排列问题吗?

我想做的第一件事是打开文件并拆分字典中的元素:像这样:

mydict = {}
with open("sample_outputDM_ALL_COOC", 'r') as infile_A:
for line in infile_A:
lines_splitted = line.split()
lemma = lines_splitted[0]
feat = lines_splitted[1]
weight = lines_splitted[2]
mydict = [lemma], float(weight)
#print mydict

for x in mydict:
if lemma == lemma:
print weight + "\t"
else:
pass

我一直在努力解决这个问题,但还是没能解决。到目前为止我所做的是将所有变量输入到字典中,并且我能够打印每个单独的引理和每行的每个单独的权重。

但是,我需要将与给定引理相对应的所有权重放在同一行中。我已经尝试过groupby变量,但我不确定它是这种情况的最佳选择。我相信解决方案是 if else声明,但我不知道如何将两者联系起来。

因此,该方法应遵循以下原则:对于每个 target ,打印freqslotfiller每个唯一的 target 在一行中.

最佳答案

这是做作业吗?如果没有,请查看 scipy.sparse 中提供的工具。或 scikits.learn 的混合物和 Python NLTK (e.g. this example)。

已添加根据评论和重新阅读问题,我还可以想象使用 Pandas.DataFrame 来完成此任务,但我不确定考虑到数据的大小是否令人满意。一个选择是将数据加载到多个 block 中,因为它似乎可以在第一列的唯一项上并行化。 (有关更多信息,请参阅我的 comment below)。

def sparse_vec(df):
return (df['Col3'].values[None,:],)

# Obviously these would be chunk-specific, and you'd need to do
# another pass to get the global sum of unique ids from Col1 and the
# global max of the number of unique rows-per-id.
n_cols = len(df.Col2.unique())
n_rows = len(df.Col1.unique())


vecs = df.groupby("Col1").apply(sparse_vec)
print vecs

在 IPython 中使用您提供的示例数据,我看到:

In [17]: data = """
....: abandonment-n about+n-the+v-know-v 1
....: abandonment-n above+ns-j+vn-pass-continue-v 1
....: abandonment-n after+n-the+n-a-j-stop-n 1
....: abandonment-n as+n-the+ns-j-aid-n 1
....: cake-n against+n-the+vg-restv 1
ake- ....: cake-n as+n-a+vd-require-v 1
....: cake-n as+n-a-j+vg-up-use-v 1
....: cake-n as+n-the+ns-j-aid-n 2
....: dog-n as+n-a-j+vg-up-use-v 7
dog- ....: dog-n as+n-the+ns-j-aid-n 5"""

In [18]: data
Out[18]: '\nabandonment-n about+n-the+v-know-v 1\nabandonment-n above+ns-j+vn-pass-continue-v 1\nabandonment-n after+n-the+n-a-j-stop-n 1\nabandonment-n as+n-the+ns-j-aid-n 1\ncake-n against+n-the+vg-restv 1\ncake-n as+n-a+vd-require-v 1\ncake-n as+n-a-j+vg-up-use-v 1\ncake-n as+n-the+ns-j-aid-n 2\ndog-n as+n-a-j+vg-up-use-v 7\ndog-n as+n-the+ns-j-aid-n 5'

In [19]: data.split("\n")
Out[19]:
['',
'abandonment-n about+n-the+v-know-v 1',
'abandonment-n above+ns-j+vn-pass-continue-v 1',
'abandonment-n after+n-the+n-a-j-stop-n 1',
'abandonment-n as+n-the+ns-j-aid-n 1',
'cake-n against+n-the+vg-restv 1',
'cake-n as+n-a+vd-require-v 1',
'cake-n as+n-a-j+vg-up-use-v 1',
'cake-n as+n-the+ns-j-aid-n 2',
'dog-n as+n-a-j+vg-up-use-v 7',
'dog-n as+n-the+ns-j-aid-n 5']

In [20]: data_lines = [x for x in data.split("\n") if x]

In [21]: data_lines
Out[21]:
['abandonment-n about+n-the+v-know-v 1',
'abandonment-n above+ns-j+vn-pass-continue-v 1',
'abandonment-n after+n-the+n-a-j-stop-n 1',
'abandonment-n as+n-the+ns-j-aid-n 1',
'cake-n against+n-the+vg-restv 1',
'cake-n as+n-a+vd-require-v 1',
'cake-n as+n-a-j+vg-up-use-v 1',
'cake-n as+n-the+ns-j-aid-n 2',
'dog-n as+n-a-j+vg-up-use-v 7',
'dog-n as+n-the+ns-j-aid-n 5']

In [22]: split_lines = [x.split() for x in data_lines]

In [23]: split_lines
Out[23]:
[['abandonment-n', 'about+n-the+v-know-v', '1'],
['abandonment-n', 'above+ns-j+vn-pass-continue-v', '1'],
['abandonment-n', 'after+n-the+n-a-j-stop-n', '1'],
['abandonment-n', 'as+n-the+ns-j-aid-n', '1'],
['cake-n', 'against+n-the+vg-restv', '1'],
['cake-n', 'as+n-a+vd-require-v', '1'],
['cake-n', 'as+n-a-j+vg-up-use-v', '1'],
['cake-n', 'as+n-the+ns-j-aid-n', '2'],
['dog-n', 'as+n-a-j+vg-up-use-v', '7'],
['dog-n', 'as+n-the+ns-j-aid-n', '5']]

In [24]: df = pandas.DataFrame(split_lines, columns=["Col1", "Col2", "Col3"])

In [25]: df
Out[25]:
Col1 Col2 Col3
0 abandonment-n about+n-the+v-know-v 1
1 abandonment-n above+ns-j+vn-pass-continue-v 1
2 abandonment-n after+n-the+n-a-j-stop-n 1
3 abandonment-n as+n-the+ns-j-aid-n 1
4 cake-n against+n-the+vg-restv 1
5 cake-n as+n-a+vd-require-v 1
6 cake-n as+n-a-j+vg-up-use-v 1
7 cake-n as+n-the+ns-j-aid-n 2
8 dog-n as+n-a-j+vg-up-use-v 7
9 dog-n as+n-the+ns-j-aid-n 5

In [26]: df.groupby("Col1").apply(lambda x: (x.Col3.values[None,:],))
Out[26]:
Col1
abandonment-n (array([[1, 1, 1, 1]], dtype=object),)
cake-n (array([[1, 1, 1, 2]], dtype=object),)
dog-n (array([[7, 5]], dtype=object),)

In [27]: n_rows = len(df.Col1.unique())

In [28]: n_cols = len(df.Col2.unique())

In [29]: n_rows, n_cols
Out[29]: (3, 7)

关于python - 重新组织Python字典中的输出数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20046386/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com