gpt4 book ai didi

python - Numpy hstack - "ValueError: all the input arrays must have same number of dimensions"- 但他们这样做

转载 作者:IT老高 更新时间:2023-10-28 21:09:29 26 4
gpt4 key购买 nike

我正在尝试加入两个 numpy 数组。在一个文本列上运行 TF-IDF 后,我有一组列/功能。在另一个我有一个列/特征是一个整数。所以我读入了一列训练和测试数据,对此运行 TF-IDF,然后我想添加另一个整数列,因为我认为这将帮助我的分类器更准确地了解它应该如何表现。

不幸的是,当我尝试运行 hstack 将此单列添加到我的其他 numpy 数组时,我在标题中遇到错误。

这是我的代码:

  #reading in test/train data for TF-IDF
traindata = list(np.array(p.read_csv('FinalCSVFin.csv', delimiter=";"))[:,2])
testdata = list(np.array(p.read_csv('FinalTestCSVFin.csv', delimiter=";"))[:,2])

#reading in labels for training
y = np.array(p.read_csv('FinalCSVFin.csv', delimiter=";"))[:,-2]

#reading in single integer column to join
AlexaTrainData = p.read_csv('FinalCSVFin.csv', delimiter=";")[["alexarank"]]
AlexaTestData = p.read_csv('FinalTestCSVFin.csv', delimiter=";")[["alexarank"]]
AllAlexaAndGoogleInfo = AlexaTestData.append(AlexaTrainData)

tfv = TfidfVectorizer(min_df=3, max_features=None, strip_accents='unicode',
analyzer='word',token_pattern=r'\w{1,}',ngram_range=(1, 2), use_idf=1,smooth_idf=1,sublinear_tf=1) #tf-idf object
rd = lm.LogisticRegression(penalty='l2', dual=True, tol=0.0001,
C=1, fit_intercept=True, intercept_scaling=1.0,
class_weight=None, random_state=None) #Classifier
X_all = traindata + testdata #adding test and train data to put into tf-idf
lentrain = len(traindata) #find length of train data
tfv.fit(X_all) #fit tf-idf on all our text
X_all = tfv.transform(X_all) #transform it
X = X_all[:lentrain] #reduce to size of training set
AllAlexaAndGoogleInfo = AllAlexaAndGoogleInfo[:lentrain] #reduce to size of training set
X_test = X_all[lentrain:] #reduce to size of training set

#printing debug info, output below :
print "X.shape => " + str(X.shape)
print "AllAlexaAndGoogleInfo.shape => " + str(AllAlexaAndGoogleInfo.shape)
print "X_all.shape => " + str(X_all.shape)

#line we get error on
X = np.hstack((X, AllAlexaAndGoogleInfo))

下面是输出和错误信息:

X.shape => (7395, 238377)
AllAlexaAndGoogleInfo.shape => (7395, 1)
X_all.shape => (10566, 238377)



---------------------------------------------------------------------------
ValueError Traceback (most recent call last)
<ipython-input-12-2b310887b5e4> in <module>()
31 print "X_all.shape => " + str(X_all.shape)
32 #X = np.column_stack((X, AllAlexaAndGoogleInfo))
---> 33 X = np.hstack((X, AllAlexaAndGoogleInfo))
34 sc = preprocessing.StandardScaler().fit(X)
35 X = sc.transform(X)

C:\Users\Simon\Anaconda\lib\site-packages\numpy\core\shape_base.pyc in hstack(tup)
271 # As a special case, dimension 0 of 1-dimensional arrays is "horizontal"
272 if arrs[0].ndim == 1:
--> 273 return _nx.concatenate(arrs, 0)
274 else:
275 return _nx.concatenate(arrs, 1)

ValueError: all the input arrays must have same number of dimensions

是什么导致了我的问题?我怎样才能解决这个问题?据我所见,我应该能够加入这些专栏吗?我误会了什么?

谢谢。

编辑:

使用下面答案中的方法得到以下错误:

---------------------------------------------------------------------------
ValueError Traceback (most recent call last)
<ipython-input-16-640ef6dd335d> in <module>()
---> 36 X = np.column_stack((X, AllAlexaAndGoogleInfo))
37 sc = preprocessing.StandardScaler().fit(X)
38 X = sc.transform(X)

C:\Users\Simon\Anaconda\lib\site-packages\numpy\lib\shape_base.pyc in column_stack(tup)
294 arr = array(arr,copy=False,subok=True,ndmin=2).T
295 arrays.append(arr)
--> 296 return _nx.concatenate(arrays,1)
297
298 def dstack(tup):

ValueError: all the input array dimensions except for the concatenation axis must match exactly

有趣的是,我尝试打印 X 的 dtype 并且效果很好:

X.dtype => float64

但是,尝试像这样打印 AllAlexaAndGoogleInfo 的 dtype:

print "AllAlexaAndGoogleInfo.dtype => " + str(AllAlexaAndGoogleInfo.dtype) 

产生:

'DataFrame' object has no attribute 'dtype'

最佳答案

由于 X 是一个稀疏数组,而不是 numpy.hstack,使用 scipy.sparse.hstack 来加入数组。在我看来,错误信息在这里有点误导。

这个最小的例子说明了这种情况:

import numpy as np
from scipy import sparse

X = sparse.rand(10, 10000)
xt = np.random.random((10, 1))
print 'X shape:', X.shape
print 'xt shape:', xt.shape
print 'Stacked shape:', np.hstack((X,xt)).shape
#print 'Stacked shape:', sparse.hstack((X,xt)).shape #This works

基于以下输出

X shape: (10, 10000)
xt shape: (10, 1)

人们可能期望下一行中的 hstack 会起作用,但事实是它会抛出这个错误:

ValueError: all the input arrays must have same number of dimensions

所以,当你有一个稀疏数组要堆栈时,使用 scipy.sparse.hstack


事实上我已经在你的另一个问题中作为评论回答了这个问题,你提到弹出另一个错误消息:

TypeError: no supported conversion for types: (dtype('float64'), dtype('O'))

首先,AllAlexaAndGoogleInfo 没有dtype,因为它是一个DataFrame。要获得它的底层 numpy 数组,只需使用 AllAlexaAndGoogleInfo.values。检查它的 dtype。根据错误信息,它的 dtypeobject,这意味着它可能包含字符串等非数字元素。

这是重现这种情况的最小示例:

X = sparse.rand(100, 10000)
xt = np.random.random((100, 1))
xt = xt.astype('object') # Comment this to fix the error
print 'X:', X.shape, X.dtype
print 'xt:', xt.shape, xt.dtype
print 'Stacked shape:', sparse.hstack((X,xt)).shape

错误信息:

TypeError: no supported conversion for types: (dtype('float64'), dtype('O'))

因此,在进行堆叠之前,请检查 AllAlexaAndGoogleInfo 中是否有任何非数值并修复它们。

关于python - Numpy hstack - "ValueError: all the input arrays must have same number of dimensions"- 但他们这样做,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22257836/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com