- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
为什么 knn 总是预测相同的数字?我该如何解决这个问题?
数据集是 here .
代码:
import numpy as np
import pandas as pd # data processing, CSV file I/O (e.g. pd.read_csv)
import os
import scipy.io
from sklearn.neighbors import KNeighborsClassifier
from sklearn import metrics
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from torch.utils.data import Dataset, DataLoader
from sklearn import preprocessing
import torch
import numpy as np
from sklearn.model_selection import KFold
from sklearn.neighbors import KNeighborsClassifier
from sklearn import metrics
def load_mat_data(path):
mat = scipy.io.loadmat(DATA_PATH)
x,y = mat['data'], mat['class']
x = x.astype('float32')
# stadardize values
standardizer = preprocessing.StandardScaler()
x = standardizer.fit_transform(x)
return x, standardizer, y
def numpyToTensor(x):
x_train = torch.from_numpy(x)
return x_train
class DataBuilder(Dataset):
def __init__(self, path):
self.x, self.standardizer, self.y = load_mat_data(DATA_PATH)
self.x = numpyToTensor(self.x)
self.len=self.x.shape[0]
self.y = numpyToTensor(self.y)
def __getitem__(self,index):
return (self.x[index], self.y[index])
def __len__(self):
return self.len
datasets = ['/home/katerina/Desktop/datasets/GSE75110.mat']
for DATA_PATH in datasets:
print(DATA_PATH)
data_set=DataBuilder(DATA_PATH)
pred_rpknn = [0] * len(data_set.y)
kf = KFold(n_splits=10, shuffle = True, random_state=7)
for train_index, test_index in kf.split(data_set.x):
#Create KNN Classifier
knn = KNeighborsClassifier(n_neighbors=5)
#print("TRAIN:", train_index, "TEST:", test_index)
x_train, x_test = data_set.x[train_index], data_set.x[test_index]
y_train, y_test = data_set.y[train_index], data_set.y[test_index]
#Train the model using the training sets
y1_train = y_train.ravel()
knn.fit(x_train, y1_train)
#Predict the response for test dataset
y_pred = knn.predict(x_test)
#print(y_pred)
# Model Accuracy, how often is the classifier correct?
print("Accuracy:",metrics.accuracy_score(y_test, y_pred))
c = 0
for idx in test_index:
pred_rpknn[idx] = y_pred[c]
c +=1
print("Accuracy:",metrics.accuracy_score(data_set.y, pred_rpknn))
print(pred_rpknn, data_set.y.reshape(1,-1))
输出:
/home/katerina/Desktop/datasets/GSE75110.mat
Accuracy: 0.2857142857142857
Accuracy: 0.38095238095238093
Accuracy: 0.14285714285714285
Accuracy: 0.4
Accuracy: 0.3
Accuracy: 0.25
Accuracy: 0.3
Accuracy: 0.6
Accuracy: 0.25
Accuracy: 0.45
Accuracy: 0.33497536945812806
[3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3]
我正在尝试将 knn 与 k 折叠结合起来,以便使用 10 折叠来测试整个数据集。问题是 knn 总是为每个折叠预测 3 的数组。我想预测的类是这些:
tensor([[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2,2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3,3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3]]
最佳答案
TL;博士
它与StandardScaler
有关,将其更改为简单的标准化。
例如
from sklearn import preprocessing
...
x = preprocessing.normalize(x)
The standard score of a sample `x` is calculated as:
z = (x - u) / s
where `u` is the mean of the training samples or zero if `with_mean=False`,
and `s` is the standard deviation of the training samples or one if
`with_std=False`.
StandardScaler
实际上可能会损害您的预测。最好在其他形式的数据中使用它。
import scipy.io
from torch.utils.data import Dataset
from sklearn import preprocessing
import torch
import numpy as np
from sklearn.model_selection import KFold
from sklearn.neighbors import KNeighborsClassifier
from sklearn import metrics
def load_mat_data(path):
mat = scipy.io.loadmat(DATA_PATH)
x, y = mat['data'], mat['class']
x = x.astype('float32')
# stadardize values
x = preprocessing.normalize(x)
return x, y
def numpyToTensor(x):
x_train = torch.from_numpy(x)
return x_train
class DataBuilder(Dataset):
def __init__(self, path):
self.x, self.y = load_mat_data(DATA_PATH)
self.x = numpyToTensor(self.x)
self.len=self.x.shape[0]
self.y = numpyToTensor(self.y)
def __getitem__(self,index):
return (self.x[index], self.y[index])
def __len__(self):
return self.len
datasets = ['/home/katerina/Desktop/datasets/GSE75110.mat']
for DATA_PATH in datasets:
print(DATA_PATH)
data_set=DataBuilder(DATA_PATH)
pred_rpknn = [0] * len(data_set.y)
kf = KFold(n_splits=10, shuffle = True, random_state=7)
for train_index, test_index in kf.split(data_set.x):
#Create KNN Classifier
knn = KNeighborsClassifier(n_neighbors=5)
#print("TRAIN:", train_index, "TEST:", test_index)
x_train, x_test = data_set.x[train_index], data_set.x[test_index]
y_train, y_test = data_set.y[train_index], data_set.y[test_index]
#Train the model using the training sets
y1_train = y_train.view(-1)
knn.fit(x_train, y1_train)
#Predict the response for test dataset
y_pred = knn.predict(x_test)
#print(y_pred)
# Model Accuracy, how often is the classifier correct?
print("Accuracy in loop:", metrics.accuracy_score(y_test, y_pred))
c = 0
for idx in test_index:
pred_rpknn[idx] = y_pred[c]
c +=1
print("Accuracy:",metrics.accuracy_score(data_set.y, pred_rpknn))
print(pred_rpknn, data_set.y.reshape(1,-1))
Accuracy in loop: 1.0
Accuracy in loop: 0.8571428571428571
Accuracy in loop: 0.8571428571428571
Accuracy in loop: 1.0
Accuracy in loop: 0.9
Accuracy in loop: 0.9
Accuracy in loop: 0.95
Accuracy in loop: 1.0
Accuracy in loop: 0.9
Accuracy in loop: 1.0
Accuracy: 0.9359605911330049
关于python - 为什么 KNeighborsClassifier 总是预测相同的数字?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69599448/
我正在使用 R 预测包拟合模型,如下所示: fit <- auto.arima(df) plot(forecast(fit,h=200)) 打印原始数据框和预测。当 df 相当大时,这
我正在尝试预测自有住房的中位数,这是一个行之有效的例子,给出了很好的结果。 https://heuristically.wordpress.com/2011/11/17/using-neural-ne
type="class"函数中的type="response"和predict有什么区别? 例如: predict(modelName, newdata=testData, type = "class
我有一个名为 Downloaded 的文件夹,其中包含经过训练的 CNN 模型必须对其进行预测的图像。 下面是导入图片的代码: import os images = [] for filename i
关于预测的快速问题。 我尝试预测的值是 0 或 1(它设置为数字,而不是因子),因此当我运行随机森林时: fit , data=trainData, ntree=50) 并预测: pred, data
使用 Python,我尝试使用历史销售数据来预测产品的 future 销售数量。我还试图预测各组产品的这些计数。 例如,我的专栏如下所示: Date Sales_count Department It
我是 R 新手,所以请帮助我了解问题所在。我试图预测一些数据,但预测函数返回的对象(这是奇怪的类(因子))包含低数据。测试集大小为 5886 obs。 160 个变量,当预测对象长度为 110 时..
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 6 年前。 Improve this qu
下面是我的神经网络代码,有 3 个输入和 1 个隐藏层和 1 个输出: #Data ds = SupervisedDataSet(3,1) myfile = open('my_file.csv','r
我正在开发一个 Web 应用程序,它具有全文搜索功能,可以正常运行。我想对此进行改进并向其添加预测/更正功能,这意味着如果用户输入错误或结果为 0,则会查询该输入的更正版本,而不是查询结果。基本上类似
我对时间序列还很陌生。 这是我正在处理的数据集: Date Price Location 0 2012-01-01 1771.0
我有许多可变长度的序列。对于这些,我想训练一个隐马尔可夫模型,稍后我想用它来预测(部分)序列的可能延续。到目前为止,我已经找到了两种使用 HMM 预测 future 的方法: 1) 幻觉延续并获得该延
我正在使用 TensorFlow 服务提供初始模型。我在 Azure Kubernetes 上这样做,所以不是通过更标准和有据可查的谷歌云。 无论如何,这一切都在起作用,但是我感到困惑的是预测作为浮点
我正在尝试使用 Amazon Forecast 进行一些测试。我现在尝试了两个不同的数据集,它们看起来像这样: 13,2013-03-31 19:25:00,93.10999 14,2013-03-3
使用 numpy ndarray大多数时候我们不需要担心内存布局的问题,因为结果并不依赖于它。 除非他们这样做。例如,考虑这种设置 3x2 矩阵对角线的稍微过度设计的方法 >>> a = np.zer
我想在同一个地 block 上用不同颜色绘制多个预测,但是,比例尺不对。我对任何其他方法持开放态度。 可重现的例子: require(forecast) # MAKING DATA data
我正在 R 中使用 GLMM,其中混合了连续变量和 calcategories 变量,并具有一些交互作用。我使用 MuMIn 中的 dredge 和 model.avg 函数来获取每个变量的效果估计。
我能够在 GUI 中成功导出分类器错误,但无法在命令行中执行此操作。有什么办法可以在命令行上完成此操作吗? 我使用的是 Weka 3.6.x。在这里,您可以右键单击模型,选择“可视化分类器错误”并从那
我想在同一个地 block 上用不同颜色绘制多个预测,但是,比例尺不对。我对任何其他方法持开放态度。 可重现的例子: require(forecast) # MAKING DATA data
我从 UCI 机器学习数据集库下载了一个巨大的文件。 (~300mb)。 有没有办法在将数据集加载到 R 内存之前预测加载数据集所需的内存? Google 搜索了很多,但我到处都能找到如何使用 R-p
我是一名优秀的程序员,十分优秀!