- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
以下代码用于评估训练高斯过程 (GP) 并用于对 MNIST 数据集中的图像进行分类。
import numpy as np
from sklearn.metrics.classification import accuracy_score, log_loss
from sklearn.gaussian_process import GaussianProcessClassifier
from sklearn.gaussian_process.kernels import RBF
from sklearn import datasets
from sklearn.datasets import fetch_mldata
import random
SAMPLE_SIZE = 2000
def build_and_optimize(hp_space):
build_train()
return
def build_train(hp_space):
l_scale = hp_space['l_scale']
bias = hp_space['bias']
gp_fix = GaussianProcessClassifier(kernel=bias * RBF(length_scale=l_scale), optimizer=None, multi_class='one_vs_rest')
X_train, X_test, y_train, y_test = prepare_data()
gp_fix.fit(X_train, y_train)
print("Log Marginal Likelihood (initial): %.3f"
% gp_fix.log_marginal_likelihood(gp_fix.kernel_.theta))
y_ = gp_fix.predict(X_test[0:500])
print(y_)
print(y_test[0:500])
print("Accuracy: %.3f (initial)"
% (accuracy_score(y_test[0:500], y_)))
return
def prepare_data():
mnist = fetch_mldata('MNIST original', data_home='./')
mnist.keys()
images = mnist.data
targets = mnist.target
X_data = images/255.0
Y = targets
shuf = random.sample(range(len(X_data)), SAMPLE_SIZE)
X_train = []
for x in shuf: X_train.append(X_data[x])
y_train = []
for x in shuf: y_train.append(Y[x])
c_shuf = set(range(len(X_data))) - set(shuf)
X_test = []
for x in c_shuf: X_test.append(X_data[x])
y_test = []
for x in c_shuf: y_test.append(Y[x])
return X_train, X_test, y_train, y_test
if __name__ == "__main__":
hp_space = {}
hp_space['l_scale'] = 1.0
hp_space['bias'] = 1.0
build_train(hp_space)
模型的训练似乎需要相当长的时间。然而,预测需要很长时间。有任何指示可能是什么原因吗?
最佳答案
你可以认为高斯过程和支持向量机是有些相似的模型,两者都使用核技巧来构建模型。与 SVM 一样,GP 需要 O(n^3) 时间进行训练,其中 n 是训练集中的数据点数量。因此,您自然应该期望它需要一段时间来训练,并且随着数据集大小的增加它会快速增长。
类似地,GP 预测每次预测需要 O(n) 时间,类似于最近邻搜索和 SVMS。然而,GP 解决方案是密集的,这意味着它使用所有训练点进行预测,而 SVM 是稀疏的,因此它会丢弃一些训练点。
关于performance - 预测速度慢: Scikit Gaussian Process classification,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44958748/
我正在尝试将高斯噪声添加到灰度图像,然后显示其直方图。它显示高斯曲线,但有 0 和 255 灰度值的高度。不应该是纯高斯曲线吗? 这是我的代码 clc clear all I = imread('le
我想对具有连续输入变量的受限玻尔兹曼机有一个基本的了解。我正在尝试设计最简单的示例,以便可以轻松跟踪行为。所以,就在这里。 输入数据是二维的。每个数据点都取自两个对称正态分布之一 (sigma = 0
关闭。这个问题是not reproducible or was caused by typos .它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topi
据我了解: GMM 是一种概率模型,可以对正态分布的 N 个子种群进行建模。 GMM 中的每个分量都是高斯分布分布。 HMM 是一种具有隐藏状态的统计马尔可夫模型。当数据连续时,每个隐藏状态被建模为高
我正在尝试实现这样的高斯 NB 训练。然而,如果 X 的维度不相等(即 X 内的所有列表需要具有相同的长度),则 gnb.fit() 会引发异常。如果我的训练样本是不同长度的向量,调用 fit() 的
我了解贝叶斯定理,但不了解分类器中的“高斯”部分是什么。为什么叫“高斯”? 最佳答案 考虑 sklearn.naive_bayes.GaussianNB 的设置. fit 方法接受一个 x 和一个 y
我正在查看一些执行图像模糊处理的代码。但是,我无法理解代码,我想知道是否有人可以帮助我大致理解代码的作用。 这里变量“Iref”是一个图像。 Imin = min(Iref(:)); Iref_fft
我想用 GD 库模糊图像,不幸的是 GD 提供的 GAUSSIAN_BLUR 效果还不够,我想要一些更模糊
以下代码用于评估训练高斯过程 (GP) 并用于对 MNIST 数据集中的图像进行分类。 import numpy as np from sklearn.metrics.classification i
我正在使用库 scikit-learn 测试高斯过程回归,我对它给我的置信区间不满意。这让我意识到这些不是尺度不变的:如果函数按比例放大(在每个轴上按比例),置信区间就会变得更大。 也许图片会更好地解
尝试为高斯消去法制作 C++ 代码,到目前为止,我已经到了必须使用此代码将最大绝对元素以下的元素归零的地步。问题是它仅适用于每行中的第一个元素。 void Zero(double (&M)[row][
我正在使用 R。我在 15 个时间点上有 25 个变量,每个时间点每个变量有 3 次或更多重复。我有melt将其编辑为 data.frame ,我可以使用(除其他外)ggplot's facet_wr
我正在尝试使用 GaussianProcessRegressor 拟合 GP,我注意到我的超参数仍处于初始值。我在 gpr.py 中做了一些步骤,但无法查明具体原因。使用初始值进行预测会产生一条零线。
我正在尝试将高斯模糊添加到场景中。我正在使用此GLSL着色器:。当您提供图像作为tDiffuse纹理时,它对图像起作用,但我正在尝试将其添加为后处理效果。我试图获取摄影机的renderTarget并将
我是 OCaml 的新手,我想实现高斯消除作为练习。我可以使用有状态算法轻松实现,这意味着将矩阵保存在内存中,并通过传递对它的引用对其进行递归操作。 然而,这种状态带有命令式编程的味道。我知道 OCa
如何使用范围(0-99)内的不同分布在 Java 中生成随机数。 我知道标准的 Java.util.Random getNextInt() 使用 Uniform 和 PRNG。我将如何使用 nextG
当我们要求用户验证时,我需要隐藏信息。例如重新输入电子邮件地址。我被要求应用高斯模糊来实现它。我如何在 MVC3 中实现它? 我也对隐藏信息的其他选项持开放态度。 谢谢! 最佳答案 你不能。您的客户端
在我的数据上拟合 GPR 需要几个小时,因此,我想重用我预训练的 GausianProcessRegressor 我想我找到了一个解决方法,它似乎产生了相同的结果,但我想知道是否有更好的解决方案,因为
我是opencv的新手。我应该为涉及使用 2D 低通高斯滤波器的项目执行操作。我用的OpenCV是2.2的,里面有两个函数:filter2d()和GaussianBlur()。 执行相同的工作?让我解
我的最小工作示例 这是我的最小工作示例(注意我已经简化了数学)。假设我有一个包含两个变量的函数,其中 x 和 y 是相同维度的两个向量。 kernel_func 作为 kernel_func 的第一
我是一名优秀的程序员,十分优秀!