- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我现在正在尝试在我的实验中使用 GMM。但我有以下问题。我对这个错误很困惑。
import tensorflow as tf
class GMMDataLoader:
def __init__(self, points, batch_size):
self.points = points
self.batch_size = batch_size
num_points = points.shape[0]
self.num_points = num_points
dim = points.shape[1]
self.count = 0
#self.x = tf.constant(self.points)
print ('Loaded in a total of %d points, the dimension is %d'%(num_points, dim))
def next_batch(self, batch_size=128):
self.count += 1
count = self.count + 1
print ('batch [%d]'%count)
num_points = self.num_points
x = tf.constant(self.points)
indices = tf.random_uniform(tf.constant([batch_size]),
minval=0, maxval=num_points-1,
dtype=tf.int32,
seed=10)
return tf.gather(x, indices), None
import numpy as np
x = np.random.random((10000, 2048)).astype('float32')
loader = GMMDataLoader(x, 128)
gmm_model = tf.contrib.factorization.GMM(initial_clusters='random', num_clusters=100, random_seed=666)
gmm_model.fit(input_fn=loader.next_batch)
当我运行此代码时,出现以下错误:
Loaded in a total of 10000 points, the dimension is 2048
WARNING:tensorflow:Using temporary folder as model directory: /tmp/tmp19vzg37k
WARNING:tensorflow:From /u/usr/usr/anaconda2/envs/py35/lib/python3.5/site-packages/tensorflow/contrib/factorization/python/ops/gmm_ops.py:59: calling reduce_mean (from tensorflow.python.ops.math_ops) with keep_dims is deprecated and will be removed in a future version.
Instructions for updating:
keep_dims is deprecated, use keepdims instead
WARNING:tensorflow:From /u/usr/usr/anaconda2/envs/py35/lib/python3.5/site-packages/tensorflow/contrib/factorization/python/ops/gmm_ops.py:353: calling reduce_logsumexp (from tensorflow.python.ops.math_ops) with keep_dims is deprecated and will be removed in a future version.
Instructions for updating:
keep_dims is deprecated, use keepdims instead
WARNING:tensorflow:From /u/usr/usr/anaconda2/envs/py35/lib/python3.5/site-packages/tensorflow/contrib/factorization/python/ops/gmm_ops.py:377: calling reduce_sum (from tensorflow.python.ops.math_ops) with keep_dims is deprecated and will be removed in a future version.
Instructions for updating:
keep_dims is deprecated, use keepdims instead
WARNING:tensorflow:From /u/usr/usr/anaconda2/envs/py35/lib/python3.5/site-packages/tensorflow/contrib/factorization/python/ops/gmm.py:170: get_global_step (from tensorflow.contrib.framework.python.ops.variables) is deprecated and will be removed in a future version.
Instructions for updating:
Please switch to tf.train.get_global_step
2018-01-21 13:25:54.515678: I tensorflow/core/platform/cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to use: SSE4.1 SSE4.2 AVX AVX2 FMA
2018-01-21 13:25:55.440734: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1062] Found device 0 with properties:
name: Tesla P100-SXM2-16GB major: 6 minor: 0 memoryClockRate(GHz): 1.4805
pciBusID: 0000:89:00.0
totalMemory: 15.89GiB freeMemory: 15.60GiB
2018-01-21 13:25:56.339431: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1062] Found device 1 with properties:
name: Tesla P100-SXM2-16GB major: 6 minor: 0 memoryClockRate(GHz): 1.4805
pciBusID: 0000:8a:00.0
totalMemory: 15.89GiB freeMemory: 15.60GiB
2018-01-21 13:25:56.339489: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1077] Device peer to peer matrix
2018-01-21 13:25:56.339527: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1083] DMA: 0 1
2018-01-21 13:25:56.339536: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1093] 0: Y Y
2018-01-21 13:25:56.339543: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1093] 1: Y Y
2018-01-21 13:25:56.339564: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1152] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: Tesla P100-SXM2-16GB, pci bus id: 0000:89:00.0, compute capability: 6.0)
2018-01-21 13:25:56.339574: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1152] Creating TensorFlow device (/device:GPU:1) -> (device: 1, name: Tesla P100-SXM2-16GB, pci bus id: 0000:8a:00.0, compute capability: 6.0)
2018-01-21 13:28:44.093288: I tensorflow/core/kernels/cuda_solvers.cc:159] Creating CudaSolver handles for stream 0x564187890370
Segmentation fault
有人知道怎么解决吗?
最佳答案
这是由于数据样本和高斯之间的距离计算中内存分配过多造成的。
修复已提交,很快就会提供。如果您愿意,可以通过在此处注释掉该部分来禁用 Tensorflow 图的该部分:
关于tensorflow - GMM.fit分割错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48372213/
尝试使用 R 中的 GMM 包来估计线性模型的参数(a-f): LEV1 = a*Macro + b*Firm + c*Sector + d*qtr + e*fqtr + f*tax 宏、公司和部门是
我现在正在尝试在我的实验中使用 GMM。但我有以下问题。我对这个错误很困惑。 import tensorflow as tf class GMMDataLoader: def __init__
昨天我使用期望最大化算法实现了 GMM(高斯混合模型)。 如您所知,它将一些未知分布建模为混合高斯分布,我们需要了解其均值和方差,以及每个高斯分布的权重。 这是代码背后的数学原理(没那么复杂) htt
假设我们要在 2 个点上训练一个 1 维 GMM 聚类算法:0,2,使用 2 个簇。假设初始化是:高斯 1:均值 1,方差 1。高斯 2:均值 5,方差 1。 运行算法后,我们会得到什么样的高斯簇?当
我正在尝试遵循 this paper 第 3.2 节中给出的示例关于 gmm 的使用R包裹。所以我希望估计稳定分布的参数。我正在使用以下代码 library(gmm) library(stabledi
我正在尝试遵循 this paper 第 3.2 节中给出的示例关于 gmm 的使用R包裹。所以我希望估计稳定分布的参数。我正在使用以下代码 library(gmm) library(stabledi
我目前正在做一个语音识别和机器学习相关的项目。我现在有两个类,我为每个类创建两个 GMM 分类器,分别用于标签“快乐”和“悲伤” 我想用 MFCC 向量训练 GMM 分类器。 我为每个标签使用两个 G
我很困惑。我已经按照 MATLAB 代码为自己测试了一个程序: feature_train=[1 1 2 1.2 1 1 700 709 708 699 678]; No_of_Clusters =
我正在使用 sklearn 的 GMM 工具包构建一个基本的说话人识别器。我有 3 个类(class),每个类(class)都有一个分类器。在测试阶段,应选择概率最高的说话者的 GMM,并且程序应返回
我一直在使用 GMM cluster package by Bouman,我在网上没有找到任何适配模块。在我开始阅读 GMM 适应理论并实现它之前,我确实想知道是否有其他在线开源 GMM 项目可以完成
我有一个大数据集(我无法将整个数据存储在内存中)。我想在这个数据集上拟合一个 GMM。 我可以在小批量数据上重复使用 GMM.fit() (sklearn.mixture.GMM) 吗?? 最佳答案
我正在将两个高斯的混合拟合到一维数据(超过 1000 个点)。 两个高斯分布之和的峰值似乎相对于直方图的峰值向左移动。我假设这是因为我的数据有一个大约 0.5 的截止值。 绿线和红线是两条最合适的高斯
我一直在使用 Scikit-learn 的 GMM 函数。首先,我刚刚创建了一个沿 x=y 行的分布。 from sklearn import mixture import numpy as np i
我想使用 python 将高斯混合模型拟合到一组加权数据点。 我尝试了 sklearn.mixture.GMM() ,除了它对所有数据点的权重相同之外,它工作正常。有谁知道用这种方法为数据点分配权重的
据我了解: GMM 是一种概率模型,可以对正态分布的 N 个子种群进行建模。 GMM 中的每个分量都是高斯分布分布。 HMM 是一种具有隐藏状态的统计马尔可夫模型。当数据连续时,每个隐藏状态被建模为高
我已经使用 sklearn 高斯混合模型算法 (GMM) 对我的数据 (75000, 3) 进行了聚类。我有 4 个集群。我的数据的每个点都代表一个分子结构。现在我想得到每个簇最具代表性的分子结构,我
我使用数据集在 Matlab 中构建了一个高斯混合模型: model = gmdistribution.fit(data,M,'Replicates',5); 具有M = 3高斯分量。我测试了新数据:
我在 Python 中使用 sklearn.mixture.GMM,结果似乎取决于数据缩放。在下面的代码示例中,我更改了整体缩放比例,但没有更改维度的相对缩放比例。然而,在三种不同的缩放设置下,我得到
我想确定一个数据点属于一组数据的概率。我读到 sklearn GMM 可以做到这一点。我尝试了以下.... import numpy as np from sklearn.mixture import
我们正在尝试训练一个具有指定参数的高斯混合模型 (GMM)python 中的初始模型与 Spark 上的 MLLIB。pyspark 的 Doc 1.5.1 说我们应该使用 GaussianMixtu
我是一名优秀的程序员,十分优秀!