- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我是机器学习的新手。试图运行 Hello World 示例 https://www.tensorflow.org/get_started/mnist/beginners :
它奏效了。
接下来尝试使用以下数据集:
(调整后的 W 和 b 尺寸)
而且我看到的是 W 和 b 在训练过程中是恒定的。
问题:
是我的代码有问题,还是整个数学概念有问题?
谢谢
此处代码(如果相关):
#!/usr/bin/python
import tensorflow as tf
import numpy as np
import math
import sys
def is_prime(n):
if n % 2 == 0:
return False
return all(n % i for i in range(3, int(math.sqrt(n)) + 1, 2))
NUM_FEATURES = 32
NUM_LABELS = 2
DATA_SET_SIZE = 100000
BATCH_SIZE = 100
NUM_BATCHES = DATA_SET_SIZE / BATCH_SIZE
NUM_TEST_BATCHES = 1
NUM_TRAINING_BATCHES = NUM_BATCHES - NUM_TEST_BATCHES
NUM_TRAINING_CYCLES = NUM_TRAINING_BATCHES
NUM_TRAINING_DISPLAY_STEPS = 10
TRAINING_DISPLAY_STEP_SIZE = NUM_TRAINING_CYCLES / NUM_TRAINING_DISPLAY_STEPS
def convert_data(fvecs, labels):
fvecs_np = np.matrix(fvecs).astype(np.float32)
labels_np = np.array(labels).astype(dtype=np.uint8)
labels_onehot = (np.arange(NUM_LABELS) == labels_np[:, None]).astype(np.float32)
sys.stdout.flush()
return fvecs_np, labels_onehot
def to_bits(x):
return [x & (1 << b) for b in range(NUM_FEATURES)]
def training_data():
#from tensorflow.examples.tutorials.mnist import input_data
#mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
labels = []
fvecs = []
for x in range(DATA_SET_SIZE):
fvecs.append(to_bits(x))
labels.append(is_prime(x))
return convert_data(fvecs, labels)
def test_data():
return convert_data([to_bits(10), to_bits(15485867)], [False, True])
def variable_summaries(var):
"""Attach a lot of summaries to a Tensor (for TensorBoard visualization)."""
with tf.name_scope('summaries'):
mean = tf.reduce_mean(var)
tf.summary.scalar('mean', mean)
with tf.name_scope('stddev'):
stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))
tf.summary.scalar('stddev', stddev)
tf.summary.scalar('max', tf.reduce_max(var))
tf.summary.scalar('min', tf.reduce_min(var))
tf.summary.histogram('histogram', var)
#print len(primes)
def main():
# Build graph:
x = tf.placeholder(tf.float32, shape=[None, NUM_FEATURES])
y_ = tf.placeholder(tf.float32, shape=[None, NUM_LABELS])
with tf.name_scope('W'):
W = tf.Variable(tf.zeros([NUM_FEATURES, NUM_LABELS]))
variable_summaries(W)
with tf.name_scope('b'):
b = tf.Variable(tf.zeros([NUM_LABELS]))
variable_summaries(b)
with tf.name_scope("Wx_b"):
y = tf.nn.softmax(tf.matmul(x, W) + b)
with tf.name_scope("cross_entropy"):
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y), reduction_indices=[1]))
with tf.name_scope("train"):
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
with tf.Session() as sess:
merged_summary_op = tf.summary.merge_all()
train_writer = tf.summary.FileWriter('train', sess.graph)
tf.global_variables_initializer().run()
avg_cost = 0
vecs, labels = training_data()
test_x, test_y = test_data()
print "Training..."
for batch in range(NUM_TRAINING_BATCHES):
batch_start = batch * BATCH_SIZE
batch_end = batch_start + BATCH_SIZE
batch_x_data = vecs[batch_start:batch_end]
batch_y_data = labels[batch_start:batch_end]
_ = sess.run(train_step, feed_dict={x: batch_x_data, y_: batch_y_data})
summary = sess.run(merged_summary_op, feed_dict={x: batch_x_data, y_: batch_y_data})
avg_cost = sess.run(cross_entropy, feed_dict={x: batch_x_data, y_: batch_y_data})
test_cost = sess.run(cross_entropy, feed_dict={x: test_x, y_: test_y})
train_writer.add_summary(summary, batch)
if batch % TRAINING_DISPLAY_STEP_SIZE == 0:
print "Iteration %04u: Cost = %.9f. Test cost: %.9f." % (batch, avg_cost, test_cost)
print "Done."
print "Testing..."
#vecs, labels = test_data()
print(sess.run(y, {x: vecs}))
main()
最佳答案
我认为这是不可能的。机器学习方法只是学习一个将 x 映射到 f(w; x) 的函数。然后将损失函数定义为 loss(y, f(w;x))。 x 是表示某物特征的向量。如果有一个函数可以告诉我们天气 x 是一个素数,那么 nn 可能会找到它。但我不认为有这样的功能(也许它存在,因为没有数学家证明不存在)
关于python - 是否可以训练 NN 使用此模型近似识别素数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45906845/
real adaboost Logit boost discrete adaboost 和 gentle adaboost in train cascade parameter 有什么区别.. -bt
我想为 book crossing 构建训练数据矩阵和测试数据矩阵数据集。但作为 ISBN 代码的图书 ID 可能包含字符。因此,我无法应用此代码(来自 tutorial ): #Create two
我找到了 JavaANPR 库,我想对其进行自定义以读取我所在国家/地区的车牌。 似乎包含的字母表与我们使用的字母表不同 ( http://en.wikipedia.org/wiki/FE-Schri
我有一个信用卡数据集,其中 98% 的交易是非欺诈交易,2% 是欺诈交易。 我一直在尝试在训练和测试拆分之前对多数类别进行欠采样,并在测试集上获得非常好的召回率和精度。 当我仅在训练集上进行欠采样并在
我打算: 在数据集上从头开始训练 NASNet 只重新训练 NASNet 的最后一层(迁移学习) 并比较它们的相对性能。从文档中我看到: keras.applications.nasnet.NASNe
我正在训练用于分割的 uNet 模型。训练模型后,输出全为零,我不明白为什么。 我看到建议我应该使用特定的损失函数,所以我使用了 dice 损失函数。这是因为黑色区域 (0) 比白色区域 (1) 大得
我想为新角色训练我现有的 tesseract 模型。我已经尝试过 上的教程 https://github.com/tesseract-ocr/tesseract/wiki/TrainingTesser
我的机器中有两个 NVidia GPU,但我没有使用它们。 我的机器上运行了三个神经网络训练。当我尝试运行第四个时,脚本出现以下错误: my_user@my_machine:~/my_project/
我想在python的tensorflow中使用稀疏张量进行训练。我找到了很多代码如何做到这一点,但没有一个有效。 这里有一个示例代码来说明我的意思,它会抛出一个错误: import numpy as
我正在训练一个 keras 模型,它的最后一层是单个 sigmoid单元: output = Dense(units=1, activation='sigmoid') 我正在用一些训练数据训练这个模型
所以我需要使用我自己的数据集重新训练 Tiny YOLO。我正在使用的模型可以在这里找到:keras-yolo3 . 我开始训练并遇到多个优化器错误,添加了错误代码以防止混淆。 我注意到即使它应该使用
将 BERT 模型中的标记化范式更改为其他东西是否有意义?也许只是一个简单的单词标记化或字符级标记化? 最佳答案 这是论文“CharacterBERT: Reconciling ELMo and BE
假设我有一个非常简单的神经网络,比如多层感知器。对于每一层,激活函数都是 sigmoid 并且网络是全连接的。 在 TensorFlow 中,这可能是这样定义的: sess = tf.Inte
有没有办法在 PyBrain 中保存和恢复经过训练的神经网络,这样我每次运行脚本时都不必重新训练它? 最佳答案 PyBrain 的神经网络可以使用 python 内置的 pickle/cPickle
我尝试使用 Keras 训练一个对手写数字进行分类的 CNN 模型,但训练的准确度很低(低于 10%)并且误差很大。我尝试了一个简单的神经网络,但没有效果。 这是我的代码。 import tensor
我在 Windows 7 64 位上使用 tesseract 3.0.1。我用一种新语言训练图书馆。 我的示例数据间隔非常好。当我为每个角色的盒子定义坐标时,盒子紧贴角色有多重要?我使用其中一个插件,
如何对由 dropout 产生的许多变薄层进行平均?在测试阶段要使用哪些权重?我真的很困惑这个。因为每个变薄的层都会学习一组不同的权重。那么反向传播是为每个细化网络单独完成的吗?这些细化网络之间的权重
我尝试训练超正方语言。我正在使用 Tess4J 进行 OCR 处理。我使用jTessBoxEditor和SerakTesseractTrainer进行训练操作。准备好训练数据后,我将其放在 Tesse
我正在构建一个 Keras 模型,将数据分类为 3000 个不同的类别,我的训练数据由大量样本组成,因此在用一种热编码对训练输出进行编码后,数据非常大(item_count * 3000 * 的大小)
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 8 年前。 Improve this ques
我是一名优秀的程序员,十分优秀!