- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试从这里获取基于 keras 的序列到序列示例: https://github.com/ml4a/ml4a-guides/blob/master/notebooks/sequence_to_sequence.ipynb
这是我正在运行的代码,使用 keras 1.2.2/python 3.5.2:
import numpy as np
from keras.models import Model
from keras.layers.recurrent import LSTM
from keras.layers.embeddings import Embedding
from keras.layers.wrappers import TimeDistributed
from keras.preprocessing.sequence import pad_sequences
from keras.preprocessing.text import Tokenizer
from keras.layers import Activation, Dense, RepeatVector, Input, merge
import json
data = json.load(open('../data/en_de_corpus.json', 'r'))
# to deal with memory issues,
# limit the dataset
# we could also generate the training samples on-demand
# with a generator and use keras models' `fit_generator` method
max_len = 6
max_examples = 80000
max_vocab_size = 10000
def get_texts(source_texts, target_texts, max_len, max_examples):
"""extract texts
training gets difficult with widely varying lengths
since some sequences are mostly padding
long sequences get difficult too, so we are going
to cheat and just consider short-ish sequences.
this assumes whitespace as a token delimiter
and that the texts are already aligned.
"""
sources, targets = [], []
for i, source in enumerate(source_texts):
# assume we split on whitespace
if len(source.split(' ')) <= max_len:
target = target_texts[i]
if len(target.split(' ')) <= max_len:
sources.append(source)
targets.append(target)
return sources[:max_examples], targets[:max_examples]
en_texts, de_texts = get_texts(data['en'], data['de'], max_len, max_examples)
n_examples = len(en_texts)
# add start and stop tokens
start_token = '^'
end_token = '$'
en_texts = [' '.join([start_token, text, end_token]) for text in en_texts]
de_texts = [' '.join([start_token, text, end_token]) for text in de_texts]
# characters for the tokenizers to filter out
# preserve start and stop tokens
filter_chars = '!"#$%&()*+,-./:;<=>?@[\\]^_{|}~\t\n\'`“”–'.replace(start_token, '').replace(end_token, '')
source_tokenizer = Tokenizer(max_vocab_size, filters=filter_chars)
source_tokenizer.fit_on_texts(en_texts)
target_tokenizer = Tokenizer(max_vocab_size, filters=filter_chars)
target_tokenizer.fit_on_texts(de_texts)
# vocab sizes
# idx 0 is reserved by keras (for padding)
# and not part of the word_index,
# so add 1 to account for it
source_vocab_size = len(source_tokenizer.word_index) + 1
target_vocab_size = len(target_tokenizer.word_index) + 1
# find max length (in tokens) of input and output sentences
max_input_length = max(len(seq) for seq in source_tokenizer.texts_to_sequences_generator(en_texts))
max_output_length = max(len(seq) for seq in target_tokenizer.texts_to_sequences_generator(de_texts))
sequences = pad_sequences(source_tokenizer.texts_to_sequences(en_texts[:1]), maxlen=max_input_length)
print(en_texts[0])
# >>> ^ I took the bus back. $
print(sequences[0])
# >>> [ 0 0 0 2 4 223 3 461 114 1]
def build_one_hot_vecs(sequences):
"""generate one-hot vectors from token sequences"""
# boolean to reduce memory footprint
X = np.zeros((len(sequences), max_input_length, source_vocab_size), dtype=np.bool)
for i, sent in enumerate(sequences):
word_idxs = np.arange(max_input_length)
X[i][[word_idxs, sent]] = True
return X
def build_target_vecs():
"""encode words in the target sequences as one-hots"""
y = np.zeros((n_examples, max_output_length, target_vocab_size), dtype=np.bool)
for i, sent in enumerate(pad_sequences(target_tokenizer.texts_to_sequences(de_texts), maxlen=max_output_length)):
word_idxs = np.arange(max_output_length)
y[i][[word_idxs, sent]] = True
return y
hidden_dim = 128
embedding_dim = 128
def build_model(one_hot=False, bidirectional=False):
"""build a vanilla sequence-to-sequence model.
specify `one_hot=True` to build it for one-hot encoded inputs,
otherwise, pass in sequences directly and embeddings will be learned.
specify `bidirectional=False` to use a bidirectional LSTM"""
if one_hot:
input = Input(shape=(max_input_length,source_vocab_size))
input_ = input
else:
input = Input(shape=(max_input_length,), dtype='int32')
input_ = Embedding(source_vocab_size, embedding_dim, input_length=max_input_length)(input)
# encoder; don't return sequences, just give us one representation vector
if bidirectional:
forwards = LSTM(hidden_dim, return_sequences=False)(input_)
backwards = LSTM(hidden_dim, return_sequences=False, go_backwards=True)(input_)
encoder = merge([forwards, backwards], mode='concat', concat_axis=-1)
else:
encoder = LSTM(hidden_dim, return_sequences=False)(input_)
# repeat encoder output for each desired output from the decoder
encoder = RepeatVector(max_output_length)(encoder)
# decoder; do return sequences (timesteps)
decoder = LSTM(hidden_dim, return_sequences=True)(encoder)
# apply the dense layer to each timestep
# give output conforming to target vocab size
decoder = TimeDistributed(Dense(target_vocab_size))(decoder)
# convert to a proper distribution
predictions = Activation('softmax')(decoder)
return Model(input=input, output=predictions)
target_reverse_word_index = {v:k for k,v in target_tokenizer.word_index.items()}
def decode_outputs(predictions):
outputs = []
for probs in predictions:
preds = probs.argmax(axis=-1)
tokens = []
for idx in preds:
tokens.append(target_reverse_word_index.get(idx))
outputs.append(' '.join([t for t in tokens if t is not None]))
return outputs
def build_seq_vecs (sequences):
return np.array(sequences)
import math
def generate_batches(batch_size, one_hot=False):
# each epoch
n_batches = math.ceil(n_examples/batch_size)
while True:
sequences = pad_sequences(source_tokenizer.texts_to_sequences(en_texts), maxlen=max_input_length)
if one_hot:
X = build_one_hot_vecs(sequences)
else:
X = build_seq_vecs(sequences)
y = build_target_vecs()
# shuffle
idx = np.random.permutation(len(sequences))
X = X[idx]
y = y[idx]
for i in range(n_batches):
start = batch_size * i
end = start+batch_size
yield X[start:end], y[start:end]
n_epochs = 100
batch_size = 128
model = build_model(one_hot=False, bidirectional=False)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit_generator(generator=generate_batches(batch_size, one_hot=False), samples_per_epoch=n_examples, nb_epoch=n_epochs, verbose=1)
def translate(model, sentences, one_hot=False):
seqs = pad_sequences(source_tokenizer.texts_to_sequences(sentences), maxlen=max_input_length)
if one_hot:
input = build_one_hot_vecs(seqs)
else:
input = build_seq_vecs(seqs)
preds = model.predict(input, verbose=0)
return decode_outputs(preds)
print(en_texts[0])
print(de_texts[0])
print(translate(model, [en_texts[0]], one_hot=True))
# >>> ^ I took the bus back. $
# >>> ^ Ich nahm den Bus zurück. $
# >>> ^ ich ich die die verloren $
它似乎启动得很好,但是当它尝试移动到第二个纪元时,我收到此错误:
Epoch 2/100
Exception in thread Thread-1:
Traceback (most recent call last):
File "C:\Users\Tobias\AppData\Local\Programs\Python\Python35\lib\threading.py", line 914, in _bootstrap_inner
self.run()
File "C:\Users\Tobias\AppData\Local\Programs\Python\Python35\lib\threading.py", line 862, in run
self._target(*self._args, **self._kwargs)
File "C:\Users\Tobias\AppData\Local\Programs\Python\Python35\lib\site-packages\keras-1.2.2-py3.5.egg\keras\engine\training.py", line 429, in data_generator_task
generator_output = next(self._generator)
File "C:\Users\Tobias\Desktop\Augury\seq2seq2.py", line 168, in generate_batches
y = y[idx]
MemoryError
Traceback (most recent call last):
File "C:\Users\Tobias\AppData\Local\Programs\Python\Python35\lib\runpy.py", line 174, in _run_module_as_main
mod_name, mod_spec, code = _get_module_details(mod_name, _Error)
File "C:\Users\Tobias\AppData\Local\Programs\Python\Python35\lib\runpy.py", line 109, in _get_module_details
__import__(pkg_name)
File "C:\Users\Tobias\Desktop\Augury\seq2seq2.py", line 179, in <module>
model.fit_generator(generator=generate_batches(batch_size, one_hot=False), samples_per_epoch=n_examples, nb_epoch=n_epochs, verbose=1)
File "C:\Users\Tobias\AppData\Local\Programs\Python\Python35\lib\site-packages\keras-1.2.2-py3.5.egg\keras\engine\training.py", line 1532, in fit_generator
str(generator_output))
ValueError: output of generator should be a tuple (x, y, sample_weight) or (x, y). Found: None
有人对这里可能出现的问题有任何想法吗?
最佳答案
您可以使用以下方法测试您的生成器:
next(generate_batches(batch_size, one_hot=False))
如果在这种情况下有效,您应该查看内存消耗。因为您的 seq2seq2.py 抛出 MemoryError,这也可能是问题的根源。可能你的生成器返回 None,因为如果这样。
顺便说一句,在 Keras 中,您可以使用 LSTM Layerwrappers(双向),它可以完成您手动执行的操作。
关于python - 第一个纪元后 Keras/tensorflow 'ValueError: output of generator should be a tuple...' 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51786661/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!