- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想要做的是向我的 LSTM 模型输入一个数字列表,并让我的 LSTM 模型输出它自己的数字列表。我的项目是一个程序,它接受一个在线 MIDI 文件,将其转换为数字列表,从 LSTM 获取新的数字列表,将这些新数字更改为 MIDI,然后收听该文件。我遇到问题的地方是我从 LSTM 模型中获取新数字列表的地方。
这是我目前拥有的主要代码:
from midi_to_text import data_parse
from split_sequence import split_sequence
import py_midicsv as pm
import math
from numpy import asarray
from tensorflow.keras import Sequential
from tensorflow.keras.layers import *
import tensorflow as tf
raw_midi = pm.midi_to_csv('OnlineMidi.mid')
data = data_parse(raw_midi)
n_steps = 1
X, y = split_sequence(data, n_steps)
X = X.reshape((X.shape[0], X.shape[1], 1))
X = tf.cast(X, dtype='float32')
model = Sequential()
model.add(LSTM(256, activation='sigmoid', return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(128, activation='sigmoid', return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(128))
model.add(Dropout(0.2))
model.add(Dense(1, activation='linear'))
model.compile(optimizer='adam', loss='mse', metrics=['mae'])
model.fit(X, y, epochs=100, batch_size=32, verbose=2)
notes = [64]
song_length = 10
for i in range(song_length):
prediction = model.predict(asarray(notes).reshape((-1, 1, 1)))
prediction[0][0] = (prediction[0][0] * 384) - (prediction[0][0] * 13) + 13
# Turns float from 0 to 1 back into integer
notes.append(prediction[0][0])
print(notes)
这是我创建训练集和标签的函数:
from numpy import asarray
def split_sequence(data, n_steps):
new_data, expected_values = list(), list()
for i in range(len(data)):
if n_steps + i <= len(data) - 1:
new_data.append(data[i:n_steps + i])
expected_values.append(data[n_steps + i])
else:
break
for i in new_data:
i[0] = (i[0] - 13) / (384 - 13)
for i in range(len(expected_values)):
expected_values[i] = (expected_values[i] - 13) / (384 - 13)
# Turns values into float between 0 and 1
return asarray(new_data), asarray(expected_values)
这是 n_steps = 1 时的 x 训练数据:
[[64], [76], [64], [75], [64], [76], [64], [75], [64], [76], [64], [71], [64], [74], [64], [72], [69], [64], [45], [64], [52], [64], [57], [64], [60], [64]]
这是 n_steps = 1 时的标签:
[76, 64, 75, 64, 76, 64, 75, 64, 76, 64, 71, 64, 74, 64, 72, 69, 64, 45, 64, 52, 64, 57, 64, 60, 64, 64, 64, 69, 71, 64, 40, 64, 52, 64, 56, 64, 64, 64,]
这是我的数据:
[64, 76, 64, 75, 64, 76, 64, 75, 64, 76, 64, 71, 64, 74, 64, 72, 69, 64, 45, 64, 52, 64, 57, 64, 60, 64, 64, 64]
这是我的模型当前输出的内容,从种子 64 开始的 9 个预测列表:
[64, 62.63686, 62.636864, 62.636864, 62.636864, 62.636864, 62.636864, 62.636864, 62.636864, 62.636864, 62.636864]
我不明白的是,为什么这些预测都基本相同。当我在主代码的最后一个 for 循环中打印预测时,我得到一个列表的输出,其中包含 x 列表,其中 x 是输入数据的数量。以下是这些预测之一的示例:
[[62.500393]
[62.500393]
[62.500393]
[62.500393]
[62.500393]
[62.500393]
[62.500393]
[62.500393]
[62.500393]
[62.500393]]
这就是为什么在那个 for 循环中我只将列表中的第一个列表的值作为预测。
[64, 56.53626, 58.395187, 61.333992, 59.08212, 58.66997, 55.86058, 59.819744, 54.183216, 55.231224, 53.8824]
这是我的新代码,它与一个大的 for 循环相同:
from midi_to_text import data_parse
from split_sequence import split_sequence
import py_midicsv as pm
import math
from numpy import asarray
from tensorflow.keras import Sequential
from tensorflow.keras.layers import *
import tensorflow as tf
raw_midi = pm.midi_to_csv('OnlineMidi.mid')
data = data_parse(raw_midi)
n_steps = 1
X, y = split_sequence(data, n_steps)
print(X)
print(y)
X = X.reshape((X.shape[0], X.shape[1], 1))
X = tf.cast(X, dtype='float32')
notes = [64]
model = Sequential()
model.add(LSTM(256, activation='linear', return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(128, activation='linear', return_sequences=True))
model.add(LSTM(128))
model.add(Dropout(0.2))
model.add(Dense(1, activation='linear'))
model.compile(optimizer='adam', loss='mse', metrics=['mae'])
for i in range(10):
model.fit(X, y, epochs=5, batch_size=2, verbose=2)
prediction = model.predict(asarray(notes).reshape((-1, 1, 1)))
prediction[0][0] = (prediction[0][0] * 384) - (prediction[0][0] * 13) + 13
notes.append(prediction[0][0])
print(notes)
自定义 midi_to_text 数据解析器:
def data_parse(raw_midi):
temp = []
final = []
to_remove = []
shift_unit = 20
for i in range(len(raw_midi)):
temp.append(raw_midi[i].split(', '))
for i in range(len(temp)):
if temp[i][2] != 'Note_on_c':
to_remove.append(temp[i])
for i in to_remove:
temp.remove(i)
for i in temp:
i.remove(i[0])
i.remove(i[1])
i.remove(i[1])
i.remove(i[2])
for i in range(len(temp)):
if i == len(temp) - 1:
temp[i][0] = '64'
else:
temp[i][0] = str(int(temp[i + 1][0]) - int(temp[i][0]))
to_remove.clear()
for i in range(len(temp)):
if i == len(temp) - 1:
break
if temp[i + 1][0] == '0':
temp[i].append(temp[i + 1][1])
to_remove.append(temp[i + 1])
for i in to_remove:
temp.remove(i)
for i in temp:
for _ in i:
final.append(int(_))
return final
谢谢!!
最佳答案
我的结论是,尽管效率非常低,但只需将 model.fit 和 predict 放入 for 循环中即可预测 future 的 1 步或一次生成 1 条信息。这意味着是的,您确实必须多次拟合模型,将您之前生成的数据提供给它,但这是我可以牺牲的东西。这种方法确实有效,只是需要一些时间,并且是我找到的唯一主要解决方案。感谢所有回复的人,让我真正清楚所有步骤,希望这个问题可以帮助其他人!
关于python - TensorFlow LSTM 预测相同的值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66642948/
我正在使用 R 预测包拟合模型,如下所示: fit <- auto.arima(df) plot(forecast(fit,h=200)) 打印原始数据框和预测。当 df 相当大时,这
我正在尝试预测自有住房的中位数,这是一个行之有效的例子,给出了很好的结果。 https://heuristically.wordpress.com/2011/11/17/using-neural-ne
type="class"函数中的type="response"和predict有什么区别? 例如: predict(modelName, newdata=testData, type = "class
我有一个名为 Downloaded 的文件夹,其中包含经过训练的 CNN 模型必须对其进行预测的图像。 下面是导入图片的代码: import os images = [] for filename i
关于预测的快速问题。 我尝试预测的值是 0 或 1(它设置为数字,而不是因子),因此当我运行随机森林时: fit , data=trainData, ntree=50) 并预测: pred, data
使用 Python,我尝试使用历史销售数据来预测产品的 future 销售数量。我还试图预测各组产品的这些计数。 例如,我的专栏如下所示: Date Sales_count Department It
我是 R 新手,所以请帮助我了解问题所在。我试图预测一些数据,但预测函数返回的对象(这是奇怪的类(因子))包含低数据。测试集大小为 5886 obs。 160 个变量,当预测对象长度为 110 时..
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 6 年前。 Improve this qu
下面是我的神经网络代码,有 3 个输入和 1 个隐藏层和 1 个输出: #Data ds = SupervisedDataSet(3,1) myfile = open('my_file.csv','r
我正在开发一个 Web 应用程序,它具有全文搜索功能,可以正常运行。我想对此进行改进并向其添加预测/更正功能,这意味着如果用户输入错误或结果为 0,则会查询该输入的更正版本,而不是查询结果。基本上类似
我对时间序列还很陌生。 这是我正在处理的数据集: Date Price Location 0 2012-01-01 1771.0
我有许多可变长度的序列。对于这些,我想训练一个隐马尔可夫模型,稍后我想用它来预测(部分)序列的可能延续。到目前为止,我已经找到了两种使用 HMM 预测 future 的方法: 1) 幻觉延续并获得该延
我正在使用 TensorFlow 服务提供初始模型。我在 Azure Kubernetes 上这样做,所以不是通过更标准和有据可查的谷歌云。 无论如何,这一切都在起作用,但是我感到困惑的是预测作为浮点
我正在尝试使用 Amazon Forecast 进行一些测试。我现在尝试了两个不同的数据集,它们看起来像这样: 13,2013-03-31 19:25:00,93.10999 14,2013-03-3
使用 numpy ndarray大多数时候我们不需要担心内存布局的问题,因为结果并不依赖于它。 除非他们这样做。例如,考虑这种设置 3x2 矩阵对角线的稍微过度设计的方法 >>> a = np.zer
我想在同一个地 block 上用不同颜色绘制多个预测,但是,比例尺不对。我对任何其他方法持开放态度。 可重现的例子: require(forecast) # MAKING DATA data
我正在 R 中使用 GLMM,其中混合了连续变量和 calcategories 变量,并具有一些交互作用。我使用 MuMIn 中的 dredge 和 model.avg 函数来获取每个变量的效果估计。
我能够在 GUI 中成功导出分类器错误,但无法在命令行中执行此操作。有什么办法可以在命令行上完成此操作吗? 我使用的是 Weka 3.6.x。在这里,您可以右键单击模型,选择“可视化分类器错误”并从那
我想在同一个地 block 上用不同颜色绘制多个预测,但是,比例尺不对。我对任何其他方法持开放态度。 可重现的例子: require(forecast) # MAKING DATA data
我从 UCI 机器学习数据集库下载了一个巨大的文件。 (~300mb)。 有没有办法在将数据集加载到 R 内存之前预测加载数据集所需的内存? Google 搜索了很多,但我到处都能找到如何使用 R-p
我是一名优秀的程序员,十分优秀!