- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
(python、机器学习和 TensorFlow 的完全新手)
我正在尝试调整 TensorFlow Linear Model Tutorial从他们的官方文档到 Abalone dataset在 ICU 机器学习库中有特色。目的是根据其他给定数据猜测鲍鱼的年轮(年龄)。
当运行下面的程序时,我得到以下信息:
File "/home/lawrence/tensorflow3.5/lib/python3.5/site-packages/tensorflow /python/ops/lookup_ops.py", line 220, in lookup
(self._key_dtype, keys.dtype))
TypeError: Signature mismatch. Keys must be dtype <dtype: 'string'>, got <dtype: 'int32'>.
错误在 lookup_ops.py 的第 220 行被抛出,并被记录为在以下情况下被抛出:
Raises:
TypeError: when `keys` or `default_value` doesn't match the table data types.
从调试 parse_csv()
看来,所有张量都是用正确的类型创建的。
您能解释一下哪里出了问题吗?我相信我正在遵循教程代码逻辑,但无法解决这个问题。
源代码:
import tensorflow as tf
import shutil
_CSV_COLUMNS = [
'sex', 'length', 'diameter', 'height', 'whole_weight',
'shucked_weight', 'viscera_weight', 'shell_weight', 'rings'
]
_CSV_COLUMN_DEFAULTS = [['M'], [0.0], [0.0], [0.0], [0.0], [0.0], [0.0], [0.0], [0]]
_NUM_EXAMPLES = {
'train': 3000,
'validation': 1177,
}
def build_model_columns():
"""Builds a set of wide feature columns."""
# Continuous columns
sex = tf.feature_column.categorical_column_with_hash_bucket('sex', hash_bucket_size=1000)
length = tf.feature_column.numeric_column('length', dtype=tf.float32)
diameter = tf.feature_column.numeric_column('diameter', dtype=tf.float32)
height = tf.feature_column.numeric_column('height', dtype=tf.float32)
whole_weight = tf.feature_column.numeric_column('whole_weight', dtype=tf.float32)
shucked_weight = tf.feature_column.numeric_column('shucked_weight', dtype=tf.float32)
viscera_weight = tf.feature_column.numeric_column('viscera_weight', dtype=tf.float32)
shell_weight = tf.feature_column.numeric_column('shell_weight', dtype=tf.float32)
base_columns = [sex, length, diameter, height, whole_weight,
shucked_weight, viscera_weight, shell_weight]
return base_columns
def build_estimator():
"""Build an estimator appropriate for the given model type."""
base_columns = build_model_columns()
return tf.estimator.LinearClassifier(
model_dir="~/models/albones/",
feature_columns=base_columns,
label_vocabulary=_CSV_COLUMNS)
def input_fn(data_file, num_epochs, shuffle, batch_size):
"""Generate an input function for the Estimator."""
assert tf.gfile.Exists(data_file), (
'%s not found. Please make sure you have either run data_download.py or '
'set both arguments --train_data and --test_data.' % data_file)
def parse_csv(value):
print('Parsing', data_file)
columns = tf.decode_csv(value, record_defaults=_CSV_COLUMN_DEFAULTS)
features = dict(zip(_CSV_COLUMNS, columns))
labels = features.pop('rings')
return features, labels
# Extract lines from input files using the Dataset API.
dataset = tf.data.TextLineDataset(data_file)
if shuffle:
dataset = dataset.shuffle(buffer_size=_NUM_EXAMPLES['train'])
dataset = dataset.map(parse_csv)
# We call repeat after shuffling, rather than before, to prevent separate
# epochs from blending together.
dataset = dataset.repeat(num_epochs)
dataset = dataset.batch(batch_size)
iterator = dataset.make_one_shot_iterator()
features, labels = iterator.get_next()
return features, labels
def main(unused_argv):
# Clean up the model directory if present
shutil.rmtree("/home/lawrence/models/albones/", ignore_errors=True)
model = build_estimator()
# Train and evaluate the model every `FLAGS.epochs_per_eval` epochs.
for n in range(40 // 2):
model.train(input_fn=lambda: input_fn(
"/home/lawrence/abalone.data", 2, True, 40))
results = model.evaluate(input_fn=lambda: input_fn(
"/home/lawrence/abalone.data", 1, False, 40))
# Display evaluation metrics
print('Results at epoch', (n + 1) * 2)
print('-' * 60)
for key in sorted(results):
print('%s: %s' % (key, results[key]))
if __name__ == '__main__':
tf.logging.set_verbosity(tf.logging.INFO)
tf.app.run(main=main)
这是来自 abalone.names 的数据集列的分类:
Name Data Type Meas. Description
---- --------- ----- -----------
Sex nominal M, F, [or] I (infant)
Length continuous mm Longest shell measurement
Diameter continuous mm perpendicular to length
Height continuous mm with meat in shell
Whole weight continuous grams whole abalone
Shucked weight continuous grams weight of meat
Viscera weight continuous grams gut weight (after bleeding)
Shell weight continuous grams after being dried
Rings integer +1.5 gives the age in years
数据集条目按此顺序显示为常用分隔值,新条目换行。
最佳答案
您几乎做对了所有事情。问题在于估算器的定义。
任务是预测 Rings
列,它是一个整数,所以它看起来像一个回归 问题。但是你决定做一个分类任务,这也是有效的:
def build_estimator():
"""Build an estimator appropriate for the given model type."""
base_columns = build_model_columns()
return tf.estimator.LinearClassifier(
model_dir="~/models/albones/",
feature_columns=base_columns,
label_vocabulary=_CSV_COLUMNS)
默认情况下,tf.estimator.LinearClassifier
假设二进制分类,即 n_classes=2
。在您的情况下,这显然不是真的 - 这是第一个错误。您还设置了 label_vocabulary
,tensorflow 将其解释为标签列中的一组可能值。这就是为什么它需要 tf.string
dtype。由于 Rings
是一个整数,您根本不需要 label_vocabulary
。
将它们组合在一起:
def build_estimator():
"""Build an estimator appropriate for the given model type."""
base_columns = build_model_columns()
return tf.estimator.LinearClassifier(
model_dir="~/models/albones/",
feature_columns=base_columns,
n_classes=30)
我建议你也试试 tf.estimator.LinearRegressor
,这可能会更准确。
关于python - TensorFlow - `keys` 或 `default_value` 与表数据类型不匹配,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48206320/
我有一台 MySQL 服务器和一台 PostgreSQL 服务器。 需要从多个表中复制或重新插入一组数据 MySQL 流式传输/同步到 PostgreSQL 表。 这种复制可以基于时间(Sync)或事
如果两个表的 id 彼此相等,我尝试从一个表中获取数据。这是我使用的代码: SELECT id_to , email_to , name_to , status_to
我有一个 Excel 工作表。顶行对应于列名称,而连续的行每行代表一个条目。 如何将此 Excel 工作表转换为 SQL 表? 我使用的是 SQL Server 2005。 最佳答案 这取决于您使用哪
我想合并两个 Django 模型并创建一个模型。让我们假设我有第一个表表 A,其中包含一些列和数据。 Table A -------------- col1 col2 col3 col
我有两个表:table1,table2,如下所示 table1: id name 1 tamil 2 english 3 maths 4 science table2: p
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 1 年前。 Improve th
下面两个语句有什么区别? newTable = orginalTable 或 newTable.data(originalTable) 我怀疑 .data() 方法具有性能优势,因为它在标准 AX 中
我有一个表,我没有在其中显式定义主键,它并不是真正需要的功能......但是一位同事建议我添加一个列作为唯一主键以随着数据库的增长提高性能...... 谁能解释一下这是如何提高性能的? 没有使用索引(
如何将表“产品”中的产品记录与其不同表“图像”中的图像相关联? 我正在对产品 ID 使用自动增量。 我觉得不可能进行关联,因为产品 ID 是自动递增的,因此在插入期间不可用! 如何插入新产品,获取产品
我有一个 sql 表,其中包含关键字和出现次数,如下所示(尽管出现次数并不重要): ____________ dog | 3 | ____________ rat | 7 | ____
是否可以使用目标表中的LAST_INSERT_ID更新源表? INSERT INTO `target` SELECT `a`, `b` FROM `source` 目标表有一个自动增量键id,我想将其
我正在重建一个搜索查询,因为它在“我看到的”中变得多余,我想知道什么 (albums_artists, artists) ( ) does in join? is it for boosting pe
以下是我使用 mysqldump 备份数据库的开关: /usr/bin/mysqldump -u **** --password=**** --single-transaction --databas
我试图获取 MySQL 表中的所有行并将它们放入 HTML 表中: Exam ID Status Assigned Examiner
如何查询名为 photos 的表中的所有记录,并知道当前用户使用单个查询将哪些结果照片添加为书签? 这是我的表格: -- -- Table structure for table `photos` -
我的网站都在 InnoDB 表上运行,目前为止运行良好。现在我想知道在我的网站上实时发生了什么,所以我将每个页面浏览量(页面、引荐来源网址、IP、主机名等)存储在 InnoDB 表中。每秒大约有 10
我在想我会为 mysql 准备两个表。一个用于存储登录信息,另一个用于存储送货地址。这是传统方式还是所有内容都存储在一张表中? 对于两个表...有没有办法自动将表 A 的列复制到表 B,以便我可以引用
我不是程序员,我从这个表格中阅读了很多关于如何解决我的问题的内容,但我的搜索效果不好 我有两张 table 表 1:成员 id*| name | surname -------------------
我知道如何在 ASP.NET 中显示真实表,例如 public ActionResult Index() { var s = db.StaffInfoDBSet.ToList(); r
我正在尝试运行以下查询: "insert into visits set source = 'http://google.com' and country = 'en' and ref = '1234
我是一名优秀的程序员,十分优秀!