- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试将 JSON 事件数据从 Google Cloud Storage 加载到 BigQuery,我想将所有内容都加载为字符串,然后再转换它们,因为对于某些消息,它们看起来像这样:
{"id":"123"}
{"id":234}
我写的schema.json是:
[
{
"name": "id",
"type": "STRING",
"mode": "NULLABLE"
}
]
然后我使用 bq cli 加载它:
LOC="--location US"
INPUT=sample.json
SCHEMA=schema.json
bq $LOC load \
--source_format=NEWLINE_DELIMITED_JSON \
--ignore_unknown_values \
--schema=$SCHEMA \
nov2020.test \
$INPUT
它会因为这个错误而失败:
Failure details:
- Error while reading data, error message: JSON processing encountered too many errors, giving up. Rows: 2; errors: 1; max bad: 0; errorpercent: 0
- Error while reading data, error message: JSON parsing error in row starting at position 13: Could not convert value to string. Field: id;Value: 234
我不想使用 --max_bad_records 跳过这些记录,我想通过不使用自动检测,我可以将所有内容都读取为字符串。
我每天要处理大约 80GB 的这些 JSON 文件,那么我该如何处理这个错误?我唯一的选择是在加载到 BigQuery 之前检查每条 JSON 消息并格式化 id 字段吗?
我找到了 another post saying to use a plug in for fluentd ,但我不确定这是否适用于此,因为我的数据不是使用 fluentd 创建的。
谢谢!
最佳答案
解决问题的最简单方法是用 Dataflow
作业替换加载。下面的代码基本上会读取存储桶中的文件,修复 json 记录,然后将修复的记录写入 BigQuery
。
import apache_beam as beam
from apache_beam.options.pipeline_options import PipelineOptions
from apache_beam.io.gcp.internal.clients import bigquery
import json
class FixJson(beam.DoFn):
def __init__(self):
beam.DoFn.__init__(self)
def process(self, element, *args, **kwargs):
row = str(element)
json_obj = json.loads(row)
json_obj["field"] = str(json_obj["field"])
return [json_obj]
table_spec = bigquery.TableReference(
projectId='<your-project>',
datasetId='<your-dataset>',
tableId='<your-table>')
p = beam.Pipeline(options=PipelineOptions())
p1 = p | "Read data from GCS" >> beam.io.ReadFromText('gs://<your-bucket>/*') \
| "Fix json" >> beam.ParDo(FixJson())\
| "Write to bq" >> beam.io.WriteToBigQuery(table_spec,
custom_gcs_temp_location = '<some-temporary-bucket>',
write_disposition=beam.io.BigQueryDisposition.WRITE_APPEND)
p.run()
让我们在某些部分打破这个管道并逐步完成它:
在管道的第一行,Dataflow 将以文本形式读取所提供存储桶中的所有文件。您应该更改此设置并放置正确的路径以匹配必须在给定日期插入 BigQuery 的数据。
“从GCS读取数据”>> beam.io.ReadFromText('gs:///*')
在第二步中,Dataflow 将在 ParDo 转换中使用 FixJson 函数来更改 json 的结构。您应该根据数据的复杂程度以及需要更改的程度来更改逻辑以满足您的需求。该函数的逻辑基本上是将字符串 json 记录加载为 json 对象,并将某些键的值转换为字符串。
class FixJson(beam.DoFn):
def __init__(self):
beam.DoFn.__init__(self)
def process(self, element, *args, **kwargs):
row = str(element)
json_obj = json.loads(row)
json_obj["field"] = str(json_obj["field"])
return [json_obj]
...
"Fix json" >> beam.ParDo(FixJson())\
最后,在最后一步中,我们将数据保存到 BigQuery
。要指定将保存数据的表,我们使用之前创建的 table_spec 变量,如您在代码中所见。
table_spec = bigquery.TableReference(
projectId='<your-project>',
datasetId='<your-dataset>',
tableId='<your-table>')
...
"Write to bq" >> beam.io.WriteToBigQuery(table_spec,
custom_gcs_temp_location = '<some-temporary-bucket>', write_disposition=beam.io.BigQueryDisposition.WRITE_APPEND, create_disposition=beam.io.BigQueryDisposition.CREATE_IF_NEEDED)
最后,我想发表两点意见:
此代码假定表已创建并具有正确的架构。
我用下面的示例数据测试了这段代码:
{"field" : 123}
{"field" : 23}
{"field" : 3}
{"field" : "9123"}
{"field" : "45"}
{"field" : "12"}
{"field" : 1}
{"field" : "13"}
关于json - BigQuery 加载 JSON 错误 "Could not convert value to string",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64985010/
最近开始学习MongoDB。今天老师教了我们 mongoexport 命令。在练习时,我遇到了一个典型的问题,包括教练在内的其他同学都没有遇到过。我在我的 Windows 10 机器上使用 Mongo
我是 JSON Schema 的新手,读过什么是 JSON Schema 等等。但我不知道如何将 JSON Schema 链接到 JSON 以针对该 JSON Schema 进行验证。谁能解释一下?
在 xml 中,我可以在另一个 xml 文件中包含一个文件并使用它。如果您的软件从 xml 获取配置文件但没有任何方法来分离配置,如 apache/ngnix(nginx.conf - site-av
我有一个 JSON 对象,其中包含一个本身是 JSON 对象的字符串。我如何反序列化它? 我希望能够做类似的事情: #[derive(Deserialize)] struct B { c: S
考虑以下 JSON { "a": "{\"b\": 12, \"c\": \"test\"}" } 我想定义一个泛型读取 Reads[Outer[T]]对于这种序列化的 Json import
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 11 个月前关闭。 Improve
我的旧项目在 MySQL 中有 Standard JSON 格式的数据。 对于我在 JS (Node.js) 和 DynamoDB 中的全新项目,关于 Standard JSON格式: 是否建议将其转
JSON 值字符串、数字、true、false、null 是否是有效的 JSON? 即,是 true 一个有效的 JSON 文档?还是必须是数组/对象? 一些验证器接受这个(例如 http://jso
我有一个 JSON 字符串,其中一个字段是文本字段。这个文本字段可以包含用户在 UI 中输入的文本,如果他们输入的文本是 JSON 文本,也许是为了说明一些编码,我需要对他们的文本进行编码,以便它不会
我正在通过 IBM MQ 调用处理数据,当由 ColdFusion 10 (10,0,11,285437) 序列化时,0 将作为 +0.0 返回,它会导致无效的 JSON并且无法反序列化。 stPol
我正在从三个数组中生成一个散列,然后尝试构建一个 json。我通过 json object has array 成功了。 require 'json' A = [['A1', 'A2', 'A3'],
我从 API 接收 JSON,响应可以是 30 种类型之一。每种类型都有一组唯一的字段,但所有响应都有一个字段 type 说明它是哪种类型。 我的方法是使用serde .我为每种响应类型创建一个结构并
我正在下载一个 JSON 文件,我已将其检查为带有“https://jsonlint.com”的有效 JSON 到文档目录。然后我打开文件并再次检查,结果显示为无效的 JSON。这怎么可能????这是
我正在尝试根据从 API 接收到的数据动态创建一个 JSON 对象。 收到的示例数据:将数据解码到下面给出的 CiItems 结构中 { "class_name": "test", "
我想从字符串转换为对象。 来自 {"key1": "{\n \"key2\": \"value2\",\n \"key3\": {\n \"key4\": \"value4\"\n }\n
目前我正在使用以下代码将嵌套的 json 转换为扁平化的 json: import ( "fmt" "github.com/nytlabs/gojsonexplode" ) func
我有一个使用来自第三方 API 的数据的应用程序。我需要将 json 解码为一个结构,这需要该结构具有“传入”json 字段的 json 标签。传出的 json 字段具有不同的命名约定,因此我需要不同
我想使用 JSON 架构来验证某些值。我有两个对象,称它们为 trackedItems 和 trackedItemGroups。 trackedItemGroups 是组名称和 trackedItem
考虑以下案例类模式, case class Y (a: String, b: String) case class X (dummy: String, b: Y) 字段b是可选的,我的一些数据集没有字
我正在存储 cat ~/path/to/file/blah | 的输出jq tojson 在一个变量中,稍后在带有 JSON 内容的 curl POST 中使用。它运作良好,但它删除了所有换行符。我知
我是一名优秀的程序员,十分优秀!