- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我需要开发一个 ETL 脚本(在另一个脚本之后运行)从一个数据库 (DB1) 读取行并将它们复制到另一个数据库 (DB2)。
问题是从 DB1 中选择行的查询与 DB2 中的行连接,像这样:
SELECT db2.tableA.columnA, db1.tableA.columnA
FROM db2.tableA
LEFT OUTER JOIN db1.tableA
ON db1.tableA.columnB = db2.tableA.columnB
我在解决这个问题时遇到了麻烦,因为查询标签收到一个连接 ID
谢谢!
最佳答案
我很难判断特定连接的业务意义,但我相信从实现的角度来看,最简单的方法是在 db2 中创建一个临时表,它是 db1.tableA 的副本。示例:
<connection id="db1" ....>
<connection id="db2" ....>
<script connection-id="db2">
CREATE TABLE tableAFromDb1 (
....
);
</script>
<query connection-id="db1">
<!-- Copy all rows from db1 to db2 -->
SELECT columnA, columnB FROM db1.tableA
<script connection-id="db2">
INSERT INTO db2.tableAFromDb1 (columnA, columnB) VALUES (?1, ?2);
<script>
</query>
<!-- Produce the outer join if necessary or directly manipulate the tableAFromDb1 dataset -- >
<query connection-id="db2">
SELECT columnA, columnA
FROM tableA LEFT OUTER JOIN
tableAFromDb1 ON tableAFromDb1.columnB = tableA.columnB
<script>
TODO Insert the result somewhere
</script>
</query>
关于database - Scriptella - 使用输出中的行填充新表的数据库到数据库 ETL 脚本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21242415/
我正在编写一个 ETL(在带有 mongodb 后端的 python 中)并且想知道:应该将 ETL 什么样的标准函数和工具称为 ETL? 此 ETL 将尽可能通用,采用可编写脚本和模块化的方法。大多
我正在构建一个从 informatica cdc 获取数据的暂存区。现在,例如,假设我正在复制两个表以进行增量加载。每次加载后,我必须从暂存表中删除已处理的数据。我连接这两个表来填充我的目标维度。问题
我们目前使用 Datastage ETL 来 - 每天从 15 个表(3 个不同的架构)导出一个 CSV/文本文件,其中包含数据。 我想知道是否有一种更简单的方法可以在不使用 ETL 的情况下完成此操
我有两个 CSV 文件: 首先包含以下格式的 ~ 500M 记录 id,name 10000023432,Tom User 13943423235,Blah Person 第二个包含 ~ 1.5B 以
在这篇文章中,我不是在问任何教程,如何做某事,在这篇文章中,我请求您的帮助,如果有人可以用简单的话解释我,什么是 DWH(数据仓库)以及什么是 ETL。 当然,我在 google 和 youtube
在这篇文章中,我不是在问任何教程,如何做某事,在这篇文章中,我请求您的帮助,如果有人可以用简单的话解释我,什么是 DWH(数据仓库)以及什么是 ETL。 当然,我在 google 和 youtube
我有多个日志文件 1.csv、2.csv 和 3.csv 由日志报告生成。我想读取这些文件并使用 Scriptella 同时解析它们。 最佳答案 Scriptella 不提供开箱即用的并行作业执行。相
我正在构建一个 ETL,它将通过一个变量在不同的源上运行。 我如何执行我的工作(rake 任务) Kiba.run(Kiba.parse(IO.read(etl_file),etl_file)) 并为
我有 3 个表,一个用于顶点 A,一个用于顶点 B,第三个用于从 B 到 A 的边。如何将此图导入 OrientDB? 目前,教程只说如何导入两个csv文件,一个用于顶点A,另一个用于顶点B和从A连接
将 Apache NIFI 用于 ETL 过程的效果如何,源为 HDFS,目标为 Oracle DB。 Apache NIFI 与 Pentaho、Datastage 等其他 ETL 工具相比有哪些局
我最近才开始使用 Rhino-Etl对于非常简单的 ETL 过程,并取得了巨大的成功。我现在有一个稍微复杂的场景要解决,但我没有发现 ConventionInputCommandOperation 以
我正忙于处理 ETL 管道,但对于这个特定问题,我需要获取一个数据表,并将每一列变成一个集合 - 即一个唯一数组。 我正在努力思考如何在 Kiba 框架内实现这一目标。 这是我要实现的目标的本质: 来
我读过 Presto 用于临时查询,而 Hive/spark 更适用于 ETL 场景。在 ETL 中不使用 Presto 的原因似乎是因为 Presto 查询可能会失败并且没有中间查询容错。 然而,看
我有 2 个 csv 文件。 人.csv ID,PetID,Jumps 1,101,Yes 2,102,No 3,103,Yes 宠物.csv ID,Name 101,Dog 102,Cat 103,
我正在寻找 ETL 工具,在谷歌上发现了很多关于 Pentaho Kettle 的信息。 我还需要一个数据分析器在 Star Schema 上运行,以便业务用户可以玩转并生成任何类型的报告或矩阵。 P
我目前正在评估 Talend ETL(用于数据集成的 Talend Open Studio)。 我想知道如何/是否可以将 ETL 作业公开为 Web 服务。 我知道我可以将作业导出为 Web 服务并通
我是 Actor 建模领域的新手,我爱上了这个想法。但是,是否存在某种模式来以安全的方式处理一批仅用于大容量存储的消息? 恐怕如果我阅读了预期 500 条的 400 条消息并将它们放入列表中,如果系统
我在 Heroku 服务器上收到此错误,但它在本地完全正常工作。 这是从表单获取 CSV 文件并尝试存储在资源文件夹中的 Controller 。 @PostMapping(value = "/imp
我们正在重组我们的整个数据库。也就是说,数据库结构发生了翻天覆地的变化。一些表字段将被转换为表行;会有很多验证;一些表被分解成多个表,而另一些则合并在一起。基本上我们正在将遗留数据库更改为 3NF。
我正在尝试创建一个可以通过 HTTP 下载多个文件的作业。这些文件的列表位于 MySQL 表中。我通过以下步骤创建了一个主要作业:开始、设置变量、FILELIST(我创建的转换)、下载(我创建的作业)
我是一名优秀的程序员,十分优秀!