- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个 SQL Server 数据库,我正在其中以 parquet 格式迁移到 AWS S3 以构建数据湖。我正在使用 Apache Airflow 通过 DAGS 自动执行此任务。在这种情况下,模式上的每个表都变成了一个 .parquet 文件,这使 S3 成为一个数据湖,因此能够事后使用 AWS Athena 和/或在 ElasticSearch 中进一步编制索引。
有一些非常大的表,这些表的迁移任务显然我希望它花费更多的时间。对于python,我发现唯一与Microsoft SQL Server 连接的库是pyodbc,它是由Microsoft 官方开发和维护的。
对于如此大的表(大约 6000 万个寄存器),使用 cursor.fetchall()
花费的时间太长并导致错误,因为该任务似乎被 Airlfow 的 SIGNALKILL 杀死。
为了获取给定模式中的所有表,我使用了以下 SQL Server 查询:
SELECT TABLE_NAME
FROM INFORMATION_SCHEMA.TABLES
WHERE TABLE_TYPE = 'BASE TABLE' AND TABLE_CATALOG='{}';
在括号中,我使用 Python 中的 .format() 函数插入架构名称并检索用于动态构建 DAG 结构的表。我更改了我的 python 代码以批量获取如此大的表中的数据,以最大程度地减少任何潜在的数据溢出:
def stream(cursor, batch_size=50000):
while True:
row = cursor.fetchmany(batch_size)
if row is None or not row:
break
yield row
def fetch_data(query, schema, filename, remote_path, save_locally=False):
cnxn = pyodbc.connect(driver='Here I Put the ODBC Driver Name',
host='Host for de SQL Server DB',
database='Nameof the DB Schema',
user='User for Auth in the DB',
password='Pass for Auth in the DB')
print('Connetciton stabilished with {} ..'.format(schema))
cursor = cnxn.cursor()
print('Initializing cursor ...')
print('Requestin query {} ..'.format(query))
cursor.execute(query)
print('Query fetched for {} ..'.format(schema))
row_batch = stream(cursor)
print('Getting Iterator ...')
cols = cursor.description
cols = [col[0] for col in cols]
print('Creating batch data_frame ..')
data_frame = pd.DataFrame(columns=cols)
start_time = time.time()
for rows in row_batch:
batch_df = pd.DataFrame.from_records(rows, columns=cols)
data_frame = data_frame.append(batch_df, ignore_index=True)
batch_df = None
print("-- Batch inserted in %s seconds --" % (time.time() - start_time))
start_time = time.time()
cnxn.close()
print('Connetciton closed ..')
// other code to convert to .parquet and send to S3
save_to_bucket(data_frame, remote_path)
return 'FETCHING DATA'
该策略似乎对模式的整个表的 96% 都有效,正如我之前所说,当表非常大时,大约有 6000 万条记录,任务会运行一段时间,大约30 分钟,但通常在那之后,Airflow 会终止任务,就像那样。没有连接错误,既没有 python 异常也没有。调度程序终端中唯一显示的是:
[2021-04-17 23:03:59,719] {scheduler_job.py:1199} INFO - Executor reports execution of ORTOCLIN_TO_S3.FETCHING_HISTORICORESUMO_DATA execution_date=2021-04-17 20:00:17.426578+00:00 exited with status success for try_number 1
[2021-04-17 23:05:02,050] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:10:02,314] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:15:02,666] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:20:03,226] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:25:03,868] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:30:04,346] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:35:04,853] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
[2021-04-17 23:40:05,324] {scheduler_job.py:1834} INFO - Resetting orphaned tasks for active dag runs
有什么解决方法吗?请帮助我!
最佳答案
您可以在此处更改 3 项内容:
将其设置为较低的值或至少设置为 1 以使工作人员只专注于一项任务
将其设置为更高的值,例如 1200-3600 秒
归根结底这是资源问题。 DAG 消耗过多资源并被杀死,因此这是一个合乎逻辑的步骤。
此列表不完整,可能还有其他解决方案,我还不知道。
关于python - SIGKILL 耗时过长的 Airflow 终止任务,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67143973/
Task.WaitAll 方法等待所有任务,Task.WaitAny 方法等待一个任务。如何等待任意N个任务? 用例:下载搜索结果页面,每个结果都需要一个单独的任务来下载和处理。如果我使用 WaitA
我正在查看一些像这样的遗留 C# 代码: await Task.Run(() => { _logger.LogException(LogLevel.Error, mes
如何在 Linux 中运行 cron 任务? 关注此Q&A ,我有这个 cron 任务要运行 - 只是将一些信息写入 txt 文件, // /var/www/cron.php $myfile = fo
原谅我的新手问题,但我想按顺序执行三个任务并在剧本中使用两个角色: 任务 角色 任务 角色 任务 这是我到目前为止(任务,角色,任务): --- - name: Task Role Task ho
我有一个依赖于 installDist 的自定义任务 - 不仅用于执行,还依赖于 installDist 输出: project.task('run', type: JavaExec, depends
从使用 Wix 创建的 MSI 运行卸载时,我需要在尝试删除任何文件之前强行终止在后台运行的进程。主要应用程序由一个托盘图标组成,它反射(reflect)了 bg 进程监控本地 Windows 服务的
我想编写 Ant 任务来自动执行启动服务器的任务,然后使用我的应用程序的 URL 打开 Internet Explorer。 显然我必须执行 startServer先任务,然后 startApplic
使用 ASP.NET 4.5,我正在尝试使用新的 async/await 玩具。我有一个 IDataReader 实现类,它包装了一个特定于供应商的阅读器(如 SqlDatareader)。我有一个简
使用命令 gradle tasks可以得到一份所有可用任务的报告。有什么方法可以向此命令添加参数并按任务组过滤任务。 我想发出类似 gradle tasks group:Demo 的命令筛选所有任务并
除了sshexec,还有什么办法吗?任务要做到这一点?我知道您可以使用 scp 复制文件任务。但是,我需要执行其他操作,例如检查是否存在某些文件夹,然后将其删除。我想使用类似 condition 的东
假设我有字符串 - "D:\ApEx_Schema\Functions\new.sql@@\main\ONEVIEW_Integration\3" 我需要将以下内容提取到 diff 变量中 - 文档名
我需要编写一个 ant 任务来确定某个文件是否是只读的,如果是,则失败。我想避免使用自定义选择器来为我们的构建系统的性质做这件事。任何人都有任何想法如何去做?我正在使用 ant 1.8 + ant-c
这是一个相当普遍的计算机科学问题,并不特定于任何操作系统或框架。 因此,我对与在线程池上切换任务相关的开销感到有些困惑。在许多情况下,给每个作业分配自己的特定线程是没有意义的(我们不想创建太多硬件线程
我正在使用以下 Ansible playbook 一次性关闭远程 Ubuntu 主机列表: - hosts: my_hosts become: yes remote_user: my_user
如何更改 Ant 中的当前工作目录? Ant documentation没有 任务,在我看来,最好的做法是不要更改当前工作目录。 但让我们假设我们仍然想这样做——你会如何做到这一点?谢谢! 最佳答案
是否可以运行 cronjob每三天一次?或者也许每月 10 次。 最佳答案 每三天运行一次 - 或更短时间在月底运行一次。 (如果上个月有 31 天,它将连续运行 2 天。) 0 0 */3 * *
如何在 Gradle 任务中执行托管在存储库中的工具? 在我的具体情况下,我正在使用 Gradle 构建一个 Android 应用程序。我添加了一项任务,将一些 protobuf 数据从文本编码为二进
我的项目有下一个结构: Root |- A |- C (depends on A) \- B (depends on A) 对于所有子项目,我们使用自己的插件生成资源:https://githu
我设置了一个具有4个节点的Hadoop群集,其中一个充当HDFS的NameNode以及Yarn主节点。该节点也是最强大的。 现在,我分发了2个文本文件,一个在node01(名称节点)上,一个在node
在 TFS 2010 中为多个用户存储任务的最佳方式是什么?我只能为一项任务分配一个。 (例如:当我计划向所有开发人员演示时) (这是一个 Scrum Msf 敏捷项目,其中任务是用户故事的一部分)
我是一名优秀的程序员,十分优秀!