gpt4 book ai didi

python - 如何在 Airflow 的 S3KeySensor 中动态添加 bucket_key 值

转载 作者:太空宇宙 更新时间:2023-11-04 02:32:59 26 4
gpt4 key购买 nike

我正在尝试根据 dagrun 输入变量设置 S3KeySensor 的 bucket_key。我有一个 dag“dag_trigger”,它使用 TriggerDagRunOperator 为 dag“dag_triggered”触发 dagrun。我正在尝试扩展示例 https://github.com/apache/incubator-airflow/blob/master/airflow/example_dags/example_trigger_target_dag.py .

所以我想发送一个变量给触发的 dag,根据变量的值我想在 S3KeySensor 任务中设置 backet_key 值。我知道如何在 PythonOperator 可调用函数中使用发送变量,但我不知道如何在传感器对象上使用它。

dag_trigger dag:

import datetime

from airflow import DAG
from airflow.operators.dagrun_operator import TriggerDagRunOperator


default_args = {
'owner': 'airflow',
'start_date': datetime.datetime.now()}

dag = DAG('dag_trigger', default_args=default_args, schedule_interval="@hourly")

def task_1_run(context, dag_run_object):
sent_variable = '2018_02_19' # not important
dag_run_object.payload = {'message': sent_variable}
print "DAG dag_trigger triggered with payload: %s" % dag_run_object.payload)
return dag_run_object

task_1 = TriggerDagRunOperator(task_id="task_1",
trigger_dag_id="dag_triggered",
provide_context=True,
python_callable=task_1_run,
dag=dag)

和 dag_triggered dag:

import datetime

from airflow import DAG
from airflow.operators.python_operator import PythonOperator
from airflow.operators.sensors import S3KeySensor


default_args = {
'owner': 'airflow',
'start_date': datetime.datetime.now()
}

dag = DAG('dag_triggered', default_args=default_args, schedule_interval=None)

wait_files_to_arrive_task = S3KeySensor(
task_id='wait_file_to_arrive',
bucket_key='file_%s' % '', # Here I want to place conf['sent_variable']
wildcard_match=True,
bucket_name='test-bucket',
s3_conn_id='test_s3_conn',
timeout=18*60*60,
poke_interval=120,
dag=dag)

我尝试使用 dag.get_dagrun().conf['sent_variable'] 从 dag 对象中获取值,但我对如何设置 dagrun create_date 变量有疑问(dag_trigger 将每小时触发一次 dag_triggered,而 dag_triggered 可能会等待更长时间以获取文件).

我还尝试创建 PythonOperator,它将成为 wait_files_to_arrive_task 的上游。可调用的 python 函数可以获得有关 sent_variable 的信息。之后,我尝试为 bucket_key 设置值,如 bucket_key = callable_function() - 但我对参数有疑问。

而且我也认为全局变量不是很好的解决方案。

也许有人有可行的想法。

最佳答案

无法直接在 DAG 文件中获取 DAG run conf 中的值。如果没有 DAG 运行的上下文,这是无法确定的。一种思考方式是当您运行 python my_dag.py 来测试您的 DAG 文件是否编译时,它必须初始化所有这些运算符而无需指定执行日期。因此,任何可能因 DAG 运行而不同的内容都不能直接引用。

因此,您可以将其作为模板值传递,稍后在任务实际运行时使用上下文呈现。

wait_files_to_arrive_task = S3KeySensor(
task_id='wait_file_to_arrive',
bucket_key='file_{{ dag_run.conf["message"] }}',
...)

请注意,只有在运算符的 template_fields 中列出的参数才会被渲染。幸运的是有人预料到这一点 bucket_key确实是一个模板字段。

关于python - 如何在 Airflow 的 S3KeySensor 中动态添加 bucket_key 值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48691203/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com