Uma equipe de cientistas de dados está desenvolvendo um pipeline de ETL (Extract, Transform, Load) para processar grandes volumes de dados diariamente. Para isso, eles decidiram utilizar o Apache Airflow para orquestrar e monitorar o fluxo de trabalho, garantindo a execução das tarefas na ordem correta e com tolerância a falhas.
No Apache Airflow, os DAGs (Directed Acyclic Graphs) são a estrutura principal usada para definir os workflows. Dentro de uma DAG, as tarefas são organizadas e executadas de acordo com suas dependências.
Assinale a alternativa que melhor descreve o funcionamento de um DAG no Apache Airflow.
- A Uma DAG é um conjunto de tarefas organizadas de forma sequencial, onde todas as tarefas devem ser executadas uma após a outra, sem paralelismo.
- B Uma DAG é um modelo de machine learning embutido no Airflow, usado para treinar redes neurais automaticamente, sem a necessidade de definir tarefas manualmente.
- C Uma DAG no Apache Airflow é um script em SQL que permite a execução direta de consultas em bancos de dados sem necessidade de programação em Python, pois o Apache Airflow é uma ferramenta exclusiva para SQL.
- D Uma DAG representa um modelo probabilístico baseado em inteligência artificial, que ajusta, dinamicamente, a execução das tarefas conforme os dados são processados.
- E Uma DAG define um conjunto de tarefas interdependentes, organizadas de forma acíclica, permitindo que algumas tarefas sejam executadas em paralelo, conforme suas dependências são resolvidas.