Яндекс директ вакансии удаленно — работа на Турбо Удаленке
Директолог-маркетолог в сеть детских праздников удаленно2 марта • Консалтинговое агентство LARK_INNПриветствую, меня зовут Антон Ларкин, основатель консалтингового агентства LARK_INN. Сейчас наша компания специализируется на детских праздниках. В нашем управлении сеть из 20 городов (и с каждым месяцев становится все больше). Сейчас мы ищем в талантливого директолога с пониманием маркетинга, основ упаковки (докрутки сайтов), А/Б тестов и понимания как ежемесячно отливать по 1000 заявок для однотипных проектов в разных городах (детские праздники). Ищем специалиста в штат или маркетинговое агентство на подряд. Формат работы (аутсорс или штат) не имеет значения. Самое важное — результат. Мы выбрали путь нишевания. А это значит, что нужно найти 1 работающую связку в формате: сайт + директ и просто ее масштабировать, контролируя ключевые показатели и метрики каждый день: — лиды — стоимость лида — стоимость клиента — ROI Взять таких 10 проектов куда проще чем взять 2-3 из совершенно разных ниш.
45 000₽ — 120 000₽
Маркетинг, реклама, PRЯндекс.МетрикаЯндекс директПоисковая оптимизация
Удаленная работа
Специалист по контекстной рекламе \ младший специалист по контекстной рекламе удаленно7 января • КонтекстПрофитТребуется помощник для PPC-специалиста с последующим ростом до специалиста по контекстной рекламе (Яндекс Директ, Google Ads)
Премиум
20 000₽ — 40 000₽
Маркетинг, реклама, PR
Вакансия в архиве
ГрамотностьMicrosoft ExcelЯндекс.МетрикаGoogle AdWordsЯндекс директ
Удаленная работа
Специалист по контекстной рекламе Яндекс и Google удаленно14 октября • Proxy.MarketВ молодую IT-компанию требуется опытный специалист по контекстной рекламе. Необходимо вывести компанию на зарубежный рынок в Google Ads
30 000₽ — 150 000₽
Маркетинг, реклама, PR
Вакансия в архиве
ГрамотностьАнглийский языкРабота в командеGoogle AdWordsЯндекс директ
Удаленная работа
Трафик-менеджер удаленно29 августа • Nice StudioПриглашаем в команду человека, для работы по привлечению трафика на танцевальную онлайн-площадку через различные инструменты и рекламные площадки
Маркетинг, реклама, PR
Вакансия в архиве
Интернет маркетингКонтекстная рекламаКонтент маркетингЯндекс директ
Удаленная работа
SEO-специалист удаленно29 апреля • ИП Шишина Е. В.Ищем SEO-специалиста с опытом и успешными кейсами по продвижению.
Вакансия в архиве
HTMLGoogle AnalyticsGoogle AdWordsЯндекс директ
Удаленная работа
Директолог / Контекстолог удаленно28 апреля • TIMART SCHOOLМы прогрессивная школа 3D дизайна Timart School — ведущая онлайн-школа в области разработки 3D графики для компьютерных игр. Ищем опытного специалиста по контексту. С опытом работы в проектах по разработке игр.
15 000₽ — 75 000₽
Маркетинг, реклама, PR
Вакансия в архиве
Google AnalyticsЯндекс.МетрикаGoogle AdWordsЯндекс директ
Удаленная работа
Трафик-менеджер удаленно27 апреля • ООО «Сммартум»Мы помогаем предпринимателям запускать бизнес и масштабировать его. Сейчас нам нужен трафик-менеджер для настройки РК, чтобы как можно больше предпринимателей узнали о нас и спасли свой бизнес.
60 000₽ — 60 000₽
Маркетинг, реклама, PR
Вакансия в архиве
Таргетированная рекламаЯндекс.МетрикаЯндекс директ
Удаленная работа
Специалист по контекстной рекламе удаленно14 марта • Lisitsa-digitalИщем специалиста по контекстной рекламе в нашу команду, который будет выполнять дальнейшее развитие рекламных компаний
Премиум
Маркетинг, реклама, PR
Вакансия в архиве
Яндекс.МетрикаЯндекс директ
Удаленная работа
Удаленные вакансии разработчиков Яндекс.Метрики [2023]
Удаленные вакансии разработчиков Яндекс.Метрики [2023] — WeLoveNoCodeВ WeLoveNoCode мы ищем талантливых разработчиков Яндекс.Метрики для работы в ведущих компаниях Кремниевой долины. Если вы специализируетесь на разработке приложений с помощью Яндекс.Метрики, станьте удаленным разработчиком WeLoveNoCode, чтобы работать с лучшими умами в отрасли и быстро подниматься по служебной лестнице.
Лучшие вакансии без кода
Теперь без кода работают не только небольшие стартапы, но и крупнейшие компании мира, а теперь у вас есть возможность работать в Airbnb, Tinder и других.
Интересные проекты Яндекс.Метрики
Создавайте проекты и работайте с компаниями, которые делают мир лучше. Лучший способ карьерного роста.
Высокая и конкурентоспособная заработная плата
WeLoveNoCode предлагает вам только проекты с достойной и высокой зарплатой, при этом вы можете работать из любой точки мира.
Наши разработчики являются источником жизненной силы нашей платформы, поэтому узнайте, почему они любят ее, прочитав их отзывы.
Эртан Гурсес
Pedro Duarte
Thoko Miya
Hamza Irshad
Linda Groeneveld
Reece Braurer
У вас всегда будет работа
Мы увидим, когда ваш текущий yandex. выберите новый для вас. Таким образом, вы сможете работать 160 часов в месяц
Подать заявку на Яндекс. Метрику Вакансии сейчас
Расти в крупнейшем сообществе без кода
Общаться с другими разработчиками без кода, основателями инструментов без кода и расти вместе с ними
Подайте заявку на работу в Яндекс.Метрике сейчас
Улучшите свои навыки работы с Яндекс.Метрикой
Изучите более 100 часов видеоуроков, множество электронных книг и статей без кода. Пройдите тесты и получите сертификат от WeLoveNoCode
Подать заявку на Яндекс.Метрику Вакансии сейчас
Владеть Яндекс.Метрикой и хотя бы еще одним инструментом.
В идеале у вас должен быть пакет в виде полнофункционального инструмента без кода и инструмента без кода для интеграции.
Иметь возможность работать полный или неполный рабочий день
У нас есть задачи с разным объемом, но у нас много проектов, поэтому мы можем предоставить вам занятость до 160 ч/м
Обладать 500+ часов опыта работы с NoCode
К моменту начала работы с WeLoveNoCode у вас должно быть 500 часов опыта работы с различными инструментами NoCode.
Свободный английский
Вы должны уметь общаться с клиентами таким образом, чтобы не ощущался языковой барьер.
Будь готов учиться
Мы считаем, что необходимо постоянно расширять стены. Для этого у нас есть обучающие программы для некодеров.
Подать заявку на работу в Яндекс.Метрике сейчас
Создать учетную запись
Введите свое имя, адрес электронной почты, навыки, опыт и т. д. получение проектов
Получить интересные, долгосрочные и хорошо оплачиваемые проекты
Получайте достойную оплату
Начните получать стабильные выплаты каждый месяц
Подать заявку на работу в Яндекс.Метрике сейчас
Как мне стать разработчиком WeLoveNoCode?
Если вы умеете работать с различными инструментами без кода, вы можете стать разработчиком WeLoveNoCode всего за несколько кликов.
1) Создайте учетную запись на https://app.welovenocode.com/
2) Заполните свой профиль и расскажите нам о своих навыках и зарплатных ожиданиях
3) Пройдите тест на общие вопросы
4) Пройти тест на знание одного из инструментов без кода.
5) Начать получать проекты от наших клиентов и зарабатывать на этом деньги
Наш идеальный разработчик без кода знает как минимум два разных инструмента без кода и хорошо разбирается в дизайне. Больше всего нам нужны стеки Bubble, Webflow, Zapier, Tilda, Integromat, Airtable, Wix, WordPress, Adalo, Thunkable, AppGyver и другие.
Как выглядит структура оплаты WeLoveNoCode?
Выплаты производятся 10-го числа каждого месяца.
Для получения оплаты разработчику необходимо:
1) Использовать тайм-трекер Hubstaff;
2) Записывать отработанное время на платформе;
3) WeLoveNoCode использует систему начисления заработной платы DEEL.
Кто клиенты WeLoveNoCode?
Клиентами WeLoveNoCode являются не только крупные компании, но и перспективные стартапы, в том числе выпускники Y Combinator. Наши клиенты — компании, которые меняют мир и создают потрясающие продукты.
Как устроен рабочий процесс?
Процесс работы с WeLoveNoCode предельно прост и интуитивно понятен.
1) После регистрации на платформе пройти общий адаптационный тест. Это поможет вам определить, насколько вы готовы к работе с нашей платформой.
2) После этого вам будет доступно прохождение тестов на no-code инструменты.
3) После прохождения тестов вы получите доступ к проектам. У вас будет доступ только к проектам на инструментах без кода, для которых вы прошли тесты.
4) После записи на проект откроется чат с клиентом и вы сможете приступить к работе над проектом.
5) Вы будете получать оплату за свою работу раз в месяц.
Сколько времени требуется WeLoveNoCode для предоставления проекта?
Мы используем комбинацию автоматизации и ручного управления, чтобы предоставить вам наиболее подходящий проект как можно скорее. Обычно процесс подбора вас к клиенту занимает около недели. В некоторых случаях больше, но очень редко.
Каких некодеров нанимает WeLoveNoCode?
Мы в WeLoveNoCode нанимаем специалистов, не занимающихся кодированием, для более чем 284 инструментов, таких как Bubble, Webflow, Adalo, WordPress, Glide, AppGyver, Wappler, Tilda, Wix и т. д.
Какой уровень английского необходим для устройства на работу?
Коммуникация важна для успеха в работе с клиентами. Мы отдаем предпочтение кандидатам с уровнем владения английским языком B1, т.е. тем, кто обладает необходимой беглостью, чтобы без труда общаться с нашими клиентами и носителями языка.
Должны ли некодеры платить за услуги WeLoveNoCode?
Нет, услуга абсолютно бесплатна для не-кодеров, которые зарегистрируются.
Только для получения платежа в DEEL комиссия составляет около 30 долларов США.
Обучает ли WeLoveNoCode не-кодеров?
Да, если вы хотите научиться NoCode-разработке, вы можете пройти наши курсы в WeLoveNoCode Academy
Подать заявку на работу в Яндекс.Метрике сейчас
airflow.providers.yandex.operators.yandexcloud_dataproc — apache-airflow-providers-yandex Documentation
- Дом
-
airflow.providers.yandex
-
airflow. провайдеры.яндекс.операторы
-
airflow.providers.yandex.operators.yandexcloud_dataproc
Классы
| Данные для действия инициализации, которое должно выполняться при запуске кластера DataProc. |
| Создает кластер Yandex.Cloud Data Proc. |
| Базовый класс для операторов DataProc, работающих с данным кластером. |
| Удаляет кластер Yandex.Cloud Data Proc. |
| Запускает задание Hive в кластере Data Proc. |
| Запускает задание Mapreduce в кластере Data Proc. |
| Запускает задание Spark в кластере Data Proc. |
| Запускает задание Pyspark в кластере Data Proc. |
- класс airflow.providers.yandex.operators.yandexcloud_dataproc.InitializationAction[источник]
Данные для действия инициализации, которое должно выполняться при запуске кластера DataProc.
- uri : стр [источник]
- аргументы : Последовательность [str] [источник]
- таймаут : int [источник]
- класс airflow.providers.yandex.operators. yandexcloud_dataproc.DataprocCreateClusterOperator( * , folder_id = none , cluster_name = none , cluster_description = » , Cluster_image_version = None , SSH_PUBLIC_KEYS = NONE , , , , SSH_PUBLIC_KEYS = , . YARN», «MAPREDUCE», «HIVE», «SPARK» Нет , masternode_disk_type = Нет , datanode_resource_preset=None , datanode_disk_size=None , datanode_disk_type=None , datanode_count=1 , computenode_resource_preset=None , computenode_disk_size=None , computenode_disk_type=None , computenode_count=0 , Computenode_max_hosts_count = Нет , Computenode_measurement_duration = Нет , Computenode_warmup_duration = Нет , Computenode_stabilization_duration = Нет , computenode_preemptible=False , computenode_cpu_utilization_target=None , computenode_decommission_timeout=None , connection_id=None , properties=None , enable_ui_proxy=False , host_group_ids=None , security_group_ids=None , log_group_id=Нет , initialization_actions=Нет , **kwargs )[источник]
Основания:
airflow. models.BaseOperator
Создает кластер Yandex.Cloud Data Proc.
- Параметры
folder_id ( str | None ) — ID папки, в которой должен быть создан кластер.
имя_кластера ( str |
кластер_описание ( стр | Нет ) – Описание кластера.
cluster_image_version ( str | None ) — версия образа кластера. Использовать по умолчанию.
ssh_public_keys ( str | Iterable [ str ] | None ) – List of SSH public keys that will be deployed to created compute instances.
subnet_id ( str | None ) – идентификатор подсети. Все узлы кластера Data Proc будут использовать одну подсеть.
services ( Iterable [ str ] ) — список служб, которые будут установлены в кластер. Возможные варианты: HDFS, ПРЯЖА, MAPREDUCE, HIVE, TEZ, ZOOKEEPER, HBASE, SQOOP, FLUME, SPARK, SPARK, ZEPPELIN, OOZIE
s3_bucket ( str | None ) — корзина Yandex.Cloud S3 для хранения логов кластера. Задания не будут работать, если ведро не указано.
zone ( str ) — Зона доступности для создания кластера. В настоящее время существуют ru-central1-a, ru-central1-b и ru-central1-c.
service_account_id ( str | None ) — идентификатор учетной записи службы для кластера. Учетная запись службы может быть создана внутри папки.
masternode_resource_preset ( str | Нет ) — Предустановка ресурсов (конфигурация CPU+RAM) для основного узла кластера.
masternode_disk_size ( int | None ) — размер хранилища Мастерноды в ГиБ.
masternode_disk_type ( str | None ) — Тип хранилища Мастерноды. Возможные варианты: сеть-ssd, сеть-hdd.
datanode_resource_preset ( str | Нет ) — Предустановка ресурсов (конфигурация CPU+RAM) для узлов данных кластера.
datanode_disk_size ( int | None ) — размер хранилища Datanodes в ГиБ.
datanode_disk_type ( str | Нет ) — Тип хранилища Datanodes. Возможные варианты: сеть-ssd, сеть-hdd.
Computenode_resource_preset ( str | Нет ) — Предустановка ресурсов (конфигурация CPU+RAM) для вычислительных узлов кластера.
Computenode_disk_size ( int | None ) — размер хранилища вычислительных узлов в ГиБ.
Computenode_disk_type ( str | None ) — тип хранилища вычислительных узлов. Возможные варианты: сеть-ssd, сеть-hdd.
connection_id ( str | None ) — идентификатор подключения Яндекс.Облака Airflow.
Computenode_max_count — максимальное количество узлов подкластера автоматического масштабирования вычислений.
Computenode_warmup_duration ( int | None ) — время прогрева экземпляра в секундах. В течение этого времени, трафик отправляется на инстанс, но метрики экземпляра не собираются. В секундах.
Computenode_стабилизация_продолжительность ( int | Нет ) — Минимальное количество времени в секундах для мониторинга до Группы экземпляров могут уменьшить количество экземпляров в группе. За это время размер группы не уменьшается, даже если новые значения метрик указывают на то, что это необходимо. В секундах.
Computenode_preemptible ( bool ) — Выгружаемые экземпляры останавливаются не реже одного раза в 24 часа, и могут быть остановлены в любое время, если их ресурсы потребуются вычислительным ресурсам.
Computenode_cpu_utilization_target ( int | None ) — определяет правило автомасштабирования на основе средней загрузки ЦП группы экземпляров. в процентах. 10-100. По умолчанию не задано и используется стратегия автомасштабирования по умолчанию.
Computenode_decommission_timeout ( int | Нет ) — тайм-аут для корректного вывода узлов из эксплуатации во время уменьшения масштаба. В секундах
свойства ( dict [ str , str ] | Свойства переданы основному узлу. Документы: https://cloud.yandex.com/docs/data-proc/concepts/settings-list
enable_ui_proxy ( bool ) — включить функцию UI Proxy для перенаправления веб-интерфейсов компонентов Hadoop. Документы: https://cloud.yandex.com/docs/data-proc/concepts/ui-proxy
host_group_ids ( Iterable [ str ] | None ) — выделенные группы хостов для размещения виртуальных машин кластера. Документы: https://cloud.yandex.com/docs/compute/concepts/dedicated-host
security_group_ids ( Iterable [ str ] | None ) — группы безопасности пользователей. Документы: https://cloud.yandex.com/docs/data-proc/concepts/network#security-groups
log_group_id ( str | None ) — идентификатор группы журналов для записи журналов. По умолчанию журналы будут отправлены в группу журналов по умолчанию. Чтобы отключить отправку облачного журнала, установите свойство кластера dataproc:disable_cloud_logging = true Документы: https://cloud.yandex.com/docs/data-proc/concepts/logs
initialization_actions ( Iterable [ InitializationAction ] | Нет ) — набор инициализирующих действий, выполняемых при запуске кластера. Документы: https://cloud.yandex.com/docs/data-proc/concepts/init-action
- свойство cluster_id[источник]
- выполнить ( контекст ) [источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.
Дополнительные сведения см. в get_template_context.
- class airflow. providers.yandex.operators.yandexcloud_dataproc.DataprocBaseOperator( * , yandex_conn_id=Нет , cluster_id=Нет , **kwargs )2 904 источник
Основания:
airflow.models.BaseOperator
Базовый класс для операторов DataProc, работающих с данным кластером.
- Параметры
- template_fields : Последовательность [str] = (‘cluster_id’,) [источник]
- абстрактный выполнить ( контекст ) [источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.
Дополнительные сведения см. в get_template_context.
- класс airflow.providers.yandex.operators.yandexcloud_dataproc.DataprocDeleteClusterOperator( * , connection_id=Нет , cluster_id=Нет , **kwargs )[источник]
Базы:
DataprocBaseOperator
Удаляет кластер Yandex. Cloud Data Proc.
- Параметры
- выполнить ( контекст ) [источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.
Дополнительные сведения см. в get_template_context.
- class airflow.providers.yandex.operators.yandexcloud_dataproc.DataprocCreateHiveJobOperator( * , query=None , query_file_uri=None , script_variables=None , continue_on_failure=False , properties=None , name=’Hive job’ , cluster_id=None , connection_id=None , **kwargs )[источник]
Оснований:
DataprocBaseOperator
Запускает задание Hive в кластере Data Proc.
- Параметры
запрос ( str | Нет ) — запрос Hive.
query_file_uri ( str | None ) — URI скрипта, содержащего запросы Hive. Можно разместить в HDFS или S3.
свойства ( дикт [ стр , стр ] | Нет ) — сопоставление имен свойств со значениями, используемое для настройки Hive.
Script_Variables ( DICT [ STR , STR ] | ).
continue_on_failure ( bool ) — продолжать ли выполнение запросов в случае сбоя запроса.
имя ( стр ) – Название работы. Используется для маркировки.
cluster_id ( str | None ) — идентификатор кластера, в котором выполняется задание. Попытается получить идентификатор из объекта Dataproc Hook, если он указан. (шаблон)
connection_id ( str | None ) — идентификатор подключения Яндекс.Облака Airflow.
- выполнить ( контекст ) [источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.
Дополнительные сведения см. в get_template_context.
- class airflow.providers.yandex.operators.yandexcloud_dataproc.DataprocCreateMapReduceJobOperator( * , main_class=None , main_jar_file_uri = none , jar_file_uris = none , archive_uris = none , file_uris = none , args = none , Properties = None , 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 9029, 902, 9029, 9029, 9029, 9029, 9029, 9029, , , . , connection_id=None , **kwargs )[источник]
Базы:
DataprocBaseOperator
Запускает задание Mapreduce в кластере Data Proc.
- Параметры
main_jar_file_uri ( str | None ) — URI файла jar с заданием. Можно разместить в HDFS или S3. Можно указать вместо main_class.
main_class ( str | None ) — Имя основного класса задания. Можно указать вместо main_jar_file_uri.
file_uris ( Iterable [ ул ] | Нет ) — URI файлов, используемых в задании. Можно разместить в HDFS или S3.
archive_uris ( Iterable [ str ] | None ) — URI архивных файлов, используемых в задании. Можно разместить в HDFS или S3.
jar_file_uris ( Iterable [ str ] | None ) — URI файлов JAR, используемых в задании. Можно разместить в HDFS или S3.
свойства ( dict [ str , str ] | Свойства для работы.
args ( Iterable [ str ] | None ) — аргументы для передачи в задание.
имя ( стр ) – Название работы. Используется для маркировки.
cluster_id ( str | None ) — идентификатор кластера, в котором выполняется задание. Попытается получить идентификатор из объекта Dataproc Hook, если он указан. (шаблон)
connection_id ( str | None ) — идентификатор подключения Яндекс. Облака Airflow.
- выполнить ( контекст ) [источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.
Дополнительные сведения см. в get_template_context.
- class airflow.providers.yandex.operators.yandexcloud_dataproc.DataprocCreateSparkJobOperator( * , main_class=None , main_jar_file_uri=None , jar_file_uris=None , archive_uris=None , file_uris=None , args=None , properties=None , name=’Spark job’ , cluster_id=Нет , connection_id=Нет , пакеты=Нет , репозитории=Нет , exclude_packages=Нет , **kwargs )[источник]
Базы:
DataprocBaseOperator
Запускает задание Spark в кластере Data Proc.
- Параметры
main_jar_file_uri ( str | None ) — URI файла jar с заданием. Можно разместить в HDFS или S3.
main_class ( str | None ) — Имя основного класса задания.
file_uris ( Iterable [ str ] | None ) — URI файлов, используемых в задании. Можно разместить в HDFS или S3.
archive_uris ( Iterable [ str ] | Нет ) — URI архивных файлов, используемых в задании. Можно разместить в HDFS или S3.
jar_file_uris ( Iterable [ str ] | None ) — URI файлов JAR, используемых в задании. Можно разместить в HDFS или S3.
свойства ( dict [ str , str ] | Нет0293 ) — Свойства для задания.
args ( Iterable [ str ] | None ) — аргументы для передачи в задание.
имя ( стр ) – Название работы. Используется для маркировки.
cluster_id ( str | None ) — идентификатор кластера, в котором выполняется задание. Попытается получить идентификатор из объекта Dataproc Hook, если он указан. (шаблон)
connection_id ( str | None ) — идентификатор подключения Яндекс.Облака Airflow.
пакетов ( Iterable [ str ] | None ) — Список maven-координат классов jar для включения в драйвер и исполнитель.
репозиторий ( Iterable [ стр ] | Нет ) — Список дополнительных удаленных репозиториев для поиска координат maven дается с —packages.
exclude_packages ( Iterable [ str ] | None ) — Список groupId:artifactId, чтобы исключить зависимости при разрешении зависимостей предоставляется в –packages, чтобы избежать конфликтов зависимостей.
- выполнить( контекст )[источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.
Дополнительные сведения см. в get_template_context.
- class airflow.providers.yandex.operators.yandexcloud_dataproc.DataprocCreatePysparkJobOperator( * , main_python_file_uri=Нет , python_file_uris=Нет , jar_file_uris = none , archive_uris = none , file_uris = none , args = none , свойства = none , name = ‘pyspark job job , , , , , , , , , . Нет , пакетов=Нет , репозиториев=Нет , exclude_packages=Нет , **kwargs )[источник]
Базы:
DataprocBaseOperator
Запускает задание Pyspark в кластере Data Proc.
- Параметры
main_python_file_uri ( str | None ) — URI файла Python с заданием. Можно разместить в HDFS или S3.
python_file_uris ( Iterable [ str ] | None ) — URI файлов python, используемых в задании. Можно разместить в HDFS или S3.
file_uris ( Итерируемый [ стр ] | Нет ) — URI файлов, используемых в задании. Можно разместить в HDFS или S3.
archive_uris ( Iterable [ str ] | None ) — URI архивных файлов, используемых в задании. Можно разместить в HDFS или S3.
jar_file_uris ( Итерируемый [ стр ] | Нет ) — URI файлов JAR, используемых в задании. Можно разместить в HDFS или S3.
свойства ( dict [ str , str ] | Свойства для работы.
args ( Iterable [ str ] | None ) — аргументы для передачи в задание.
имя ( стр ) – Название работы. Используется для маркировки.
cluster_id ( str | None ) — идентификатор кластера, в котором выполняется задание. Попытается получить идентификатор из объекта Dataproc Hook, если он указан. (шаблон)
connection_id ( str | None ) — идентификатор подключения Яндекс. Облака Airflow.
пакетов ( Iterable [ str ] | None ) — список maven-координат банок для включения в пути к классам драйвера и исполнителя.
repositories ( Iterable [ str ] | None ) — Список дополнительных удаленных репозиториев для поиска maven дается с —packages.
exclude_packages ( Iterable [ str ] | None ) — Список groupId:artifactId, чтобы исключить зависимости при разрешении зависимостей предоставляется в –packages, чтобы избежать конфликтов зависимостей.
- выполнить ( контекст ) [источник]
Это основной метод получения при создании оператора. Контекст — это тот же словарь, который используется при рендеринге шаблонов jinja.