Продвинутый курс по работе с большими данными. Научитесь обрабатывать терабайты информации с помощью современных инструментов распределенных вычислений.
Что вы изучите:
Архитектура распределенных систем
Apache Spark и PySpark
Hadoop и MapReduce
Spark SQL и DataFrames
Streaming обработка данных
Cloud платформы: AWS, GCP, Azure
Программа курса:
Модуль 1: Введение в Big Data (20 часов)
Модуль 2: Hadoop экосистема (28 часов)
Модуль 3: Apache Spark Core (32 часа)
Модуль 4: PySpark для аналитиков (30 часов)
Модуль 5: Spark Streaming (24 часа)
Модуль 6: Cloud инфраструктура (26 часов)
Модуль 7: Продвинутые техники (30 часов)
Модуль 8: Финальные проекты (40 часов)
Результаты обучения:
Станете Big Data инженером
Создадите 12 проектов для портфолио
Получите сертификат эксперта Big Data
Научитесь строить data pipelines
Гарантированные собеседования в топовых компаниях
230 часов обучения
Сертификат Big Data эксперта
Карьерная поддержка
Мы используем файлы cookie для улучшения работы сайта, анализа трафика и персонализации контента. Продолжая использовать наш сайт, вы соглашаетесь с использованием cookie. Подробнее о политике конфиденциальности