Apache Kafka для инженеров данных
5ти-дневный курс для специалистов, желающих получить и систематизировать знания по использованию Apache Kafka для программирования распределенной обработки потоков событий (Event Stream Processing) на практических примерах с потоковыми данными в реальном времени.
Курс содержит расширенные сведения по написанию программ работы с распределенным журналом Kafka, использованию его в парадигмах Pub/Sub и Message Queue и обработки потоковых данных с соблюдением best practices.
Код курса | Даты начала курса | Стоимость обучения | Длительность обучения | Формат обучения |
---|---|---|---|---|
DEVKI | 25 июня 2025 01 сентября 2025 |
72 000 руб. | 24 ак.часов Количество дней: 5 |
Дистанционный |
Регистрация |

О продукте
Producer и Consumer API — базис для работы с Apache Kafka, единственный способ записать информацию в Kafka и считать ее из Kafka. Знакомясь с этими API, вы узнаете, как работают механизмы сериализации и десериализации данных в Apache Kafka.
Streams API — построение потоковых приложений, читающих данные из топиков Kafka, обрабатывающих их в реальном масштабе времени и записывающих результаты обработки обратно в Kafka. Вы познакомитесь с наиболее важными трансформациями Stream DSL, особенностями использования Processor API.
Kafka Connect — платформа масштабируемого и надежного перемещения большого объема потоковых данных между Kafka и другими системами. Kafka Connect предлагает API, Runtime и REST Service, что позволяет разработчикам создавать собственные коннекторы, которые перемещают большие объемы данных в Apache Kafka и из него в режиме реального времени.
На практике вы напишете несколько собственных приложений, включая свой Producer и Consumer, приложение Kafka Streams, коннекторы Source и Sink. Во время прикладной работы вы опробуете все API, о которых шла речь в теоретической части. Благодаря подробным объяснениям и комментариям, вы поймете, как работает этот инструмент, и каким образом использовать предоставляемые Apache Kafka API для решения ваших бизнес-задач, а также сможете выступать как архитектор EDA-решения.
Аудитория
Практический курс по кафке и интеграции ее с другими системами ориентирован на программистов, разработчиков Big Data и специалистов, которые хотят:
- изучить базовые методы программного взаимодействия с Kafka (Producer и Consumer API)
- научиться использовать Kafka Streams API (как низкоуровневое Processor API, так и декларативный Stream DSL);
- понять методы интеграции Apache Kafka с внешними системами, как самописными, так и проприетарными
- узнать практические примеры интеграции
- освоить лучшие практики (best practices) по реализации процессов автоматического обмена данными между Apache Kafka и внешними системами
О курсе
В теоретической части вы узнаете о наиболее важных API, архитектуре Kafka и внутренних принципах работы основных API Apache Kafka (Producer API, Consumer API, Streams API, Connect API), а также об особенностях реализации Apache Kafka и некоторых интересных концепциях, таких как exactly once semantics, компактируемых логах, Kafka DSL и др.
Курс построен так, чтобы за 24 часа получить глубокое понимание и навыки работы с самой популярной платформой потоковой передачи событий, включая ее архитектуру, возможности и ограничения. Для этого придется выполнять задания, решая задачи проектирования и эксплуатации потоковых конвейеров, включая выполнение операций devops.
Уровень подготовки
- Начальный опыт работы в Unix
- Начальный опыт программирования на Java
- Опыт работы с Hadoop Distributed File System (желательно)
Программа курса «Apache Kafka для инженеров данных»
1. Основные концепции и архитектура Apache Kafka
-
- Архитектура и история возникновения Kafka
- Основные абстракции и понятия: брокер, Zookeeper, продюсер и потребитель
- Основные API
- Изучим основные компоненты и API Kafka, принципы их взаимодействия и killer features
2. Topic, partition и offset в Apache Kafka
-
- Понятие топика, раздела и смещения
- Управление Topic-ами из консоли
- Отслеживание последнего прочитанного сообщения
- Семантики доставки сообщений (at least once, at most once, exactly once)
3. Producer API
-
- Публикация сообщений с помощью кода
- Настройка и использование Kafka Producer-а
- Best practices на стороне производителя сообщений.
4. Consumer API
-
- Прием сообщений point-to-point
- Kafka Broadcasting и группы. Гибкий процесс приема сообщений.
5. Потоковая обработка в Kafka
-
- Архитектура Kafka Streams
- Потоковая обработка в Apache Kafka. Основные абстракции Kafka Streams
6. Kafka Streams DSL
-
- Kafka Streams DSL — теория и практика
- Общие принципы и приемы в процессе работы с Kafka Streams
- Создание Kafka Streams приложения
7. Processor API
-
- Использование Processor API
- Создание топологии и перенаправление по ним сообщения, использование расписание (punctuator).
8. Kafka Connect
-
- Архитектура Kafka Connect
- Виды Kafka Connector-ов
- Готовые Connector и Confluent HUB
- Connect API
9. Inside Kafka
-
- Особенности хранения данных
- Сериализация и десериализация данных и Confluent Registry
- Компактируемые топики и retension
- Конфигурация и производительность процесса работы с данными в Kafka
- ksqlDB как способ создания не сложных потоковых приложений
- использование Producer и Consumer API с другими языками программирования
Отправить ссылку на e-mail:
Чему Вы научитесь
- Разберетесь в анатомии топика, использовании механизмов партиционирования и consumer групп.
- Научитесь принимать сообщения и на практике реализуете минимальное приложение, работающее с Kafka.
Познакомитесь с концепцией групп (consumer groups) и научитесь настраивать группы для работы с сообщениями в режиме broadcasting. - Изучите специализированный язык описания (DSL) потоков данных в Kafka и научитесь его использовать.
- Напишите базовое Kafka Streams приложение.
- Напишите приложение с использованием Processor API.
- Разберетесь в том, какие готовые Connector-ы есть для Kafka, создадим собственные Source и Sink коннекторы.
- Познакомитесь с внутренним устройством топиков, партиций и сегментов.
- Поймете влияние параметров конфигурации на производительность процесса публикаци и потребления сообщений.
- Научитесь сериализовать и десериализовать данные с использованием Avro, познакомитесь с ksqlDB, его особенностями и применимостью.
- На примере python API познакомитесь с тем, как можно использовать Kafka не из Java.
Что Вы получите
Окончив курс «Apache Kafka для инженеров данных» в нашем лицензированном учебном центре «Школа Больших Данных», вы получите удостоверение о повышении квалификации установленного образца.

Кто проводит курс
- Сертифицированный разработчик Spark и Hadoop (CCA Cloudera)
- Сертифицированный разработчик (Cloudera Certified Professional Data Engineer)
- Построение корпоративных хранилищ и озер данных (Cloudera CDH, Arenadata Hadoop, Arenadata DB)
- Организация ETL-конвейеров (Airflow, Spark, Flink, Trino)
- Обработка потоковых данных (Kafka, Kafka Streams, Flink)
- Поддержка и развитие инфраструктуры больших данных
Отзывы наших клиентов о курсе
Чтобы записаться на курс DEVKI: Apache Kafka для инженеров данных позвоните нам по телефону +7 (495) 414-11-21 или заполните форму регистрации ниже.