Apache Kafka для инженеров данных

5ти-дневный курс для специалистов, желающих получить и систематизировать знания по использованию Apache Kafka для программирования распределенной обработки потоков событий (Event Stream Processing) на практических примерах с потоковыми данными в реальном времени.

Курс содержит расширенные сведения по написанию программ работы с распределенным журналом Kafka, использованию его в парадигмах Pub/Sub и Message Queue и обработки потоковых данных с соблюдением best practices.

Код курса Даты начала курса Стоимость обучения Длительность обучения Формат обучения
DEVKI
25 июня 2025
01 сентября 2025
72 000 руб. 24 ак.часов
Количество дней: 5
Дистанционный
Регистрация

О продукте

Producer и Consumer API — базис для работы с Apache Kafka, единственный способ записать информацию в Kafka и считать ее из Kafka. Знакомясь с этими API, вы узнаете, как работают механизмы сериализации и десериализации данных в Apache Kafka.

Streams API — построение потоковых приложений, читающих данные из топиков Kafka, обрабатывающих их в реальном масштабе времени и записывающих результаты обработки обратно в Kafka. Вы познакомитесь с наиболее важными трансформациями Stream DSL, особенностями использования Processor API.

Kafka Connect — платформа масштабируемого и надежного перемещения большого объема потоковых данных между Kafka и другими системами. Kafka Connect предлагает API, Runtime и REST Service, что позволяет разработчикам создавать собственные коннекторы, которые перемещают большие объемы данных в Apache Kafka и из него в режиме реального времени.

На практике вы напишете несколько собственных приложений, включая свой Producer и Consumer, приложение Kafka Streams, коннекторы Source и Sink. Во время прикладной работы вы опробуете все API, о которых шла речь в теоретической части. Благодаря подробным объяснениям и комментариям, вы поймете, как работает этот инструмент, и каким образом использовать предоставляемые Apache Kafka API для решения ваших бизнес-задач, а также сможете выступать как архитектор EDA-решения.

Аудитория

Практический курс по кафке и интеграции ее с другими системами ориентирован на программистов, разработчиков Big Data и специалистов, которые хотят:

  • изучить базовые методы программного взаимодействия с Kafka (Producer и Consumer API)
  • научиться использовать Kafka Streams API (как низкоуровневое Processor API, так и декларативный Stream DSL);
  • понять методы интеграции Apache Kafka с внешними системами, как самописными, так и проприетарными
  • узнать практические примеры интеграции
  • освоить лучшие практики (best practices) по реализации процессов автоматического обмена данными между Apache Kafka и внешними системами

О курсе

В теоретической части вы узнаете о наиболее важных API, архитектуре Kafka и внутренних принципах работы основных API Apache Kafka (Producer API, Consumer API, Streams API, Connect API), а также об особенностях реализации Apache Kafka и некоторых интересных концепциях, таких как exactly once semantics, компактируемых логах, Kafka DSL и др.

Курс построен так, чтобы за 24 часа получить глубокое понимание и навыки работы с самой популярной платформой потоковой передачи событий, включая ее архитектуру, возможности и ограничения. Для этого придется выполнять задания, решая задачи проектирования и эксплуатации потоковых конвейеров, включая выполнение операций devops.

Уровень подготовки

  • Начальный опыт работы в Unix
  • Начальный опыт программирования на Java
  • Опыт работы с Hadoop Distributed File System (желательно)

Программа курса «Apache Kafka для инженеров данных»

1. Основные концепции и архитектура Apache Kafka

    • Архитектура и история возникновения Kafka
    • Основные абстракции и понятия: брокер, Zookeeper, продюсер и потребитель
    • Основные API
    • Изучим основные компоненты и API Kafka, принципы их взаимодействия и killer features

2. Topic, partition и offset в Apache Kafka

    • Понятие топика, раздела и смещения
    • Управление Topic-ами из консоли
    • Отслеживание последнего прочитанного сообщения
    • Семантики доставки сообщений (at least once, at most once, exactly once)

3. Producer API

    • Публикация сообщений с помощью кода
    • Настройка и использование Kafka Producer-а
    • Best practices на стороне производителя сообщений.

4. Consumer API

    • Прием сообщений point-to-point
    • Kafka Broadcasting и группы. Гибкий процесс приема сообщений.

5. Потоковая обработка в Kafka

    • Архитектура Kafka Streams
    • Потоковая обработка в Apache Kafka. Основные абстракции Kafka Streams

6. Kafka Streams DSL

    • Kafka Streams DSL — теория и практика
    • Общие принципы и приемы в процессе работы с Kafka Streams
    • Создание Kafka Streams приложения

7. Processor API

    • Использование Processor API
    • Создание топологии и перенаправление по ним сообщения, использование расписание (punctuator).

8. Kafka Connect

    • Архитектура Kafka Connect
    • Виды Kafka Connector-ов
    • Готовые Connector и Confluent HUB
    • Connect API

9. Inside Kafka

    • Особенности хранения данных
    • Сериализация и десериализация данных и Confluent Registry
    • Компактируемые топики и retension
    • Конфигурация и производительность процесса работы с данными в Kafka
    • ksqlDB как способ создания не сложных потоковых приложений
    • использование Producer и Consumer API с другими языками программирования
Скачать программу курса «Apache Kafka для инженеров данных» в формате pdf

Отправить ссылку на e-mail:

Чему Вы научитесь

  • Разберетесь в анатомии топика, использовании механизмов партиционирования и consumer групп.
  • Научитесь принимать сообщения и на практике реализуете минимальное приложение, работающее с Kafka.
    Познакомитесь с концепцией групп (consumer groups) и научитесь настраивать группы для работы с сообщениями в режиме broadcasting.
  • Изучите специализированный язык описания (DSL) потоков данных в Kafka и научитесь его использовать.
  • Напишите базовое Kafka Streams приложение.
  • Напишите приложение с использованием Processor API.
  • Разберетесь в том, какие готовые Connector-ы есть для Kafka, создадим собственные Source и Sink коннекторы.
  • Познакомитесь с внутренним устройством топиков, партиций и сегментов.
  • Поймете влияние параметров конфигурации на производительность процесса публикаци и потребления сообщений.
  • Научитесь сериализовать и десериализовать данные с использованием Avro, познакомитесь с ksqlDB, его особенностями и применимостью.
  • На примере python API познакомитесь с тем, как можно использовать Kafka не из Java.

Что Вы получите

Окончив курс «Apache Kafka для инженеров данных» в нашем лицензированном учебном центре «Школа Больших Данных», вы получите удостоверение о повышении квалификации установленного образца.

Кто проводит курс

Королев Михаил
МГУ им. М.В. Ломоносова (Москва, 1988)

Отзывы наших клиентов о курсе

Оставить отзыв

Чтобы записаться на курс DEVKI: Apache Kafka для инженеров данных позвоните нам по телефону +7 (495) 414-11-21 или заполните форму регистрации ниже.

Я даю свое согласие на обработку персональных данных и соглашаюсь с политикой конфиденциальности.