От JDBC-подключения до SQL-запросов: пара примеров по Apache Hive, HBase и Spark

обучение NoSQL, SQL-on-Hadoop курсы обучение, курсы HBase, обучение HBase, курсы Hive, обучение Hive, аналитика больших данных, обучение data analyst Big Data, обучение большим данным, инженерия больших данных, Hadoop для аналитиков и дата-инженеров курсы обучение, Школа Больших Данных Учебный центр Коммерсант

В рамках курсов по Apache Hadoop для дата-аналитиков и инженеров данных сегодня рассмотрим пару практических примеров работы с популярным SQL-on-Hadoop инструментом этой экосистемы. Читайте далее, как настроить соединение удаленного сервера Apache Hive к Spark-приложению через JDBC и решить проблему запроса таблицы HBase в Hive вместо повторной репликации данных.

Подключение удаленного сервера к Spark приложению через JDBC

Благодаря тому, что Apache Hive позволяет анализировать данные, хранящиеся в Hadoop HDFS, с помощью SQL-подобного языка структурированных запросов HiveQL (HQL), эта NoSQL-система широко применяется на практике, даже несмотря пакетный характер вычислений.

Рассмотрим типовой сценарий подключения удаленного сервера с Hive к приложению Spark, написанному на Scala и работающему в отдельном кластере AWS EMR. Чтобы читать данные из Хайв и записывать их датафреймы Spark, достаточно выполнить следующие шаги [1]:

  • создать образец таблицы в Hive;
  • считать таблицу из Hive как датафрейм в Spark, используя метод read(). Как обычно, точкой входа во все функции Spark является класс SparkSession, обратиться к которому позволит конструктор builder(). Данные подключения (JDBC как формат, URL, имя таблицы, пользователя, его пароль и драйвер) указываются в опциях метода read(), вызываемого от объекта класса SparkSession, созданного через конструктор SparkSession.builder().
  • Прочитав исходную таблицу, к ней можно сделать SQL-запрос и записать результаты его выполнения в виде датафрейма в новую Хайв-таблицу.

При этом следует установить собственный диалект JDBC, необходимый для Hive, а также в сборку build.sbt добавить библиотеку, определяющую зависимости:

libraryDependencies += «org.apache.hive» % «hive-jdbc» % «3.1.2»

Если JDBC используется для установления соединения, дополнительно включать HiveSupport в Spark Session не нужно. Разумеется, все это будет работать при условии наличия данных для подключения: URL JDBC, имя пользователя и пароль, хост, порт и сведения о базе/схеме данных. Подробный пример кода на Spark Scala доступен в источнике [1]. А детальный разбор JDBC-подключения в Spark SQL мы рассматривали здесь. В следующей статье разберем пример имперсонализации пользователя при доступе внешнего приложения к данных Hive-таблиц через JDBC в кластере, защищенном с помощью протокола Kerberos.

Простая аналитика больших данных: запрос таблицы HBase в Hive вместо репликации

Бывает, что дата-аналитики не могут напрямую работать с таблицами Apache HBase, но знакомы с Hive. Вместо репликации данных из одного хранилища в другое можно обращать к HBase через HiveQL-запросы. Напомним, Apache HBаse – это колоночная NoSQL-СУБД, которая работает на Hаdоop HDFS, которая позволяет надежно хранить большие данные и обрабатывать их в реальном времени в режиме случайного чтения/записи. Однако, в отличии от реляционных СУБД, HBаse не поддерживает SQL, ориентируясь на вычислительную модель Hadoop MapReduсe, RESTful-приложения и Thrift, а также формат AVRO.

Тем не менее, подобно традиционным СУБД, HBаse включает набор стандартных таблиц с строками и столбцами. Каждая таблица должна иметь первичный ключ для доступа к ее данным. Формат AVRO поддерживает обширный набор основных типов данных (числовые, двоичные, строки) и комплексные (массивы, перечисления, записи и пр.).

Подобно многим распределенным системам, для синхронизации метаданных HBаse использует ZooKeeрer, встроенный по умолчанию. Однако в production рекомендуется отдельный кластер ZооKeeрer, интегрированный с кластером HBаse. Одним из инструментов стека SQL-on-Hadoop, которые хорошо работают с HBаse, является Apache Hive – механизм запросов для быстрой обработки больших данных, хранящихся в Hаdоop HDFS или в HBase. Хайв позволяет разработчикам заменить MapReduce-операции на Jаvа простыми SQL-запросами.

Хранилище метаданных Hive позволяет определить табличную структуру неструктурированных данных: столбцы, строки, типы данных и пр. Эта информация хранится в Hive Metastore и становится доступна Аpache Spark, Рig. В сочетании с любой СУБД можно запускать запросы HiveQL через интерфейс командной строки (shell), а также JDBС или ОDBС, используя соответствующий драйвер. Также можно запустить Hive Thrift Сlient в рамках программ на С ++, Jаvа, РHР, Рythоn или Ruby, аналогично использованию этих клиентских языков со встроенным SQL для доступа к внешним базам данных.

При том, что HiveQL похож на стандартный SQL, он имеет несколько важных отличий:

  • запросы выполняются дольше, поэтому Hive не очень подходит для приложений, где требуется очень быстрое время отклика;
  • Hive больше ориентирован на чтение, а не на запись, а потому лучше подходит для ETL-задач и аналитической обработки данных средствами структурированных запросов.

Возвращаясь к рассматриваемому кейсу работы с данными в HBase через Хайв, сперва следует создать таблицу в HBase: CREATE ‘name_space: table_name’, ‘column_family’. Далее следует создать над ней внешнюю таблицу Hive. Например, в ней будут данные о пользователях, включая их идентификаторы, имена, пароли и адреса электронной почты:

CREATE EXTERNAL TABLE hiveHbaseTableUsers(key INT, id INT, username STRING, password STRING, email STRING) STORED BY ‘org.apache.hadoop.hive.hbase.HBaseStorageHandler’ WITH SERDEPROPERTIES («hbase.columns.mapping» = «:key,id:id,name:username,name:password,email:email») TBLPROPERTIES(«hbase.table.name» = «hbasetable»);

После этого аналитики могут обращаться к этой таблице HBase через SQL-запросы в Apache Hive, но операции обновления и удаления будут выполняться только через HBase [2]. О том, как реализовать инкрементное резервное копирование таблиц HBase в AWS S3, читайте в нашей новой статье. А кейс масштабируемой индексации данных в этом NoSQL-хранилище почти в реальном времени мы описывали здесь.

Больше практических примеров по администрированию и эксплуатацию Apache HBase и Hive для разработки распределенных приложений и аналитики больших данных вы узнаете на специализированных курсах в нашем лицензированном учебном центре обучения и повышения квалификации для разработчиков, менеджеров, архитекторов, инженеров, администраторов, Data Scientist’ов и аналитиков Big Data в Москве:

Источники

  1. https://satabdis-ray.medium.com/hive-connection-remote-server-to-spark-scala-as-sink-source-through-jdbc-non-kerberos-connection-6138122a8c1c
  2. https://sidgarg009.medium.com/how-to-solve-the-problem-of-querying-the-hbase-table-in-hive-instead-of-replicating-the-data-again-122817cac6fc
Поиск по сайту