Spark. Błyskawiczna analiza danych. Wydanie II


Код: 15168411332
1661 грн
Ціна вказана з доставкою в Україну
Товар є в наявності
ЯК ЕКОНОМИТИ НА ДОСТАВКЕ?
Замовляйте велику кількість товарів у цього продавця
Інформація
  • Час доставки: 7-10 днів
  • Стан товару: новий
  • Доступна кількість: 1

Заказывая «Spark. Błyskawiczna analiza danych. Wydanie II» данный товар из каталога «Базы данных», вы можете получить дополнительную скидку 4%, если произведете 100% предоплату. Размер скидки вы можете увидеть сразу при оформлении заказа на сайте. Внимание!!! Скидка распространяется только при заказе через сайт.

Іскра. Миттєвий аналіз даних. 2-е видання

Геліон Глівіце

Ean:9788328399143

  • ISBN: 9788328399143
  • Автор: Jules S. Damji, Brooke Wenig, Tathagata Das, Denny Lee
  • Обкладинка: м'яка
  • Рік видання: 2023
  • Формат: b5
  • Сторінок: 360

Apache Spark — це програмне забезпечення з відкритим вихідним кодом, розроблене для кластерної обробки даних, що надаються в різних форматах. Це дозволяє досягти безпрецедентної продуктивності та дозволяє працювати в пакетному та потоковому режимах. Цей фреймворк також добре підготовлений для запуску складних програм, включаючи машинне навчання та алгоритми прогнозного аналізу. Усе це робить Apache Spark чудовим вибором для розробників, які мають справу з великими даними, а також видобутком і аналізом даних.

Ця книга призначена для інженерів і розробників даних, які хочуть виконувати складний аналіз даних і алгоритми машинного навчання за допомогою Spark, навіть якщо дані надходять із різних джерел. Тут пояснюється, як зчитувати й уніфікувати великі набори інформації за допомогою Apache Spark для створення надійних озер даних, як виконувати інтерактивні запити SQL, як створювати конвеєри за допомогою MLlib і розгортати моделі за допомогою MLflow. Також обговорюється сумісність програми Spark з її розподіленими компонентами та режими її впровадження в окремих середовищах.

У книзі:

  • Структурований API для Python, SQL, Scala та Java
  • Операції двигуна Spark і SQL
  • Конфігурації Spark та інтерфейс користувача Spark
  • підключення до джерел даних: JSON, Parquet, CSV, Avro, ORC, Hive, S3 і Kafka
  • аналітичні операції над пакетними та потоковими даними
  • Надійні конвеєри даних і конвеєри машинного навчання

Spark: створюйте масштабовані та надійні програми для великих даних!