PySpark Cookbook
暫譯: PySpark 食譜
Denny Lee, Tomasz Drabas
- 出版商: Packt Publishing
- 出版日期: 2018-06-29
- 售價: $1,840
- 貴賓價: 9.5 折 $1,748
- 語言: 英文
- 頁數: 330
- 裝訂: Paperback
- ISBN: 1788835360
- ISBN-13: 9781788835367
-
相關分類:
Python、程式語言、Spark、大數據 Big-data
海外代購書籍(需單獨結帳)
相關主題
商品描述
Combine the power of Apache Spark and Python to build effective big data applications
Key Features
- Perform effective data processing, machine learning, and analytics using PySpark
- Overcome challenges in developing and deploying Spark solutions using Python
- Explore recipes for efficiently combining Python and Apache Spark to process data
Book Description
Apache Spark is an open source framework for efficient cluster computing with a strong interface for data parallelism and fault tolerance. The PySpark Cookbook presents effective and time-saving recipes for leveraging the power of Python and putting it to use in the Spark ecosystem.
You ll start by learning the Apache Spark architecture and how to set up a Python environment for Spark. You ll then get familiar with the modules available in PySpark and start using them effortlessly. In addition to this, you ll discover how to abstract data with RDDs and DataFrames, and understand the streaming capabilities of PySpark. You ll then move on to using ML and MLlib in order to solve any problems related to the machine learning capabilities of PySpark and use GraphFrames to solve graph-processing problems. Finally, you will explore how to deploy your applications to the cloud using the spark-submit command.
By the end of this book, you will be able to use the Python API for Apache Spark to solve any problems associated with building data-intensive applications.
What you will learn
- Configure a local instance of PySpark in a virtual environment
- Install and configure Jupyter in local and multi-node environments
- Create DataFrames from JSON and a dictionary using pyspark.sql
- Explore regression and clustering models available in the ML module
- Use DataFrames to transform data used for modeling
- Connect to PubNub and perform aggregations on streams
Who This Book Is For
The PySpark Cookbook is for you if you are a Python developer looking for hands-on recipes for using the Apache Spark 2.x ecosystem in the best possible way. A thorough understanding of Python (and some familiarity with Spark) will help you get the best out of the book.
商品描述(中文翻譯)
結合 Apache Spark 和 Python 的力量,構建有效的大數據應用程式
主要特點
- 使用 PySpark 進行有效的數據處理、機器學習和分析
- 克服使用 Python 開發和部署 Spark 解決方案的挑戰
- 探索有效結合 Python 和 Apache Spark 以處理數據的食譜
書籍描述
Apache Spark 是一個開源框架,用於高效的叢集計算,具有強大的數據並行性和容錯性介面。PySpark 食譜提供了有效且節省時間的食譜,幫助您利用 Python 的力量並在 Spark 生態系統中加以應用。
您將首先學習 Apache Spark 的架構以及如何為 Spark 設置 Python 環境。接著,您將熟悉 PySpark 中可用的模組,並輕鬆開始使用它們。此外,您將發現如何使用 RDD 和 DataFrames 來抽象數據,並了解 PySpark 的流處理能力。然後,您將使用 ML 和 MLlib 來解決與 PySpark 的機器學習能力相關的問題,並使用 GraphFrames 解決圖形處理問題。最後,您將探索如何使用 spark-submit 命令將應用程式部署到雲端。
在本書結束時,您將能夠使用 Apache Spark 的 Python API 解決與構建數據密集型應用程式相關的任何問題。
您將學到什麼
- 在虛擬環境中配置 PySpark 的本地實例
- 在本地和多節點環境中安裝和配置 Jupyter
- 使用 pyspark.sql 從 JSON 和字典創建 DataFrames
- 探索 ML 模組中可用的回歸和聚類模型
- 使用 DataFrames 轉換用於建模的數據
- 連接到 PubNub 並對流進行聚合
本書適合誰
如果您是尋找實用食譜以最佳方式使用 Apache Spark 2.x 生態系統的 Python 開發人員,那麼 PySpark 食譜就是為您而寫的。對 Python 的透徹理解(以及對 Spark 的一些熟悉)將幫助您充分利用本書。