Mit Spark lassen sich Datenanalysen und Machine-Learning-Anwendungen flexibel über Rechencluster skalieren. Das bei der Apache Software Foundation beheimatete Tool ist ein Standardwerkzeug bei der Analyse und Auswertung großer Datenmengen. Die PySpark-API bildet dabei die Schnittstelle zwischen der Spark Engine und Ihren selbst geschriebenen Python-Programmen.

In der zweitägigen Online-Schulung Big-Data-Analyse mit PySpark erhalten Sie in vielen Praxisübungen eine gründliche Einführung in das Spark-Framework.

 » Weiterlesen