
Local instructor-led live Apache Spark training courses in Беларусь.
Apache Spark Subcategories
Apache Spark Course Outlines
Course Name
Duration
Overview
Course Name
Duration
Overview
21 hours
Афарызм (гр. aphorismos - выказванне) - выслоўе, у якім у трапнай, лаканічнай форме выказана значная і арыгінальная думка. Spark з'яўляецца матарам для працэдуры дадзеных, які выкарыстоўваецца ў пошуку, аналізе і трансформацыі вялікіх дадзеных, у той час як Hadoop з'яўляецца праграмнае забеспячэнне бібліятэкі для захавання і працэдуры дадзеных на вялікім узроўні.
Гэта інструктар-праведзены, жывы трэнінг (онлайн або на сайце) звязаны з развіццём, які хоча выкарыстоўваць і інтэграваць Spark, Hadoop, і Python для працэсу, аналізу і трансформацыі вялікіх і складаных набораў дадзеных.
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Стварыце неабходнае месца для пачатку працэдуры вялікіх дадзеных з Spark, Hadoop, і Python.
Узнагароджанне функцый, асноўных элементаў і архітэктуры Спарка і Hadoop.
Узнайце, як інтэграваць Spark, Hadoop, і Python для працэдуры вялікіх дадзеных.
Вызначыце інструменты ў экасистеме Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, і Flume).
Стварыце спіратыўныя фільтрацыйныя рэкамендацыйныя сістэмы, такія як Netflix, YouTube, Amazon, Spotify і Google.
Выкарыстоўвайце Apache Mahout для скалявання алгоритмаў машынабудавання.
-
Інтэрактыўныя лекцыі і дискусіі.
Многія практыкаванні і практыкаванні.
Вынікі ў Live-Lab Environment.
-
Калі вы хочаце падзяліцца сваёй думкай з майстрам, рабіце гэта максімальна ветліва.
21 hours
In this instructor-led, live training in Беларусь, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.
By the end of this training, participants will be able to:
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
21 hours
OBJECTIVE:
This course will introduce Apache Spark. The students will learn how Spark fits into the Big Data ecosystem, and how to use Spark for data analysis. The course covers Spark shell for interactive data analysis, Spark internals, Spark APIs, Spark SQL, Spark streaming, and machine learning and graphX.
AUDIENCE :
Developers / Data Analysts
21 hours
This instructor-led, live training in Беларусь (online or onsite) introduces Hortonworks Data Platform (HDP) and walks participants through the deployment of Spark + Hadoop solution.
By the end of this training, participants will be able to:
- Use Hortonworks to reliably run Hadoop at a large scale.
- Unify Hadoop's security, governance, and operations capabilities with Spark's agile analytic workflows.
- Use Hortonworks to investigate, validate, certify and support each of the components in a Spark project.
- Process different types of data, including structured, unstructured, in-motion, and at-rest.
14 hours
Magellan з'яўляецца адкрытым дысцыплінавым дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінарным дысцыплінам. Імплементаваная на верхняй частцы Apache Spark, яна пашырае Spark SQL і дае адносіны абстракцыі для геаспацыянальнай аналітыкі.
Гэта інструктар-праведзены, жывы трэнінг увайшоў у концепты і даступныя даследаванні для ажыццяўлення геаспацыйнай аналітыкі і гуляць удзельнікаў шляхам стварэння прагнознай аналітычнай праграмы з дапамогай Magellan на Spark.
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Эканоміка стала набываць выразна затратны характар і патра-бавала кардынальных рэформ.
Заявы і абмоўкі пра абмежаванне адказнасці пра абмежаванне адказнасці
Кожны шлях - гэта толькі некаторыя з найбольш складаных ставак.
-
Інтэрактыўныя лекцыі і дискусіі.
Многія практыкаванні і практыкаванні.
Вынікі ў Live-Lab Environment.
-
Калі вы хочаце падзяліцца сваёй думкай з майстрам, рабіце гэта максімальна ветліва.
7 hours
Сярод версій гульняў онлайн call of duty можна знайсці мноства займальных і дасціпных сюжэтаў, а апошняй навінкай, выпушчанай у канцы восені гэтага года, стала гульня Call of duty. Ён выкарыстоўваецца такімі кампаніямі як Intel, Baidu і Alibaba.
У гэтым інструктар-праведзены, жывы трэнінг, удзельнікі навучаюцца, як выкарыстоўваць Alluxio для пабудавання розных калькуляцыйных рамок з сістэмамі захавання і эфектыўна кіраваць мульты-петабайт-скале дадзеных, як яны праходзяць па стварэнні праграмы з Alluxio.
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Вырабіць заяўку з Alluxio
Заявы і абмоўкі пра абмежаванне адказнасці
Эканоміка стала набываць выразна затратны характар і патра-бавала кардынальных рэформ.
Выкарыстоўвайце работную нагрузку
Загрузіць і кіраваць Alluxio адзіным або кластраваным
-
дадзеных навукоўцы
Распрацоўнік
Адміністрацыя сістэмы
-
Частныя лекцыі, частковая дискусія, практыкаванні і цяжкія практыкаванні
7 hours
Spark SQL is Apache Spark's module for working with structured and unstructured data. Spark SQL provides information about the structure of the data as well as the computation being performed. This information can be used to perform optimizations. Two common uses for Spark SQL are:
- to execute SQL queries.
- to read data from an existing Hive installation. In this instructor-led, live training (onsite or remote), participants will learn how to analyze various types of data sets using Spark SQL. By the end of this training, participants will be able to:
- to execute SQL queries.
- to read data from an existing Hive installation. In this instructor-led, live training (onsite or remote), participants will learn how to analyze various types of data sets using Spark SQL. By the end of this training, participants will be able to:
- Install and configure Spark SQL.
- Perform data analysis using Spark SQL.
- Query data sets in different formats.
- Visualize data and query results.
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
- To request a customized training for this course, please contact us to arrange.
21 hours
In this instructor-led, live training in Беларусь (onsite or remote), participants will learn how to set up and integrate different Stream Processing frameworks with existing big data storage systems and related software applications and microservices.
By the end of this training, participants will be able to:
- Install and configure different Stream Processing frameworks, such as Spark Streaming and Kafka Streaming.
- Understand and select the most appropriate framework for the job.
- Process of data continuously, concurrently, and in a record-by-record fashion.
- Integrate Stream Processing solutions with existing databases, data warehouses, data lakes, etc.
- Integrate the most appropriate stream processing library with enterprise applications and microservices.
21 hours
Big data analytics involves the process of examining large amounts of varied data sets in order to uncover correlations, hidden patterns, and other useful insights.
The health industry has massive amounts of complex heterogeneous medical and clinical data. Applying big data analytics on health data presents huge potential in deriving insights for improving delivery of healthcare. However, the enormity of these datasets poses great challenges in analyses and practical applications to a clinical environment.
In this instructor-led, live training (remote), participants will learn how to perform big data analytics in health as they step through a series of hands-on live-lab exercises.
By the end of this training, participants will be able to:
- Install and configure big data analytics tools such as Hadoop MapReduce and Spark
- Understand the characteristics of medical data
- Apply big data techniques to deal with medical data
- Study big data systems and algorithms in the context of health applications
- Developers
- Data Scientists
- Part lecture, part discussion, exercises and heavy hands-on practice.
- To request a customized training for this course, please contact us to arrange.
21 hours
Apache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.
AUDIENCE:
Data Engineer, DevOps, Data Scientist
21 hours
This instructor-led, live training in Беларусь (online or onsite) is aimed at software engineers who wish to stream big data with Spark Streaming and Scala.
By the end of this training, participants will be able to:
- Create Spark applications with the Scala programming language.
- Use Spark Streaming to process continuous streams of data.
- Process streams of real-time data with Spark Streaming.
14 hours
SMACK з'яўляецца калекцыяй праграмы платформы дадзеных, а саме Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, і Apache Kafka. Зараз на сцены наносіцца абаронная плёнка, якая захавае іх на многія гады.
У якасці прыкладу такіх сетак можна прывесці facebook і vkontakte, дзе любая фізічная асоба можа падаць рэкламную аб'яву.
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Імплементацыя архітэктуры дадзеных для працэдуры вялікіх дадзеных.
Здаровая касметыка вы можаце зрабіць самі
Аналіз дадзеных з дапамогай Spark і Scala.
Адміністрацыя неструктурных дадзеных з дапамогай Apache Cassandra.
-
Інтэрактыўныя лекцыі і дискусіі.
Многія практыкаванні і практыкаванні.
Вынікі ў Live-Lab Environment.
-
Калі вы хочаце падзяліцца сваёй думкай з майстрам, рабіце гэта максімальна ветліва.
21 hours
Apache Spark з'яўляецца аналітычным аўтамабілем, які прапануе распрацоўку дадзеных у межах кластра, каб праводзіць іх паралельна. Гэта ўключае модулі для стрэму, SQL, машиннага навучання і графічнай працэдуры.
Гэта інструктар-праведзены, жывы трэнінг (онлайн або на сайце) звязаны з інжынерамі, якія хочуць распаўсюджваць Apache Spark сістэму для ажыццяўлення вельмі вялікіх колькасцяў дадзеных.
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Здаровая касметыка вы можаце зрабіць самі
Узнікае пытанне: ці можа вера на самой справе змяніць свет?
Дадатковыя функцыі ўключаюць у сябе джакузі для поўнай рэлаксацыі і камінам.
Інтэграцыя Apache Spark з іншымі інструментамі машиннага навучання.
-
Інтэрактыўныя лекцыі і дискусіі.
Многія практыкаванні і практыкаванні.
Вынікі ў Live-Lab Environment.
-
Калі вы хочаце падзяліцца сваёй думкай з майстрам, рабіце гэта максімальна ветліва.
21 hours
Apache Spark з'яўляецца распаўсюджаным працэсарам для аналізу вельмі вялікіх набораў дадзеных. Яны могуць быць параўнальна большымі і сезонна заселенымі. .NET для Apache Spark з'яўляецца бясплатнай, адкрытай і крос-платформы вялікіх дадзеных аналітычная рамка, якая падтрымлівае праграмы, напісаныя ў C# або F#.
Гульня Call of Duty 4 - адзін з найбольш знакамітых шутэраў усіх часоў і народаў паказаць дэталёвае апісанне
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Здаровая касметыка вы можаце зрабіць самі
Узнікае пытанне: калі іх ведае увесь свет, ці можна назваць іх няўдачнікамі?
Дадатковыя працэдуры з'яўляюцца выкарыстаннем C# або F#, якія могуць ажыццяўляць дадзеныя набораў, якія маюць памеры ў тэрабайтах і педабайтах.
Вытворюе функцыі машиннага навучання для прыкладу.NET з дапамогай Apache Spark магчымасцяў.
Аналіз вывучэння з дапамогай SQL запрашэньняў на вялікіх дадзеных.
-
Інтэрактыўныя лекцыі і дискусіі.
Многія практыкаванні і практыкаванні.
Вынікі ў Live-Lab Environment.
-
Калі вы хочаце падзяліцца сваёй думкай з майстрам, рабіце гэта максімальна ветліва.
35 hours
Apache Hadoop з'яўляецца папулярнай дадзеных працэдуры рамкі для працэдуры вялікіх дадзеных на многіх кампутарах.
Гэта інструктар-праведзены, жывы трэнінг (онлайн або на сайце) звязаны з адміністратарамі сістэмы, якія хочуць ведаць, як ўсталяваць, распаўсюджваць і ажыццяўляць Hadoop кластеры ў межах сваёй арганізацыі.
У канцы гэтага трэніру ўдзельнікі зможаць:
-
Загрузіць і ўсталяваць Apache Hadoop.
Зразумець чатырох асноўных элементаў Hadoop экасистемы: HDFS, MapReduce, YARN, і Hadoop Common.
Кожны шлях - гэта толькі некаторыя з найбольш складаных ставак.
Загрузіць HDFS, каб працаваць як запас-мотар для наперасных Spark дэплойментаў.
Сцягнуць Spark для даступу да альтэрнатыўных рэжысёраў, такіх як Amazon S3 і NoSQL сістэмы дадзеных, такіх як Redis, Elasticsearch, Couchbase, Aerospike, і інш.
Выконваць адміністрацыйныя задачы, такія як прадастаўленне, кіраванне, нагляд і абарона кластра Apache Hadoop.
-
Інтэрактыўныя лекцыі і дискусіі.
Многія практыкаванні і практыкаванні.
Вынікі ў Live-Lab Environment.
-
Калі вы хочаце падзяліцца сваёй думкай з майстрам, рабіце гэта максімальна ветліва.
14 hours
This instructor-led, live training in Беларусь (online or onsite) is aimed at data scientists and developers who wish to use Spark NLP, built on top of Apache Spark, to develop, implement, and scale natural language text processing models and pipelines.
By the end of this training, participants will be able to:
- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
35 hours
MLlib is Spark’s machine learning (ML) library. Its goal is to make practical machine learning scalable and easy. It consists of common learning algorithms and utilities, including classification, regression, clustering, collaborative filtering, dimensionality reduction, as well as lower-level optimization primitives and higher-level pipeline APIs.
It divides into two packages:
- spark.mllib contains the original API built on top of RDDs.
- spark.ml provides higher-level API built on top of DataFrames for constructing ML pipelines.
21 hours
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
28 hours
In this instructor-led, live training in Беларусь, participants will learn about the technology offerings and implementation approaches for processing graph data. The aim is to identify real-world objects, their characteristics and relationships, then model these relationships and process them as data using a Graph Computing (also known as Graph Analytics) approach. We start with a broad overview and narrow in on specific tools as we step through a series of case studies, hands-on exercises and live deployments.
By the end of this training, participants will be able to:
- Understand how graph data is persisted and traversed.
- Select the best framework for a given task (from graph databases to batch processing frameworks.)
- Implement Hadoop, Spark, GraphX and Pregel to carry out graph computing across many machines in parallel.
- View real-world big data problems in terms of graphs, processes and traversals.
Last Updated:
Other countries
Consulting
Online Apache Spark courses, Weekend Apache Spark courses, Evening Apache Spark training, Apache Spark boot camp, Apache Spark instructor-led, Weekend Apache Spark training, Evening Apache Spark courses, Apache Spark coaching, Apache Spark instructor, Apache Spark trainer, Apache Spark training courses, Apache Spark classes, Apache Spark on-site, Apache Spark private courses, Apache Spark one on one training