
Le terme BigData vise l'ensemble des solutions liées au stockage et au traitement d'un ensemble considérable de données. Les solutions BigData ont été initialement développées par Google, cependant, désormais, beaucoup d'implémentations open-source sont disponibles, dont Apache Hadoop, Cassandra ou Cloudera Impala. Selon des rapports de Gartner, BigData est la prochaine étape au niveau des technologies de l'information, aprés le Cloud Computing et sera la nouvelle tendance pour les prochaine années.
Nos Clients témoignent
Le formateur était très compétent et comprenait des domaines qui m'intéressaient.
Mohamed Salama
Formation: Data Mining & Machine Learning with R
Machine Translated
Michael le formateur est très compétent et compétent sur le sujet du Big Data et R. Il est très flexible et personnalise rapidement la formation en fonction des besoins des clients. Il est également très capable de résoudre des problèmes techniques et liés à un sujet en déplacement. Formation fantastique et professionnelle!
Xiaoyuan Geng - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Formation: Programming with Big Data in R
Machine Translated
J'ai vraiment apprécié l'introduction de nouveaux paquets.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Formation: Programming with Big Data in R
Machine Translated
Le tuteur, M. Michael Yan, a très bien interagi avec le public, les instructions étaient claires. Le tuteur va également jusqu'à ajouter plus d'informations en fonction des demandes des étudiants pendant la formation.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Formation: Programming with Big Data in R
Machine Translated
Le sujet et le rythme étaient parfaits.
Tim - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Formation: Programming with Big Data in R
Machine Translated
Le fait que toutes les données et tous les logiciels étaient prêts à être utilisés sur une VM déjà préparée, fournie par le formateur sur des disques externes.
vyzVoice
Formation: Hadoop for Developers and Administrators
Machine Translated
gamme de matériel
Maciej Jonczyk
Formation: From Data to Decision with Big Data and Predictive Analytics
Machine Translated
systématisation des connaissances dans le domaine du ML
Orange Polska
Formation: From Data to Decision with Big Data and Predictive Analytics
Machine Translated
Beaucoup de problèmes qui peuvent être explorés après la formation
Klaudia Kłębek
Formation: Data Mining z wykorzystaniem R
Machine Translated
Très adapté aux besoins.
Yashan Wang
Formation: Data Mining with R
Machine Translated
Richard est très calme et méthodique, avec un aperçu analytique - exactement les qualités nécessaires pour présenter ce type de cours.
Kieran Mac Kenna
Formation: Spark for Developers
Machine Translated
J'aime les exercices effectués.
Nour Assaf
Formation: Data Mining and Analysis
Machine Translated
L'exercice pratique et la capacité du formateur à expliquer des sujets complexes en termes simples.
youssef chamoun
Formation: Data Mining and Analysis
Machine Translated
Les informations fournies étaient intéressantes et la meilleure partie était vers la fin lorsque nous avons reçu des données de Durex et que nous avons travaillé sur des données que nous connaissons et effectuons des opérations pour obtenir des résultats.
Jessica Chaar
Formation: Data Mining and Analysis
Machine Translated
J'ai surtout aimé le formateur en donnant des exemples réels.
Simon Hahn
Formation: Administrator Training for Apache Hadoop
Machine Translated
J'ai vraiment apprécié les grandes compétences du formateur.
Grzegorz Gorski
Formation: Administrator Training for Apache Hadoop
Machine Translated
J'ai vraiment apprécié les nombreuses sessions pratiques.
Jacek Pieczątka
Formation: Administrator Training for Apache Hadoop
Machine Translated
partager le diagramme de concept et aussi l'échantillon pour les mains sales
Mark Yang - FMR
Formation: Spark for Developers
Machine Translated
Je pensais que l'information était intéressante.
Allison May
Formation: Data Visualization
Machine Translated
J'ai vraiment apprécié que Jeff ait utilisé des données et des exemples applicables aux données sur l'éducation. Il l'a rendu intéressant et interactif.
Carol Wells Bazzichi
Formation: Data Visualization
Machine Translated
Connaître tous les types de graphiques et à quoi ils servent. Apprendre la valeur de l'encombrement. Apprendre les méthodes pour afficher les données temporelles.
Susan Williams
Formation: Data Visualization
Machine Translated
Le formateur était enthousiaste.
Diane Lucas
Formation: Data Visualization
Machine Translated
J'ai vraiment aimé le contenu / instructeur.
Craig Roberson
Formation: Data Visualization
Machine Translated
Je suis un apprenant actif et c'était quelque chose qu'il faisait beaucoup.
Lisa Comfort
Formation: Data Visualization
Machine Translated
J'ai aimé les exemples.
Peter Coleman
Formation: Data Visualization
Machine Translated
J'ai généralement bénéficié des exemples.
Peter Coleman
Formation: Data Visualization
Machine Translated
J'ai apprécié les bons exemples du monde réel, les critiques des rapports existants.
Ronald Parrish
Formation: Data Visualization
Machine Translated
Scénarios et cas applicables
zhaopeng liu - Fmr
Formation: Spark for Developers
Machine Translated
Analyse de cas
国栋 张
Formation: Spark for Developers
Machine Translated
toutes les parties de cette session
Eric Han - Fmr
Formation: Spark for Developers
Machine Translated
J'ai vraiment bénéficié de la volonté du formateur de partager davantage.
Balaram Chandra Paul
Formation: A practical introduction to Data Analysis and Big Data
Machine Translated
Nous en savons beaucoup plus sur l’ensemble de l’environnement.
John Kidd
Formation: Spark for Developers
Machine Translated
Le formateur a rendu le cours intéressant et divertissant, ce qui aide un peu tout au long de la journée.
Ryan Speelman
Formation: Spark for Developers
Machine Translated
Je pense que le formateur avait un excellent style en combinant l'humour et des histoires réelles pour rendre les sujets abordables. Je recommande vivement ce professeur à l'avenir.
Formation: Spark for Developers
Machine Translated
J'ai beaucoup aimé la façon interactive d'apprendre.
Luigi Loiacono
Formation: Data Analysis with Hive/HiveQL
Machine Translated
C'était une formation très pratique, j'ai aimé les exercices pratiques.
Proximus
Formation: Data Analysis with Hive/HiveQL
Machine Translated
J'ai bénéficié de la bonne vue d'ensemble, du bon équilibre entre la théorie et les exercices.
Proximus
Formation: Data Analysis with Hive/HiveQL
Machine Translated
J'ai apprécié l'interaction dynamique et la pratique du sujet, grâce à la machine virtuelle, très stimulante!
Philippe Job
Formation: Data Analysis with Hive/HiveQL
Machine Translated
Ernesto a fait un excellent travail en expliquant les concepts de haut niveau de l'utilisation de Spark et de ses différents modules.
Michael Nemerouf
Formation: Spark for Developers
Machine Translated
J'ai bénéficié de la compétence et des connaissances du formateur.
Jonathan Puvilland
Formation: Data Analysis with Hive/HiveQL
Machine Translated
J'ai généralement bénéficié de la présentation des technologies.
Continental AG / Abteilung: CF IT Finance
Formation: A practical introduction to Data Analysis and Big Data
Machine Translated
Dans l'ensemble, le contenu était bon.
Sameer Rohadia
Formation: A practical introduction to Data Analysis and Big Data
Machine Translated
Exemples d'exercices: Partage d'expérience de travail pratique
澳新银行
Formation: Data Vault: Building a Scalable Data Warehouse
Machine Translated
Cube et DV
Alan Xie
Formation: Data Vault: Building a Scalable Data Warehouse
Machine Translated
La connaissance de l'entrepôt de données de l'enseignant est complète, et il en fait l'éloge!
澳新银行
Formation: Data Vault: Building a Scalable Data Warehouse
Machine Translated
Je pense que le formateur avait un excellent style en combinant l'humour et des histoires réelles pour rendre les sujets abordables. Je recommande vivement ce professeur à l'avenir.
Formation: Spark for Developers
Machine Translated
Nos clients









.png)




























_ireland.gif)




.jpg)






Plans de cours Big Data
Ce cours en direct animé par un instructeur couvre les principes de fonctionnement d'Accumulo et guide les participants dans le développement d'un exemple d'application sur Apache Accumulo .
Format du cours
- Partie conférence, partie discussion, développement et mise en œuvre pratiques, tests occasionnels pour évaluer la compréhension
Cette formation pour KNIME Analytics Platform est une occasion idéale pour les débutants, les utilisateurs expérimentés et les experts KNIME de se familiariser avec KNIME , d'apprendre à l'utiliser plus efficacement et à créer des rapports clairs et complets basés sur les workflows de KNIME
This instructor-led, live training (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.
By the end of this training, participants will be able to:
- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Dans cette formation en direct animée par un instructeur, les participants apprendront à utiliser MonetDB et à en tirer le meilleur parti.
À la fin de cette formation, les participants seront en mesure de:
- Comprendre MonetDB et ses fonctionnalités
- Installer et démarrer avec MonetDB
- Explorer et effectuer différentes fonctions et tâches dans MonetDB
- Accélérer la livraison de leur projet en maximisant les capacités de MonetDB
Public
- Développeurs
- Experts techniques
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
À la fin de cette formation, les participants:
- Comprendre l'évolution et les tendances de l'apprentissage automatique.
- Savoir comment l'apprentissage machine est utilisé dans différents secteurs.
- Familiarisez-vous avec les outils, les compétences et les services disponibles pour implémenter l'apprentissage automatique au sein d'une organisation.
- Comprendre comment l'apprentissage automatique peut être utilisé pour améliorer l'exploration et l'analyse de données.
- Découvrez ce qu'est un backend de données et comment il est utilisé par les entreprises.
- Comprenez le rôle que jouent le big data et les applications intelligentes dans tous les secteurs.
Format du cours
- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Au cours de cette formation en direct animée par un instructeur, les participants apprendront les bases de Mem SQL pour le développement et l’administration.
À la fin de cette formation, les participants seront en mesure de:
- Comprendre les concepts clés et les caractéristiques de Mem SQL
- Installer, concevoir, maintenir et utiliser Mem SQL
- Optimiser les schémas dans Mem SQL
- Améliorer les requêtes dans Mem SQL
- Performance de référence dans Mem SQL
- Construire des applications de données en temps réel à l'aide de Mem SQL
Public
- Développeurs
- Administrateurs
- Ingénieurs d'exploitation
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
À la fin de cette formation, les participants seront capables de créer des applications de producteurs et de consommateurs pour le traitement de données en temps réel.
Public
- Développeurs
- Administrateurs
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
Remarque
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
This instructor-led, live training introduces the concepts and approaches for implementing geospacial analytics and walks participants through the creation of a predictive analysis application using Magellan on Spark.
By the end of this training, participants will be able to:
- Efficiently query, parse and join geospatial datasets at scale
- Implement geospatial data in business intelligence and predictive analytics applications
- Use spatial context to extend the capabilities of mobile devices, sensors, logs, and wearables
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Lors de cette formation en direct animée par un instructeur, les participants apprendront à utiliser Apache Kylin pour configurer un entrepôt de données en temps réel.
À la fin de cette formation, les participants seront en mesure de:
- Consommez des données en streaming en temps réel avec Kylin
- Utilisez Apache Kylin fonctionnalités puissantes d’ Apache Kylin , son interface SQL riche, son cubage par étincelle et sa latence de requête inférieure à la seconde
Remarque
- Nous utilisons la dernière version de Kylin (au moment d'écrire ces lignes, Apache Kylin v2.0)
Public
- Ingénieurs Big Data
- Big Data
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
Cette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux développeurs souhaitant mettre en œuvre Apache Kafka traitement de flux Apache Kafka sans écrire de code.
À la fin de cette formation, les participants seront en mesure de:
- Installez et configurez Confluent K SQL .
- Configurez un pipeline de traitement de flux en utilisant uniquement SQL commandes SQL (sans codage Java ou Python ).
- Effectuez le filtrage, les transformations, les agrégations, les jointures, le fenêtrage et la mise en session des données entièrement en SQL .
- Concevez et déployez des requêtes continues et interactives pour la diffusion en continu d'ETL et d'analyse en temps réel.
Format du cours
- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
dans ce cours en direct, dirigé par un instructeur, nous introduisons les processus impliqués dans KDD et réalisons une série d’exercices pour pratiquer la mise en œuvre de ces processus.
audience
- analystes de données ou toute personne intéressée à apprendre à interpréter les données pour résoudre les problèmes
format du cours
- après une discussion théorique de KDD, l’instructeur présentera des cas de la vie réelle qui appellent à l’application de KDD pour résoudre un problème. Les participants préparent, sélectionnent et nettoient des ensembles de données d’échantillonnage et utilisent leurs connaissances préalables sur les données pour proposer des solutions basées sur les résultats de leurs observations.
Lors de cette formation en direct animée par un instructeur, les participants apprendront les bases de la programmation basée sur les flux tout en développant un certain nombre d'extensions, de composants et de processeurs de démonstration utilisant Apache NiFi .
À la fin de cette formation, les participants seront en mesure de:
- Comprendre l'architecture et les concepts de flux de données de NiFi.
- Développez des extensions à l'aide d'API NiFi et tierces.
- Personnaliser développer leur propre processeur Apache Nifi.
- Acquérir et traiter des données en temps réel à partir de formats de fichiers et de sources de données disparates et peu communes.
Format du cours
- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Au cours de cette formation en direct animée par un instructeur, les participants apprendront comment intégrer Kafka Streams à un ensemble d’exemples d’applications Java qui transmettent des données depuis et vers Apache Kafka pour le traitement de flux.
À la fin de cette formation, les participants seront en mesure de:
- Comprendre les fonctionnalités et les avantages de Kafka Streams par rapport aux autres infrastructures de traitement de flux
- Traiter les données de flux directement dans un cluster Kafka
- Écrire une application ou un microservice Java ou Scala intégrant Kafka et Kafka Streams
- Écrivez un code concis qui transforme les sujets d’entrée de Kafka en sujets de sortie de Kafka
- Construire, empaqueter et déployer l'application
Public
- Développeurs
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
Remarques
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser
Au cours de cette formation en direct animée par un instructeur (sur site ou à distance), les participants apprendront à configurer et à intégrer différents cadres de Stream Processing avec des systèmes de stockage de données volumineux existants ainsi que des applications logicielles et microservices connexes.
À la fin de cette formation, les participants seront en mesure de:
- Installez et configurez différents frameworks de Stream Processing , tels que Spark Streaming et Kafka Streaming.
- Comprendre et sélectionner le cadre le plus approprié pour le travail.
- Traitement des données en continu, simultanément et enregistrement par enregistrement.
- Intégrez les solutions de Stream Processing continu aux bases de données, aux entrepôts de données, aux lacs de données, etc. existants
- Intégrez la bibliothèque de traitement de flux la plus appropriée aux applications d'entreprise et aux microservices.
Public
- Les développeurs
- Architectes logiciels
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
Remarques
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
- développeurs
format du cours
- conférences, pratique pratiques, petits tests le long du chemin pour évaluer la compréhension
Impala permet aux utilisateurs d'émettre des requêtes SQL faible temps de latence pour les données stockées dans Hadoop Distributed File System et Apache Hbase sans nécessiter de déplacement ou de transformation de données.
Public
Ce cours est destiné aux analystes et aux scientifiques qui effectuent des analyses sur les données stockées dans Hadoop via SQL outils de Business Intelligence ou SQL .
Après ce cours, les délégués seront en mesure de
- Extrayez des informations utiles à partir de clusters Hadoop avec Impala .
- Ecrivez des programmes spécifiques pour faciliter la Business Intelligence dans Impala SQL Dialect.
- Dépanner Impala .
Cette formation en direct animée par un instructeur (sur site ou à distance) présente Hortonworks Data Platform (HDP) et guide les participants dans le déploiement de la solution Spark + Hadoop .
À la fin de cette formation, les participants seront en mesure de:
- Utilisez Hortonworks pour exécuter Hadoop de manière fiable à grande échelle.
- Unifiez les capacités de sécurité, de gouvernance et d'exploitation de Hadoop avec les workflows d'analyse agiles de Spark.
- Utilisez Hortonworks pour étudier, valider, certifier et soutenir chacun des composants d’un projet Spark.
- Traitez différents types de données, y compris les données structurées, non structurées, en mouvement et au repos.
Format du cours
- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Nous guiderons un développeur à travers l'architecture HBase, la modélisation de données et le développement d'applications sur HBase. Il discutera également de l’utilisation de MapReduce avec HBase et de quelques sujets d’administration liés à l’optimisation des performances. Le cours est très pratique avec de nombreux exercices de laboratoire.
Durée : 3 jours
Audience : Développeurs et Administrateurs
In this instructor-led, live training, participants will learn how to work with Hadoop, MapReduce, Pig, and Spark using Python as they step through multiple examples and use cases.
By the end of this training, participants will be able to:
- Understand the basic concepts behind Hadoop, MapReduce, Pig, and Spark
- Use Python with Hadoop Distributed File System (HDFS), MapReduce, Pig, and Spark
- Use Snakebite to programmatically access HDFS within Python
- Use mrjob to write MapReduce jobs in Python
- Write Spark programs with Python
- Extend the functionality of pig using Python UDFs
- Manage MapReduce jobs and Pig scripts using Luigi
Audience
- Developers
- IT Professionals
Format of the course
- Part lecture, part discussion, exercises and heavy hands-on practice
Ce cours a pour but de démystifier la technologie Big Data / Hadoop et de montrer qu’elle n’est pas difficile à comprendre.
Ce cours présente aux chefs de projet le framework de traitement de Big Data les plus populaires: Hadoop .
Au cours de cette formation dispensée par un instructeur, les participants apprendront les composants essentiels de l'écosystème Hadoop et comment utiliser ces technologies pour résoudre des problèmes à grande échelle. En apprenant ces bases, les participants amélioreront également leur capacité à communiquer avec les développeurs et les développeurs de ces systèmes, ainsi qu'avec les scientifiques et les analystes de données impliqués dans de nombreux projets informatiques.
Public
- Chefs de projet souhaitant implémenter Hadoop dans leur infrastructure de développement ou informatique existante
- Les gestionnaires de projet doivent communiquer avec des équipes interfonctionnelles comprenant des ingénieurs Big Data, des scientifiques de données et des analystes métier.
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
Au cours de cette formation en direct animée par un instructeur (sur site ou à distance), les participants apprendront à déployer et à gérer Apache NiFi dans un environnement de laboratoire réel.
À la fin de cette formation, les participants seront en mesure de:
- Installez et configurez Apachi NiFi.
- Créez, transformez et gérez des données à partir de sources de données disparates et distribuées, y compris des bases de données et des grands lacs de données.
- Automatiser les flux de données.
- Activer l'analyse en streaming.
- Appliquez diverses approches pour l’ingestion de données.
- Transformez le Big Data en un aperçu des affaires.
Format du cours
- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Public : développeurs
Durée: trois jours
Format: cours magistraux (50%) et travaux pratiques (50%).
Il se divise en deux paquets:
-
spark.mllib contient l'API d'origine construite sur les RDD.
-
spark.ml fournit des API de niveau supérieur construites à partir de DataFrames pour la construction de pipelines ML.
Public
Ce cours s’adresse aux ingénieurs et aux développeurs qui souhaitent utiliser une bibliothèque de machines intégrée à Apache Spark