Les formations Big Data

Les formations Big Data

Le terme BigData vise l'ensemble des solutions liées au stockage et au traitement d'un ensemble considérable de données. Les solutions BigData ont été initialement développées par Google, cependant, désormais, beaucoup d'implémentations open-source sont disponibles, dont Apache Hadoop, Cassandra ou Cloudera Impala. Selon des rapports de Gartner, BigData est la prochaine étape au niveau des technologies de l'information, aprés le Cloud Computing et sera la nouvelle tendance pour les prochaine années.

Nos Clients témoignent

★★★★★
★★★★★

Nos clients

Plans de cours Big Data

Nom du Cours
Durée
Aperçu
Nom du Cours
Durée
Aperçu
21 hours
Python est un langage de programmation scalable, flexible et largement utilisé pour la science des données et l'apprentissage automatique. Spark est un moteur de traitement de données utilisé dans la recherche, l'analyse et la transformation de données grandes, tandis que Hadoop est un cadre de bibliothèque logicielle pour le stockage et le traitement de données à grande échelle.

Cette formation guidée par les instructeurs (online ou on-site) est destinée aux développeurs qui souhaitent utiliser et intégrer Spark, Hadoop, et Python pour traiter, analyser et transformer de grands et complexes ensembles de données.

À la fin de cette formation, les participants seront en mesure de :

Créez l’environnement nécessaire pour commencer à traiter les grandes données avec Spark, Hadoop, et Python. Comprendre les caractéristiques, les composants de base et l'architecture de Spark et Hadoop. Apprenez à intégrer Spark, Hadoop, et Python pour le traitement de données grandes. Explorez les outils dans l'écosystème Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, et Flume). Construisez des systèmes de recommandations de filtration collaboratives similaires à Netflix, YouTube, Amazon, Spotify et Google. Utilisez Apache Mahout pour échanger les algorithmes d’apprentissage automatique.

Le format du cours

Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.

Options de personnalisation de cours

Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
14 hours
Waikato Environment for Knowledge Analysis (Weka) est un logiciel de visualisation de mining de données à source ouverte. Il fournit une collection d'algorithmes d'apprentissage automatique pour la préparation des données, la classification, le cluster et d'autres activités de minage de données.

Cette formation guidée par des instructeurs, en direct (online ou sur site) est destinée à des analystes de données et des scientifiques de données qui souhaitent utiliser Weka pour effectuer des tâches de minage de données.

À la fin de cette formation, les participants seront en mesure de :

Installer et configurer Weka Comprendre Weka l’environnement et le système de travail. Exécuter des tâches de minage de données en utilisant Weka.

Le format du cours

Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.

Options de personnalisation de cours

Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
14 hours
IBM SPSS Modeler est un logiciel utilisé pour la mining de données et l'analyse de texte. Il fournit un ensemble d'outils de minage de données qui peuvent construire des modèles prédictifs et effectuer des tâches d'analyse de données.

Cette formation guidée par des instructeurs, en direct (online ou sur site) est destinée à des analystes de données ou à toute personne qui souhaite utiliser SPSS Modeler pour effectuer des activités de minage de données.

À la fin de cette formation, les participants seront en mesure de :

Comprendre les principes fondamentaux de la mining de données. Apprenez comment importer et évaluer la qualité des données avec le Modèleur. Développer, déployer et évaluer efficacement les modèles de données.

Le format du cours

Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.

Options de personnalisation de cours

Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
35 hours
Les participants qui complètent cette formation guidée par l'instructeur, en direct, acquériront une compréhension pratique et réelle de Big Data et de ses technologies, méthodologies et outils connexes.

Les participants auront la possibilité de mettre ces connaissances en pratique à travers des exercices pratiques. L’interaction de groupe et le feedback d’instructeur constituent un élément important de la classe.

Le cours commence par une introduction aux concepts élémentaires de Big Data, puis progresse dans les langues de programmation et les méthodologies utilisées pour réaliser Data Analysis. Enfin, nous discutons des outils et des infrastructures qui permettent Big Data stockage, traitement distribué, et Scalacapacité.

Le format du cours

Lecture partielle, discussion partielle, pratique et mise en œuvre, quiz occasionnel pour mesurer le progrès.
21 hours
In this instructor-led, live training in Quebec, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
7 hours
Ce cours explique comment utiliser le SQL Hive SQL (AKA: Hive HQL, SQL sur Hive , Hive QL) pour les personnes qui extraient des données à partir de Hive
21 hours
La découverte de connaissances dans les bases de données (KDD) est le processus de découverte de connaissances utiles à partir d’une collection de données. Les applications réelles pour cette technique de minage de données comprennent le marketing, la détection de fraudes, les télécommunications et la fabrication.

Dans ce cours guidé par l'instructeur, en direct, nous introduisons les processus impliqués dans le KDD et effectuons une série d'exercices pour pratiquer la mise en œuvre de ces processus.

Audience

Analystes de données ou toute personne intéressée à apprendre à interpréter les données pour résoudre les problèmes

Le format du cours

Après une discussion théorique de KDD, l'instructeur présentera des cas de vie réelle qui demandent l'application de KDD pour résoudre un problème. Les participants prépareront, sélectionneront et nettoyeront des ensembles de données et utiliseront leurs connaissances antérieures sur les données pour proposer des solutions basées sur les résultats de leurs observations.
14 hours
Apache Kylin est un moteur d'analyse extrême et distribué pour le Big Data.

Lors de cette formation en direct animée par un instructeur, les participants apprendront à utiliser Apache Kylin pour configurer un entrepôt de données en temps réel.

À la fin de cette formation, les participants seront en mesure de:

- Consommez des données en streaming en temps réel avec Kylin
- Utilisez Apache Kylin fonctionnalités puissantes d’ Apache Kylin , son interface SQL riche, son cubage par étincelle et sa latence de requête inférieure à la seconde

Remarque

- Nous utilisons la dernière version de Kylin (au moment d'écrire ces lignes, Apache Kylin v2.0)

Public

- Ingénieurs Big Data
- Big Data

Format du cours

- Partie de conférence, partie de discussion, exercices et exercices intensifs
14 hours
Datameer est une plateforme de business intelligence et d'analyse basée sur Hadoop Il permet aux utilisateurs finaux d'accéder, d'explorer et de mettre en corrélation des données à grande échelle, structurées, semi-structurées et non structurées de manière simple Dans cette formation en ligne, les participants apprendront à utiliser Datameer pour surmonter la courbe d'apprentissage abrupte d'Hadoop à mesure qu'ils progressent dans la configuration et l'analyse d'une série de sources de données volumineuses À la fin de cette formation, les participants seront en mesure de: Créer, organiser et explorer de manière interactive un lac de données d'entreprise Accéder aux entrepôts de données de Business Intelligence, aux bases de données transactionnelles et aux autres magasins analytiques Utiliser une interface utilisateur de feuille de calcul pour concevoir des pipelines de traitement de données endtoend Accéder à des fonctions prédéfinies pour explorer des relations de données complexes Utilisez les assistants draganddrop pour visualiser les données et créer des tableaux de bord Utiliser des tableaux, des graphiques, des graphiques et des cartes pour analyser les résultats de la requête Public Analystes de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
L'exploration de données est le processus d'identification des modèles dans les mégadonnées avec des méthodes de science des données telles que l'apprentissage automatique. En utilisant Excel comme suite analytique de données, les utilisateurs peuvent effectuer une exploration et une analyse des données.

Cette formation en direct dirigée par un instructeur (sur site ou à distance) s'adresse aux scientifiques des données qui souhaitent utiliser Excel pour l'exploration de données.

À la fin de cette formation, les participants seront en mesure de:

- Explorez les données avec Excel pour effectuer une exploration et une analyse des données.
- Utilisez des algorithmes Microsoft pour l'exploration de données.
- Comprendre les concepts de l'exploration de données Excel .

Format du cours

- Conférence et discussion interactives.
- Beaucoup d'exercices et de pratique.
- Implémentation pratique dans un environnement de laboratoire en direct.

Options de personnalisation des cours

- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
21 hours
Dremio est une plate-forme de données open-source qui accélère la recherche de différents types de sources de données. Dremio intégré avec des bases de données relatives, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, et d'autres sources de données. Il soutient SQL et fournit un UI Web pour les requêtes de construction.

Dans cette formation guidée par l'instructeur, les participants apprendront comment installer, configurer et utiliser Dremio en tant que couche unifiante pour les outils d'analyse des données et les repositaires de données de base.

À la fin de cette formation, les participants seront en mesure de :

Installer et configurer Dremio Exécuter des requêtes contre plusieurs sources de données, indépendamment de l’emplacement, de la taille ou de la structure Intégrer Dremio avec BI et sources de données telles que Tableau et Elasticsearch

Audience

Les scientifiques de données Business Les analystes Ingénieurs de données

Format du cours

Lecture partielle, discussion partielle, exercices et pratiques lourdes

Notes

Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
14 hours
L'objectif du cours est de permettre aux participants d'acquérir une maîtrise du travail avec le langage SQL dans la base de données Oracle pour l'extraction de données au niveau intermédiaire.
21 hours
Apache Drill est un moteur de requête SQL en colonnes, distribué et inmémoire pour Hadoop, NoSQL et d'autres systèmes de stockage de nuages ​​et de fichiers La puissance d'Apache Drill réside dans sa capacité à joindre des données provenant de plusieurs banques de données en utilisant une seule requête Apache Drill prend en charge de nombreuses bases de données et systèmes de fichiers NoSQL, notamment HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS et les fichiers locaux Apache Drill est la version open source du système Dremel de Google, disponible en tant que service d'infrastructure appelé Google BigQuery Dans cette formation en ligne, les participants apprendront les principes de base d'Apache Drill, puis tireront parti de la puissance et de la commodité de SQL pour interroger interactivement les grandes données sur plusieurs sources de données, sans écrire de code Les participants apprendront également comment optimiser leurs requêtes Drill pour l'exécution SQL distribuée À la fin de cette formation, les participants seront en mesure de: Effectuer une exploration "selfservice" sur des données structurées et semi-structurées sur Hadoop Interrogation de données connues et inconnues à l'aide de requêtes SQL Comprendre comment Apache Drills reçoit et exécute des requêtes Écrivez des requêtes SQL pour analyser différents types de données, y compris des données structurées dans Hive, des données semi-structurées dans des tables HBase ou MapRDB, et des données enregistrées dans des fichiers tels que Parquet et JSON Utilisez Apache Drill pour effectuer la découverte de schéma onthefly, en évitant le besoin d'opérations ETL et de schémas complexes Intégrez Apache Drill à des outils BI (Business Intelligence) tels que Tableau, Qlikview, MicroStrategy et Excel Public Analystes de données Les scientifiques de données Programmeurs SQL Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Apache Arrow est un framework de traitement de données en mémoire open-source. Il est souvent utilisé avec d'autres outils de science des données pour accéder à des magasins de données disparates à des fins d'analyse. Il s'intègre bien à d'autres technologies telles que GPU bases de données GPU , les bibliothèques et outils d'apprentissage automatique, les moteurs d'exécution et les cadres de visualisation de données.

Au cours de cette formation en direct animée par un instructeur, les participants apprendront comment intégrer Apache Arrow à divers frameworks Data Science pour accéder à des données provenant de sources de données disparates.

À la fin de cette formation, les participants seront en mesure de:

- Installer et configurer Apache Arrow dans un environnement en cluster distribué
- Utilisez Apache Arrow pour accéder aux données de sources de données disparates
- Utilisez Apache Arrow pour éviter la construction et la maintenance de pipelines ETL complexes.
- Analyser des données sur des sources de données disparates sans avoir à les consolider dans un référentiel centralisé

Public

- Scientifiques de données
- Ingénieurs de données

Format du cours

- Partie de conférence, partie de discussion, exercices et exercices intensifs

Remarque

- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
14 hours
Cette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux développeurs, aux gestionnaires et aux analystes de logiciels souhaitant utiliser des systèmes Big Data pour stocker et récupérer de grandes quantités de données.

À la fin de cette formation, les participants seront en mesure de:

- Interrogez efficacement de grandes quantités de données.
- Comprendre comment le système Big Data stocke et récupère des données
- Utilisez les derniers systèmes Big Data disponibles
- Introduire les données des systèmes de données dans les systèmes de reporting
- Apprenez à écrire SQL requêtes SQL en:

- My SQL
- Postgres
- Hive Query Language ( Hive QL / HQL)
- Redshift

Format du cours

- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.

Options de personnalisation du cours

- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
35 hours
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information.

High-value government solutions will be created from a mashup of the most disruptive technologies:

- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics

IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured.

But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog.

The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it.

The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge.

Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.).

Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 hours
Public

Si vous essayez de comprendre les données auxquelles vous avez accès ou souhaitez analyser des données non structurées disponibles sur le réseau (comme Twitter, Linked in, etc.), ce cours est pour vous.

Il s’adresse principalement aux décideurs et aux personnes qui doivent choisir les données qui méritent d’être collectées et celles qui méritent d’être analysées.

Cela ne vise pas les personnes qui configurent la solution, ces personnes bénéficieront d'une vue d'ensemble.

Mode de livraison

Pendant le cours, des exemples concrets de technologies principalement open source seront présentés aux délégués.

De courtes conférences seront suivies de présentations et d'exercices simples des participants.

Contenu et logiciel utilisés

Tous les logiciels utilisés sont mis à jour à chaque exécution du cours, nous vérifions donc les dernières versions possibles.

Il couvre le processus d'obtention, de formatage, de traitement et d'analyse des données, afin d'expliquer comment automatiser le processus de prise de décision avec l'apprentissage automatique.
35 hours
Jour 1 - fournit un aperçu de haut niveau des domaines essentiels du Big Data . Le module est divisé en une série de sections, chacune étant accompagnée d'un exercice pratique.

Jour 2 - explore une gamme de sujets qui associent des pratiques et des outils d'analyse aux environnements Big Data . Il n'entre pas dans les détails de mise en œuvre ou de programmation, mais conserve la couverture à un niveau conceptuel, en se concentrant sur des sujets permettant aux participants de développer une compréhension complète des fonctions d'analyse communes offertes par Big Data solutions Big Data .

Jour 3 - donne un aperçu des sujets fondamentaux et essentiels liés à l’architecture de la plateforme de la solution Big Data . Il couvre Big Data mécanismes Big Data requis pour le développement d'une plate-forme de solution Big Data et les options architecturales pour l'assemblage d'une plate-forme de traitement de données. Des scénarios courants sont également présentés pour fournir une compréhension de base de la manière dont une plate-forme de solution Big Data est généralement utilisée.

Jour 4: poursuit le troisième jour en explorant des sujets avancés relatifs à l'architecture de la plateforme de la solution Big Data . En particulier, différentes couches architecturales constituant la plate-forme de solution Big Data sont introduites et discutées, notamment les sources de données, l'entrée de données, le stockage de données, le traitement de données et la sécurité.

Jour 5 - couvre un certain nombre d’exercices et de problèmes conçus pour tester la capacité des délégués à appliquer leurs connaissances des sujets traités les jours 3 et 4.
21 hours
Big Data désigne des solutions destinées au stockage et au traitement de grands ensembles de données. Développé par Go Ogle au départ, ces Big Data volumes de Big Data des solutions ont évolué et inspiré d' autres projets similaires, dont beaucoup sont disponibles en open source. R est un langage de programmation populaire dans le secteur financier.
14 hours
Lorsque les technologies de stockage traditionnelles ne gèrent pas la quantité de données que vous avez besoin de stocker, il existe des centaines d’alternatives. Ce cours essaie de montrer aux participants quelles sont les alternatives pour stocker et analyser le Big Data et quels sont leurs avantages et leurs inconvénients.

Ce cours est principalement axé sur la discussion et la présentation de solutions, bien que des exercices pratiques soient disponibles sur demande.
14 hours
Le cours fait partie des compétences de Data Scientist (domaine: données et technologie).
35 hours
Les données volumineuses sont des ensembles de données si volumineux et complexes qu'un logiciel de traitement de données traditionnel ne permet pas de les traiter. Les défis du Big Data incluent la capture, le stockage, l'analyse, la recherche, le partage, le transfert, la visualisation, l'interrogation, la mise à jour et la confidentialité des informations.
14 hours
Vespa est un moteur de traitement de données et de traitement de données opensource créé par Yahoo Il est utilisé pour répondre aux requêtes des utilisateurs, faire des recommandations et fournir un contenu personnalisé et des publicités en temps réel Cette formation en ligne, instruite, introduit les défis de la diffusion de données à grande échelle et guide les participants à travers la création d'une application capable de calculer les réponses aux demandes des utilisateurs, sur de grands ensembles de données en temps réel À la fin de cette formation, les participants seront en mesure de: Utilisez Vespa pour calculer rapidement les données (stocker, rechercher, classer, organiser) au moment du service pendant qu'un utilisateur attend Implémenter Vespa dans des applications existantes impliquant la recherche de fonctionnalités, les recommandations et la personnalisation Intégrez et déployez Vespa avec les systèmes Big Data existants tels que Hadoop et Storm Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Pour satisfaire à la conformité des régulateurs, les CSP (fournisseurs de services de Communication ) peuvent exploiter Big Data Analytics, qui les aide non seulement à respecter la conformité, mais dans le cadre du même projet, ils peuvent augmenter la satisfaction de la clientèle et ainsi réduire le taux de désabonnement. En fait, puisque la conformité est liée à la qualité de service liée à un contrat, toute initiative visant à respecter la conformité améliorera «l’avantage concurrentiel» des DSP. Par conséquent, il est important que les régulateurs soient en mesure de conseiller / orienter un ensemble de pratiques analytiques Big Data pour les DSP, qui apporteront un bénéfice mutuel entre les régulateurs et les DSP.

Le cours comprend 8 modules (4 le jour 1 et 4 le jour 2)
35 hours
Les progrès technologiques et la quantité croissante d'informations transforment la manière dont la police est appliquée. Les défis que Big Data posent sont presque aussi difficile que Big Data promesse. Le stockage efficace des données est l’un de ces défis; l’analyser efficacement en est un autre.

Dans le cadre de cette formation en direct animée par un instructeur, les participants apprendront l’état d’esprit permettant d’approcher Big Data technologies Big Data , d’évaluer leur impact sur les processus et les politiques existants, et de mettre en œuvre ces technologies afin de détecter les activités criminelles et de les prévenir. Des études de cas d’organismes d’application de la loi du monde entier seront examinées pour mieux comprendre leurs approches, leurs défis et leurs résultats en matière d’adoption.

À la fin de cette formation, les participants seront en mesure de:

- Combinez Big Data technologie Big Data avec les processus de collecte de données traditionnels pour reconstituer une histoire au cours d'une enquête
- Mettre en œuvre des solutions industrielles de stockage et de traitement de données volumineuses pour l'analyse de données
- Préparer une proposition en vue de l'adoption des outils et des processus les plus adéquats pour permettre une approche des enquêtes criminelles fondée sur les données

Public

- Spécialistes de l'application de la loi avec une formation technique

Format du cours

- Partie de conférence, partie de discussion, exercices et exercices intensifs
14 hours
Cette session de formation en classe explorera le Big Data . Les délégués disposeront d'exemples sur ordinateur et d'exercices d'étude de cas à entreprendre avec des outils Big Data pertinents.
14 hours
Objectif : cette formation vise à aider les participants à comprendre pourquoi le Big Data change nos vies et comment il modifie la façon dont les entreprises nous perçoivent en tant que consommateurs. En effet, les utilisateurs de Big Data dans les entreprises trouvent que le Big Data libère une mine d'informations et d'informations qui se traduisent par des profits plus élevés, des coûts réduits et des risques réduits. Cependant, l'inconvénient était la frustration parfois due à une trop grande insistance sur les technologies individuelles et à une focalisation insuffisante sur les piliers de la gestion du Big Data.

Durant ce cours, les participants apprendront comment gérer le Big Data à l'aide de ses trois piliers: intégration des données, gouvernance des données et sécurité des données, afin de transformer le Big Data en une véritable valeur métier. Différents exercices conduits sur une étude de cas de gestion de la clientèle aideront les participants à mieux comprendre les processus sous-jacents.
7 hours
Cette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux techniciens souhaitant apprendre à mettre en œuvre une stratégie d’apprentissage automatique tout en maximisant l’utilisation du Big Data.

À la fin de cette formation, les participants:

- Comprendre l'évolution et les tendances de l'apprentissage automatique.
- Savoir comment l'apprentissage machine est utilisé dans différents secteurs.
- Familiarisez-vous avec les outils, les compétences et les services disponibles pour implémenter l'apprentissage automatique au sein d'une organisation.
- Comprendre comment l'apprentissage automatique peut être utilisé pour améliorer l'exploration et l'analyse de données.
- Découvrez ce qu'est un backend de données et comment il est utilisé par les entreprises.
- Comprenez le rôle que jouent le big data et les applications intelligentes dans tous les secteurs.

Format du cours

- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.

Options de personnalisation du cours

- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
7 hours
Apache Sqoop est une interface de ligne de commande pour le déplacement des données à partir de bases de données relationnelles et de Hadoop. Apache Flume est un logiciel distribué pour la gestion des données volumineuses. En utilisant Sqoop et Flume, les utilisateurs peuvent transférer des données entre les systèmes et importer des données volumineuses dans des architectures de stockage telles que Hadoop.

Cette formation en direct dirigée par un instructeur (sur place ou à distance) s’adresse aux ingénieurs logiciels qui souhaitent utiliser Sqoop et Flume pour transférer des données entre les systèmes.

À la fin de cette formation, les participants pourront :

- Ingérer le Big Data avec Sqoop et Flume.
- Ingérer les données provenant de sources de données multiples.
- Déplacer les données des bases de données relationnelles vers HDFS et Hive.
- Exportation des données de HDFS vers une base de données relationnelle.

Format du cours

- Conférence interactive et discussion.
- Beaucoup d’exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire en direct.

Options de personnalisation de cours

- Pour demander une formation personnalisée pour ce cours, s’il vous plaît contactez-nous pour organiser.
28 hours
Talend Open Studio pour Big Data est un outil ETL open source pour le traitement de données grandes. Il comprend un environnement de développement pour interagir avec Big Data sources et objectifs, et effectuer des emplois sans avoir à écrire des codes.

Cette formation guidée par les instructeurs, en direct (online ou sur site) est destinée aux personnes techniques qui souhaitent déployer Talend Open Studio pour Big Data pour simplifier le processus de lecture et de crunching à travers Big Data.

À la fin de cette formation, les participants seront en mesure de :

Installation et configuration Talend Open Studio pour Big Data. Connectez-vous à des systèmes Big Data tels que Cloudera, HortonWorks, MapR, Amazon EMR et Apache. Comprendre et configurer les grands composants de données et connecteurs Open Studio. Configurez les paramètres pour générer automatiquement le code MapReduce. Utilisez l'interface de drag-and-drop de Open Studio's pour exécuter Hadoop de tâches. Prototype de big data pipelines. Projets d’intégration automatique de big data.

Le format du cours

Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.

Options de personnalisation de cours

Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.

Last Updated:

Weekend Big Data cours, Soir Big Data formation, Big Data stage d’entraînement, Big Data formateur à distance, Big Data formateur en ligne, Big Data formateur Online, Big Data cours en ligne, Big Data cours à distance, Big Data professeur à distance, Big Data visioconférence, Big Data stage d’entraînement intensif, Big Data formation accélérée, Big Data formation intensive, Formation inter Big Data, Formation intra Big Data, Formation intra Enteprise Big Data, Formation inter Entreprise Big Data, Weekend Big Data formation, Soir Big Data cours, Big Data coaching, Big Data entraînement, Big Data préparation, Big Data instructeur, Big Data professeur, Big Data formateur, Big Data stage de formation, Big Data cours, Big Data sur place, Big Data formations privées, Big Data formation privée, Big Data cours particulier, Big Data cours particuliers

Réduction spéciale

No course discounts for now.

Newsletter offres spéciales

Nous respectons le caractère privé de votre adresse mail. Nous ne divulguerons ni ne vendrons votre adresse email à quiconque
Vous pouvez toujours modifier vos préférences ou vous désinscrire complètement.

This site in other countries/regions