Je vais vous former sur les technologies Big Data (Hadoop et Spark)

0 sales

Sold by kTannir Professional 0 sales

QUI SUIS JE et CE QUE JE FAIS

Je suis Khaled Tannir, Architecte et enseignant Big Data avec plus de 25 années d'expérience. Je travaille comme consultant (freelance) et j'enseigne le Big Data à l'université McGill (au Canada).

Je maîtrise les technologies Big Data tels que Hadoop, Spark, Hive, Impala, Pig, Nifi, Kafka ainsi que d'autres outils incontournables pour le stockage et le traitement des données massives.

Je suis passioné par le Big Data, je suis auteur de deux livres et relecteur techniques de 7 autres.

MON EXPÉRIENCE

J'ai de l'expérience dans le domaine du Big Data, je travaille en tant que architecte pour plusieurs grand Comptes tels que la Banque Nationale du Canada et le Canadian National (équivalent de la SNCF en France)
Je suis aussi enseignant à l'université McGill (1ère université au Canada, enseignement dispensé en anglais) où j'enseigne le cours 'Data at Scale' (Les données à grande échelle).


QUE VAIS - JE FAIRE POUR VOUS ?

Je vais vous aider à monter en compétence dans le domaine du Big Data et booster votre carrière grâce à la mise en application de vos nouvelles connaissances.

Profitez d'une formation de 30min pour poser vos questions et comprendre les caractéristiques de base du Big Data. Tout ce qui est en rapport avec les fameux 5 Vs du Big Data.
Au cours de cette séance de formation je vous explique les diférents formats de données et les technologies nécessaires au stockage et au traitement des Big Data.

Aussi j'aborderai les solutions Cloud existantes et nessaires pour analyser et stocker les larges volumes de données.

Je vous apprendrai ce que vous devez savoir en fonction de votre besoin et votre activité professionnelle.

Pour une meilleure maîtrise du sujet, et en fonction de votre besoin, cette formation peut être personnalisée pour aller plus dans les détails et aborder des sujets particuliers plus complexes tels que le stokage et le traitement distribué avec Hadoop,
l'analyse des données structurées avec MapReduce, Hive, Impala ou Spark, l'analyse des données non structurées avec Pig. Tout comme l'ingestion des données en temps réel et la création de flux avec NiFi à partir de
plateforme publique telles que Twitter et Meetup.

Que vous soyez étudiant ou professionnel, je peux répondre à votre demande en apportant des réponses précises et complètes à toutes vos questions.


POURQUOI CE SERVICE ?

Les technologies Big Data sont désormais incontournables dans tous projet impliquant des traitements de données massives tels que l'intelligence artificielle et la fouille de données. Sauf que ces technologies sont très complexes et ne sont pas à la portée de tout le monde. La plupart des outils sont open-source, très peu documentés et le plus souvent en anglais.

Avec cette formation je vous apporte le confort de la compréhension
en Français, le tout basé sur des exemples réels.
Vous pouvez désomrais vous fiez à vos nouvelles connaissances acquises dans ce domaine pour aller plus de l'avant dans le monde de la science des données !!!

COMMENT ÇA MARCHE ?

1 - Je ferai une analyse de votre besoin et de votre niveau de connaissance en la matière
2 - J'adapterai la formation en fonction de votre besoin / niveau / et demande
3 - Nous ferons la formation en fonction d'un planning que nous définirons ensemble

Au programme :

a - Introduction aux données massives : sources, classement, caractéristques (Volume, Variété, Vélocité, Véracité, Visualisation)
b - Introcution aux stockage et traitement distribués
c - Présentation de Hadoop (historique et ecosystème)
d - Les distributions Hadoop
e - Les solutions Cloud du marché.

f - Je vous conseillerai sur les marqueurs importants par rapport à votre besoin/activité
g - Je vous proposerai des astuces et des exemples basés sur des cas réels.


DES PRÉREQUIS ?

Effectivement, il est important que vous possediez un ordinateur ayant de bonnes ressources mémoire et espace disque si vous souhaitez mettre en application ces technologies.
Je recommande une configuration ayant 16 Go au minimum (32 Go recommandé) et au moins 50 Go d'espace disque disponible (100 Go serait parfait).
Dans le cas contraire, je vous recommendrai des solutions Cloud (Amazon Web Services ou Google Cloud Platform). Toutefois les solutions Cloud nécésssitent une inscription et sont payantes, mais très accessibles (entre 50 centimes et 80 centimes de l'heure).

Aussi si vous souhaitez aller plus dans le détails il est important d'avoir des connaissances (aux moins de base) du système Linux, du langage SQL et du langage Java ou Python.


COMMENT ALLONS NOUS PROCÉDER ?

Nous ferons des séances de travail sur Skype ou Zoom. Vous pouvez demander en plus des vidéos de mise en pratique et/ou d'exercices que je peux enregistrer pour vous (vidéos que vous aurez quelques jours plus tard) pour vous aider à poursuivre.

Les vidéos seront faites exclusivement par moi et en fonction de votre formation, chaque vidéo peut durer entre 5min et 30min.

Et comme je suis à votre écoute tout le temps :) , je vous aiderai en cas de besoin même hors service.


QUELLES SONT VOS OPTIONS ?

Des options sont là pour vous aider à mieux comprendre la mise en pratique en utilisant vos propores données ou en utilisant des données exemples si vous en avez pas.
En effet, il est plus simple pour vous de suivre comment je procède avec une vidéo correspondante plutôt que de passer des heures à expliquer comment faire.

Les options sont là donc pour compléter la formation initiale et vous permettre de suivre de façon sûre et claire l'usage d'un outil en particulier avec l'utilisation (ou pas) de vos données.

Je peux enregistrer pour vous une vidéo commentée en français (ou en anglais) pour illustrer l'utilisation d'un outil de l'ecosystème Hadoop / Spark en particulier. (Un outil parmi : hdfs/MapReduce, Pig, Hive/Impala, Sqoop, Nifi, Kafka, HBase, Spark, SparkSQL, SparkStreaming, Zeppelin).

Pour l'ecosystem Spark, SparkSQL, SparkStreaming les applications sont codées en mode interactif avec le langage Scala ou Python en utilisant l'interface Zeppelin.

En plus des vidéos, je vous fournirai aussi le code source et/ou la liste des commandes utilisées pour vous permettre de refaire plus tard les opérations chez vous.

POUQUOI ME CHOISIR ?

J'ai choisi l'enseignement car j'aime partager mon expérience et mes connaissances. Je suis attentif aux besoins de mes clients, étudiants et collaborateurs. J'adapte mon discours selon le niveau et l'expérience de mes élèves pour expliquer des choses complexes avec des mots et des exemples simples afin d'en assurer la compréhension et en vue de délivrer le meilleur service possible.

Je vais vous former sur les technologies Big Data (Hadoop et Spark)

  • €5.00

Extra options

All prices are excluding tax and bank fees. The total amount will be calculated during payment.

  1. Order
    your preferred service
    from one of our sellers
  2. Communicate securely via the website’s chat box
    from start to finish
  3. Sellers only get paid
    once you have validated the delivery

About the seller

kTannir 12 oct. 2020

“Khaled TANNIR Fondateur de dataXper, auteur, possède une expérience riche de plus 25 années en tant qu’Architecte Entreprise / Solutions, enseignant Big Data dans plusieurs domaines tels que La Finance, L’Asset Management, La Cosmétique et La Presse.”

  • Professional seller
  • Average response time
  • Orders in progress 0
  • Sales in total 0
  • Seller since Aug 2020