Afficher la notice abrégée
dc.contributor.author |
FELLAH, Abdeldjalil |
|
dc.date.accessioned |
2016-12-06T14:46:57Z |
|
dc.date.available |
2016-12-06T14:46:57Z |
|
dc.date.issued |
2016-06-13 |
|
dc.identifier.uri |
http://dspace.univ-chlef.dz:8080/jspui/handle/123456789/1028 |
|
dc.description |
Memoire de Master II en Informatique / Option : I.S.I.A |
fr_FR |
dc.description.abstract |
Face aux exigences nouvelles des entreprises (quantité massive de données, variété
de données, multitudes de sources hétérogènes de données, etc.), les technologies
traditionnelles utilisées pour l’intégration, le traitement, le stockage et l’analyse de
données massives atteignent désormais leurs limites. Et c’est la cause essentielle de
l’apparition d’un nouveau concept qui est le Big data.
Ce travail consiste à présenter la plateforme la plus populaire dans le monde du Big
Data "Hadoop" avec son système de fichier HDFS, son modèle de traitement MapReduce
et son gestionnaire de ressources Yarn. Ensuite, à décrire et présenter le problème de
performance d’Hadoop dans un milieu hétérogène de machines et trouver des solutions
appropriées.
L’application consiste à construire un cluster de plusieurs machines et tester les
solutions proposées avec une application Java Swing qui extrait des statistiques
météorologiques depuis la base de données du NCDC. |
fr_FR |
dc.language.iso |
fr |
fr_FR |
dc.subject |
Big Data, Hadoop, HDFS, Yarn, MapReduce, Milieu Hétérogène |
fr_FR |
dc.title |
Une Approche Scalable pour le Traitement de Grande Quantité de Données |
fr_FR |
dc.type |
Thesis |
fr_FR |
Fichier(s) constituant ce document
Ce document figure dans la(les) collection(s) suivante(s)
Afficher la notice abrégée