Loading AI tools
open-source softwareframework Van Wikipedia, de vrije encyclopedie
Apache Hadoop is een open source softwareframework voor gedistribueerde opslag en verwerking van grote hoeveelheden data met behulp van het MapReduce paradigma. Hadoop is als platform een drijvende kracht achter de populariteit van big data.[4] Het draait op een cluster van computers dat bestaat uit commodity hardware. In het ontwerp van de Hadoop-softwarecomponenten is rekening gehouden met uitval van systemen in een cluster, door o.a. data te repliceren en te verspreiden over meerdere computers/opslagmedia.
Apache Hadoop | ||||
---|---|---|---|---|
Ontwerper(s) | Doug Cutting, Mike Cafarella | |||
Ontwikkelaar(s) | Apache Software Foundation | |||
Uitgebracht | 1 april 2006 (18 jaar) | |||
Recentste versie | 1.0.0 (15 december 2011)[1][2][3] | |||
Status | Actief | |||
Besturingssysteem | multiplatform, POSIX | |||
Geschreven in | Java | |||
Categorie | Gedistribueerd bestandssysteem | |||
Licentie(s) | Apache License 2.0 | |||
Versiebeheer | Officiële broncode | |||
Website | Projectpagina | |||
|
Hadoop bestaat in de basis uit de volgende modules:
Naast deze basismodules is er een groot aantal applicaties ontwikkeld voor gebruik in of op Hadoop. Veelgebruikte applicaties zijn Apache Hive, Apache Pig, Apache HBase, Apache Phoenix, Apache Spark, Apache Flume, Apache Oozie, Apache Zookeeper, Apache Sqoop en Apache Storm. Met de naam Hadoop wordt daarom vaak niet alleen het framework, maar het hele ecosysteem van applicaties rondom het framework bedoeld.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.