Apache Hadoop, conheça mais

Apache Hadoop é uma plataforma para processamento distribuído de alta performance. Essa nova tecnologia é considerada umas das principais para utilização de Big Data

É um framework que permite o processamento distribuído de grandes conjuntos de dados em clusters de computadores usando modelos de programação simples. Ele é projetado para ampliar a partir de um único servidor para milhares de máquinas, cada um oferecendo computação e de armazenamento local. Ao invés de confiar em hardware para proporcionar alta disponibilidade, a própria biblioteca é projetado para detectar e lidar com falhas na camada de aplicação, de modo que a entrega de um serviço altamente disponível no topo de um cluster de computadores, cada um dos quais pode ser propenso a falhas.

O projeto Apache Hadoop ™ ® desenvolve software de código aberto para escalável, computação confiável, distribuído.

É um framework que permite o processamento distribuído de grandes conjuntos de dados em clusters de computadores usando modelos de programação simples. Ele é projetado para ampliar a partir de um único servidor para milhares de máquinas, cada um oferecendo computação e de armazenamento local. Ao invés de confiar em hardware para proporcionar alta disponibilidade, a própria biblioteca é projetado para detectar e lidar com falhas na camada de aplicação, de modo que a entrega de um serviço altamente disponível no topo de um cluster de computadores, cada um dos quais pode ser propenso a falhas.

Materiais Hadoop