Apache Hadoop to otwarte rozwiązanie do przetwarzania rozproszonego na dużych danych

Big data to termin marketingowy, który obejmuje całą ideę danych pozyskiwanych ze źródeł takich jak wyszukiwarki, wzorce zakupów w sklepie spożywczym śledzone przez karty punktów itp. We współczesnym świecie Internet ma tak wiele źródeł danych, że często Skala czyni go bezużytecznym bez przetwarzania i przetwarzania zajmie niesamowitą ilość czasu przez jeden serwer. Wejdź do Apache Hadoop

Mniej czasu na przetwarzanie danych

Wykorzystując architekturę Hadoop do dystrybucji zadań przetwarzania na wielu komputerach w sieci , czasy przetwarzania zmniejszają się astronomicznie, a odpowiedzi można ustalić w rozsądnym czasie. Apache Hadoop jest podzielony na dwa różne komponenty: komponent pamięci masowej i komponent przetwarzania. Mówiąc najprościej, Hapood tworzy jeden serwer wirtualny z wielu fizycznych maszyn . W rzeczywistości Hadoop zarządza komunikacją między wieloma maszynami, tak aby współpracowały ze sobą wystarczająco dokładnie, aby wyglądało na to, że tylko jedna maszyna pracuje na obliczeniach. Dane są rozmieszczane na wielu komputerach do przechowywania, a zadania przetwarzania są przydzielane i koordynowane przez architekturę Hadoop . Ten rodzaj systemu jest wymagany do konwersji surowych danych na użyteczne informacje w skali danych wejściowych Big Data. Rozważ ilość danych, które Google otrzymuje co sekundę od użytkowników wprowadzających żądania wyszukiwania. Jako całkowita bryła danych nie wiedziałbyś, od czego zacząć, ale Hadoop automatycznie zmniejszy zestaw danych na mniejsze, uporządkowane podzbiory danych i przypisze te zarządzalne podzestawy do konkretnych zasobów. Wszystkie wyniki są następnie raportowane i łączone w użyteczne informacje .

Serwer łatwy do ustawienia

Chociaż system brzmi skomplikowanie, większość ruchomych części jest zasłonięta abstrakcją. Konfigurowanie serwera Hadoop jest dość proste , wystarczy zainstalować komponenty serwera na sprzęcie spełniającym wymagania systemowe. Najtrudniejszą częścią jest planowanie sieci komputerów, które serwer Hadoop będzie wykorzystywał w celu dystrybucji ról przechowywania i przetwarzania. Może to obejmować utworzenie sieci lokalnej lub połączenie wielu sieci w Internecie . Możesz także wykorzystać istniejące usługi w chmurze i zapłacić za klaster Hadoop na popularnych platformach chmurowych, takich jak Microsoft Azure i Amazon EC2. Są one jeszcze łatwiejsze do skonfigurowania, ponieważ można je rozpakować ad hoc, a następnie zlikwidować klastry, gdy już ich nie potrzebujesz. Tego typu klastry są idealne do testowania, ponieważ płacisz tylko za czas, w którym aktywny jest klaster Hadoop.

Przetwarzaj swoje dane, aby uzyskać potrzebne informacje

Duże dane to niezwykle potężny zasób, ale dane są bezużyteczne, chyba że można je odpowiednio sklasyfikować i zamienić w informacje. Obecnie klastry Hadoop oferują niezwykle opłacalną metodę przetwarzania tych zbiorów danych w informacje.

  • Zalety

    • Doskonały sposób wykorzystania potężnej funkcji MapReduce i rozproszonych plików do przetwarzania nadmiernie dużych zbiorów danych
    • Jest open source do użytku na własnych klastrach sprzętu
    • Mogą być wykorzystywane przez popularne platformy chmurowe, takie jak Microsoft Azure i Amazon EC2
  • Wady

    • Nie dla laika, powinien dysponować pewnym doświadczeniem technicznym, aby móc nim zarządzać i wykorzystywać
    • Oparte na systemie Linux, nie dla wszystkich użytkowników

Szczegóły

Program jest dostępny w innych językach



Opinie użytkowników o Apache Hadoop

Czy próbowałeś Apache Hadoop? Bądź pierwszy zostawić swoją opinię!

Dodaj opinię

Również może Cię zainteresować

Alternatywa dla Apache Hadoop

Przeglądaj aplikacje

Najnowsze artykuły

Przepisy dotyczące korzystania z tego oprogramowania różnią się w zależności od kraju. Nie zachęcamy do korzystania z tego programu ani nie akceptujemy go, jeśli narusza on prawo.
Softonic

Czy Apache Hadoop jest bezpieczny?

Wynik skanowania: Czysty

Ten plik przeszedł kompleksowe skanowanie bezpieczeństwa przy użyciu technologii VirusTotal. Jest bezpieczny do pobrania.

  • Wolny od wirusów
  • Wolny od spyware
  • Wolny od malware
  • Zweryfikowane przez Partnerów Bezpieczeństwa

    Logo VirusTotal

Informacje o Skanowaniu

Ostatni skan
środa, 2 grudnia 2020
Dostawca skanowania
VirusTotal

Zobowiązanie bezpieczeństwa Softonic

Apache Hadoop został dokładnie przeskanowany przez nasze zaawansowane systemy bezpieczeństwa i zweryfikowany przez wiodących partnerów branżowych. Ten plik pochodzi od oficjalnego dewelopera i przeszedł wszystkie nasze kontrole bezpieczeństwa, nie wykazując oznak wirusów, malware lub spyware. Aby uzyskać więcej informacji, odwiedź nasze Centrum Bezpieczeństwa i Zaufania