オープンソースのビッグデータ分析

著者: Laura McKinney
作成日: 1 4月 2021
更新日: 14 5月 2024
Anonim
ヘルスビッグデータ分析基盤のデータパイプラインの効率化
ビデオ: ヘルスビッグデータ分析基盤のデータパイプラインの効率化

コンテンツ

定義-オープンソースのビッグデータ分析とはどういう意味ですか?

オープンソースのビッグデータ分析とは、組織がビジネス目標を促進するために使用できる関連性のある実用的な情報を収集するために、大量のデータを分析するためのオープンソースソフトウェアとツールの使用を指します。オープンソースのビッグデータ分析の最大のプレーヤーはApaches Hadoopです。これは、並列処理の分散プロセスを使用してコンピューターのクラスター全体で膨大なデータセットを処理するために最も広く使用されているソフトウェアライブラリです。


Microsoft AzureとMicrosoft Cloudの紹介|このガイドを通して、クラウドコンピューティングとは何か、Microsoft Azureを使用してクラウドからビジネスを移行および実行する方法を学習します。

Techopediaがオープンソースのビッグデータ分析を説明

オープンソースのビッグデータ分析では、ソフトウェアプラットフォーム全体を使用するか、データ分析のプロセスのさまざまなタスクにさまざまなオープンソースツールを使用して、ビッグデータ分析を実行するために、オープンソースのソフトウェアとツールを使用します。 Apache Hadoopはビッグデータ分析で最もよく知られているシステムですが、実際の分析システムを組み立てるには他のコンポーネントが必要です。

Hadoopは、GoogleとYahooによって開発されたMapReduceアルゴリズムのオープンソース実装であるため、今日のほとんどの分析システムの基盤となっています。多くのビッグデータ分析ツールは、オープンソースMongoDBなどの堅牢なデータベースシステムなど、オープンソースを利用しています。これは、ビッグデータアプリケーションなどに非常に適した洗練されたスケーラブルなNoSQLデータベースです。

オープンソースのビッグデータ分析サービスには以下が含まれます。

  • データ収集システム
  • クラスタを管理および監視するためのコントロールセンター
  • 機械学習およびデータマイニングライブラリ
  • アプリケーション調整サービス
  • 計算エンジン
  • 実行フレームワーク