1. usrディレクトリにHadoopディレクトリを作成し、インストールパッケージをそのディレクトリにインポートしてファイルを解凍します。2. vim /etc/profileファイルに入り、設定ファイルを編集します。#ハドゥープ HADOOP_HOME=/usr/hadoop/hadoop-2.6.0 をエクスポートします。 エクスポート CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib PATH=$PATH:$HADOOP_HOME/bin をエクスポートします。 3. ファイルを有効にするソース /etc/profile 4. Hadoopディレクトリに入る/usr/hadoop/hadoop-2.6.0/etc/hadoop をコピーします。 5. 設定ファイルを編集する(1) vim hadoop-env.shファイルを入力し、(java jdkファイルの場所)を追加します。 JAVA_HOME=/usr/java/jdk1.8.0_181 をエクスポートします。 (2)vim core-site.xmlを入力(z1:マスターノードのIPまたはマッピング名(自分のものに変更してください)) <構成> <プロパティ> <name>hadoop.tmp.dir</name> <値>ファイル:/root/hadoop/tmp</値> </プロパティ> <!--ポート番号 9000--> <プロパティ> <name>fs.default.name</name> <値>hdfs://z1:9000</値> </プロパティ> <!--数分でゴミ箱のメカニズムをオンにします--> <プロパティ> <name>fs.trash.insterval</name> <値>10080</値> </プロパティ> <!-- バッファ サイズ、実際の作業はサーバーのパフォーマンスに依存します --> <プロパティ> <name>io.file.buffer.sizei</name> <値>4096</値> </プロパティ> </構成> 39,9 下 (3)Hadoopにはmapred-site.xmlファイルがありません。ここにファイルをコピーしてmapred-site.xmlを入力してください。 cp mapred-site.xml.テンプレート mapred-site.xml vim mapred-site.xml (z1: マスターノードのIPまたはマッピング名(独自のものに変更)) <構成> <プロパティ> <!--yarn 上で実行するように Mapreduce を指定します--> <name>mapreduce.framework.name</name> <value>糸</value> </プロパティ> <!--MapReduce の小規模タスク モードを開始します--> <プロパティ> <name>mapred.job.ubertask.enable</name> <値>真</値> </プロパティ> <プロパティ> <name>mapred.job.tracker</name> <値>z1:9001</値> </プロパティ> <プロパティ> <name>mapreduce.jobhistory.address</name> <値>Cマスター:10020</値> </プロパティ> </構成> (4)yarn-site.xmlを入力する vim 糸サイト.xml (z1: マスターノードのIPまたはマッピング名(独自のものに変更)) <構成> <!-- サイト固有の YARN 構成プロパティ --> <!--yarn マスター ノードの場所を設定します--> <プロパティ> <name>yarn.resourcemanager.ホスト名</name> <値>z1</値> </プロパティ> <プロパティ> <!-- mapreduce、shuff1e 実行時にデータを取得する方法。--> <description>RM 内のアプリケーション マネージャー インターフェイスのアドレス。</description> <name>yarn.resourcemanager.address</name> <値>z1:8032</値> </プロパティ> <プロパティ> <name>yarn.resourcemanager.scheduler.address</name> <値>z1:8030</値> </プロパティ> <プロパティ> <name>yarn.resourcemanager.webapp.address</name> <値>z1:8088</値> </プロパティ> <プロパティ> <name>yarn.resourcemanager.webapp.https.address</name> <値>z1:8090</値> </プロパティ> <プロパティ> <name>yarn.resourcemanager.resource-tracker.address</name> <値>z1:8031</値> </プロパティ> <プロパティ> <name>yarn.resourcemanager.admin.address</name> <値>z1:8033</値> </プロパティ> <property><!-- mapreduce が shuff1e を実行するときにデータを取得する方法 --> <name>yarn.nodemanager.aux-services</name> <値>mapreduce_shuffle</値> </プロパティ> <プロパティ> <!-- メモリの設定、yarn のメモリ割り当て --> <name>yarn.scheduler.maximum-a11ocation-mb</name> <値>2024</値> <discription>ノードあたりの使用可能なメモリ、単位: M、デフォルト: 8182 MB</discription> </プロパティ> <プロパティ> <name>yarn.nodemanager.vmem-pmem-ratio</name> <値>2.1</値> </プロパティ> <プロパティ> <name>yarn.nodemanager.resource.memory-mb</name> <値>1024</値> </プロパティ> <プロパティ> <name>yarn.nodemanager.vmem-check-enabled</name> <値>偽</値> </プロパティ> <プロパティ> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <値>org.apache.hadoop.mapred.ShuffleHandler</値> </プロパティ> </構成> (5)hdfs-site.xmlを入力する vim hdfs-site.xml <構成> <プロパティ> <name>dfs.namenode.name.dir</name> <値>ファイル:/usr/hadoop/hadoop-2.6.0/hadoopDesk/namenodeDatas</値> </プロパティ> <プロパティ> <name>dfs.datanode.data.dir</name> <値>ファイル:/usr/hadoop/hadoop-2.6.0/hadoopDatas/namenodeDatas</値> </プロパティ> <プロパティ> <!--コピー数--> <name>dfs.replication</name> <値>3</値> </プロパティ> <!--hdfs ファイルの権限を設定する--> <プロパティ> <name>dfs.permissions</name> <値>偽</値> </プロパティ> <!-- ファイルスライスのサイズを 128m に設定します --> <プロパティ> <name>dfs.bloksize</name> <値>134217728</値> </プロパティ> </構成> 6. スレーブを入力してマスターノードとスレーブノードを追加しますvim スレーブ 独自のマスターノードとスレーブノードを追加します(私のはz1、z2、z3です) 7. 各ファイルを別の仮想マシンにコピーするscp -r /etc/profile root@z2:/etc/profile #環境変数プロファイル ファイルを z2 ノードに配布します scp -r /etc/profile root@z3:/etc/profile #環境変数プロファイル ファイルを z3 ノードに配布します scp -r /usr/hadoop root@z2:/usr/ #hadoop ファイルを z2 ノードに配布します scp -r /usr/hadoop root@z3:/usr/ #hadoop ファイルを z3 ノードに配布します 2つのスレーブノードの環境変数が有効になります ソース /etc/profile 8.Hadoopをフォーマットする(マスターノードのみで動作)まずjpsがhadoopを開始したかどうかを確認します hadoop ネームノード -フォーマット 「ステータス 0 で終了しています」と表示されたら、フォーマットが成功したことを意味します。 9. Hadoopディレクトリに戻る(マスターノードのみ操作)cd /usr/hadoop/hadoop-2.6.0 sbin/start-all.shはHadoopを起動し、マスターノードでのみ動作します。 マスターノードに jps を入力すると、次の効果が得られます。 ノードからjpsを入力した場合の効果: Linux で Hadoop クラスターをインストールする詳細な手順に関するこの記事はこれで終わりです。Linux で Hadoop クラスターをインストールすることに関する関連コンテンツの詳細については、123WORDPRESS.COM で以前の記事を検索するか、以下の関連記事を引き続き参照してください。今後も 123WORDPRESS.COM を応援していただければ幸いです。 以下もご興味があるかもしれません:
|
>>: 音声キューイングシステムを実装するためのJavaScript
この記事の例では、ページキャッシュ機能を実装するためのVueの具体的なコードを参考までに共有していま...
前回の記事では、Vue で画像の切り抜きや拡大・縮小、回転を実現する方法を紹介しました。今回は、アイ...
目次1. autofs サービスの紹介2. Autofsのインストールと展開3. Autofs効果の...
1 はじめに PostgreSQL は、非常に充実した機能を備えたフリーソフトウェアのオブジェクトリ...
vscode エディタを使用して vue テンプレートを作成すると、新しい vue ファイルを作成す...
HTML ノードの追加と削除の簡単な例 HTML ノードの追加と削除の簡単な例<input t...
目次1. プロセス2. コアアーキテクチャ2.1 サーバー層の基本コンポーネントの紹介3. ステート...
目次1. ウェアハウスを使用してhttpd lrzsz解凍ファイルを作成する2. ソースコードファイ...
Kubernetes を学習するときは、Kubernetes 環境で練習する必要があります。ただし、...
MySQL のデフォルトの varchar 型は大文字と小文字を区別しません (insensitiv...
1. キャンセル ボタンが押されたときの破線ボックス<br /> 入力に属性値 hide...
初めてのブログです。データベースの勉強を始めた頃のことを書いています。自分でダウンロードしたのですが...
Linux には、マウントされたハードディスクとマウントされていないハードディスクの 2 種類のハー...
1. システム構成1. sudoパスワードをオフにするsudo コマンドを使用するたびにパスワード...
1. シーケンステーブルを作成する テーブル `sequence` を作成します ( `name` ...