ビッグデータはますます注目を集めており、ビッグデータのいくつかの構成要素に精通していないと、自慢できるキャッチフレーズさえありません。 少なくとも、hadoop、hdfs、mapreduce、yarn、kafka、spark、zookeeper、neo4j について話せる必要があります。これらは、披露するのに必須のスキルです。 Spark についてはインターネット上に詳しい紹介がたくさんあります。検索してみてください。次に、スタンドアロン版 Spark のインストールと簡単な使用方法について説明します。 0. JDK をインストールします。私のマシンにはすでに JDK がインストールされているので、この手順はスキップできます。 JDK はもはや定番であり、言うまでもなく、Java/Scala を使用する際には欠かせません。 ubuntu@VM-0-15-ubuntu:~$ java -バージョン openjdk バージョン "1.8.0_151" OpenJDK ランタイム環境 (ビルド 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12) OpenJDK 64 ビット サーバー VM (ビルド 25.151-b12、混合モード) ubuntu@VM-0-15-ubuntu:~$ 1. 必ずしも Hadoop をインストールする必要はなく、特定の Spark バージョンを選択するだけです。 Spark にはデフォルトで Scala シェルが付属しているため、Scala をダウンロードする必要はありません。Spark の公式 Web サイトにアクセスしてダウンロードしてください。Hadoop のない環境では、spark-2.2.1-bin-hadoop2.7 を選択し、次のように解凍します。 ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll 合計 196436 drwxrwxr-x 3 ubuntu ubuntu 4096 2月 2日 19:57 ./ drwxrwxr-x 9 ubuntu ubuntu 4096 2月 2日 19:54 ../ drwxrwxr-x 13 ubuntu ubuntu 4096 2月2日 19:58 spark-2.2.1-bin-hadoop2.7/ -rw-r--r-- 1 ubuntu ubuntu 200934340 2月2日 19:53 spark-2.2.1-bin-hadoop2.7.tgz 2. Spark には Python バージョンと Scala バージョンがあります。次に、次のように Scala バージョンのシェルを使用します。 ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell Spark のデフォルトの log4j プロファイルを使用する: org/apache/spark/log4j-defaults.properties デフォルトのログ レベルを「WARN」に設定しています。 ログ レベルを調整するには、sc.setLogLevel(newLevel) を使用します。SparkR の場合は、setLogLevel(newLevel) を使用します。 18/02/02 20:12:16 警告 NativeCodeLoader: ご使用のプラットフォームのネイティブ Hadoop ライブラリをロードできません... 該当する場合は組み込み Java クラスを使用します 18/02/02 20:12:16 警告 Utils: ホスト名 localhost はループバック アドレス 127.0.0.1 に解決されます。代わりに 172.17.0.15 を使用します (インターフェイス eth0) 18/02/02 20:12:16 警告ユーティリティ: 別のアドレスにバインドする必要がある場合は、SPARK_LOCAL_IP を設定してください Spark コンテキスト Web UI は http://172.17.0.15:4040 で利用可能です。 Spark コンテキストは 'sc' として利用可能です (マスター = local[*]、アプリ ID = local-1517573538209)。 Spark セッションは「spark」として利用可能です。 ようこそ ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ ///\_\ バージョン 2.2.1 /_/ Scala バージョン 2.11.8 (OpenJDK 64 ビット サーバー VM、Java 1.8.0_151) を使用 式を入力して評価します。 詳細については、:help と入力してください。 スカラ> 簡単な操作を実行するには: scala> val 行 = sc.textFile("README.md") 行: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] テキストファイル <console>:24 scala> 行数() res0: ロング = 103 scala> 行.first() res1: 文字列 = # Apache Spark scala> :終了 ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md 103 README.md ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md # アパッチスパーク ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ビジュアルウェブページを見てみましょう。Windowsでは、http://ip:4040と入力します。 さて、この記事は簡単なインストールについてのみ説明しています。後ほど Spark について詳しく紹介していきます。 要約する 以上がこの記事の全内容です。この記事の内容が皆様の勉強や仕事に何らかの参考学習価値をもたらすことを願います。123WORDPRESS.COM をご愛顧いただき、誠にありがとうございます。これについてもっと知りたい場合は、次のリンクをご覧ください。 以下もご興味があるかもしれません:
|
<<: MySQL 5.7.20 の解凍バージョンをインストールするときに遭遇する落とし穴 (推奨)
>>: Vue+Springbootでインターフェースシグネチャを実装するためのサンプルコード
この記事では、例を使用して、MySQL データベースの列を追加、削除、および変更する方法について説明...
<br />関連記事: Web コンテンツ ページ作成のための 9 つの実用的なヒント、...
1. 背景実際のプロジェクトでは、分散スケジュールされたタスク実行の状況に遭遇することがあります。ス...
目次1. クラス1.1 コンストラクタ() 1.2 ゲッターとセッター1.3 これ1.4 静的プロパ...
これはウェブサイトのユーザビリティに関する記事です。著者は自身の経験に基づいて、ウェブサイトのデザイ...
概要前の章では、クエリのフィルター条件について学習しました。MySQL では、like % ワイルド...
文字セットエラーは常に存在するロケール: LC_CTYPE をデフォルト ロケールに設定できません:...
tar バックアップ システム sudo tar cvpzf backup.tgz --exclud...
序文フロントエンドページを書くとき、小さなアイコンなどの画像を使うことが多いです。画像を使うとコード...
背景nginx-kafka-module は、Kafka を nginx に統合して、Web プロジ...
LinuxにMySQLがすでにインストールされているかどうかを確認する sudo service m...
エフェクトのスクリーンショット:実装コード:コードをコピーコードは次のとおりです。 <!DOC...
目次1. インデックスの種類1. B+ツリー2. MyISAM と InnoDB の B+ ツリー ...
MySQL の機能: MySQL は、スウェーデンの会社 MySQL AB によって開発されたリレー...
目次01 YAMLファイルの概要YAML---キー値型YAML---リスト型02 K8Sにおけるマス...