Spark RDD をデータフレームに変換し、それを MySQL に書き込む例

Spark RDD をデータフレームに変換し、それを MySQL に書き込む例

DataframeはSpark 1.3.0で導入された新しいAPIで、Sparkで大規模な構造化データを処理できるようになります。従来のRDD変換方式よりも使いやすく、計算性能も2倍高速化されていると言われています。 Sparkは、オフラインバッチ処理またはリアルタイムコンピューティングでRDDをDataFrameに変換し、簡単なSQLコマンドでデータを操作できます。SQLに精通している人にとっては、変換とフィルタリングのプロセスは非常に便利で、より高レベルのアプリケーションを実現することもできます。たとえば、リアルタイムでは、Kafkaのトピック名とSQLステートメントが渡され、バックグラウンドで構成されたコンテンツフィールドを読み取ってクラスに反映し、入力SQLと出力SQLを使用してリアルタイムデータを計算します。この場合、Spark Streamingを知らない人でも、リアルタイムコンピューティングのメリットを簡単に享受できます。

次の例は、ローカルファイルをRDDに読み込み、それを暗黙的にDataFrameに変換してデータをクエリし、最後にMySQLテーブルに追加形式で書き込むプロセスです。Scalaコードの例は次のとおりです。

java.sql.Timestamp をインポートする
org.apache.spark.sql.{SaveMode, SQLContext} をインポートします。
org.apache.spark.{SparkContext, SparkConf} をインポートします。
オブジェクト DataFrameSql {
 case class memberbase(data_date:Long,memberid:String,createtime:Timestamp,sp:Int)はSerializableを拡張します{
 def toString をオーバーライドします: String="%d\t%s\t%s\t%d".format(data_date,memberid,createtime,sp)
 }
 def main(args:Array[String]): 単位 = {
 val conf = 新しい SparkConf()
 conf.setMaster("local[2]")
// ----------------------
 //パラメータ spark.sql.autoBroadcastJoinThreshold はテーブルをブロードキャストするかどうかを設定します。デフォルトは 10M で、無効にするには -1 に設定します //spark.sql.codegen は SQL を Java バイトコードにプリコンパイルするかどうかを設定します。長い SQL や頻繁な SQL は最適化効果があります //spark.sql.inMemoryColumnarStorage.batchSize は一度に処理される行数です。oom に注意してください
 //spark.sql.inMemoryColumnarStorage.compressed は、メモリ内の列ストレージを圧縮する必要があるかどうかを設定します// ----------------------
 conf.set("spark.sql.shuffle.partitions","20") //デフォルトのパーティションは200です conf.setAppName("dataframe test")
 val sc = 新しい SparkContext(conf)
 val sqc = 新しいSQLContext(sc)
 val ac = sc.accumulator(0,"失敗数")
 val ファイル = sc.textFile("src\\main\\resources\\000000_0")
 val log = file.map(行 => 行.split(" ")).filter(行 =>
  if (line.length != 4) { // 単純なフィルターを実行する ac.add(1)
  間違い
  } それ以外の場合は true)
  .map(行 => memberbase(行(0).toLong, 行(1),Timestamp.valueOf(行(2)), 行(3).toInt))
 // 方法 1: 暗黙的な変換を使用する import sqc.implicits._
 val dftemp = log.toDF() // 変換/*
  方法 2: createDataFrame メソッドを使用して、内部的にリフレクションを使用してフィールドとその型を取得します。val dftemp = sqc.createDataFrame(log)
  */
 val df = dftemp.registerTempTable("memberbaseinfo")
 /*val sqlcommand = "date_format(createtime,'yyyy-MM')をmmとして、count(1)をnumsとして選択" +
  "memberbaseinfo から date_format(createtime,'yyyy-MM') でグループ化" +
  「数字の降順、mm の昇順で並べ替え」*/
 val sqlcommand="memberbaseinfo から * を選択"
 val sel = sqc.sql(sqlコマンド)
 val prop = 新しい java.util.Properties
 prop.setProperty("ユーザー","etl")
 prop.setProperty("パスワード","xxx")
 //DataFrameWriterを呼び出してmysqlにデータを書き込む
 val dataResult = sqc.sql(sqlcommand).write.mode(SaveMode.Append).jdbc("jdbc:mysql://localhost:3306/test","t_spark_dataframe_test",prop) // テーブルが存在しない可能性があります println(ac.name.get+" "+ac.value)
 sc.stop()
 }
}

上記コードの textFile 内のサンプル データは次のとおりです。データは Hive から取得されます。フィールド情報は、パーティション番号、ユーザー ID、登録時間、およびサードパーティ番号です。

20160309 45386477 2012-06-12 20:13:15 901438
20160309 45390977 2012-06-12 22:38:06 901036
20160309 45446677 2012-06-14 21:57:39 901438
20160309 45464977 2012-06-15 13:42:55 901438
20160309 45572377 2012-06-18 14:55:03 902606
20160309 45620577 2012-06-20 00:21:09 902606
20160309 45628377 2012-06-20 10:48:05 901181
20160309 45628877 2012-06-20 11:10:15 902606
20160309 45667777 2012-06-21 18:58:34 902524
20160309 45680177 2012-06-22 01:49:55 
20160309 45687077 2012-06-22 11:23:22 902607

ここでのフィールド タイプのマッピング、つまり、公式 Web サイトのスクリーンショットに示されているように、ケース クラスからデータフレームへのマッピングに注意してください。

詳細については、公式ドキュメント「Spark SQLおよびDataFrameガイド」を参照してください。

Spark RDD をデータフレームに変換して MySQL に書き込む上記の例が、私が皆さんと共有したいことのすべてです。これが皆さんの参考になれば幸いです。また、123WORDPRESS.COM をサポートしていただければ幸いです。

以下もご興味があるかもしれません:
  • SparkSQLはIDEAを使用して、DataFrameとDataSetをすぐに使い始めることができます。
  • DataFrame: SparkSql を介して Scala クラスを DataFrame に変換する方法
  • pyspark.sql.DataFrame と pandas.DataFrame 間の変換例
  • DataFrameとSparkSqlの値の誤解についての簡単な説明
  • Spark SQL 2.4.8 データフレームを操作する2つの方法

<<:  DockerでSpring Bootアプリケーションを実行する方法

>>:  Vueフィルターの使い方

推薦する

Tomcat の設定と Eclipse での起動方法

目次Tomcat8のインストールと設定方法tomcat ダウンロードTomcat マネージャーを有効...

MySQL でファイルデータをインポートする際の 1290 エラーの解決方法

エラーシナリオcmd の mysql コマンドを使用して、学生情報テーブルにデータを追加します。デー...

React 合成イベントの説明

目次入力ボックスをクリックして開始します拡張機能入力ボックスをクリックすると複数のイベントが発生しま...

XHTML 入門チュートリアル: XHTML ハイパーリンク

ハイパーリンクはインターネット全体を接続していると言っても過言ではありません。ハイパーリンクは、別の...

MySQL サーバー ログイン エラー ERROR 1820 (HY000) の解決方法

障害サイト: MySQL サーバーにログインし、どのコマンドを実行してもこのエラーが発生します my...

MySQL の重要なパフォーマンス インデックスの計算と最適化方法の概要

1 QPS 計算 (1 秒あたりのクエリ数) MyISAMエンジンベースのDBの場合 MySQL&g...

Dockerボリューム削除操作

プルーンこのコマンドを使用するには、クライアントとデーモンの両方の API バージョンが少なくとも ...

Linux リモート管理と sshd サービス検証の知識ポイントの詳細な説明

1. SSHリモート管理SSH の定義SSH (Secure Shell) は、主にキャラクタ イン...

MySQL SQL ステートメントが遅い場合の一般的な原因と解決策

1. インデックス不足または無効なインデックスによるクエリの遅延数千万件のデータを含むテーブルで、イ...

MySQL DML言語操作例

追加説明、外部キー: 外部キーを使用しないでください。すべての外部キーの概念はアプリケーション層で解...

シェル スクリプトを使用してワンクリックで MySQL 5.7.29 をインストールする方法

この記事は51CTOブログの著者wjw555の作品を参照しています。スクリプトの内容: vim イン...

Vue3 の動的コンポーネントはどのように機能しますか?

目次1. コンポーネントの登録1.1 グローバル登録1.2 グローバルコンポーネントの登録プロセス1...

MySQL カーソルの原理と使用例の分析

この記事では、例を使用して MySQL カーソルの原理と使用方法を説明します。ご参考までに、詳細は以...

HTML CSS3は画像表示効果を引き伸ばさない

1. transform 属性を使用して、画像を拡大せずに表示します (パスの問題は必要に応じて修正...

MySQL 8.0.13 手動インストールチュートリアル

この記事では、MySQL 8.0.13の手動インストールチュートリアルを参考までに紹介します。具体的...