ScalaのSpark SQLを使用したデータベース・データのクエリー
Sparkシェルを起動することによって、ScalaでSpark SQLクエリーを実行できます。Sparkを起動すると、データベース・テーブルに対してSpark SQLクエリーを実行するためのSparkセッション・インスタンスがDataStax Enterpriseによって作成されます。
Sparkを起動すると、データベース・テーブルに対してSpark SQLクエリーを実行するためのSparkセッション・インスタンスがDataStax Enterpriseによって作成されます。セッション・オブジェクトにはsparkという名前が付けられ、org.apache.spark.sql.SparkSessionのインスタンスとなります。sqlメソッドを使用してクエリーを実行します。
手順
-
Sparkシェルを起動します。
dse spark
-
sqlメソッドを使用してクエリーを渡し、結果を変数に格納します。
val results = spark.sql("SELECT * from my_keyspace_name.my_table")
-
返されたデータを使用します。
results.show()
+--------------------+-----------+ | id|description| +--------------------+-----------+ |de2d0de1-4d70-11e...| thing| |db7e4191-4d70-11e...| another| |d576ad50-4d70-11e...|yet another| +--------------------+-----------+