DSE AnalyticsとSearchの統合
DSE SearchAnalyticsクラスターは、DSE Analyticsジョブ内でDSE Searchクエリーを使用できます。
統合されたDSE SearchAnalyticsクラスターでは、検索クエリーを使用して分析ジョブを実行できます。この統合では、分析ワークロードで使用されるクエリーの種類のより詳細な制御が可能で、処理されるデータ量を減らすことでパフォーマンスが向上します。ただし、DSE SearchAnalyticsクラスターではワークロードの分離が行われず、実稼働環境におけるプロビジョニングとパフォーマンスの詳細なガイドラインも存在しません。
SearchAnalyticsモードで起動されたノードでは、DSE Searchインデックスを使用する分析クエリーを作成できます。このようなクエリーによって、Sparkジョブで使用されるRDDが返され、返されたデータが分析されます。
次のコードは、DSE SparkコンソールからDSE Searchクエリーを使用する方法を示しています。
val table = sc.cassandraTable("music","solr")
val result = table.select("id","artist_name").where("solr_query='artist_name:Miles*'").collect
詳細な例については、「SearchAnalyticsでのWikipediaデモの実行」を参照してください。
DSE SearchAnalyticsクラスターの計画と構成
- 「ワークロードの種類ごとにデータ・センターが1つだけある場合の初期化」の説明に従って、データ・センターの新規クラスターとしてDSE SearchAnalyticsクラスターを作成します。
DseSimpleSnitch
を使用する場合、データ・センターの名前はSearchAnalytics
に設定されます。既存の検索ノードまたは分析ノードをSearchAnalyticsノードに変更しないでください。 - 負荷テストを実行して、SparkおよびSolrで必要な追加リソースのオーバーヘッドに十分なCPUとメモリーをハードウェアが備えていることを確認してください。
SearchAnalyticsノードは、検索ノードまたは分析ノードよりもリソースを消費する場合があります。ノードのリソース要件は、使用するクエリー・パターンの種類に大きく依存します。
Installer-Services | /etc/dse/dse.yaml |
パッケージ・インストール | /etc/dse/dse.yaml |
Installer-No Services | install_location/resources/dse/conf/dse.yaml |
tarボール・インストール | install_location/resources/dse/conf/dse.yaml |
DSE SearchAnalyticsクラスターの制限事項
SearchAnalyticsデータ・センターのSparkからSolrインデックスのクエリーが実行可能な場合、そのデータ・センターでのワークロード分離にはメリットがありません。DataStaxでは、SparkジョブがSearchAnalyticsノード上で実行中の場合、このノードに対してリアルタイムのSolrクエリーを実行しないことを推奨しています。
SearchAnalyticsクラスターは実験的なクラスターと見なされており、実稼働環境では実行すべきではありません。