DSE AnalyticsとSearchの統合

DSE SearchAnalyticsクラスターは、DSE Analyticsジョブ内でDSE Searchクエリーを使用できます。

統合されたDSE SearchAnalyticsクラスターでは、検索クエリーを使用して分析ジョブを実行できます。この統合では、分析ワークロードで使用されるクエリーの種類のより詳細な制御が可能で、処理されるデータ量を減らすことでパフォーマンスが向上します。ただし、DSE SearchAnalyticsクラスターではワークロードの分離が行われず、実稼働環境におけるプロビジョニングとパフォーマンスの詳細なガイドラインも存在しません

SearchAnalyticsモードで起動されたノードでは、DSE Searchインデックスを使用する分析クエリーを作成できます。このようなクエリーによって、Sparkジョブで使用されるRDDが返され、返されたデータが分析されます。

次のコードは、DSE SparkコンソールからDSE Searchクエリーを使用する方法を示しています。

val table = sc.cassandraTable("music","solr")
val result = table.select("id","artist_name").where("solr_query='artist_name:Miles*'").collect

詳細な例については、「SearchAnalyticsでのWikipediaデモの実行」を参照してください。

DSE SearchAnalyticsクラスターの計画と構成

  1. ワークロードの種類ごとにデータ・センターが1つだけある場合の初期化」の説明に従って、データ・センターの新規クラスターとしてDSE SearchAnalyticsクラスターを作成します。

    DseSimpleSnitchを使用する場合、データ・センターの名前はSearchAnalyticsに設定されます。既存の検索ノードまたは分析ノードをSearchAnalyticsノードに変更しないでください。

  2. 負荷テストを実行して、SparkおよびSolrで必要な追加リソースのオーバーヘッドに十分なCPUとメモリーをハードウェアが備えていることを確認してください。

    SearchAnalyticsノードは、検索ノードまたは分析ノードよりもリソースを消費する場合があります。ノードのリソース要件は、使用するクエリー・パターンの種類に大きく依存します。

dse.yamlファイルの場所は、インストールのタイプによって異なります。
Installer-Services /etc/dse/dse.yaml
パッケージ・インストール /etc/dse/dse.yaml
Installer-No Services install_location/resources/dse/conf/dse.yaml
tarボール・インストール install_location/resources/dse/conf/dse.yaml

DSE SearchAnalyticsクラスターの制限事項

SearchAnalyticsデータ・センターのSparkからSolrインデックスのクエリーが実行可能な場合、そのデータ・センターでのワークロード分離にはメリットがありません。DataStaxでは、SparkジョブがSearchAnalyticsノード上で実行中の場合、このノードに対してリアルタイムのSolrクエリーを実行しないことを推奨しています。

SearchAnalyticsクラスターは実験的なクラスターと見なされており、実稼働環境では実行すべきではありません。