ラスター解析は、組み込みのツールや機能として、前処理、オルソ補正やモザイク処理、リモート センシング解析、数学や三角法のさまざまな演算を使用できます。 カスタム関数により、組織の解析能力をさらに強化できます。
ラスター解析機能の設計では、コラボレーションや共有が、円滑かつ簡便に行えることも考慮しました。 組織全体のユーザーが、データや処理モデルに貢献し、画像処理プロジェクトで力量を発揮し、処理結果をエンタープライズ内の個人、部門、組織全体で共有できます。
ラスター解析の概要
ArcGIS Enterprise on Kubernetes において、ラスター解析は柔軟なラスター処理、格納、共有システムで、分散コンピューティングおよび格納技術を活用しています。 ラスター解析では、ArcGIS のラスター解析ツールとラスター関数を適用するか、カスタム関数とツールを構築するか、さまざまなツールと関数を組み合わせてラスター処理チェーンを作り上げ、収集した大量のラスター データに対してカスタム アルゴリズムを実行します。 ソース データと処理結果は、要件や優先度に応じて、社内横断的に保存、公開、共有できます。
クラウド コンピューティングの能力やリソースを利用すれば、この豊富な機能をさらに強化できます。 その結果、数日から数週間もの期間を要していた画像処理ジョブや画像解析ジョブが、今や数分から数時間で終わり、広範囲に及ぶ巨大なジョブも実行できるようになりました。
ヒント:
クラウド データ格納は、オンプレミスおよびクラウドのデプロイメントでは必須です。 これは、ラスター解析の出力を格納するために使用されます。管理者が、このプレミアム機能をサポートするのに十分なリソース クォータとワーカー ノードを割り当てていることを確認します。
ラスター ストアの追加とラスター解析の有効化
次の構成手順を実行するには、組織での ArcGIS の配置方法を変更することが必要な場合があります。次に進む前に、注意して調べてください。 ラスター解析を使用する前に、サポートのラスター ストアを追加して、ArcGIS Enterprise Manager の機能として有効化する必要があります。
ラスター ストアの追加
ラスター解析をサポートするため、2 つのラスター ストアを追加する必要があります。1 つはクラウド ストア、もう 1 つはリレーショナル ストアです。 クラウド ストアは、解析のラスター出力を格納するために使用されます。 リレーショナル ストアは、ホスト イメージ レイヤーの作成時またはラスター解析がコレクションの出力を生成するときに、モザイク データセットを格納するために使用されます。
ラスター ストアを追加するには、次の手順を実行します。
- ArcGIS Enterprise Manager で、サイドバーの [データ ストア] ボタンをクリックします。
データ ストアのページが表示されます。
- [ラスター ストア] セクションで、[ストアの追加] をクリックして、最初のラスター データ ストアを追加します。
注意:
同じタイプの複数のラスター ストアを追加した場合、ツールは使用するラスター ストアをランダムに選択します。 使用するラスター ストアを指定することはできません。
このラスター ストアには、組織に追加された画像およびラスター解析ツールの結果が含まれます。 組織をクラウド環境にデプロイする場合は、同じクラウド プロバイダーのクラウド ストレージ サービスを使用することをお勧めします。
まだストアを追加していなければ、このセクションは空白です。
- ラスター ストアの名前を指定します。
- [ストレージ サービス] を選択し、次のいずれかのオプションを選択します。
- Amazon S3
- Azure Blob
- Google クラウド ストレージ
- 各クラウド ストレージ サービスの仕様については、ラスター ストアを追加する手順をご参照ください。
- 完了したら、[ストアの追加] をクリックします。
ラスター クラウド ストアが登録され、[ラスター ストア] セクションに表示されます。
- [データ ストア] ページで、[ストアの追加] をクリックして 2 番目のストアであるリレーショナル ストアを追加します。
このストレージは、ラスターを処理するためのモザイク データセットを生成するワークフローに必要です。
- リレーショナル ストアの名前を指定します。
- [ストレージ サービス] を選択し、リレーショナル ストアを選びます。
- [ファイルの選択] をクリックして、データベース コネクション ファイルを追加します。
リレーショナル データベースには、イメージ レイヤーをホストするためのモザイク データセットが格納されます。
- [ストアの追加] をクリックします。
ラスター リレーショナル ストアが登録され、[ラスター ストア] セクションに表示されます。
ラスター解析の有効化
ラスター解析を組織の機能として有効化するには、次の手順を実行します。
- ArcGIS Enterprise Manager で、サイドバーの [機能] ボタンをクリックします。
機能ページが表示されます。
- [ラスター解析] 切り替えボタンをオンにします。
プロセスの有効化にはしばらく時間がかかる場合があることを示すメッセージが表示されます。
- [有効化] をクリックします。
ラスター解析を有効化するリクエストが送信されます。 このプロセスでは、前提条件を検証して、サポート リソースを有効化します。 次のシステム サービスが自動的に開始されます:
- RasterAnalysisTools
- RasterProcessing
- RasterProcessingGPU
- RasterRendering
機能を有効化できない場合は、上述の手順を繰り返し、ラスター ストアが追加されており、ラスター解析のライセンスが有効かつ利用可能で、システム サービスが開始していることを確認します。 ログを確認して、この機能の要件を明確化してください。
これで、ラスター解析が構成されました。 ラスター解析ツールを使用し、組織で画像をホストできるようになります。 ラスター解析とディープ ラーニングを使用する方法をご確認ください。
さらに、ラスター解析の調整方法に関するワークフローもご参照ください。
ラスター解析用の GPU リソースの有効化
ラスター解析 (特にディープ ラーニング解析と AI ツール) では、クラスターで GPU (グラフィックス処理装置) を使用できます。 11.5 では、GPU リソース ラスター解析ツールを構成して、ディープ ラーニング トレーニングと推論ツールのパフォーマンスを高めることができます。 ディープ ラーニングの場合、GPU は処理速度、リソース効率性、組織のスケーラビリティーを実現します。 GPU は、大規模な並列計算を処理できるため、ラスター解析とディープ ラーニングに不可欠です。 GPU がサービスごとに構成されていると、個々のサービスが両方のタスクでより適切に機能します。
ディープ ラーニング モデルのトレーニング ジョブの場合は、RasterAnalysisTools サービスを構成するだけで済みます。 推論ツールの場合、RasterProcessingGPU サービスを GPU で構成する必要があります。 モデルによっては、初期化する GPU で RasterAnalysisTools サービスを構成する必要があるものもあります。 このような場合は、両方のサービスを GPU で構成する必要があります。
前提条件
ArcGIS Enterprise on Kubernetes では、クラスター内の GPU ノードを有効にするためのデバイス プラグインを実装できます。 GPU ノードを有効にするには、Kubernetes 向け NVIDIA デバイス プラグインが必要です。 詳細については、「GPU 対応ノード」をご参照ください。
注意:
11.5 リリースの ArcGIS Enterprise on Kubernetes は NVIDIA GPU でのみサポートされます。組織でラスター解析用の GPU リソースを有効化するには、ユーザーの環境および基本設定に固有の次の手順を実行します。
- ラスター解析を構成する手順、または GPU 対応ノードを使用する別の機能を構成する手順を完了します。
- インスタンスにデバイス プラグインがインストールされていることを確認します。
多くのクラウド環境には、GPU ノードが事前に構成されています。 デバイス プラグインがインストールされていない場合は、Kubernetes 向け NVIDIA デバイス プラグインのドキュメントで詳細およびインストール手順をご確認ください。 オンプレミスでデプロイした場合は、管理者が、クラスター内の各ノードで GPU リソースを有効にする必要があります。
- 組織の GIS ワークフローで GPU 対応ノードを使用するには、GPU リソースへの要求と制限を設定します。
- GPU ワークロードを GPU ノードのみで実行するには、必要に応じて、ノードのアフィニティと容認を構成します。
ラスター解析の調整
ラスター解析で最適なパフォーマンスとスケーラビリティを実現するには、次の推奨事項を検討してください。
- 組織を作成する場合、オブジェクト ストアにクラウド ストレージ サービスを使用します。
- ワーカー ノードを増やします。 ラスター解析などの追加されたプレミアム機能をサポートするには、アーキテクチャ プロファイルごとに最低 1 つの追加のワーカー ノードが必要です。 組織作成時に選択したアーキテクチャ プロファイルを特定し、それに応じてワーカー ノードを増やすには、管理者にお問い合わせください。 実行する解析によっては、複数ノードの追加が必要な場合があります。
- 可能な場合は、GPU 対応ノードを使用します。 必要に応じて、GPU ワークロードを GPU ノードのみで実行するようノードのアフィニティと耐障害性を構成します。 これは、ディープ ラーニングおよび AI のワークフローを実行する際にますます重要になっています。
- 追加のポッドとリソースでサービス デプロイメントを変更することによって、次に示すように、ワークフローの全体的な可用性とスループットを高めることができます。
- ディープ ラーニングと AI を含まないワークフローでは、[RasterProcessing] サービス デプロイメントをスケーリングします。
- ディープ ラーニング ワークフローでモデルをトレーニングするワークフローを実行する際に、RasterAnalysisTools サービス デプロイメントをスケーリングします。
- 推論のワークフローを実行する際に、[RasterProcessingGPU] サービス デプロイメントをスケーリングします。
- 一部のラスター解析ツールは、複数のワーカー ポッドに計算を分散し、解析の実行中に一時データを書き込みます。 処理用の一時領域にデータを読み込む必要がある大規模なジョブで分散ラスター解析を実行する際は、一時的ボリュームを使用します。 詳細については、「一時的ボリュームの構成」をご参照ください。
- ラスター解析プロセスを実行するときは、ログ レベルを [デバッグ] から下げることをおすすめします。 問題のトラブルシューティングをアクティブに行うのでなければ、[警告] レベルを使用してください。 より詳細なログが必要な場合は、代わりに別のログ レベルを使用してください。
- データの処理に使用できるラスター処理サービス インスタンスの数を制御するために、並列処理ファクターを設定することを検討してください。
- 解析ワークフローのタイプおよび処理されるデータのサイズに基づいて、メモリ要件の監視と増加が必要になる場合があります。 たとえば、ディープ ラーニングと AI のワークフローでは、バッチ サイズが大きくなるとより多くのメモリが必要になります。
- ラスター解析ツールには制限が事前に構成されています。 ツールが適切に機能するには、一部のジョブで追加の容量が必要になる場合があります。 スケーリング プロパティを編集して、さまざまなマイクロサービスのメモリを増やすことができます。