ディープ ラーニングを使用したオブジェクトの検出ツールは、入力ラスターに対してトレーニング済みディープ ラーニング モデルを実行し、検出したオブジェクトを含んでいるフィーチャクラスを生成します。 フィーチャには、検出されたオブジェクトの周囲のポリゴン、またはオブジェクトの中心のポイントを指定できます。
注意:
Map Viewer でこのツールを、ArcGIS Enterprise on Kubernetes で最新のマップ作成ツールを、それぞれ使用できるようになりました。
このツールを実行するには、組織がラスター解析用に構成されている必要があります。
このツールが Map Viewer Classic に表示されない場合は、組織の管理者に問い合わせてください。 お使いのポータルがラスター解析用に構成されていないか、ユーザーに、このツールを実行するのに必要な権限がないことが考えられます。
ワークフロー図
例
- 近隣の画像をもとに、ソーラー パネルを設置したすべての屋根面の場所を検出します。
- カナダ北部の荒野の画像をもとに、すべての氷河湖の場所を検出します。
使用上の注意
このツールを実行すると、ラスター解析サーバーがサードパーティのディープ ラーニング Python API を呼び出し、指定された Python ラスター関数を使用して、各ラスター タイルを処理します。
このツールの入力ディープ ラーニング モデルは、ポータルに格納されたディープ ラーニング パッケージ (*.dlpk) アイテムである必要があります。 ArcGIS Pro または ArcGIS REST API ラスター解析ツールの [ディープ ラーニング モデルのトレーニング (Train Deep Learning Model)] ジオプロセシング ツールを使用して *.dlpk アイテムを生成できます。
入力モデルを選択または指定すると、ラスター解析サーバーからモデル引数情報が取得されます。 モデルが無効であったり、ラスター解析サーバーがディープ ラーニングに対して適切に構成されていなかったりすると、ツールはこの情報を取得できません。
入力 .dlpk アイテムには、Esri モデル定義ファイル (.emd) を含める必要があります。 下記のサンプル .emd ファイルをご参照ください。
{
"Framework" :"TensorFlow",
"ModelConfiguration": "ObjectDetectionAPI",
"ModelFile": ".\\CoconutTreeDetection.model",
"ModelType": "ObjectDetection",
"ImageHeight": 850,
"ImageWidth": 850,
"ExtractBands": [0,1,2],
"ImageSpaceUsed": "MAP_SPACE"
"Classes": [
{
"Value": 0,
"Name": "CoconutTree",
"Color": [0, 255, 0]
}
]
}
オブジェクト検出から重複フィーチャを特定して削除するには、[Non Maximum Suppression] チェックボックスをオンにします。
[現在のマップ範囲を使用] がオンの場合、現在のマップ範囲に表示されるピクセルだけが解析されます。 オフの場合は、入力イメージ レイヤー全体が解析されます。
次の表に、このツールのパラメーターを示します。
パラメーター | 説明 |
---|---|
オブジェクトの検出に使用する画像を選択 | オブジェクトの分類に使用される入力画像。 |
オブジェクトの検出に使用するディープ ラーニング モデルを選択 | 入力ディープ ラーニング パッケージ (*.dlpk) アイテム。 ディープ ラーニング パッケージには、Esri モデル定義 JSON ファイル (*.emd)、ディープ ラーニング バイナリ モデル ファイル、および使用されるオプションの Python ラスター関数が含まれます。 |
ディープ ラーニング モデルの引数を指定 | 関数の引数は、入力モデルによって参照される Python ラスター関数で定義されます。 ここでは、調整のための追加のディープ ラーニング パラメーターおよび引数 (感度を調整するための信頼性の閾値など) をリストします。 引数の名前は、ツールが Python モジュールを読み取ることによって入力されます。 |
出力から重複フィーチャを削除 (オプション) | Non Maximum Suppression を実行するかどうかを指定します。実行すると、重複オブジェクトが識別され、信頼値の低い重複フィーチャが削除されます。
|
信頼度スコア フィールド | オブジェクト検出方法の出力として信頼度スコアを含むフィーチャ サービス内のフィールド。 このパラメーターは、[Non Maximum Suppression] パラメーターをオンにした場合に必要です。 |
クラス値フィールド | 出力フィーチャ サービス内のクラス値フィールド。 指定しない場合、ツールは標準クラス値フィールドの Classvalue と Value を使用します。 これらのフィールドが存在しない場合、すべてのフィーチャが同じオブジェクト クラスとして扱われます。 このパラメーターは、[Non Maximum Suppression] パラメーターをオンにした場合に必要です。 |
最大オーバーラップ率 | 2 つの重複したフィーチャの最大オーバーラップ率。全領域に対する交差領域の比率として定義されます。 デフォルトは 0 です。 このパラメーターは、[Non Maximum Suppression] パラメーターをオンにした場合に必要です。 |
処理モード | イメージ サービス内のすべてのラスター アイテムを処理する方法を指定します。
|
結果レイヤー名 | [マイ コンテンツ] に作成され、マップに追加されるレイヤーの名前。 デフォルトの名前は、ツール名と入力レイヤー名に基づいて設定されます。 レイヤーがすでに存在する場合は、別の名前を指定するよう求められます。 [出力の保存場所] ドロップダウン ボックスを使用して、結果を保存する [マイ コンテンツ] 内のフォルダーの名前を指定できます。 |
環境
解析環境設定は、ツールの結果に影響する追加パラメーターです。 このツールの解析環境設定にアクセスするには、ツール パネルの上部にある歯車 アイコンをクリックします。
このツールでは次の [解析環境] が適用されます。
- 出力座標系 - 出力レイヤーの座標系を指定します。
- 範囲 - 解析に使用するエリアを指定します。
- セル サイズ - 出力レイヤーで使用するセル サイズ。
- マスク - マスク レイヤーを指定します。このレイヤーでは、マスク エリアの範囲内にあるセルのみが解析に使用されます。
- 並列処理ファクター - ラスター処理 CPU または GPU インスタンスを制御します。
- プロセッサー タイプ - データの処理に CPU または GPU のいずれを使用するかを指定します。
類似のツールとラスター関数
ディープ ラーニングを使用したオブジェクトの検出ツールを使用し、画像内のオブジェクトを検出します。 その他のツールは、類似した問題を解決するのに効果的です。
Map Viewer Classic 解析ツールとラスター関数
ディープ ラーニングを使用したオブジェクトの分類ツールを使用し、画像内のオブジェクトの場所を検出します。 ディープ ラーニングを使用したピクセルの分類ツールを使用し、画像内の各ピクセルを分類します。
ArcGIS Pro 解析ツールとラスター関数
[ディープ ラーニングを使用したオブジェクトの検出 (Detect Objects Using Deep Learning)] ジオプロセシング ツールは、Image Analyst ツールボックスにあります。 ディープ ラーニング ツールセットのその他のツールは、ディープ ラーニング ワークフローを実行します。
ArcGIS Enterprise 開発者向けのリソース
ArcGIS REST API で作業を行っている場合は、Detect Objects Using Deep Learning 操作を使用します。
ArcGIS API for Python で作業を行っている場合は、arcgis.learn モジュールでディープ ラーニング タスクを実行 します。