Phantom 4 RTKは測量機器なのか?!

当社でのSFMでのお仕事はすっかりPhantom 4 RTKの独壇場になり、インスパイヤ&X5(XT)の出番は赤外線のみになってしまいました…。(泣)

P4Rはコントローラーの画面が小さかったりGSRTKしか使えなかったりとイマイチな奴ですが今や手放せない存在です。

先日、ある現場でオルソ写真の作成を頼まれ、地上追従モードで対地高度100mで飛行撮影してきました。

P4R写真のMetashapeでの解析は全てのGCPは検証点としてのみ使用しており、対地高度100mでも水平・垂直とも通常は数cmに収まります。へたにGCPを評定に使用してガチガチに縛った場合はGCP以外の場所で歪が出てしまいます。

今回の現場は樹木でGCPが見えない箇所も多く全ては使用できませんでした。

PhotoAlignmentを終わらせ、写真上でのGCPを調整していくといつもより誤差が大きい…。うーん。

セルフキャリブレーションが上手くいかなかったのかを疑いましたが、そうでもなさそうな感じ。

基準点F2からF26にかけて東西方向の誤差が大きくなってる? あー、もしかしてそういう事?

発注元に基準点の観測方法を聞くと、上(F1)の方にGNSSを2点スタティックで落として、下(F26)に向けて観測して行き、上の絵では見えてないけど確定測量の基準点に付けたとの事。そこでの水平誤差が18cm程度だったそう。

なるほどやっぱりね。これでスッキリしました。

その後、確測基準点を単点RTK観測してくれて計算し直してくれたらバッチリでした。  ※もちろん当初のGCPを用いてジオリファレンスすることも可能です。RTKの撮影位置を使用したバンドル調整をそのまま使用するので地形モデルの歪もありません。

今までのUAV写真測量の精度はGCPの精度・配置などに大きく依存していたので、上記のような事は知る由もなかったのです。

まあP4Rは上空の電波状況の良い場所で単点RTK観測を数百点~数千点行い、それを元にデータを作成するから良くて当たり前って感じです。

あとはセルフキャリブレーションを確実に行える方法が確立されれば測量機器と呼んでもいいかもしれないですね。

マイクロドローン導入しました

5.7Ghz一般業務用で無線局を開局しました。

10cm程度の機体で1080/60p映像の記録が出来ます。DJIの機体と違い完全マニュアル操作なので難しいけど面白いです。これぞラジコンって感じです!

この動画は練習がてら適当に飛ばしているのでストーリーはありませんが、Premiere Pro でワープスタビライザーとレンズ補正をかけています。カラコレまでするともう少し見栄えが良くなるでしょう。※忙しくてやっつけ仕事ですいません

もう少し練習してまともな動画をアップしますね!

 

で、第二弾

Phantom 4 RTK 地形認識モード追加!

先日のPhantom4RTK 最新ファームで地形追従のモードが追加されていましたね。

精度がいいのは判ったのですが、地形変化がある部分には使えずどうにかならんかなあと悩んでいました。
やっと地形追従モードが追加され嬉しいけど本当にちゃんと動くのか不安が…。

IMG_20190522_090009

試そうと思いつつ忙しく、本日やっと山間部の撮影があったので試してみました。

地理院の5mメッシュを読み込ませ、対地高度低いと怖いのでとりあえず100mでGO!

ちゃんと地形に沿って飛んでいましたが、KMLファイルと同時に読み込みが出来なかったりと不満も色々ありますが、とりあえずはOK!

今は誰でも使えるように全自動ですけど、細かく設定できるマニュアルモードの追加も欲しいですよね。

今後は色んな現場で試してみたいです!

LiDAR UAV(レーザードローン)の実力は?

先日、土砂が崩落した災害現場をレーザー搭載のドローンでデータ取得を行いました。

いつものように基線解析、点群作成、フィルタリングを行いDEMデータを作成しました。ここでは何も気づかなかったのですが、GISソフト上でDEMデータの表示方法を色々と変えて行く中で見えてきたものがあります。

blog2オルソ写真ではわかりませんが

blog1立体地図風に表示させると、現地作業でも発見できなかった危ない箇所が見えてきました。

blog3この赤い線の部分は滑り始めていますね…。

断面で見てもよくわからなかったのですが。

当初のフィルタリング方法では発見できませんでした。パラメータを変えて行く中で見えてきました。テラソリッド(点群編集等のソフトウエア)の奥の深さはかなりのものです…。

当社のレーザーユニットはお安い(高いけど…)VLP16&APX15の組み合わせですが、植生状況や時期、データーのフィルタリングの方法によってはこのような発見も可能になるようです。高価なレーザーユニットだとどんなデータが取得できるんでしょうね。

GISでの表示方法も色々組み合わせをするのは発見も多く面白いです。

レーザードローンもGISも使い方次第では中々やってくれますよ~

PHANTOM 4 RTKの精度検証(RTK,D-RTK2,PPK)

グループ会社がPhantom4RTK(以下P4RTK)を購入したので色々と検証してみました。

以前のBLOGでも書きましたが販売店でもないし、褒めてもけなしてもなんの得にもならない立場なので正直に書きます。あと、レーザードローン(PPK)を飛ばした経験から、GCP無しでそんなに精度が出るわけないじゃんとネットにある検証について否定的な考えを持っていました。

今回検証した場所には12個のGCPが設置されています。これらはRTKで数回観測し平均値を出した2点からTSで設置し、レベルで高さを観測したものです(1~9)。3点は建物の高い場所に設置するためノンプリで観測しました(11~12)。

いくら撮影箇所が精密に観測出来ていたとしても、セルフキャリブレーションを行い焦点距離等を推測するので撮影方法が重要になってきます。推測がしやすいように垂直写真だけではなく斜め写真も撮影し解析を行いました。

昨年、facebookのドローン研究会のコメントにも書いたのですが、

SFMの処理で難しいのが垂直方向(カメラの奥行き方向)の誤差だと思います。
垂直方向の誤差を生じさせる原因にセルフキャリブレーション時の焦点距離の誤まった推定があります。
ファントム4クラスで高度70mであれば焦点距離が0.01mm推定を誤っただけで地面の標高は8cm変わってしまいます。

焦点距離の推測をする場合に難しい要因として、同高度での並行移動での垂直写真と、取得するモデルが同一平面(GCPの標高の差が無い)があると思います。
この条件の時にセルフキャリブレーションでSFMの処理をした場合、Z方向(垂直方向)に伸びたり縮んだりしたモデルが出来たりしますが、これはセルフキャリブレーションをした焦点距離が大きく違って推測されてしまったからです。

斜め写真を入れるとモデルが同一平面であっても、カメラ方向に奥行き(手前と奥ではカメラとの距離が変わる)が出るために焦点距離が推測しやすくなります。
また、PHANTOM 4 RTK等のように撮影位置が正確な場合においても、GCPを設置しない場合で撮影高度が同一の場合は焦点距離の推測が難しいので斜め写真や、高度を変えての撮影を取り入れるのが有効だと思います。

という自論が正しいのも証明する時がきました (笑)

 

すべての検証において

  • 撮影枚数は垂直・斜め合わせて60枚程度
  • 地上解像度は2cm(対地高度72m程度)
  • 解析はMetashape Professional(旧Photoscan)を使用
  • GCPは検証点としてのみ使用
  • 段階的選択で画像数2枚のものは削除
  • プロジェクションエラーは0.3以上のものは削除   で行いました。

 

1.RTKでの解析

ネットワーク型RTKでは撮影位置の高さは楕円体高で保存されています。Metashape Professionalではジオイド補正がうまく出来ないので(検証中)、撮影位置をCSVで吐き出しジオイド高(地理院サイトから参照)をEXCELで引き算してMetashapeに戻してやる必要があります。

 

2.D-RTK2での解析

ベースステーションを既知点に設置するのですがマニュアルが説明不足。GS RTKアプリではアンテナ高さをプラスした標高を入力します。ベースステーションとリンクしたら機体を再起動してやる必要があるなど何か仕様的に不思議な感じです。あと気泡もあるんですがアンテナがちゃんとまっすぐに立ってるかどうか不安。追加の気泡で設置するも脚の長さでしか調整出来ないので難しい(笑)。まあジオイド高を計算せずに使えるのでその分楽かな。

※追記 D-RTK2 の既知座標の入力ですが楕円体高を入力するのが正解のようです。RTKの計算を行っているので確かに楕円体高の入力になってきますよね。

3.PPKでの解析

D-RTK2で撮影した時に作成されたRINEXファイルやタイミングファイルを用いてPPK処理を行いました。以前の記事で書いた方法です。ただ、高度を変えての撮影などマニュアル飛行した場合はこれらの必要なファイルは作成されないので注意が必要です。

PPKの処理では高さの誤差が他と比べて大きくなっています。他の方法では撮影時のカメラ精度も一枚づつEXIFに入っているのでこの数値を使用していますが、PPKの場合は全てのカメラ精度を3cmで解析しました。ここを1mmとかにして完全固定で解析すると垂直誤差も2cm程度に収まりました。なんで誤差が少なくなるのか不明ですが・・・

D-RTKとPPKでの撮影位置を比較するとRMSEで水平方向で1cm程度、垂直方向で2cm程度の違いが出ていました。

 

これが全ての検証結果ですが地上解像度2cmでこの水平・垂直誤差の数字は自分的には信じられませんでした…。誤差の少ない検証点ではXYZ全てにおいて1cm以下のものもあります。撮影位置の誤差が数センチはあって、セルフキャリブレーションも完全では無いずなのに何でmm単位の誤差???

Metashapeの処理的に何かあって良い方に数字がでているのかと色々やってみましたがそうでも無いようです。

レーザードローン(PPK)とかでは機体位置の誤差、レーザー誤差と要因が蓄積してくるのでこんな数字になるはずがありません。

色々と考えたのですがSFMって解析前の撮影位置がある程度の精度を持っていれば、撮影位置の推測がしやすくなり結果的に精度を高める事が可能なのでしょうか?(mm単位まで!)でなければこの数字は考えられません。

いくら撮影位置の推測が良くなってもセルフキャリブレーションがきちんと推測出来ていないとダメなので、やはり撮影の方法が精度には大きく関わってきます。やはり斜め写真を入れるのと入れないのでは差が出てきます。

以下はネットワークRTKでの撮影で垂直写真のみで解析したものですが、このだけの誤差が出てしまうので斜め写真の有効性は確実のようですね。

ということで、信じたく無いのですがP4RTKは撮影次第でかなりの精度が期待できるようです。何とか穴を見つけたかったのですが本当に残念です。というかSFMって本当に凄い技術ですね!両方に驚かされてしまいました。

そういえばありました、一定の高度しか飛行できない大穴が!(笑)

XT(赤外線カメラ)を用いた害獣駆除

XT(赤外線カメラ)を使って夜間の害獣調査等は数回行った事がありましたが、今回は昼間のイノシシ猟に同行という事で色々と敷居が高かったのですが行ってきました。

昼間の捜索という事で、朝の気温が低かったため思ったよりもXTでも見やすかったのですが、昼前ぐらいからは木など周囲の温度が上がり難しい状態でした。
使用しているXTは焦点距離が19mmなので画角が狭く、広範囲の捜索には9mmの方がいいと思われます。

また、動画にもありますが温度の高い所があるため見づらく、FFC キャリブレーションが思ったところで入ってくれなくて困りました。
※後で調べると手動でも可能でした

やはり赤外線と可視光の切り替えが出来るXT2がいいんでしょうね!赤外線画像だけでは場所の特定が難しく、発見箇所の直上に行きマップでの確認しか出来ないのは痛いです。

 

何箇所か候補地を廻り、最後の箇所で最後のバッテリー残り50%ぐらいで3匹の小動物を発見。
早速、猟友会の方にお願いし、発見箇所に猟犬を入れて追い込みます。
発見箇所周辺には獣道が何箇所かあり、猟師さんが待ち伏せしていたところに3匹が現れズドン…。

 

初めてイノシシ猟の現場に行きましたが、猟犬の吠える声や銃声ですごい緊張感でした。

猟友会の方にも赤外線カメラの有効性をわかって頂く事が出来てよかったです。
必ずなにかがいるという確信があれば、猟に向かう気持ちが全く違うとおっしゃられていました。

LIDAR UAVを利用した古墳調査(レーザー ドローン)

平成30年11月に津村宏臣さん(同志社大学准教授/真庭市政策アドバイザー)を中心に真庭市様と同志社大学様が合同で行われた荒木山古墳調査に当社も協力させて頂きました。

長さ300m、幅120m、高さ20m程度の規模の丘に東西2つの古墳を有しています。古墳部分の下草はきれいに刈られていましたが、植生がかなり高く枝葉も繁茂している状態でした。

通常は国土地理院の5mメッシュで飛行計画をして調査に行くのですが、対地高度もなるべく低く設定するために事前にUAVを飛行させSFMでDSM(樹木の高さを含んだモデル)を作成して、UAVと樹木とのクリアランスを確認しての飛行としました。

取得したオリジナルデータにオルソから色付けしたものですが、これではSFMでの点群と変わりませんね。

 

毒々しい(笑)色ですが、フィルタリングをして地形を残したものです。

東西2つの古墳も形状がはっきり見えていますので一安心しました。

あとはGISソフトに取り込んで立体地図的な表示や等高線の発生をしていきます。

津村先生は地上レーザー(SLAM)や磁気探査も行われていましたので、今後はそれらのデータとUAVレーザーの結合をする予定です。楽しみですね!

Phantom4 RTKのPPKをRTKLIBで解析してみた

いま話題のPhantom4 RTK(P4Rと呼びます)の生データを頂いたのでPPK解析をやってみました。

実際にP4Rおよびコントローラ等の操作はしていませんので今回は解析だけのお話です。とりあえずインチキは嫌いだしDJIの代理店でもないので中立的に検証してみました。

今回の解析ではRTKLIBというオープンソースGNSS測位プログラムパッケージを使用します。このプログラムはマジで凄いです!フリーで使わせて頂けるなんて皆様幸せものです。東京海洋大学の高須知二さんに感謝しましょう!

 

P4Rで撮影したSDカード内には写真の他にRinexとタイムスタンプのファイルが作成されるのでこれを使用します。バイナリファイルも2つ作成されていますが、これは今回使用しません。

ジェノバ等の電子基準点データのダウンロードサービスから現場に一番近い電子基準点のデータをダウンロードします。

こんな感じでファイルが出来ます。拡張子18g(glonass),18n(gps)が衛星軌道情報ファイルで18oがRINEXファイルです。

 

RTKPOSTを起動して

  • RINEX OBS:Rover に P4RのRINEXファイル
  • RINEX OBS:BASE Station に ダウンロードした電子基準点データのRINEX
  • RINEX NAV/CLK… にダウンロードした衛星軌道情報ファイル
  • 一番下のところに解析後の出力ファイル

を指定します。

 

Options_setting1

こんな感じですが、残念ながら今回頂いたデータではGPSを使用した解析しか出来ませんでした…。P4RのRINEXファイルにはGPS/GLONASSちゃんと入ってて、おまけにGALILEO/BDSまで入ってるのに…もったいない。

GLONASSを有効にすると全くFixされず色々と設定を変えてみてもダメ。結局GPSだけを使用した解析になってしまいました。誰かいい方法を教えてください!

他の現場で検証すれば原因もわかるかもですが、P4R持ってないからしょうがありませんね。※追記 他の現場データではGLONASSありで解析できました!

 

Options_setting2

 

Options_Output

  • Time FormatはP4Rに入ってたタイムスタンプのフォーマットと同じものにしておきます
  • Datum/HeightはWGS84,Geodetic
  • Geoid ModelはGSI2000 FilesタブのGeoid Data Fileでgsigeo2011_ver2.ascを指定

 

Options_Positions

  • Base StationはRinex Header positionで

 

こんな感じでOptionを設定したらExecuteしてファイルを作成してください。

できたファイルをRTKPLOTで表示してみると

な感じになってます。衛星数が少ない…GLONASSが使えれば5つぐらいは増えるのに。

 

P4Rは5Hz(0.2秒間隔)で位置座標を記録してるので、タイムスタンプファイルの時刻を参考に線形補完で、EXCELとVBAを使って力技で写真に位置座標を与えていくとPPK解析の完了です。QGISで表示させたのが

  • 緑がPPK処理した5HZのもの
  • 赤がPPKのタイムスタンプから線形補完した撮影位置
  • 青がネットワーク型RTKでの撮影位置

微妙にずれてますね。ここで水平距離で2.9cmです。RTKの撮影位置はレバーアーム(GNSSアンテナとカメラの中心まで位置)が考慮されているそうですが、PPK処理した位置座標には考慮されていません。(GNSSアンテナ位置のみ)

タイムスタンプファイルにはレバーアームによる緯度・経度・高さ方向の補正値も入っていますが、それらを考慮して撮影位置を計算した場合は、RTKとPPKの撮影位置は水平方向で平均1cm以内ですが、垂直方向では平均8cm程度もでてしまいます。

DJIのHPでスペックを確認すると映像位置オフセットとして進行方向に36mm、垂直方向に192mmとあります。また写真にレンズの情報が書き込まれていると紹介されていますが、焦点距離と写真中心位置しか書き込まれていませんし、この焦点距離でSFM処理すると全然対象物の高さが違ってしまいます。 ※追記(レンズ情報が書き込まれているjpgと書き込まれていないjpgがありました。dronedji:3657.320000000000,3650.810000000000,4.610000000000,32.390000000000,-0.265944000000,0.109387000000,-0.000330959000,-0.000026620400,-0.031194200000 これで処理してもダメでしたが…。)

 

撮影位置を固定した場合はSFMソフトの各種設定も、通常の場合と設定数値を変更やレバーアームの入力をする必要がありますし、セルフキャリブレーションを行う場合には高度45m程度でも焦点距離が0.01mm推定が変わると地上では5cm変わってしまいます。

P4Rを使用する場合は事前に無限遠にしたレンズキャリブレーションを複数回行い、それを前提にSFM処理をする必要があるでしょう。または、数点は既知点を作成してその標高から焦点距離を割り出すとかの裏技が必要だと思います。とりあえずカメラのキャリブレーションが肝ですね。

※その後自分で飛行させた検証では、セルフキャリブレーション(焦点距離)の推定がしやすい撮影を行うことで、事前のキャリブレーションは不要なレベルになっています。また、レバーアームも考慮した計算を行うことでネットワークRTK、D-RTK2と同等の精度を出すことが可能になりました。

 

これらも考慮してPHOTOCANで処理した結果(焦点距離は割もどし計算してますが)

このような結果が出ました。もちろんGCPはSFMの処理には使用していません。(GCP精度も10mにしています)また、データ一式もらっただけなのでGCP自体の精度もよくわかっていません。

ネットワーク型RTKでの結果とほぼ同じでした。GPSのみでこの結果は正直凄いと思います。ただ衛星の配置や解析でGLONASSが使用出来るか等の条件で、精度が良くなったり悪くなったりするかもしれません。購入するのであればこの辺は検証点をおいて何度も検証する必要はありますね!

ここまでのPPK処理は正直めんどくさいですが、今後は販売店さんが自動的に解析してくれるアプリを発売されるそうですから期待ですね!

 

Phantom 4 RTKが凄い事はわかりましたし、モバイルステーションを使用するDRTK2もデータ検証に少し付き合わせて頂きましたがコレもヤバイです(GALILEO/BDSも全部使ってやるからなあ、やっぱり今ひとつのポイントもありましたが…)

ただウチは自動飛行アプリのライチが使えないので、これじゃあ仕事にならないのでいらないです(笑) 早く自前のタブレットを使えるようにするか、自動飛行経路のインポート機能がほしいですね~。

LIDAR UAVの災害時の利用について(レーザー ドローン)

平成30年7月豪雨災害によりお亡くなりになられた方々のご冥福をお祈り申し上げますとともに、被害にあわれた皆様に心よりお見舞いを申し上げます。

近隣の自治体においても多くの被害があり、降雨後すぐにUAVを使用しての調査のお手伝いをさせて頂きました。その中でレーザー搭載UAVの活用をご紹介します。

この現場は高低差約100m、延長約140mであり、被災箇所の道路全体が周りの土砂と一緒に滑ってしまっており、断面図や平面図を通常の作業で行うとかなりの作業時間がかかる事が予想されます。

まずは災害箇所の範囲と原因となる箇所を把握するため、小型ドローン(DJI MAVIC)を使用して災害全景写真を静止画や動画で撮影し今後の撮影範囲を決定します。

これにより想像以上に被災箇所が大きい事が確認できました。

地上から見える範囲の被災箇所

 

上空からだと被災箇所上部に亀裂が見られる

 

 

現地において国土地理院の5mメッシュ標高を元に、レーザー観測に適した対地標高で自動航行のルートを作成します。

 

写真計測から得られたデータは

このような感じで目視できる範囲のデータは作成できますが、地面のデータは取得することができません。

 

レーザー計測から得られたオリジナル(計測したそのままの)データは

樹木の下の地面のデーターを取得することが出来ています。

 

不要なデータをフィルタリングし、地面データのみにしたものが

地面データを元にTINモデルを作成し、コンタ(等高線)を発生させた状態です。この状態でさらに手動で不要点のフィルタリングを進めていきます。

 

作成したデータをGISソフトで表示したものが

オルソ写真とコンター

立体地図的な表示

3D表示

これらを元に資料を作成し、事前協議資料として納めさせて頂きました。

従来の作業と比べて大幅な作業時間の短縮と、感覚的にわかり易い資料が作成出来たと思っています。

 

 

 

 

 

LIDAR 用UAVユニットを用いた簡易MMS(自転車)   ( レーザー ドローン )

UAVにセンサーを装着する場合、センサーを任意の場所に持って行くためにUAVを使用しているとの考えで運用しています。

UAVから撮影した写真からのSFMを行う場合も、カメラ(センサー)の知識が重要であるため今までもカメラについての知識や経験を多く積んできました。

同じくLIDARもセンサーとして知識を得て経験を積むため、UAV搭載に限らず運用したいと考えていました。

弊社で使用しているLIDAR 用UAVユニットはIMUが内蔵であり、GNSSアンテナやバッテリーを準備さえすればUAVに搭載するだけではなく、他の方法でも運用が可能であります。

車両等に装着する事を考えましたが、マウントの方法や振動対策等で頭を悩ませる事が予想されるため、他の方法として背負子(しょいこ:背負型キャリア)にLIDARユニット・GNSSアンテナ・バッテリーを装着して自転車でのデータ収集を行いました。

2

車両での運用を考えた場合、LIDARの計測速度(5m/s 時速18km/h)での走行は他の一般車両に迷惑になりますが、自転車での走行ではちょうど良い速度であり一般車両に迷惑がかかることはありません。

1

UAVで運用する場合と大きく違うのは、建物等があるためGNSSの補足が厳しく、またマルチパスの影響を受けやすい事です。

PPK後処理の解析の中で計算方法を変更したり、初期姿勢(イニシャライズ)の方法を変更することで、ある程度満足のいく結果を得られるようになりました。

4任意の断面抽出

3

5

上記のようなデータが走行時間7分程度で得られました。正直驚きました!

上からはUAV、下からは自転車を使用する事で片方だけでは得られなかったデータを取得することが可能になります。

また、大型になってしまうLIDAR用のUAVの飛行はリスクを伴うため、場所に応じて自転車等の簡易MMSを使用してコース設定を綿密に行えばある程度のデータ取得が可能となる事がわかりました。