プログラマーのメモ書き

伊勢在住のプログラマーが気になることを気ままにメモったブログです

Twilio からのメールを Amazon SES 経由で送信する

以前、Twilio を使って電話/FAXを受けたら、メールを飛ばすというのをやりました。

Twilio 電話を受けたら録音して、メールを飛ばす - プログラマーのメモ書き

Twilio 試した(3/3):FAX 受信と通知を試しました - プログラマーのメモ書き

このとき、メール配信に利用していたSMTPサーバーが、さくらインターネットのサーバーだったんですが、上記記事にあるように、さくらインターネットの場合、『国外IPアドレスフィルタ』を解除してやる必要がありました。

この運用形態はどうにも心配な状態です。

というのも、この『国外IPアドレスフィルタ』の制限を解除すると SMTP だけでなく、いろんなサービスへのアクセスが制限されなくなります。また、さくらインターネットの場合、メールの送信先制限などがありません。つまり、

  • 国外IPアドレスフィルタ制限がプロトコル単位で切り替えできない
  • 国外IPアドレスフィルタ制限を有効にした場合のホワイトリスト設定は http のみ可能であり、SMTPについてはホワイトリスト設定ができない
  • 国外IPアドレスフィルタ制限を解除して、スパムメールの踏み台になった場合への保険として、送信先制限(ドメイン名やメールアドレスによる制限)をやろうとしたができなかった

という状態になっています(さくらインターネットさんをディスってるわけではないですよ。国外IPアドレスフィルタを使いたいだけです)。

ということで、このまま使い続けるのは不安だなと感じていた次第です。

で、今回いろいろと考えて得た結論としては、

  • さくらインターネットの SMTP サーバーではなく、別の SMTP サーバーを利用する
  • SMTP サーバーをメールサーバーのレンタル(メールアドレスの申し込み)ような形で借りると費用も掛かるので、送っただけ課金されるようなものを探す

となりました。

これに該当するものを具体的に調べると、Amazon SES (Simple Email Service) を利用すればうまくできそうだったので、Twilio発SES経由でのメール配信に切り替えました。今回はそのメモ書きになります。

SES の設定

詳しくは SES の紹介ページを読んでいただくほうがいいのですが、メール送受信サービスになります。SES には、SMTPインターフェースもあるので、これを使ってメールを送ることにします。

下記ページに詳しく書かれていますが、SES を使う際には最初に送信者のID(メールアドレスまたはドメイン)を検証する必要があります。

Amazon SES の ID の検証 - Amazon Simple Email Service

また、サンドボックスモードという状態(初期状態がこれ)では、この検証されたメールアドレス宛にしか送信できません。 今回は自分あて(自分のドメイン宛て)のメールを扱うことにするので、ドメイン認証を行い、サンドボックスのまま利用することにします。

いろいろ書くと大変そうですが、実際に試してみるとわかるように、SES を使い始めるのは非常に簡単です。

ドメイン認証

今回はドメイン認証を行います。

Amazon SESドメイン検証 TXT レコード - Amazon Simple Email Service

最初にAWSのコンソールにログインして、SESの画面を開きます。

SESのリージョンは、このブログを書いている時点で、

  • 米国東部(バージニア北部)
  • 米国西部(オレゴン)
  • EU(アイルランド)

のみのようです。これから適当なリージョンを選んでおきます。

メニューより、『Identify Management』の『Domains』を選択し、画面上部の『Verify a New Domain』ボタンを押します。

f:id:junichim:20190604142051p:plain

上記のような画面が表示されるので、検証したいドメイン名を入力します。今回は、自分のドメイン宛てにしかメールを送らないので、『Generate DKIM Settings』はチェックしません。 『Verify This Domain』ボタンを押すと、

f:id:junichim:20190604143826p:plain

のように、DNSに追加するべき、TXTレコードが表示されますので、これをDNSに追加しておきます。

しばらくすると、SESの画面で、

f:id:junichim:20190604144027p:plain

のように、『verified』と表示されればOKです。

テスト

この時点で一度メール送信のテストを行っておきます。

『Send a Test Email』ボタンを押すと

f:id:junichim:20190604144236p:plain

のような画面が表示されます。ここで、FromとToに同じメールアドレス(先ほど登録したドメインの有効なメールアドレス)を入力します。その他にもSubjectや本文などを入力後、『Send Test Mail』ボタンを押します。

指定したメールアドレスにメールが無事に届いていればテスト成功です。

バウンスと苦情メール

次に、メールが届かなかった場合の対応処理を指定しておきます。 デフォルトの状態だと、送信者(細かくは利用インターフェースおよび設定で異なります)にメールが返ってきます。

E メールで送信された Amazon SES 通知 - Amazon Simple Email Service

これをメールではなく、SNS(ソーシャルネットワークではなく、 Amazon Simple Notification Service のほうです)に通知するように変えておきます。もっとも、SNSも指定したアドレスにメールを通知するだけなんですけどね。 もし、SNSのトピックがない場合は、先に次の節のSNSの設定をやっといてください。

通知を使用した Amazon SES E メール送信のモニタリング - Amazon Simple Email Service

SESのコンソール画面のDomainsを開いて、設定したいドメイン名をクリックします。Notifications のところを開くと

f:id:junichim:20190604150413p:plain

のような画面が表示されるので、『Edit Configuration』をクリックして設定画面を開きます。

f:id:junichim:20190604150539p:plain

ここで、『SNS Topic Configuration』の欄で、 Bounces, Complaints のドロップダウンリストから、バウンスや苦情発生時に通知を行いたいSNSトピック名を選択します。

また、SNSを設定したので、通知を2重に受け取らないようにするため、画面下部の『Email Feedback Forwarding』もdisableにしておきます。

SNS (Simple notification Service) の設定

CloudWatch とかとは異なり、SES から SNS のトピックは作れないようなので、AWS のコンソールで SNS を開いて、トピックを作成します。 トピックの作成時にサブスクリプションとして、メールアドレスを指定します。

指定したメールアドレスに確認メールが送られるので、メール内のリンクをクリックすればOKです。

バウンスと苦情のテスト

ここで、もう一度バウンスと苦情メールが発生したときのテストをしておきます。

バウンスと苦情のテストは、実際に存在しないメールアドレスに送るとかではなく、先ほどのテストメール送信画面から特定のメールアドレスに送ることでシミュレーションされます。 詳しくは、下記のリンク先に書かれています。

Amazon SES での E メール送信のテスト - Amazon Simple Email Service

最初に、バウンステスト用のメールアドレスを使って、バウンスメールを発生させると、SNS のトピックで指定したメールアドレスに問題なく配信されていることが確認できました。苦情の場合も同じようにして確認しておきます。

SMTP インターフェース設定

あとは、SMTPインターフェースを設定すればOKです。

SES のコンソール画面より、『SMTP Settings』を選択すると、下記のような画面が表示されます。

f:id:junichim:20190604151527p:plain

SMTP サーバー名など設定で必要なものが表示されているので控えておきます。

次に、『Create My SMTP Credentials』をクリックすると、

f:id:junichim:20190604151815p:plain

のような SMTP 認証に用いる IAM ユーザーの作成画面が表示されます。 ここで、IAM ユーザー名を入力すると、

f:id:junichim:20190604151934p:plain

のような画面になるので、このセキュリティ認証情報を控えておきます。これが、SMTPユーザー名とパスワードに該当します。

Twilio 側の設定

さて、Twilio 側ではSMTPサーバー名および認証に用いるユーザー名・パスワードをSESのSMTPインターフェース用のものに代えてます。

これで、送信できるかと思い、Twilio のコンソールを開き、電話受信時に Function を表示した状態で、管理している電話番号に電話をしてみたところ、画面に表示されるログにエラーと出ています。

SES のドキュメント を見ると、 STARTTLS を使えば良さそうです。 そのためには、 nodemailer の設定を調べてみると、 secure と requireTLS を変更する必要がありそうです。

そこで、Twilio の Function 内の下記の部分を

       var transporter = nodemailer.createTransport({
            host: 'SMTP サーバー名',
            port: 587,
            secure: true,
            auth: {
                user: 'ユーザー名',
                pass: 'パスワード'
            },
            tls: {
                rejectUnauthorized: false
            }
        });

このように

       var transporter = nodemailer.createTransport({
            host: 'SMTP サーバー名',
            port: 587,
            secure: false,
            requireTLS : true,
            auth: {
                user: 'ユーザー名',
                pass: 'パスワード'
            },
            tls: {
                rejectUnauthorized: false
            }
        });

変更しました。

これで、再度試すと、問題なく録音データをメールで受け取ることができました。

さくらインターネットの国外IPアドレスフィルタ

ここまでくれば、最後は、さくらインターネット側の『国外IPアドレスフィルタ』を再度有効にしておけば終わりです。

これで、ちょっと安心できました。

備考

SPF と DKIM について

あと、SESの関連する設定について整理しておきます。

こちらの記事にあるように、デフォルトの設定で SES を使う分には SPF 設定は不要のようです。

一方、DKIM については設定するほうが望ましいのかもしれませんが、今回の場合は送受信者とも自分の管理するドメインのユーザーになるため、DKIMの設定は行いませんでした。 自分の管理するドメイン以外にメールを送信したい場合は、DKIMをセットアップしたほうがいいでしょうね、きっと。

サンドボックス解除後の送信先制限

今回は関係ないのですが、サンドボックスを解除したうえで、送信先制限をかけることもできるようです。 興味のある方は、下記のリンク先などを参考にしてください。

Amazon SESで送信元と宛先の制限をかけてみたメモ - Qiita

参考

下記記事等を参考にさせていただきました。ありがとうございます。

Dell T105 の電源交換

長らく使っているサーバー Dell T105 ですが、先日もこちらの記事でも書いたように、このサーバー上で オフラインマップの自動生成を乗せたり、遊ぶには十分使えております。

そんなある日、仕事場に来てみると、サーバーが止まってました。 ちょうど前の日にエアコンの工事をしていたので、その影響かな?と思って、電源ボタンを入れてみたのですが、反応がありません。

あれ?と思い調べてみたところ、電源ユニットがやられていたようです。

ということで、今の時代どれだけの需要があるかわかりませんが、電源ユニットを交換したので、その顛末をメモっと来ます。

トラブったときの状態

一応、最初にトラブったときの状態をまとめときます。

  • ある日、サーバーの電源が落ちていた
  • 電源ボタンを押しても、立ち上がらない
  • コンセントを抜いて、再度差し直すと、電源ボタンがオレンジで点滅してる
  • ハードウェアマニュアルを見ると、電源ユニットの不具合とのこと

点滅のところ、写真だとこんな感じでした(本当は点滅してます)。

f:id:junichim:20190531145207j:plain

確認

電源交換に先立ち、部品番号などを調べておきます。 コンセントを抜いて、カバーを開けて電源ユニットを確認すると、

f:id:junichim:20190531145625j:plain

この筐体の場合、 L305P-01 という部品番号のようでした。

交換部品の手配

ずいぶん昔のサーバー(調べると2009年10月頃に買ってました)なんで、交換部品あるだろうか?と思い、ネットを調べてみると、わんさかありました。 いや、今の時代すごいですね。それともサーバーだからなのかな?いずれにしても、助かります。

結局、毎度おなじみのamazonで、下記のリンク先から購入しました。

中国の業者さんのようで、到着まで10日以上かかるとのことでしたが、半分程度で着きました。ありがたいですね。

開封

早速、やってきた箱を開けると、

f:id:junichim:20190531150733j:plain

厳重というか、ぐるぐる巻きです。

背面側(電源ケーブル差込口側)

f:id:junichim:20190531150916j:plain

側面

f:id:junichim:20190531151000j:plain

amazonの商品紹介の写真だと、このケーブルクリップ(青い部品)がついていなかったので、心配でしたが、きちんとついていました。

ケーブル側

f:id:junichim:20190531151101j:plain

見た感じ、特に問題ないようです。なので、交換とまいまります。

ちなみに、新しい電源の型番は、 L305P-03 でした。

f:id:junichim:20190531155412j:plain

交換

いよいよ交換です。まあ、わざわざブログに書くほどでもないぐらい、交換作業は難しくありません。

取り外し

まずはコンセントを抜いて、シャーシを開けて、電源ケーブルを一通り外します。

f:id:junichim:20190531150646j:plain

次に背面側(外側)のネジ4本を外します。

最後にハードウェアマニュアルにもあるように、シャーシ側の『電源ユニットリリースタブ』を押して、電源ユニットを外します。

f:id:junichim:20190531151553p:plain

電源ユニット外した状態で写真撮り忘れたので、ちょっとわかりにくいですが、シャーシを開けた側からみると、底面側になる壁面に少し飛び出しているタブ状のものです。 これを押しながら、電源ユニットをずらすと簡単に外せます。

ちなみに、ハードウェアマニュアルには、ヒートシンクとエアフローカバーアセンブリも外せと書いてありましたが、私の場合これらをつけたままでも問題なく作業できました。

取り付け

次は取り付けです。 取り外しと逆の手順とすればOKです。

一点、ちょっと気を付けたいのが、電源ユニットのシャーシ側の側面には、

f:id:junichim:20190531154332j:plain

のような切り欠きがあります。で、取り付ける際には、この切り欠きに、シャーシ側のツメが引っかかるようにする必要があります。

そこさえクリアできれば、あとはネジ締めて、電源ケーブル取り付ければOKです。

あ、フラットケーブルはケーブルクリップに通して固定してください。ケーブルクリップ自体が結構曲がるのでわりと簡単に通せました(ですが、力の入れすぎにはご注意ください)。

動作確認

交換ができれば、最後に動作確認します。

一度はずした電源ケーブルなどをすべて取り付けて、電源ボタンを押すと、何事もなかったかのようにサーバーに電源が入りました。 しばらくすると、OSも問題なく立ち上がり、タイルサーバーも問題ないようです。

やれやれ。

おまけ

ケーブルクリップですが、ハードウェアマニュアルでは、交換部品にケーブルクリップがついていないことを想定しているようで、既存ものを取り外して使いまわせ、と書いてあります。

f:id:junichim:20190531154702j:plain

取り外した電源はあとで処分するだけなんで、思い切って外してみます。 すると、思ったより力が必要で部品が割れるかと思ったぐらいです。

f:id:junichim:20190531154800j:plain

外すとこんな感じでした。

もし、交換の電源を買ったのに、ケーブルクリップがなければ、頑張って付け替えてください。

参考記事

先人たちの記録が参考になりました。ありがとうございました。

サーバの電源が逝った(;´Д`) | でびあんのがらくた箱

【データ復旧実績】サーバー DELL PowerEdge T105 サーバーの電源が入らない – データ復旧専門【データテック】札幌駅1分 北海道データ復旧センター 無料診断・即復旧~

Dell PowerEdge T105 の電源ユニットが壊れたので取り替えた話 | Hello World!!

避難所検索@伊勢 オフライン用 map, ghz ファイルの自動生成

避難所検索@伊勢で使用する、オフライン用 map, ghz ファイルを自動生成できるようにしたいと思います。

当初はこちらの記事に書いたように、自前のタイルサーバーに最新のデータがあるので、これの上で pbf ファイルを生成しようとしたのですが、調べてみたらちょっと厳しいことがわかりました。

ということで方針を変更して、 Geofabrik 社さんの地域別の pbf データをダウンロードして、mapsforgemap-creatorgraphhopper を動かして、必要なデータを生成する、というやり方とします。

たいそうなことを書いているようですが、やってることは、過去記事の

と基本的には同じです。 とはいえ、バージョンが違うなどで、結構戸惑った部分もあるので、そのあたりを中心に一連の手順をメモっときます。

準備

必要なソフトウェアをインストールしておきます。

osmosis 最新版のインストール

まず、最初に osmosis の最新版をインストールします(理由は後述)。

タイルサーバー立ち上げ作業時に(こちらの記事参照)、apt経由でインストールしていたので、これをいったんアンインストールします。

mor@map:~$ sudo apt purge osmosis

現時点の最新版 0.47 を改めてインストールします。

osm@map:~$ 
osm@map:~$ cd bin/
osm@map:~/bin$ mkdir osmosis-0.47
osm@map:~/bin$ cd osmosis-0.47/
osm@map:~/bin/osmosis-0.47$ wget https://bretth.dev.openstreetmap.org/osmosis-build/osmosis-0.47.tgz
osm@map:~/bin/osmosis-0.47$ 
osm@map:~/bin/osmosis-0.47$ tar zxvf osmosis-0.47.tgz 
osm@map:~/bin/osmosis-0.47$ 

シンボリックリンクを張っておきます。

osm@map:~/bin/osmosis-0.47$ cd ..
osm@map:~/bin$ ln -s osmosis-0.47/bin/osmosis .
osm@map:~/bin$ ls
osm-tile-update-expire-w-mail  osmosis  osmosis-0.47
osm@map:~/bin$ 
osmosis を最新版にした理由

前述したように、このサーバーにはタイルサーバーの更新設定時に apt 経由でインストールしたもの ( 0.44.1) が入っていました。 なので、最初はこれをそのまま利用して、mapsforge の最新版(0.11.0 など)を使おうとすると、

java.lang.RuntimeException: XPathFactory#newInstance() failed to create an XPathFactory for the default object model: http://java.sun.com/jaxp/xpath/dom with the XPathFactoryConfigurationException: javax.xml.xpath.XPathFactoryConfigurationException: No XPathFctory implementation found for the object model: http://java.sun.com/jaxp/xpath/dom

のような Exception が発生していました。osmosis を最新にしたら解決したのでこのように入れ替えています。

なお、タイルサーバーの更新処理のほうは 0.47 でも問題なく動作しています。

mapsforge の Osmosisプラグインのインストール

mapsforge-creator を使うには、 mapsforge の osmosis プラグインをインストールしておく必要があります。

osmosis のプラグインディレクトリは ~/.openstreetmap/osmosis/plugins/ になります。なければ、作っておきます。 map-writer と poi-writer をwgetでとってくればOKです(jar-with-dependenciesを指定すること)。

osm@map:~$ 
osm@map:~$ cd .openstreetmap/osmosis/plugins/
osm@map:~/.openstreetmap/osmosis/plugins$ 
osm@map:~/.openstreetmap/osmosis/plugins$ wget https://search.maven.org/remotecontent?filepath=org/mapsforge/mapsforge-map-writer/0.11.0/mapsforge-map-writer-0.11.0-jar-with-dependencies.jar -O mapsforge-map-writer-0.11.0-jar-with-dependencies.jar
osm@map:~/.openstreetmap/osmosis/plugins$ 
osm@map:~/.openstreetmap/osmosis/plugins$ wget https://search.maven.org/remotecontent?filepath=org/mapsforge/mapsforge-poi-writer/0.11.0/mapsforge-poi-writer-0.11.0-jar-with-dependencies.jar -O mapsforge-poi-writer-0.11.0-jar-with-dependencies.jar
osm@map:~/.openstreetmap/osmosis/plugins$ ls
mapsforge-map-writer-0.11.0-jar-with-dependencies.jar  mapsforge-poi-writer-0.11.0-jar-with-dependencies.jar

mapsforge-creator のインストール

続いて、mapsforge-creator 自身をインストールします。

osm@map:~/bin$ 
osm@map:~/bin$ git clone https://github.com/mapsforge/mapsforge-creator.git
Cloning into 'mapsforge-creator'...
remote: Enumerating objects: 15, done.
remote: Counting objects: 100% (15/15), done.
remote: Compressing objects: 100% (13/13), done.
remote: Total 216 (delta 4), reused 10 (delta 2), pack-reused 201
Receiving objects: 100% (216/216), 61.62 KiB | 0 bytes/s, done.
Resolving deltas: 100% (137/137), done.
Checking connectivity... done.
osm@map:~/bin$ 

master ブランチの最新版を使います。

graphhopper のインストール

graphhopper もインストールしておきます。

osm@map:~/bin$ 
osm@map:~/bin$ git clone https://github.com/graphhopper/graphhopper.git
Cloning into 'graphhopper'...
remote: Enumerating objects: 88369, done.
remote: Total 88369 (delta 0), reused 0 (delta 0), pack-reused 88369
Receiving objects: 100% (88369/88369), 72.96 MiB | 6.62 MiB/s, done.
Resolving deltas: 100% (46622/46622), done.
Checking connectivity... done.
osm@map:~/bin$ 

リリースがタグで指定できるので、最新のリリース (0.12.0) に切り替えます。

osm@map:~/bin$ 
osm@map:~/bin$ cd graphhopper/
osm@map:~/bin/graphhopper$ 
osm@map:~/bin/graphhopper$ git tag
0.10.0
・・・
0.9.0
osm@map:~/bin/graphhopper$ 
osm@map:~/bin/graphhopper$ git checkout 0.12.0
Note: checking out '0.12.0'.
・・・
HEAD is now at 3f1482b... use 0.12-SNAPSHOT
osm@map:~/bin/graphhopper$ 
JDK のインストール

Graphhopper には JDK が必要っぽいので、インストールしておきます。

mor@map:~$ sudo apt install default-jdk

ちなみに、 default-jre / default-jdk ともに openjdk-8 に依存しています。

一度 graphhopper を起動しておきます。graphhopper 以下に maven がインストールされます。

osm@map:~/bin/graphhopper$ 
osm@map:~/bin/graphhopper$ ./graphhopper.sh 
## using java 1.8.0_191 (64bit) from 
## action  not found!
Usage:
-a | --action <action>    must be one the following actions:
     --action import      creates the graph cache only, used for later faster starts
     --action web         starts a local server for user access at localhost:8989 and API access at localhost:8989/route
     --action build       creates the graphhopper web JAR
     --action clean       removes all JARs, necessary if you need to use the latest source (e.g. after switching the branch etc)
     --action measurement does performance analysis of the current source version via random routes (Measurement class)
     --action torture     can be used to test real world routes via feeding graphhopper logs into a GraphHopper system (Torture class)
-c | --config <config>    specify the application configuration
-d | --run-background     run the application in background (detach)
-fd| --force-download     force the download of the OSM data file if needed
-h | --help               display this message
--host <host>             specify to which host the service should be bound
-i | --input <file>       path to the input map file or name of the file to download
--jar <file>              specify the jar file (useful if you want to reuse this script for custom builds)
-o | --graph-cache <dir>  directory for graph cache output
-p | --profiles <string>  comma separated list of vehicle profiles
--port <port>             start web server at specific port
-v | --version            print version
./graphhopper.sh: 行 138: mvn: コマンドが見つかりません
No Maven found in the PATH. Now downloading+installing it to ./maven
--2019-05-01 12:44:33--  http://archive.apache.org/dist/maven/maven-3/3.5.0/binaries/apache-maven-3.5.0-bin.zip
・・・
(中略)
・・・
osm@map:~/bin/graphhopper$ 

実際に呼び出すときは、 MAVEN_HOME を指定してから呼び出します(スクリプト内で mvn を使っています)。

その他

あと、zipも使うのでインストールしておきます。

mor@map:~$ sudo apt install zip

GDAL はどこかでインストールしたっぽいので、省略します。こちらにもインストール方法がメモしてあるので、ご参考に。

その他、もし不足しているものがあれば、適宜インストールしておきます。

スクリプトの調整

さて、動かす前にスクリプトを調整します。今回は次のような構成を想定しています。

  • ~/bin/osmosis-0.47 : osmosis(環境によってはシステムに入っています)
  • ~/bin/mapsforge-creator : mapsforge-creator
  • ~/bin/graphhopper : Graphhopper
  • ~/bin/offlinemap : オフラインマップファイル作成用スクリプト類
  • ~/work/offlinemap 作業ディレクトリ
  • ~/work/offlinemap/data 作業用データ保存場所
  • ~/work/offlinemap/maps map データ出力場所
  • ~/work/offlinemap/result 最終的なオフライン用データ保存場所

スクリプトを修正する前に作業ディレクトリを作っておきます。

osm@map:~/work$ 
osm@map:~/work$ mkdir offlinemap
osm@map:~/work$ cd offlinemap/
osm@map:~/work/offlinemap$ mkdir data maps result
osm@map:~/work/offlinemap$ 

map-creator スクリプト

最初に map-creator スクリプトを手直しします。

パス設定まわり

mapsforge-creator にある map-creator スクリプトを編集して、パスなどを設定します。

# Configuration

# http://wiki.openstreetmap.org/wiki/Osmosis
#[ $OSMOSIS_HOME ] || OSMOSIS_HOME="$HOME/programs/osmosis"
[ $OSMOSIS_HOME ] || OSMOSIS_HOME="$HOME/bin/osmosis-0.47"

# add by Junichi MORI, 2019/5/1
[ $WORK_HOME ] || WORK_HOME="$HOME/work/offlinemap"

#[ $DATA_PATH ] || DATA_PATH="$HOME/mapsforge/data"
[ $DATA_PATH ] || DATA_PATH="$WORK_HOME/data"

#[ $MAPS_PATH ] || MAPS_PATH="$HOME/mapsforge/maps"
[ $MAPS_PATH ] || MAPS_PATH="$WORK_HOME/maps"

#[ $POIS_PATH ] || POIS_PATH="$HOME/mapsforge/pois"
[ $POIS_PATH ] || POIS_PATH="$WORK_HOME/pois"

[ $PROGRESS_LOGS ] || PROGRESS_LOGS="true"

[ $TAG_VALUES ] || TAG_VALUES="false"

[ $THREADS ] || THREADS="1"

#[ $DAYS ] || DAYS="30"
[ $DAYS ] || DAYS="27"

# added by Junichi MORI, 2019/5/1
SKIP_POI_CREATION="true"
対象領域を限定

map-creator は Geofabrik のダウンロードサイトから pbf データを自動的にダウンロードし、mapファイルを生成してくれます。 Geofabrik が提供している pbf ファイルは、大陸/国/地域 といった分類になっています。例えば、日本だと、三重県を含むデータは、

asia/japan/kansai

という指定になります。kansai は関西地方なので、伊勢近辺のデータのみが欲しい場合は範囲が大きすぎます。

なので、map-creator を一部修正してあらかじめ指定した領域を対象に動作するように変更します。

起動引数を下記のように変更します。

if [ $# -lt 2 ]; then
  #echo "Usage: $0 continent/country[/region] ram|hd [lang,...]"
  #echo "Example: $0 europe/germany/berlin ram en,de,fr,es"
  echo "Usage: $0 continent/country[/region] ram|hd [lang,...] [poly_file]"
  echo "Example: $0 europe/germany/berlin ram en,de,fr,es ise.poly"
  exit
fi

4番目の引数として、領域を指定するファイルを指定可能とします。ただし、この場合、必ず3番目の引数を指定していることを前提としています(面倒だったのでスクリプトは修正していません)。

省略可能引数が多くなるので、2番目の引数(ram|hd)のチェックを追加しておきます。

POIS_PATH="$(dirname "$POIS_PATH/$1")"

# check 2nd argument
if [ $2 != "ram" -a $2 != "hd" ]; then
  echo "2nd argument is invalid. must be ram or hd. : " $2
  exit
fi

# Check map date

要は2番目の引数の指定を忘れたときへの対応です。まあ、なくてもどこかで落ちるんですけどね。

4番目の引数がある場合は指定ファイルを用い、ない場合は pbfファイルと一緒にダウンロードされる poly ファイル(kansai を指定していれば、 kansai.poly)をもとに処理対象領域を決定します。

# modified by Junichi MORI, 2019/5/1
# Bounds

[ $4 ] && POLY_FILE="$WORK_HOME/$4" || POLY_FILE="$WORK_PATH/$NAME.poly"
echo "Poly file is " $POLY_FILE

#BBOX=$(perl poly2bb.pl "$WORK_PATH/$NAME.poly")
BBOX=$(perl poly2bb.pl "$POLY_FILE")
BBOX=(${BBOX//,/ })
BOTTOM=${BBOX[0]}
LEFT=${BBOX[1]}
TOP=${BBOX[2]}
RIGHT=${BBOX[3]}

# Start position

# modified by Junichi MORI, 2019/5/1
#CENTER=$(perl poly2center.pl "$WORK_PATH/$NAME.poly")
CENTER=$(perl poly2center.pl "$POLY_FILE")

pbf ファイルから対象領域を取り出す処理を追加します。

# added by Junichi MORI, 2019/5/1
# extract only bounding box
BOUNDED_PBF="$NAME.pbf"
echo $BOUNDED_PBF

CMD="$OSMOSIS_HOME/bin/osmosis --rb file=$WORK_PATH/$NAME-latest.osm.pbf \
                 --bb left=$LEFT right=$RIGHT top=$TOP bottom=$BOTTOM completeWays=yes \
                 --wb file=$WORK_PATH/$BOUNDED_PBF"
echo $CMD
$CMD

# Land

osmosis の引数として completeWays=yes を指定しているのは、後続の graphhopper にて領域の外側にwayが広がっている場合に エラーとならないようにするためです。

あとは、後続する処理において、領域を限定したファイルを使うように変更します。

# Merge

# modified by Junichi MORI, 2019/5/1
#CMD="$OSMOSIS_HOME/bin/osmosis --rb file=$WORK_PATH/$NAME-latest.osm.pbf \
#                               --rx file=$WORK_PATH/sea.osm --s --m"
CMD="$OSMOSIS_HOME/bin/osmosis --rb file=$WORK_PATH/$BOUNDED_PBF \
                               --rx file=$WORK_PATH/sea.osm --s --m"
if [ "$SKIP_POI_CREATION" != "true" ]; then
  # modified by Junichi MORI, 2019/5/1
  #CMD="$OSMOSIS_HOME/bin/osmosis --rb file=$WORK_PATH/$NAME-latest.osm.pbf \
  #                               --pw file=$WORK_PATH/$NAME.poi \
  #                                    progress-logs=$PROGRESS_LOGS"
  CMD="$OSMOSIS_HOME/bin/osmosis --rb file=$WORK_PATH/$BOUNDED_PBF \
                                 --pw file=$WORK_PATH/$NAME.poi \
                                      progress-logs=$PROGRESS_LOGS"

元々のスクリプトは、処理が終了するときに、pbfファイルなどの中間ファイルを削除していましたが、後続のgraphhopperでpbfファイルを利用するため、削除を外しておきます。

# Post-process

#rm -rf "$WORK_PATH"

こちらに、ファイル全体を載せときますので、気になる方はご参考にしてください。

起動スクリプト

次に、 map-creator と graphhopper を起動するスクリプトなど、および全体を制御するスクリプトを作成します。 bin/offlinemap に以下のファイルを作成しました。

  • bin/offlinemap/doMapCreator : map-creator 実行
  • bin/offlinemap/doGh : graphhopper 実行(およびghzファイルに圧縮)
  • bin/offlinemap/uploadS3 : S3 へのアップロードを実行
  • bin/offlinemap/createOfflineMap : 全体を実行

個別のスクリプトは特別なことは特にしていませんないので、気になる方は、gistを見てください。 これで、一連のファイルを自動で作ることができます。

動作テスト

まず、動作テストの前に設定ファイルを準備します。

次いで、map-creator と graphhopper.sh をそれぞれ個別に動かしてから、全体を通して動かしてみます。

設定ファイルの準備

作業ディレクトリ直下に、領域を限定するためのファイル(以前、避難所検索@伊勢のオフラインファイル作成時に作ったやつを流用 ise.poly)とgraphhopperの設定ファイル(gh_config.yml)を作成します。

graphhopperの設定ファイルは、graphhopper を clone したディレクトリ(bin/graphhopper)に config-example.yml があるので、これをコピーします。

今回の場合は、災害時の避難所マップに使うのが目的なので、先頭の

  # Possible options: car,foot,bike,bike2,mtb,racingbike,motorcycle (comma separated)
  # bike2 takes elevation data into account (like up-hill is slower than down-hill) and requires enabling graph.elevation.provider below
  graph.flag_encoders: car

car とある部分を、 foot に変更します。

  # Possible options: car,foot,bike,bike2,mtb,racingbike,motorcycle (comma separated)
  # bike2 takes elevation data into account (like up-hill is slower than down-hill) and requires enabling graph.elevation.provider below
  graph.flag_encoders: foot

あと、map-creator を動かした場合に、JVMのメモリが足りなくて落ちることがあります。これへの対策として、 ~/.osmosis にJVMのオプションを書いておきます。

osm@map:~$ cat .osmosis 
export JAVACMD_OPTIONS="-Xmx6G"
osm@map:~$ 

これで、準備OKです。

map-creator の動作

map-creator の動作について述べておきます。

前述したように map-creator のスクリプトは、引数で指定された国・地域について、Geofabrik が提供する国別・地域別の pbf ファイルを自動でダウンロードして、mapファイルを作成する、という動作をしています(なので、引数の値は Geofabrikのダウンロードサイトで用意されている地域にしてください)。

日本の場合は、こちらのページをみるどこ地方があるのかわかります。

なので、直接呼び出し、対象領域を制限しない場合は

osm@map:~/bin/mapsforge-creator$ ./map-creator asia/japan/kansai ram

のようにします(kansaiを選んでいるのは伊勢近辺はここのデータに含まれているためです)。

処理対象領域を限定する場合は、スクリプトで指定した作業ディレクトリ(今回の場合は、 ~/work/offlinemap)に領域を指定する ise.poly ファイルを置き、引数でこれを指定します。

osm@map:~/bin/mapsforge-creator$ ./map-creator asia/japan/kansai ram ja ise.poly

どちらの場合も、例外が表示されず、処理が終了し、 map データ出力場所(~/work/maps/v4/asia/japan)に kansai.mapファイルが作成されていれば、OKです。 なお、初回起動時はファイルのダウンロードにかなりの時間がかかりますので、ご注意ください。

また、領域を指定した場合は、

2019-05-01 15:29:50 URL:https://download.geofabrik.de/asia/japan/kansai.poly [15329/15329] -> "/home/osm/work/offlinemap/data/asia/japan/kansai/kansai.poly" [1]
Poly file is  /home/osm/work/offlinemap/ise.poly
kansai.pbf
/home/osm/bin/osmosis-0.47/bin/osmosis --rb file=/home/osm/work/offlinemap/data/asia/japan/kansai/kansai-latest.osm.pbf --bb left=136.417000 right=137.028000 top=34.685000 bottom=34.277000 completeWays=yes --wb file=/home/osm/work/offlinemap/data/asia/japan/kansai/kansai.pbf

のようにpbfファイルの領域を区切っているコマンドも表示されます。

なお、ise.poly ファイルに記載された緯度経度(のそれぞれ東西南北の端の値)を見ると、上記コマンドで表示される値が微妙にずれていることがわかります。 これは、領域を指定したファイルを囲む矩形を求める際に、poly2bb.pl スクリプトで 0.1 deg 分マージンがとられるためです。

結果のファイルは、領域を限定しない場合、

osm@map:~/work$ 
osm@map:~/work$ ls -l offlinemap/maps/v4/asia/japan/kansai.map 
-rw-rw-r-- 1 osm osm 128542439  51 15:17 offlinemap/maps/v4/asia/japan/kansai.map
osm@map:~/work$ 

おおよそ、130 MB ぐらいですね。

伊勢市近辺に限定した場合は

osm@map:~/work$ 
osm@map:~/work$ ls -l offlinemap/maps/v4/asia/japan/kansai.map
-rw-rw-r-- 1 osm osm 4728762  51 15:33 offlinemap/maps/v4/asia/japan/kansai.map
osm@map:~/work$ 

約5MB弱ぐらいですね。ずいぶんと小さくなっており、いい感じです。 これなら、スマホに載せることも十分できそうです。

graphhopper の動作

初回 graphhopper.sh を起動すると、graphhopper.jar のビルドも同時に行われます。

osm@map:~/bin/offlinemap$ ./doGh 
target output dir : /home/osm/work/offlinemap/data/asia/japan/kansai/kansai-gh
target output file: kansai.ghz
/home/osm/bin/graphhopper/graphhopper.sh --action import --input /home/osm/work/offlinemap/data/asia/japan/kansai/kansai.pbf --config /home/osm/work/offlinemap/gh_config.yml
## using java 1.8.0_191 (64bit) from 
## using existing osm file /home/osm/work/offlinemap/data/asia/japan/kansai/kansai.pbf
## building graphhopper jar: web/target/graphhopper-web-0.12-SNAPSHOT.jar
## using maven at /home/osm/bin/graphhopper/maven
## now import. JAVA_OPTS=-Xmx1000m -Xms1000m

エラーもなく処理が終了すると

osm@map:~/work$ 
osm@map:~/work$ ls -l offlinemap/data/asia/japan/kansai/
合計 187504
drwxrwxr-x 2 osm osm      4096  51 15:56 kansai-gh
-rw-rw-r-- 1 osm osm 169917967  51 08:45 kansai-latest.osm.pbf
-rw-rw-r-- 1 osm osm        56  51 09:23 kansai-latest.osm.pbf.md5
-rw-rw-r-- 1 osm osm   7395204  51 15:32 kansai.pbf
-rw-rw-r-- 1 osm osm     15329  51 08:43 kansai.poly
-rw-rw-r-- 1 osm osm     19985  51 15:33 land.dbf
-rw-rw-r-- 1 osm osm       143  51 15:32 land.prj
-rw-rw-r-- 1 osm osm    889172  51 15:33 land.shp
-rw-rw-r-- 1 osm osm     13380  51 15:33 land.shx
-rw-rw-r-- 1 osm osm   7118778  51 15:33 land1.osm
-rw-rw-r-- 1 osm osm   6606690  51 15:33 merge.pbf
-rw-rw-r-- 1 osm osm       857  51 15:33 sea.osm
osm@map:~/work$ 
osm@map:~/work$ ls -l offlinemap/data/asia/japan/kansai/kansai-gh/
合計 17036
-rw-rw-r-- 1 osm osm 3145828  51 15:56 edges
-rw-rw-r-- 1 osm osm 2097252  51 15:56 geometry
-rw-rw-r-- 1 osm osm 4795480  51 15:56 kansai.ghz
-rw-rw-r-- 1 osm osm 1048676  51 15:55 location_index
-rw-rw-r-- 1 osm osm 1048676  51 15:56 names
-rw-rw-r-- 1 osm osm 1048676  51 15:56 nodes
-rw-rw-r-- 1 osm osm 1048676  51 15:56 nodes_ch_fastest_foot_node
-rw-rw-r-- 1 osm osm   32868  51 15:56 properties
-rw-rw-r-- 1 osm osm 3145828  51 15:56 shortcuts_fastest_foot_node
osm@map:~/work$ 

のように、kansai.ghz というファイルが作成されます。

全体の動作

それぞれのスクリプトが問題なく動作していそうなので、全体処理を動かしてみます。

osm@map:~$ 
osm@map:~$ bin/offlinemap/createOfflineMap 

ダウンロード等で時間がかかりますが、何もなければ処理が終了します。

~/work/offlinemap/result に ise.map, ise.ghz ファイルが作成されていればOKです。

Android アプリに組み込んで動作確認

避難所検索@伊勢 に組み込んで表示させてみます。

インストール時に使用するオフライン用データは asset に入れてあるので、これを上記で作成したファイルと入れ替えて起動してみます。

でも、残念ながら、落ちます。LogCat で見ると

2019-05-02 10:32:24.280 22133-22133/? E/GraphHopperWrapper: Graphhopper file load failed
    java.lang.IllegalArgumentException: Encoder foot was used in version 3, but current version is 5
        at com.graphhopper.routing.util.EncodingManager.parseEncoderString(EncodingManager.java:271)
        at com.graphhopper.routing.util.EncodingManager.createBuilder(EncodingManager.java:80)
        at com.graphhopper.routing.util.EncodingManager.create(EncodingManager.java:137)
        at com.graphhopper.GraphHopper.load(GraphHopper.java:708)
        at com.mori_soft.escape.model.GraphHopperWrapper.prepareGraphHopper(GraphHopperWrapper.java:55)
        at com.mori_soft.escape.model.GraphHopperWrapper.getInstance(GraphHopperWrapper.java:46)
        at com.mori_soft.escape.model.NearestShelterAsynkTaskLoader.<init>(NearestShelterAsynkTaskLoader.java:50)
        at com.mori_soft.escape.MapFragment$NearestShelterLoaderCallbacks.onCreateLoader(MapFragment.java:367)
        at android.app.LoaderManagerImpl.createLoader(LoaderManager.java:556)
        at android.app.LoaderManagerImpl.createAndInstallLoader(LoaderManager.java:565)
        at android.app.LoaderManagerImpl.restartLoader(LoaderManager.java:715)
        at com.mori_soft.escape.MapFragment.searchNearShelter(MapFragment.java:266)
        at com.mori_soft.escape.MapFragment.updateCurrentLocation(MapFragment.java:257)
        at com.mori_soft.escape.MainActivity$6.onLocationResult(MainActivity.java:272)
        at com.google.android.gms.internal.location.zzau.notifyListener(Unknown Source:4)
        at com.google.android.gms.common.api.internal.ListenerHolder.notifyListenerInternal(Unknown Source:17)
        at com.google.android.gms.common.api.internal.ListenerHolder$zaa.handleMessage(Unknown Source:5)
        at android.os.Handler.dispatchMessage(Handler.java:106)
        at android.os.Looper.loop(Looper.java:164)
        at android.app.ActivityThread.main(ActivityThread.java:6494)
        at java.lang.reflect.Method.invoke(Native Method)
        at com.android.internal.os.RuntimeInit$MethodAndArgsCaller.run(RuntimeInit.java:438)
        at com.android.internal.os.ZygoteInit.main(ZygoteInit.java:807)

というログが出力されていました。 どうも graphhopper のバージョン違いのため(encoder foot のバージョン違い)、経路情報ファイル(ghz)が読み込めなくて、それで落ちているようです。

app/build.gralde の graphhopper ライブラリを 0.12.0 に上げて試してみます。すると今度はビルド自体が落ちます。

ここで、いろいろと試行錯誤したのですが、結論からいうと、 gradle /gradle plugin を 4.10.1 / 3.3.2 に上げて再度コンパイルしたら問題なくビルドできました。

この状態にして、上記で作ったファイルを Android アプリに組み込んで表示させると、問題なく動作しました。 なので、オフライン用ファイルを生成は問題なくできていそうです。

オフラインファイルを S3 にアップロード

あと一息です。 作成したオフラインファイルを S3 にアップロードするようにします。

AWS CLI をインストール

osm@map:~$ pip3 install awscli --upgrade --user

つぎに、AWSのマネージメントコンソールで、オフライン用ファイルを公開するバケットを作成します。また、この公開用バケットに書き込み許可があるIAMユーザーを作成します。

サーバーに戻り、IAM ユーザーのアクセスキー等を設定します。

osm@map:~$ aws configure --profile=upload-user-name
AWS Access Key ID [None]: xxxxxxxxxxxxxxxxxxxxxx
AWS Secret Access Key [None]:  xxxxxxxxxxxxxxxxxxxxxx
Default region name [None]: ap-xxxxxxx-x
Default output format [None]:  json

アップロード用のスクリプトは前述のgistにありますので、参考にしてください。

動作させてみて、問題なくアップロードできることを確認しておきます。

cron による定期実行

最後に、ここまでの一連の処理を cron で定期実行できるようにしておきます。

# The first element of the path is a directory where the debian-sa1
# script is located
PATH=/usr/sbin:/usr/bin:/sbin:/bin:/usr/local/bin:/home/osm/bin:/home/osm/.local/bin

# run createOfflineMap at am 6:01 1st day of every month
1 6 1 * * osm /home/osm/bin/offlinemap/createOfflineMap >> /home/osm/work/offlinemap/log/run.log 2>&1

これだと、毎月1日にオフラインマップの作成とアップロードが行われることになります。

オフライン用マップファイルもこれで定期的に更新されるようになりました。めでたしめでたし。

あれ?なんか忘れてない?

さいごに

そうです。まだアプリ側が対応できていません。 ということで、アプリ側で最新のオフラインファイルをチェックして、ダウンロードする機能を追加しないといけません。

ま、これはまたおいおい対応したいと思います。

あとですね。

当初の流れで、タイルサーバー上に動作環境を作りましたが、(タイルサーバーの持つ最新のデータを使うという当初の目論見が外れたので)別段ここで動かす必然性はありません。

ということで、アプリ側の対応が終わったら、ここまでの一連の処理をコンテナ化してクラウド上にでも持ってこうと思います。

今年のGW終わるまでに全部終わるかな?