S3にファイルがSFTPアップロードされたことを検知してLambdaを起動する( `aws-cli` で構築)
以下のような仕組みを作る必要がありました。
- ユーザにSFTPプロトコルを使って、S3にファイルをアップロードしてもらう。
- S3にファイルがアップロードされたことを検知して、何らかの処理を行う。
AWSのサービスを組みわせて、かつできる限り aws-cli
のみを使ってコマンドラインで仕組みを構築してみました。
今回は、 「何らかの処理」 として Lambdaファンクションを使ってCloudWatchLogにログを書き出させてみます 。
※注意:IAM周りの設定はかなり大雑把に設定しているので、参考する場合にはもっと考慮が必要!
簡易構成図
設定パラメータを整理
AWSの各種サービス設定時に必要となる情報を事前にまとめておきました。
設定項目 | 設定値 |
---|---|
AWS Transfer 実行ユーザ名(SFTPログインユーザ) | g-trigger-bucket-transfer-user |
AWS Transfer 実行ロール名 | g-trigger-bucket-transfer-role |
S3 バケット名 | g-trigger-bucket |
S3 バケット イベント名 | g-trigger-bucket-event |
Lambda ファンクション名 | g-trigger-function |
Lambda 実行ロール名 | g-trigger-function-role |
事前準備
aws-cli
(AWSコマンドの利用可能な環境づくり)
aws-cli
の利用可能環境は、以下のエントリを参考に構築済み。
AWSサービスの設定開始
AWS S3バケットの作成
S3バケットの作成やファイルのアップロードをコマンドラインから操作する方法は、 以下のエントリで整理済み。
参考にしながら設定を進める。
# バケットを作成
$ aws s3 mb s3://g-trigger-bucket
# バケットができたかを確認
$ aws s3 ls
2019-02-25 07:32:57 g-trigger-bucket
AWS Lambdaファンクションの作成
AWS Lambda ファンクションの作成や呼び出しをコマンドラインから操作する方法は、 以下のエントリで整理済み。
参考にしながら設定を進める。
実行ロールの作成
# まずは初期ポリシーファイルを作成
$ cat <<'EOF' >g-trigger-function-role-policy.json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Principal": {
"Service": "lambda.amazonaws.com"
},
"Action": "sts:AssumeRole"
}
]
}
EOF
# 作成したポリシーファイルを元に、ロールを作成。
### 実行時に出力されたJSONメッセージのうち、 **Arn
の部分は後々必要となるためメモしておく** 。
$ aws iam create-role \
--role-name g-trigger-function-role \
--assume-role-policy-document file://g-trigger-function-role-policy.json
# 実行結果を CloudWatch Log
として保存したい場合は、以下の既存ポリシーを追加で付与してやる。
### arn:aws:iam::aws:policy/CloudWatchLogsFullAccess が "CloudWatchLogsFullAccess" のリソース識別子を新たしている
$ aws iam attach-role-policy \
--role-name g-trigger-function-role \
--policy-arn arn:aws:iam::aws:policy/CloudWatchLogsFullAccess
実行時に出力されたJSONメッセージのうち、 Arn
の部分は後々必要となるためメモしておく 。
ファンクションを作成
CloudWatch Logs にログを記録するLambdaファンクションをコーディングし、デプロイします。
# index.js を作成
$ cat <<'EOF' >index.js
exports.handler = function (event, context, callback) {
console.log("===START===")
console.log(event = ${JSON.stringify(event)}
)
console.log(context = ${JSON.stringify(context)}
)
callback(null, "Success")
console.log("===END===")
}
EOF
# jsファイルには忘れずに読み取り可能権限を付与しておく
$ chmod 644 index.js
# デプロイパッケージを作成
$ zip function.zip index.js
# create-function コマンドを使用して Lambda ファンクションを作成
## 先程ロール作成時にメモしておいた **Arn** 値を指定する
$ aws lambda create-function \
--function-name g-trigger-function \
--zip-file fileb://function.zip \
--handler index.handler \
--runtime nodejs8.10 \
--role "arn:aws:iam::642942901536:role/g-trigger-function-role"
最後のコマンド実行後には、以下のようなJSON情報が出力されます。
出力内容のうち、 "FunctionArn"の値はこの後使用するため、メモしておきましょう。
{
"FunctionName": "g-trigger-function",
"FunctionArn": "arn:aws:lambda:ap-northeast-1:642942901536:function:g-trigger-function",
"Runtime": "nodejs8.10",
"Role": "arn:aws:iam::642942901536:role/g-trigger-function-role",
"Handler": "index.handler",
"CodeSize": 307,
"Description": "",
"Timeout": 3,
"MemorySize": 128,
"LastModified": "2019-02-27T03:58:19.128+0000",
"CodeSha256": "se58QQr0WdxVCQ4ltQqra10h4tKtGzxJRUXJmeFFBvk=",
"Version": "$LATEST",
"TracingConfig": {
"Mode": "PassThrough"
},
"RevisionId": "d1205975-56ff-42fa-a2f4-7eb3bbd4bd29"
}
AWS S3バケットのイベントフックを設定
S3にファイルがアップロードされたタイミングでLambdaファンクションを起動させる設定を行います。
まずは先程作成したLambdaファンクションに対して、S3イベントフック可能な権限を与えておきましょう。
$ aws lambda add-permission \
--function-name "g-trigger-function" \
--statement-id "s3-put-event" \
--action "lambda:InvokeFunction" \
--principal "s3.amazonaws.com" \
--source-arn "arn:aws:s3:::g-trigger-bucket"
S3にイベントの設定を行います。
ファイルが作成されたタイミングでイベントが発火するように設定。
# まずは設定内容を記述したファイルを作成
$ cat <<'EOF' >g-trigger-bucket-event.json
{
"LambdaFunctionConfigurations": [
{
"LambdaFunctionArn": "arn:aws:lambda:ap-northeast-1:642942901536:function:g-trigger-function",
"Events": ["s3:ObjectCreated:*"]
}
]
}
EOF
# イベント作成
$ aws s3api put-bucket-notification-configuration \
--bucket g-trigger-bucket \
--notification-configuration file://g-trigger-bucket-event.json
AWS Transferを設定
最後に S3 に対して SFTP プロトコルを使ってファイルをアップロードするための口を設定します。
( この手順に関しては、今までブログで整理していなかったので初めて設定してみました。 )
サーバの作成
# サーバの作成
$ aws transfer create-server --identity-provider-type SERVICE_MANAGED
{
"ServerId": "s-40bb881352ed42cb8"
}
実行結果のJSONに出力されている ServerId
の値は後に必要となるためメモしておきます。
SFTP用ロール作成
# SFTP用ロール作成
$ cat <<'EOF' >g-trigger-bucket-transfer-role-policy.json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Principal": {
"Service": "transfer.amazonaws.com"
},
"Action": "sts:AssumeRole"
}
]
}
EOF
# ポリシーファイルを使ってロールを作成
$ aws iam create-role \
--role-name g-trigger-bucket-transfer-role \
--assume-role-policy-document file://g-trigger-bucket-transfer-role-policy.json
最後のコマンド実行後には、以下のようなJSON情報が出力されます。
出力内容のうち、 "Arn"の値はこの後使用するため、メモしておきます。
{
"Role": {
"Path": "/",
"RoleName": "g-trigger-bucket-transfer-role",
"RoleId": "AROAJR26G65QLOYSINCNK",
"Arn": "arn:aws:iam::642942901536:role/g-trigger-bucket-transfer-role",
"CreateDate": "2019-02-27T22:41:09Z",
"AssumeRolePolicyDocument": {
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Principal": {
"Service": "transfer.amazonaws.com"
},
"Action": "sts:AssumeRole",
"Condition": {}
}
]
}
}
}
SFTPユーザの作成・公開鍵登録
- 最後に登録した サーバ に対して、 SFTPロール を持つユーザを作成します。
- 作成後はSSH公開鍵を登録
- 端折ってしまったが、次のファイルは事前に
ssh-keygen
コマンドなどを使って作成しておく必要があります。 ~/.ssh/id_rsa.pub
- 端折ってしまったが、次のファイルは事前に
# SFTPログインユーザの作成
$ aws transfer create-user \
--role="arn:aws:iam::642942901536:role/g-trigger-bucket-transfer-role" \
--server-id="s-40bb881352ed42cb8" \
--user-name="g-trigger-bucket-transfer-user"
# SFTPログインユーザはS3へのアクセス権限が必要なためひとまずフルアクセスを付与
$ aws iam attach-role-policy \
--role-name g-trigger-bucket-transfer-role \
--policy-arn arn:aws:iam::aws:policy/AmazonS3FullAccess
# 公開鍵の登録
## 端折ってしまったが、次のファイルは事前に ssh-keygen
コマンドなどを使って作成しておく。`
$ aws transfer import-ssh-public-key \
--server-id="s-40bb881352ed42cb8" \
--ssh-public-key-body="$(cat ~/.ssh/id_rsa.pub)" \
--user-name="g-trigger-bucket-transfer-user"
動作確認
ファイルアップロード
SFTPでログインしてみます。
先程作成した AWS Transfer For SFTP サーバだが、ホスト名は以下のルールで付与されていました。
<サーバID>.server.transfer.<リージョンID>.amazonaws.com
今回は、 s-40bb881352ed42cb8.server.transfer.ap-northeast-1.amazonaws.com
となる。
※ちなみに、SFTPサーバの起動までには5分程度かかるので、接続失敗しても気長に待ってみることをおすすめします。
$ sftp -i ~/.ssh/id_rsa g-trigger-bucket-transfer-user@s-40bb881352ed42cb8.server.transfer.ap-northeast-1.amazonaws.com
正常にログインできたので、ファイルをアップロードしてみます。
# 一旦SFTPからでて、ファイルを作成
$ echo 'HELLO' > test.txt
$ sftp -i ~/.ssh/id_rsa g-trigger-bucket-transfer-user@s-40bb881352ed42cb8.server.transfer.ap-northeast-1.amazonaws.com
sftp> put test.txt /g-trigger-bucket
Uploading test.txt to /g-trigger-bucket/test.txt
test.txt 100% 6 0.2KB/s 00:00
CloudWatchLogが正しく書き出されているかを確認
以下のページにログインしてみて、ログが出力されているかを確認してみたところ、無事書き出しされていました。
https://ap-northeast-1.console.aws.amazon.com/cloudwatch/home?region=ap-northeast-1#logs:
正しくログが出力された。
Lambdaファンクションの第一引数 event
の情報から、アップロードされたS3バケット上のファイルパスを特定することができます。
以下のようにすれば、JavaScriptでS3上のURLが生成できます。
let url = s3://${event.Records[0].s3.bucket.name}/${event.Records[0].s3.object.key}
;
ゴミ掃除
検証が終わったらゴミ掃除。
# Lambdaファンクションの削除
$ aws lambda delete-function --function-name g-trigger-function
# IAMロールの削除
$ aws iam detach-role-policy \
--role-name g-trigger-function-role \
--policy-arn arn:aws:iam::aws:policy/CloudWatchLogsFullAccess
$ aws iam delete-role \
--role-name g-trigger-function-role
$ aws iam delete-role \
--role-name g-trigger-bucket-transfer-role
# S3バケットの削除
$ aws s3 rb s3://g-trigger-bucket --force
ディスカッション
コメント一覧
まだ、コメントがありません