ソモサン

私rohkiによる活動や読書の記録をつらつらと書くページです

AWS Lambda の Traffic Shifting Using Aliases で無理やり Chaos Engineering

できんじゃねと思ったらできました。無理やり。

この間発表された AWS Lambda の更新で、エイリアスに対して割合で別バージョンを割り振ることができるようになりました。
ユースケースとしては Canary や Blue/Green が上がってたんですが、Chaos もいけんじゃねと思ってやってみたら一応できました。

正常なコードが以下です。バージョン 1 です。

import json

print('Loading function')


def lambda_handler(event, context):
    #print("Received event: " + json.dumps(event, indent=2))
    print("value1 = " + event['key1'])
    print("value2 = " + event['key2'])
    print("value3 = " + event['key3'])
    return event['key1']  # Echo back the first key value
    #raise Exception('Something went wrong')

異常なコードが以下です。バージョン 2 です。
なんも考えてません。例外はくだけ。

import json

print('Loading function')


def lambda_handler(event, context):
    raise Exception('Something went wrong')

んで、エイリアス chaos をつくり、バージョン 2 へ 5% の確率で行くよう設定します。

f:id:rohki:20171201230126p:plain

あとはひたすらポチポチ実行。

f:id:rohki:20171201230439p:plain

おー、できました。無理やり感が否めないですがw

例外パターンを最初に考えないときつそうかなー。
あとどうやって例外バージョンを指定して割り振るかってのが難しそう。

ただ形にできると発展も効きそうです。ひたすらスリープして落ちるとか。
Serverless のプラグインとかですかね?

Rust の ライブラリ Rusoto を使って AWS サービスにアクセスする

表題にあるとおり、Rust から AWS にアクセスするための SDK を大分前にメモしていたので試した、という話。

extern crate rusoto_core;
extern crate rusoto_s3;

use rusoto_s3::{S3, S3Client};
use rusoto_core::{DefaultCredentialsProvider, Region};
use rusoto_core::default_tls_client;

fn main() {
    let provider = DefaultCredentialsProvider::new().unwrap();
    let client = S3Client::new(default_tls_client().unwrap(), provider, Region::ApNortheast1);

    match client.list_buckets() {
        Ok(output) => {
            match output.buckets {
                Some(bucket_name_list) => {
                    println!("Tables in database:");

                    for bucket in bucket_name_list {
                        println!("{:?}", bucket.name);
                    }
                }
                None => println!("No tables in database!"),
            }
        }
        Err(error) => {
            println!("Error: {:?}", error);
        }
    }
}

S3 のバケット列挙がこんな具合。
対応状況曰く、今のところ安定しているのが、

  • EC2
  • ECS
  • DynamoDB
  • ETS
  • KMS
  • SQS

らしいってS3入ってないじゃん!動いたよ上のコード!
と、ということはログを受けまくって AWS にあげてくれるやつが書けるかも…

楽しくなってまいりました。

Swagger を使って ChatWork といろんなサービスをつなげてる (条件付き)

ChatWork とほかのサービスを連携させようとする場合、選択肢は Zapier か自前実装かと思ってます。
で、そこでタイトルにある第3の選択。Swagger があればどうにかなる。MS Flow のカスタムコネクタで。

続きを読む

Windows でプロセスごとの TCP IO をとってグラフにした

まぁいうてリソースモニターでできてることなんですが…
それでも面白いことがあったので。

f:id:rohki:20171115234141p:plain

結果はこんな感じ。
時々帯域をとってるのは、Firefox の通信です。
ブラウジングはこんなもんですかね。サイズ的にも KB なので、そこまでがっつり見に行ってなかったです。

で、これを通信イベントの回数にしてみると面白いんです。

f:id:rohki:20171115234741p:plain

やたらめったら目立つ黄色があったので、これだけに絞ってみます。

f:id:rohki:20171115234951p:plain

なんか定常的にやってる! あ、イベントの精査もできていないのでこれだけでこいつが悪者だ!!てわけではないです。
で、vpnkit という docker 関連のプロセスが発行しているですが、どんなイベントが発行させてるのかなーと調査してみたくなってきました。
何やってるんだろう。ワクワクします。

ちなみにサーバー側ですが、 docker-compose で InfluxDB + Grafana をローカルにたてて、 そこに向けてメトリクスなげてます。
以下の記事を参考にさせていただきました。感謝感謝。

influxDB + Grafanaに入門する - Qiita

クライアントは Rust で書いたんですが、unsafe まみれなのでどうにかしたい…
そのあとにクライアント側で合算してサーバーに投げるとかになりますかねー
後は PID からプロセス名にするもありますか
先はながいなー

Grafana で AWS の見える化がすぐできた

いやー、すごい。
わかったらすぐできました。

例として AWS の使用料を見える化します。
まず、AWS 側で計測をはじめるため、請求ダッシュボード -> 設定 -> 請求アラートを受け取る にチェックをつけます。

f:id:rohki:20171109215247p:plain

で、Grafana を公式サービスおひとり様用で作成します。

grafana.com

Grafana のデータソースまで遷移して、プルダウンメニューから Cloud Watch を選びます。

f:id:rohki:20171109215854p:plain

一度、AWS にもどり IAM で以下のポリシーを付けた測定用のユーザーを作成、アクセスキー ID とシークレットキーを発行します。

  • CloudWatchLogsReadOnlyAccess
  • CloudWatchReadOnlyAccess

で、Grafana に戻り作成したアカウント情報を入れて、保存します。 ここでエラーが出る場合はポリシーの確認とかをするとよいかもです。

で、ダッシュボードのインポートで 139 を入れて、先ほど追加したデータソースを選び、ロードすると!

f:id:rohki:20171111090333p:plain

でたー!!

いやー、共有はつよいですねー。 先ほどの 139 も Grafana の公式サイトで公開されているやつです。

grafana.com

Grafana はローカル環境の性能計測で 3.x とかを使っていたので、ここまで進んでるとは思ってなかったです。いやすごい。
使用料だけでなく Lambda やら EC2 やら ElastiCache やらまで…
インフラはさっぱりなので、知見の塊っす。ありがたや。

誰か3か月前の僕にこの情報を届いてほしい…