2017振り返り

気づけば大晦日。ブログ全然書いてなかった…

仕事

年明けから、CTO直轄で全社的な技術課題解決に取り組む技術基盤チームに異動している。実際のサービスのインフラは同じ技術部のインフラグループのメンバーに任せつつ、去年から引き続き社内のOpenStackプライベートクラウドNyahの整備に勤しむ一年だった。ライブマイグレーションが出来るようになったり、新しいサーバを選定して投入したといった具合。ペパボにはHavanaとMitakaの2バージョンのOpenStack環境があるが、その間でインスタンスを移設するという作業が通年で行われた。これは皆でよく頑張った。

この辺りの話はOpenStack Days Tokyo 2017でまとめて発表してきた。スライドはこちら。今年の大きめな対外発表はこの1回だけだったなあ。

加えて、去年から比べてさらにエンジニア組織への関わりの割り合いが増えた。ペパボの各事業部にはCTL(=チーフテクニカルリード)という面々がいて(CTLの背景についてはあんちぽさんのエントリ、実際のCTLたちの活動については座談会エントリを参照)所属する技術部には不在な為、それ的な振る舞いも多かった。やってみて、好きか嫌いかでいうと好きな方ではあったし、割りと性にもあっている気はする。マネジメントまではいかないでも、リーダーシップに関することで沢山勉強になったし実践も出来た。

一方で、ペパボのエンジニア評価制度での職位としてはプリンシパルというポジションを与えてもらっており、専門職としての実績としてはどうだったかと問われると、それに見合ったものだったと自信を持って言えない部分も正直若干ある。ただし今の自分の動き方は社内でも珍しい方ではあると思うので、2018年も引き続き模索はしていきたい。今のところは、折り合いとか考えずどっちもやるんだよという意気込み半分、どっちつかずにならないか少し不安半分といったところ。

あとは、このところペパ研、および同じチームの面々の勢いと動きについていけていないなーという焦りがある。単純に部門・部署が異なれば、求められる成果にも違いはあるだろうけど、同じ組織で、目指す方向性についてagreeし自分が今コミットしている環境である以上、そして素直にリスペクトできる同僚達であるからこそ、彼らと同等かそれより上のバーン感がないとという危機感。2016年は明確にやることがあったので迷うことはなかった。今年で少しずつそんなことを考えるようになって、来年以降は今のポジションとしてもエンジニア個人としても、成長するための自分のストーリーを描いて進んでいかないとなと思っている(「ストーリー」というワードはこのところ、同時多発的に技術基盤チーム内で語られていた)。

生活

サックス

昨年始めたレッスンには引き続き通い始めている。成長は遅々としているけども、変わらず我流でやっていては得られないことを沢山教えてもらっていてホントにありがたい。セッション大会は今年は5月にデュオと11月にカルテット&ソロで、11月は初でピアノ・ベース・ドラムの伴奏付きで吹くという経験をさせてもらった。

自分たちのバンドは3月と12月にライブ。年2回くらいがちょうどいい。

フィットネス

思い立って6月から隔週くらいのペースでジムに通って筋トレを始めた。主にマシントレーニング。器具も自分の身体の使い方もぎこちなかったところから始めて、少しずつ身につけている途中。11月からは毎週にしてもう少し鍛えようとしている。それなりに続けると体の変化は見た目でも分かるのと、体重も自分史上最高になった。体重上がりにくい体質という自覚はあったけど、やっぱりやれば変わるもんだなあと。とはいえ、適正体重まではまだある。あと顔に肉付くのがちょっと嫌、顔痩せしたい。

それに伴ってランニングのペースはグッと減ってしまった。あんまり走り過ぎると痩せちゃうのでアレだけど、ストレス解消にもなってるので、週一くらいのペースに戻していこうかな。走行距離は一年で255kmだった。

カレー

チリチリ、今年は28回。そして10/16に通算100回目を迎えることが出来た。

今年のカレーについては2017年末版渋谷でオススメのカレー達&今年食べたカレーを振り返るでまとめたのでそちらで。

2017年末版渋谷でオススメのカレー達&今年食べたカレーを振り返る

この記事はペパボアドベントカレンダー2017最終日の記事です。昨日は@pyama86"後藤さんを褒めるALEXAスキルを書いた"でした。


今年は新規開拓含めちょいちょいカレー食べ歩きしたので振り返って見る。の前にまず、2017年末の渋谷のオススメカレーをご紹介。

渋谷(周辺の)オススメカレー

俺が宇宙一好きなカレーチリチリについては割愛。こちらは以前書いた記事を参照いただければ。

もうなくなってしまったけど、東横店の地下のエリックカレー&ビリヤニやカリガリが懐かしい。あーいかんいかん、思い出して少し泣きそうになってしまった。今の話をしないと。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

渋谷の虎子食堂。今年のベスト3に入る。これが食べれる距離に職場があるのは幸せと言って良いだろう。付け合わせのバラエティと、個性強いのにどれも食べやすいという、高度な食べ合わせが完成している。来年はもうちょっと通いたいな。

渋谷のネパリコ。毎日だいたい弊社社員の誰かはいる。ここももうだいぶ通ってるなー。ダルバートのノンベジでチキンカレーがついたものをオススメ。ダルスープはおかわり自由。マトンカレーやパクチーを追加するもまたよし、だ。

渋谷のマリーアイランガニー。スリランカカレーの神髄とはこれ。3種のカレーを頼んでおけば間違いないけど、限定のポークカレーがあったら即頼むべし。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

渋谷のBar 蕾。スリランカ風チキンカレー。サラッとしていて食べやすい。いつもフレッシュトマトとスパイスが入ったマッシュポテトをトッピングしてる。渋谷の新しいパワーメシや。

今年は恵比須方面にも良く食べに行ってた。以下は恵比須編。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

恵比須ボイシャキ。今年はビーフキーマ、しらすのトマトカレー、チキン&マトンキーマを食べた。珍しいバングラデシュカレー。ここも今年のベスト3には入るな。付け合わせとコーヒーが異様に美味いのも合わせて、めちゃくちゃオススメ。

恵比須のソルティモード。ネパリコと同じくダルバートで混ぜて食べるスタイル、こちらはワンプレート。見た目よりパンチが効いてるのと、具の組み合わせがどれも素晴らしい。最近混んできて忙しそう、店主さん頑張って欲しいなあ。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

恵比須のGOOD LUCK CURRY。この日はエビとチキンにパクチートッピング。週替わりなので行く度に色々楽しめそう。

今年食べたカレー達

今年はわりと色々食べた。マトンカレーが相変わらず自分の中で流行ってるのと、あらためてカレーライスが好きなんだなーという再確認の1年だったな。以下食べた順。

大森タカリバンチャ。ネパールのタカリ族という料理上手な民族の味が楽しめる。カレーも美味しいんだけど、ぜひ写真のカザのセットを頼んで欲しい。

高幡不動アンジュナ。前々から美味いとは聞いて訪れた。予約したものの平日夜は割とゆったりしていて居心地がよい。正統派で安心して食べれる味だと思う。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

青山のゴングル。ドーサを食べるために行ったのに、結局カレーセットを頼んでしまった。青山らしいシャレオツなカレー。ドーサは今度リベンジしたい。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

仲良しカレートリオの4人で今年も行ったLOVE INDIA 2017。中村屋の豆料理は珍しいので今年はBターリー。この豪華ラインナップのカレーが一度に食べれるイベントは超貴重。来年も行きたい。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

鎌倉バワン。これも今年のベスト3。日替わりで色々なカレーを作ってるオーナーの創意工夫に敬意を。夜も良さそうなんだけどなかなか行けないなあ。近い人が羨ましい。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

新宿の草枕。俺が大好きなチリチリに似ている気がする。彩鮮やかなスパイス使い。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

中目黒FORRESTER。GHEEのファンがこうじてお店を出したということでカレー愛を感じるね。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

水道橋の桃の実。ミスチルのドームライブ観る前に行ったなー。食べやすいと思いきやあとからじわじわと押し寄せて来るスパイスの波。もっと色々なカレーが食べたくなる。

相模原のSangita。カフェカレーと侮るなかれ。見た目はおしゃれで優しいけど、力強い味。休日のお昼にゆっくり出来た思い出。

中目黒のRed Book。週末のビリヤニ、この日はチキンビリヤニだった。友達が作ってるんだけど、お店と彼の雰囲気と料理の不思議な一体感。ちゃんとビリヤニが美味しいところってそう多くないと思う、オススメ。今度はまたカレー食べに行こう。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

所沢のNegombo33。2回目のこの日はラムキーマとフィッシュカレー。シェフの天才さがきわだつお店だなあ。食後の多幸感が半端ない。これも地元の人が羨ましいや。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

下北沢のカレーの惑星。美味しくて今年2回行った。前店主の営業が11/17で終わってしまったのは残念。今後にも期待したい。

押上のスパイスカフェ。2年ぶりに訪問の今回はセットを頼んだ。ワインかお茶のペアリングが追加で出来たのに頼まなかったのを後悔している。今度はワインでいってみたい。いやー名店!

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

木場のカマルプール。こちらは1年ぶり。ラムミントカレーがやっぱり美味しくて、あとここがすごいのは和のテイストにスパイスをぶつけてくるところ。カンパチのスパイスなめろう食ったことある? また絶対来よう。

福岡 天神のバキン。「うまいからいせまい!」で有名(お店の入り口に書いてる)。サラッとシャバシャバなカレーは少し辛めの味が良く似合う。日替わりなので色々バリエーションが楽しめそう。

Shinya Tsunematsuさん(@tnmt)がシェアした投稿 -

福岡 天神南のTiki。今のところ俺の中で天神最強。昔はマトンキーマがあったんだけど、残念ながらなくなってしまった。今の豚なんこつとひよこ豆のカレーも絶品。

おまけ

溝の口Cafe Mallory Wise。今年もカレーでお祝いありがとう。友達3人が1カレーずつ作ってくれるなんてカレー冥利に尽きる。

来年は

いうてもブログ1記事で紹介できるくらいしか食べてないんだなーという気もするので、来年は振り返るのがおっくうになるくらい、もっともっと色んなカレー食べたい。

2016振り返り

久しく書いていなかった。仕事もプライベートも新しいチャレンジをした年だったので振り返る。

仕事

昨年いっぱいで長らく担当していたhetemlを福岡に引き継ぎ完了し、年明けにプリンシパルエンジニアに昇格したこともあり、何か新しいことをしないとなあと思っていた。ちょうど2016年はプライベートクラウドの自社構築というのが全社の戦略としてあったので、次はこれをやるかと着手したところ、結局通年で携わることになる。

この辺りの経緯は5月に行ったペパボテックカンファレンスでも発表した。その後のアップデートとしては下半期にCinderのバックエンドストレージの導入や、Nova computeの新サーバ選定が終わり、社内ISUCONでMitaka OpenStackをお披露目、年末には全社で使っているGitHub Enterpriseもこちらに移し終え、2017年からの本格利用の目処はついたというところ。

技術

そんなわけで、今年はだいぶOpenStackをガッツリいじっていた。年初はほぼ何も分からないところから、3ヶ月程で主要なコンポーネント関連はだいたい把握出来たのと、Mitakaでの構築は出来るくらいにはなったという感じ。

どちらかというとその後の本番環境構築が大変で、特にOpen vSwitchなどSDNの理解に苦戦していた。もともと苦手意識があったネットワーク部分なので今回でだいぶ勉強しなおした。今年は新卒のメンバーと"マスタリングTCP/IP 入門編"読書会もしていて、実はこれも結構役に立った。
いや今でも分からないことばかりではあるのだけれども。

逆にいうとそれ以外のことがあまり出来なかった。だいぶ忙しいことを言い訳にしていたなあと反省。

アウトプット

対外的なものは社内イベントでの一回のみ。少なすぎた。

発表ではなかったが、同じGMOグループの先輩である郷古さんに誘っていただき、OpenStack Days Tokyo 2016の裏番組であるOps Workshopにて他社でOpenStackを運用されている方や、開発者と沢山ディスカッション出来たのが印象深い。初めてコミュニティとの接点が作れ自社の立ち位置を客観的に見れたのが、下半期の動き方にだいぶフィードバックされたと思う。(今探したらITメディアさんのこちらの記事でも言及いただいていたようだ。)

生活

サックスのレッスンに通い始めた

高校から大学まで吹奏楽と、社会人になってからも友人とバンドを組んでいるが、いわゆるクラシック吹きなので、JazzやPOPな吹き方が出来るようになりたくて6月から月2のレッスンに通い始めた。先生がとても良い方で、理論もテクニックも情熱も沢山授かっている。アドバイスを元に個人練をしているとより伸び幅を感じるし、11月には門下の発表会でカルテットを吹く機会があったり、先生やその知り合いの、自分で探していては見つけられないようなライブを見に行けたり、普通に我流でやっていては絶対に得られないので本当に始めて良かったなあと思う。

ランニングを再開

9月からランニングを再開している。再開というのは6年前にもちょいちょいやっていた時期があったが、膝が痛くなり止めてしまっていたため。再開のきっかけは同じチームのメンバーが同時多発的に筋トレや運動を始めたからで、今回は反省から無理をしないことと続けられることを第一に始めた。やはりまた2ヶ月ほどで膝に違和感が出てしまったが、もう諦めるのは嫌なのでコンディショニングを受けたり、筋トレも合わせたり工夫しながらなんとかやっている。ここでも自分の身体のことを把握したり、走るために正しい知識を得ることがどれだけ大切かというのを実感した。今年は3ヶ月で140km程走ったようだ。

カレー

チリチリ、今年はジャスト20回だった。Swarmのチェックイン回数が今で76回なので、来年中の100回目を目指していく。

その他美味しかったカレーをご紹介。ラムブームが続いている。

仙台で食べたあちゃーる。ご主人とも色々お話させてもらったけど、料理に対する心意気も素敵だった。今年のNo.1かな。

木場、カマルプール。ラムミントカレーが激ウマ。

福岡のTiki。ラムキーマカレー、絶品なのに今はもうやっていないらしい。危ない、ギリギリ食えて良かったー。

相模原のマボロシ。ずっと行きたいと思ってて今年ようやく行けた。チキンがゴロゴロしてる、スパイスの使い方も面白い。

溝の口、Cafe Mallory Wise。サプライズで出てきた誕生日祝いカレー。いつもありがとう。

写真は載せないけど、実家の母にもカレー好きが伝わっていて、正月にもお盆にも帰省の度に作ってくれて嬉しかった。

ScaleIOを触り始めた

ScaleIO を触り始めた。

  • ソフトウェアベースのストレージ製品
    • 拡張規模は1000ノード以上
  • サーバーの内蔵ディスクを共有ストレージ化
    • HDD, SSD, PCIe-Flash
  • OpenStackのブロックストレージとして活用
    • Cinder Driverを提供

のSDS (Software Defined Storage)プロダクトとなる。

商用の場合はライセンスが必要だが、検証目的の場合はフル機能を無償で利用出来るらしい。

Vagrantを活用した超簡単なScaleIOのインストール方法 の動画の通り、Vagrant上でScaleIOを試すことが出来る。

https://github.com/emccode/vagrant

vagrant up すると

  • mdm1
  • mdm2
  • td

という3つのVMが立ち上がる。それぞれ "Meta Data Manager", "Tie-Breaker" という役割でこの3台が最小のセットとなるみたい。各々の機能についてはまだよく分かっていない。

ScaleIO Quick Start Guide - EMC の "4. Enable the Storage" を見ると、CLI経由での操作が書いてあるが、mdm1にて

scli --login --username admin --password <password>
scli --query_all

すると

System Info:
        Product:  EMC ScaleIO Version: R1_32.402.1
        ID:      77b9056833d2c793
        Manager ID:      0000000000000000
        Name:     cluster1

License info:
        Installation ID: 5380876158d928c8
        SWID:
        Maximum capacity: Unlimited
        Usage time left: Unlimited *** Non-Production License ***
        Enterprise features: Enabled
        The system was activated 0 days ago

System settings:
        Volumes are not obfuscated by default
        Capacity alert thresholds: High: 80, Critical: 90
        Thick volume reservation percent: 0
        MDM restricted SDC mode: disabled

Query all returned 1 Protection Domain:
Protection Domain protection_domain1 (Id: b4deb59f00000000) has 1 storage pools, 0 Fault Sets, 3 SDS nodes, 1 volumes and 112.0 GB (114688 MB) available for volume allocation
Operational state is Active

Storage Pool capacity (Id: 70b6ba8f00000000) has 1 volumes and 112.0 GB (114688 MB) available for volume allocation
        The number of parallel rebuild/rebalance jobs: 2
        Rebuild is enabled and using Limit-Concurrent-IO policy with the following parameters:
        Number of concurrent IOs per device: 1
        Rebalance is enabled and using Favor-Application-IO policy with the following parameters:
        Number of concurrent IOs per device: 1, Bandwidth limit per device: 10240 KB per second
        Background device scanner: Disabled
        Zero padding is disabled
        Spare policy: 10% out of total
        Uses RAM Read Cache
        RAM Read Cache write handling mode is 'cached'

SDS Summary:
        Total 3 SDS Nodes
        3 SDS nodes have membership state 'Joined'
        3 SDS nodes have connection state 'Connected'
        276.4 GB (283026 MB) total capacity
        232.8 GB (238340 MB) unused capacity
        0 Bytes snapshots capacity
        16.0 GB (16384 MB) in-use capacity
        0 Bytes thin capacity
        16.0 GB (16384 MB) protected capacity
        0 Bytes failed capacity
        0 Bytes degraded-failed capacity
        0 Bytes degraded-healthy capacity
        0 Bytes unreachable-unused capacity
        0 Bytes active rebalance capacity
        0 Bytes pending rebalance capacity
        0 Bytes active fwd-rebuild capacity
        0 Bytes pending fwd-rebuild capacity
        0 Bytes active bck-rebuild capacity
        0 Bytes pending bck-rebuild capacity
        0 Bytes rebalance capacity
        0 Bytes fwd-rebuild capacity
        0 Bytes bck-rebuild capacity
        0 Bytes active moving capacity
        0 Bytes pending moving capacity
        0 Bytes total moving capacity
        27.6 GB (28302 MB) spare capacity
        16.0 GB (16384 MB) at-rest capacity
        0 Bytes decreased capacity

        Primary-reads                            0 IOPS 0 Bytes per-second
        Primary-writes                           0 IOPS 0 Bytes per-second
        Secondary-reads                          0 IOPS 0 Bytes per-second
        Secondary-writes                         0 IOPS 0 Bytes per-second
        Backward-rebuild-reads                   0 IOPS 0 Bytes per-second
        Backward-rebuild-writes                  0 IOPS 0 Bytes per-second
        Forward-rebuild-reads                    0 IOPS 0 Bytes per-second
        Forward-rebuild-writes                   0 IOPS 0 Bytes per-second
        Rebalance-reads                          0 IOPS 0 Bytes per-second
        Rebalance-writes                         0 IOPS 0 Bytes per-second

Volumes summary:
        1 thick-provisioned volume. Total size: 8.0 GB (8192 MB)

とVagrantによるプロビジョン時にVolumeが作成されていることが分かる。利用するノードにもScaleIO Data Clientをインストールし、ScaleIO Data Serverと通信することでストレージを利用出来るようになるようだ。

徹底解説!ScaleIOをOpenStackで 活用するメリットとは?を読んだりしていた。

第5回ペパボテックカンファレンスでOpenStackによるプライベートクラウド運用の話をした

去る 5/14(土) に 第5回ペパボテックカンファレンス〜インフラエンジニア大特集〜 を開催し、自分はOpenStackによるプライベートクラウド "Nyah" の運用についてトークしました。

当日の様子は前編後編と録画がありますので、合わせてご覧頂ければと思います。
筆者の出番はこの辺から。

イベントが企画された3月半ばくらいに社内に対しては「OpenStackの運用と改善した話します」という宣言をしたものの、スライドで述べられている

  • OpenStackのバージョンアップ
  • Cinderを利用可能にする(およびストレージ製品・ソフトウェアの検証)
  • Neutronによるネットワーク刷新

のどれも終わってなかったので発表のわりと直前までヒヤヒヤしていました。無事にカンファレンスまで間に合って良かったです、わりと4月に頑張っています。

質問もいただいたので補足しておきます。いずれも "今も困ってるんですよ・運用始まったら考えます” みたいな印象ですが、次また別の機会に "こうやって解決した!" 的な発表をするしかないですね。

Q1

Q: (OpenStackに載ってるインスタンスの)バックアップ構成は?
A: Nyah上の別AZのインスタンスだとか、別ロケーションにあるOpenStack外の基盤にとっています。サービス(商材)によってJ-SOX適用対象・非対象でやり方が違っている部分があり、統一が出来ていないのが現状課題だと考えています。

これはまあOpenStack使っている使っていないにあまり依らないかもですが。

Q2

Q: OpenStackのバージョンアップ後の切り戻りは?
A: 新バージョンは全コンポーネントを別途構築して移行しています。マイグレーションの仕組みを準備していないので実質切り戻しは行わない予定です。

後ほどKeystoneは共用出来たのではないかとも考えたのですが、今回はHavanaからMitakaへのジャンプアップということもあり、やはり分けてしまった方が切り替えやすそうだと結論づけています。以降のバージョンアップ時はなるべくシームレスなマイグレーションを目指します。

Q3

Q: Neutronが今後ボトルネックになりそうな印象。Linuxでパフォーマンス落ちないか?パフォーマンス測定したか?
A: DVR + SNAT HA構成は組めましたが、パフォーマンスは全く計測出来ていません。プライベートクラウドなので自分たちでキャパシティを調整出来るというのもあり、様子を見ながら実際の運用の中で測っていきます。

DVR + SNAT HA構成はOpenStackを運用してる国内の企業の中でも最速の事例なのではないかと自負しています。いかんせんNeutronがっつりというのが初めてなので、どうなるか楽しみ半分不安半分といったところです。