PyCon JP 2018 2日目参加メモとまとめ
1日目に引き続き、2日目も参加してきた。諸事情によりKeynoteは参加できず、セッションから参加。また途中で退散となった。
2日目は平日だからか1日目よりやや人が減っている?と感じたが、おやつ戦争は健在。
- セッション: 「リモートペアプロでマントルを突き抜けろ!」AWS Cloud9でリモートペアプロ&楽々サーバーレス開発
- セッション: REST API に疲れたあなたへ贈る GraphQL 入門
- セッション: Pythonでざっくり学ぶUnixプロセス
- セッション: Pythonによる異常検知入門
- PyCon JP 2018を振り返って
- (蛇足)カンファレンスに参加してみる、ということについて
セッション: 「リモートペアプロでマントルを突き抜けろ!」AWS Cloud9でリモートペアプロ&楽々サーバーレス開発
セッションタイトルの「マントルを突き抜けろ!」はリモートするなら地球の反対側ともやれないと意味がない、ということでつけたタイトルだそう。ふざけているように思えてリモートワークの本質だなーと思ったし、それを可能とする環境が本当に整ってきているということがよくわかったセッション。
実際にAWS CodeStarというサービスを利用して、環境構築、Cloud9というAWSが以前買収したブラウザベースのIDEでリアルタイムでリモートTDDペアプロ、途中からソロ、をしながらどのような環境でそれを実現しているかを解説するという内容だった。
リモートペアプロは想像以上にスムーズに画面が動いて、環境としては問題なさそうという印象。
実際にやっているところを見ての気づきとしてはリモートワークはペアプロにかかわらず、役割分担と何に取り組むかを決めておく、ということが実は重要と感じた。
AWS CodeStarは環境構築をパパパっとやってくれるサービスで、こんな便利なものが存在しているのか!とびっくりした。料金もそれほど高いものではないので、試してみよう。
AWS CodeStar – アプリケーションを迅速に開発および構築して AWS にデプロイ
セッション: REST API に疲れたあなたへ贈る GraphQL 入門
GraphQLすげー
AWS AppSync便利ー
という結論。
そもそもGraphQLは聞いたことがあっただけで内容は全く把握できていなかったので、そもそもなところから話をされていたので、勉強になった。
GraphQL=API用のクエリ言語 + サーバ側のランタイム
GraphQLのメリットはクライアントとサーバ間のインターフェースがクリアになること。
その理由としては
型指定スキーマ
クライアントからどんな風に取りたいかを指定できる
サブスクリプションを利用したリアルタイム処理 イベントトリガーでデータが取得できるので、データが追加されたなどをトリガーにクライアントへ飛んでくる、ということが容易に実装できる
AWS AppSyncはGraphQLの環境をAWSのマネージドサービスを組み合わせて提供してくれる。かつテンプレートプロジェクトのようなものも提供されているのでそれを参考に進めてみることも可能。
GraphQLが魅力的に感じたので、試してみたい。
セッション: Pythonでざっくり学ぶUnixプロセス
もともとRubyで書かれた「なるほどUnixプロセス」という本があり、それがオススメということでPythonでやってみたという内容。
Unixは会社の研修含めちょいちょいやっているが、カーネルやシステムコール、プロセスなどの話は今回の話でよくわかった(というかこれまで全然理解できていなかったことが判明した)。
本すべての話までは限られた時間ではできないが、Unixのベースとなる考えや基本的な設計思想が分かる内容で、最後に紹介された参考資料で継続学習できそう、という基本の内容としては密度の濃い内容だった。
1日目の「webアプリケーションの仕組み」もあったが、Pythonという言語を知るだけではなく、周辺技術、別レイヤーの技術の知識も深めていくことがより広範囲なサービス開発の実現につながる、ということを感じたセッションだった。
セッション: Pythonによる異常検知入門
異常検知そのものの定義、異常検知の種類、そしてその種類ごとの分析手法とその手法をPythonで実現するとこうなる、という内容が30分でコンパクトにきれいにまとまった内容だった。
異常とは何か?ということについてはその事象だけでは判断できない。その事象の背景を理解する必要がある。
また、分析手法を活用して出た結果が必ずしも正解ではなく、分析対象をよく知る人などから分析結果に対するフィードバックをもらっていくことが必要である。
分析手法についても知識が必要なので、データサイエンスが難しそうと感じていたが、それ以上に実はかなり泥臭くビジネスドメインに関わっていくということが必要ということが、データサイエンスの最たる困難さだな、と感じた。
別のカンファレンスで某飲食チェーンのデータサイエンス部門の方の話でもやはり泥臭く(=悪い意味ではなく)一つ一つを積み重ねていく、ということを実践されていたことを思い出した。
データサイエンスや分析というのは閉じこもってごにょごにょするという勝手なイメージがあったが、全く違ってフットワークの軽さが必要な業務だと感じた。
PyCon JP 2018を振り返って
個人的にはPyCon JP 2017より多様なトピックのセッションがあり、楽しく参加させていただいた。特にDjango関係が結構あったのは嬉しかった。
紙コップが整っていなかったのが残念。
今回メモツールとしては、Notionを利用したが、Notionよい。 ページ階層化できるし、URL貼ると埋め込み形式で貼れるし、md形式っぽく書けるし。オススメ。
(蛇足)カンファレンスに参加してみる、ということについて
Pythonを独学でちゃんと勉強し始めて1年ぐらい経ったが、それでも全然雑魚である状態。それでもこういったカンファレンスや勉強会には行ってみる、ということをおすすめしたい。
参加側の場合、アウトプットする場ではないので、「勉強した気になる」という話があるが、初心者だったら、とりあえずインプットを増やしてみる、というのは手だと思う。
特にネットや書籍が様々にある状態においてはそれらを自分で取捨選択するのは意外に労力がいることで、また対象トピックが絞られた状態になってしまう。
カンファレンスに行くと
様々なトピックのセッションが用意されていて
それらを短時間で、知識や経験をもつ方が話をしてくれる
ので、多様なトピックに触れつつ、まとまった内容をインプットしやすい。正直最初は??が相当数ある状態になってしまうが、わからないことがわかるので調べようがあり、調べたりやってみると理解ができていく。徐々に知識が増え、できることが増え、やっていることがはっきりしてくると自分で絞ることもできるようになる。そしたら、参加頻度や対象を見直していけばよいと思う。
来年のPyCon JP2019は2019/9/16-17@大田区産業プラザPiOとのこと。来年も楽しみ。