かばやん's だいありー

かばやん's だいありー

学んだことをゆるゆるアウトプットしていきたいです。

yukiCup 2023 Autumn x atmaCup に参加しました

はじめに

2023/11/25(土)に行われた、yukiCup 2023 Autumn x atmaCupに参加しました。

yukicup.connpass.com

当日の様子は、Twitterハッシュタグ#yukiCupでもわかります。

本イベントは、2回目の開催で、オンサイト・オンラインのハイブリッド開催でした。 私はオンラインで参加していました。 期間は1日で、お題は「文化財のデータを利用して、ある建物や美術品が国宝に指定されているかどうかの予測」で、テーブルデータのコンペでした。

初めてのチームマージ

データ分析コンペに触れ出したのが2016年くらいなんですけど、8年目にして初めてのチームマージ!!!(がっつりやってた期間は無いです)

週末の予定を聞かれて、「yukiCupっていうデータ分析コンペに出るんだよね〜」と答え、そのままデータ分析コンペ未経験者の勧誘に成功しました。 りりうむさん(@ririumux)、チーム組んでくれてありがとう! 結構いろんなところでyukiCupの話はしていて、面白そうだねと言ってくれる人はいっぱいいても、実際に参加してくれる人は今までいなかったので、良かったなと思っています。

コード共有はGitHubのプライベートリポジトリでやっていました。 GitHubに数年触れていなかったので、完全に浦島太郎でした。元々CLIで使ってたのでgit cloneしようとしたら権限ないと言われ、解決めんどくさくてそのままWeb UI使おうとしたら本当に何も分かりませんでした。コンペ期間中にはディレクトリ構成無視してファイルをpushすることしかできなかった←

コミュニケーション方法は、Discordで通話繋ぎっぱなしで、ずっと画面共有してもらっていました。私も画面共有すれば良かったかなと思います。1時間ごとに交代にすれば良かったのかな……??

Solution

https://www.guruguru.science/competitions/23/discussions/28df5aaf-3f33-4057-bf06-2750779a5306/

反省

「データ分析コンペって効く特徴量を入れられるかが大事」って聞くのですが、ディスカッションに上がっているのと同じ特徴量使ってるはずなのにbaselineよりも低い……自分で書いてるnotebookにbaselineで使われている特徴量加えて見たけどbaselineよりも低い……みたいな体験が結構多く、モデルへの理解が乏しいのが原因かなと思っています。 何がどうなったら「データ分析コンペって、ハイパラ調整する遊びでしょ?」って感想になるのか今までわからなかったんですけど、この辺りの体験を積んで抜け出せないまま辞めてしまった人がそう思うのかなと思いました。

今回は、自分が実装していると信じていたものと実際の実装が違ったので、今までももしかしたら、自力レビューで気づけなかっただけで、そういうことが結構あったのかもしれません。コンペの時間が短いと、先に進まないとという気持ちが強くなりがちですが、見直す時間を取るのは大事だなと思いました。

今回は元々夜に予定が入っていて、途中までしか出られないけどいいか……と参加してしまったのですが、できればちゃんとフルで参加したいですね。

まとめ

コンペ期間内に、特徴量を加えてbaselineを超えたと感じられる世界線に早く行きたい

本コンペの、他の参加者のブログ記事

まだ見つけられていないので、随時更新します。

なぜ私は勉強会参加記事を書くのか

はじめに

エンジニアの勉強会に行くと、終了後に勉強会参加記事を見かけることがあると思います。ブログ枠を設けて最低一人は書くように工夫されていたり、ブログ枠が無くても記事を書く人がたくさんいる会もあれば、参加者数が多いのに誰も書かないものもあったりと、様々です。

この記事は、勉強会記事を書いたことのない方にメリットを伝えるため、私が書いている理由を整理するため、私が「別に書かなくていいか〜」と思ったときの言い訳防止のために書いています。

私が勉強会参加記事を書く目的

運営の方に感謝の気持ちを伝える

  • 懇親会で口頭で伝える、アンケートに書くなどの手段でも運営側には伝わるが、記事の方が運営以外にも伝わる
  • 好きだった勉強会が気づいたら開催されなくなってしまうことが多々あり、伝えられるうちに感謝は伝えておきたいし、あわよくば運営側の開催モチベ維持の理由のうちの1つになってくれたら嬉しい
  • 運営に伝えるだけじゃもったいない!一参加者として盛り上げていきたい!

発表者の方に感謝の気持ちを伝える

  • 本人に伝えるのも大事(懇親会・直接チャットするなど)ではある
  • 特に発表者が会社の名前を出してやっている場合、記事の方が上司や同僚に見せやすいかも
  • リンクを共有するだけで済む、個別メッセや口頭のものはそうはいかない
  • 特に登壇回数少ない人に対しては、「また登壇してほしい!もっと話が聞きたい!」という気持ちで書いている
  • 本人に伝えるだけじゃもったいない!周りにもよかった発表のことは広めたい!

活かせそうだと思ったところ、興味を持ったところの備忘録

  • ツイートしていれば見返せるのかもしれないが、ハッシュタグと日にちを指定して検索するのがめんどくさい。ハッシュタグ自体を忘れてしまう。
  • ブログにツイート貼ってる人も見かける

未参加の方に伝える

  • 私自身、Twitterに流れてきた参加者のブログ記事を読んで参加することが多いので、誰かにとってのきっかけになると嬉しいなと思う
  • Twitterハッシュタグを追うよりも効率的に情報が伝わるといいなと思う。未参加でも自力で情報収集できるが、参加者がやる方がやりやすいと思う。

私が勉強会参加記事を書く際の各項目の意味・方針

概要

  • 概要を見て、興味を持ったスライドのみ見る人もいるので意味はあると思う
  • 資料非公開の方もいるので、その場合は概要は必要そう
  • 未参加の方にも伝わるように、発表内で紹介された参考リンクは積極的に貼る

所感

  • 私は他の人の勉強会参加記事で所感を一番読む
  • ここだけでもいいので、他の人にも書いてほしい

質疑応答

  • 書くと書き起こしになりがち
  • 全文書き起こし業者が入っている場合は、記事を後ほど読めば良さそう

同じ勉強会の他の人の記事

  • 勉強会終了直後はツイッターハッシュタグなどで探しやすいが、時間が経つにつれ探しにくくなる
  • 「所感」は人によって違うので、何人分も読みたい
  • 運営側が公式記事みたいなのを出していて、勉強会参加記事のリンクを全部まとめている場合はなくてもいいかも
  • 10人超えたら個人ブログで全員分のリンクを貼るのは見にくいかも知れないしノイズになってしまうかも知れないと思うが、まだ超えたことが一度もない

おわりに

本記事が誰かにとって、勉強会参加記事を書くきっかけになってくれたら嬉しいです。

yukiCup2023summerに参加した

はじめに

2023/07/30(日)に行われた、yukiCup2023summerに参加してきました。

www.kaggle.com

当日の様子は、Twitterハッシュタグ#yukiCupでもわかります。

本イベントは、内輪のデータ分析コンペで、オンサイト・オンラインのハイブリッド開催でした。 私はオンラインで参加していました。 期間は1日(8時間)で、お題は「中古バイクの販売価格予測」のテーブルデータのコンペでした。

結果

42チーム中42位でした!つまり最下位!

ベースラインは超えたかったなあ。。。

参加記事書く意味あるの?

有益なソリューションは書けないかもしれないけど、コンペ参加者にはそれぞれのストーリーがあるので意味があると思っています。そもそも書きたいから勝手に書いています。 まあ読みたい人は読むし、読みたくなければ多分そっ閉じするので問題ないと思います。

反省

  • 特徴量選択を全然真面目にしてなくて、とりあえず突っ込め〜だったのがよくなさそう(baselineで使われている特徴量に、自分で作成した特徴量を加えていく形でやっていました。特徴量足していくの楽しいんだもん……)
  • 作成する特徴量の優先度づけを一切していなかった
  • テキストデータ扱うの私には無理〜と諦めてbike_title入れなかったが、今思えばできたと思うので、自分を信じる心が大事と学んだ(bike_titleの長さと単語数はbaselineにあったので入れた)
  • Local CV と public LB の差が10以上あったけど解決できなかった

感想

たまにふらっとデータ分析コンペに参加するけど長期間だと身が入らない私にとっては、1日はちょうど良かった気がします。

データ分析コンペでいい順位をとったことないので、「私ってコンペ向いてないのでは?仕事ももっと賢い人々に任せてやめた方がいいのでは?」という時間が毎回あります。かなり身を入れて取り組んでいたと言える時期が一切ないものの、8年もデータ分析コンペから完全には離れてないので、多分きっと今後も参加はやめないんでしょうね。

本コンペはKaggle GM, Master, Expertが多かったと思いますが、普段Twitterを中心にからんでもらっていたりツイートを読んだりしていて、彼らが私と比べて取り組んでいる回数・かけている時間・手数が段違いなことは知っているので、私自身は向いている向いていないを判断するところまで来てないよな〜というのをいつも思います。

今回は、くやしい!と思えました。悔しいと思うとこまで来たというのはある意味成長だと思います。雲の上の存在に対して嫉妬心を抱かないのと同じように、自分も戦っていけるのではないかと思えないと、悔しいと思えないと思うのです。

こんなに強い人いっぱいいるコンペに誘っていただいて、光栄でした!ありがとうございました!この場を借りてお礼を申し上げます。 私は常々「ボドゲはボコられるのが好きなので強い人とやる方が好き」と言っているけど、それと同じですね。データ分析コンペの開催するのかなり大変そうですし、こういった機会作ってもらえてHappyです。でもくやしい!強くなりたい!!

自分なりに成長はある

過去にatmaCup4の参加記事を書きました。 その後atmaCup8も真面目に参加していたのに、記事書いてなくて記録残っていなくてくやしい!

kabayan55.hatenablog.com

環境構築ができない・モデルを実装したもののデバッグが終わらなくて結果出力までいかない・サブミッションエラーあたりからは解放されるようになってきたので、進捗だと思います。 データを眺めたり自分で特徴量作ったりするのが楽しいのに、その前に止まっちゃうと楽しい部分を味わえなくて楽しくないんですよね。 初心者向けの説明があったり、baselineのnotebookを公開してくださったりがあるおかげで、そういう悲しさを回避できる環境は整っているので感謝しかないです。他の人が書いたコードを理解して改良していくのを短時間でするのは苦手なので、自分の書いたコードに追加していく方法でやることの方が多いかもしれません。

過去のatmaCup8参加時の自分のnotebookを見ていると、かなり目標が低いなと感じるようになってきたので、昔よりは前を向けるようになってきたなーと思います。

突然の褒めタイム

皆さんにとって、もう当たり前になってしまったかもしれないことも、私から見るとかっこいいので、せっかくなので褒めようと思います。 一人一人に伝えるのは気恥ずかしいからね

  • サブ速いの、かっこいい!
  • 結果出していて、かっこいい!
  • ディスカッション投稿するの、かっこいい!(ありがたい)
  • ソリューションわかりやすくDiscussionに投稿してくれるの、かっこいい!(ありがたい)
  • 最後まで諦めずに向き合うの、かっこいい!
  • Late Subしていて、かっこいい!
  • 復習していて、かっこいい!
  • 参加記事書いてて、かっこいい!

楽しんでいて、かっこいい!

以上です。

おまけ:本コンペに参加して、バイクに乗りたくなったか?

自転車の練習を小2あたりまで続けたが、こげるようにならないまま放置しているので、まずは自転車をこぐ練習からします。 1日のコンペで画像データがあったらお手上げだっただろうなと思う一方で、画像見てたら乗りたくなったかもしれないと思いました。

本コンペの、他の参加者のブログ記事

teyoblog.hatenablog.com

zenn.dev

zenn.dev

Machine Learning Casual Talks #12 (Online) に参加しました

はじめに

2020/05/28(木)に行われた、Machine Learning Casual Talks #12 (Online) に参加しました。

mlct.connpass.com

今回のテーマは機械学習プロジェクトに関する「ベストプラクティスとアンチパターン」でした。

YouTube に動画が上がっています。 www.youtube.com

当日の様子は、Twitterハッシュタグ#MLCT でもわかります。

本編

"Cost-efficient and scalable ML-experiments in AWS with spot-instances, Kubernetes and Horovod" の紹介と感想 服部圭悟さん (@keigohtr)

資料

私のメモ
各発表に対して「私のメモ」という項目で書きますが、概要ではありません。文字通りメモです。

blog.rosebud.ai

EBS

aws.amazon.com

  • 読み込みには消去法的にEBS使う
  • EBSジョブごと作成

EFS

aws.amazon.com

  • 自由度 diskfullでジョブが死ぬ、成果物を得られない 気をつけないとクラウド破産

文献(Rosebud AI)ではどうしたか?

  • Spot Instance(インスタンスが取り上げられることがある。2分前に通知がくるので、10分ごとにチェックポイントとして学習の途中経過をEFSに保存)

  • Kubernetes Job

kubernetes.io

ABEJA Platform: SpotInstancesを管理するSpotinstを使う tech-blog.abeja.asia

分散学習どうするか?(文献) Horovod github.com

まとめ

  • データセットはEBS、成果物はEFS
  • リストとコストの最適化はSpot Instancesを使うと良い
  • 機械学習ジョブの実行はKubernetes Jobを使うと良い
  • 分散学習はHorovodを使うと良い

おすすめ ethical.institute

所感 私自身はプラットフォーム全然詳しくないのですが、どういうものがあってどう使われてるか、メリットデメリットが伝わってきました!

データマネジメントなきMLは、破綻する。 〜こんなデータじゃ機械学習できねぇよ問題の処方箋〜 @yuzutas0 さん

資料

私のメモ

所感
ものすごく細かくわかりやすく経験に基づいて発表されてるなーと思いました。 全部頭に入らなかったので、『データマネジメントが30分でわかる本』、買います!

大嶋悠司さん (@overs_5121

資料

私のメモ

developers-jp.googleblog.com

Edge AI(モバイル)
モデルサイズ、消費電力の制限

なんのためにやるか?
制限は大きいが、低レイテンシ・ネットを必要としない推論によってUXを大きく改善

TemsorFlow Lite

www.tensorflow.org

tvm

docs.tvm.ai

PyTorch Mobile

pytorch.org

何を作ったか

本の撮影とか→バーコード出品をサジェスト mobile netなどのイメージクラシフィケーション

quantization aware training

  • UINT8への量子化による制度劣化を防ぐ

  • 学習コストは上がる

思ったよりタップされない問題
精度?latency?-> 違うのでUI?
表示時間4sec->8secにして、伸ばした方が良さそうだとわかった
文言:そもそもバーコード出品が何かわからないのでは?
デザイン:使用するが押せると思わないのでは?

× MLをモバイル上で使う営み
◯ UXを改善する営み(デザイン、モデルの精度、モデルのlatencyを総合的にモニタリング)

pair.withgoogle.com

所感
こういった取り組みのお話聴く機会なかったので、面白いなと思いました。 バーコード出品、いつもそのまましてしまうので、今度一回写真撮ってやってみます!

補足

Q&Aの時間もあったのですが、本記事では省略します。

本イベントの、他の参加者のブログ記事

t.co

BERT応用勉強会に参加しました

はじめに

2020/5/15(金)に行われた、「nlpaper.challenge BERT応用勉強会」に参加しました。 nlpaper-challenge.connpass.com

配信動画:

www.youtube.com

当日の様子は、Twitterハッシュタグ#xpaperchallenge でもわかります。

イベント概要

近年NLPの領域で発展を遂げているBERTモデル。 今回はそのBERTモデルの応用をテーマにした勉強会を開催します。 特定のドメインでの活用事例やフロントエンドでの利用例などをLT形式で発表します。(BERT応用勉強会 - connpass より引用)

Cluster*1 + YouTube Live という形でのオンライン開催でした。大人気でCluster枠には入れなかったので、私はYouTube Liveで視聴しました。 また、nlpaper.challengeのイベントに参加するのは今回が初めてでした。今までの勉強会、CVとの交流会が多かったイメージを持っていて、「CV何もわからないしな......難しそうだしな......最近NLP周りは論文読んでないしなあ......」との言い訳を続けた結果一度も参加してこなかったので、今回が初参加となりました。BERTは初心者で特に論文を追えている訳ではないのですが、どう応用されているかには興味があったので参加しました。

冒頭

nlpaper.challengeの紹介 yamamotoさん

  • cvpaper.challengeと同じようなことをやろうと思って立ち上げた
  • 昨年から活動開始
  • これまでの勉強会:NLP/CV交流勉強会、NLP/CV最先端勉強会、ACL網羅的サーベイ報告会など
  • 今年は勉強会だけでなく研究にも力を入れていく

本編

医療言語処理へのBERTの応用 --BioBERT, ClinicalBERT, そして-- Yuta Nakamuraさん

資料

私のメモ
各発表に対して「私のメモ」という項目で書きますが、概要ではありません。文字通りメモです。
医療言語処理はAfter BERT

  • 技術的な面ではAfter BERT
  • 医療NLP 要素技術の発展→医療分野でのデータセット→医療文書→現実の医療
  • より現場に近い研究への流入は始まったばかり
  • 今年に入ってBERT使った論文も少しずつ見られるようになってきた

医療ドメイン特化型BERT

  • BioBERT, ClinicalBERT, EhrBERT
  • 医療文書は表記揺れが激しい
  • 適用事例:固有値表現抽出+病名正規化、質問応答(Titleが疑問文ならabstractのconclusion推定)、要約+マルチモーダル、文書分類、固有表現抽出+関係抽出、包含関係意識

医療ドメイン特化型BERTのその先

  • BeHRt: BERTを言語でないものに使う、診断に使う
  • TAPER: 言語データ+非言語医療データ

日本語では?

  • 東京大学医療AI開発学講座が日本語診療記録で事前学習したBERTを公開している

ai-health.m.u-tokyo.ac.jp

所感
医療の領域でのBERTがどう使われてきているか知ることができて、とても興味深かったです!

Multilingual BERTの二言語領域適応に基づく対訳文同定 siidaさん

資料
現時点(2020年5月16日)では見つけられていません。 NLP2020で発表されたものと同じ内容だそうです。
[Multilingual BERTの二言語領域適応に基づく対訳文同定(https://www.anlp.jp/proceedings/annual_meeting/2020/pdf_dir/D2-1.pdf)]

私のメモ

  • BERTを用いて、ニューラル機械翻訳に必要な質・量ともに優れた対訳文を獲得する
  • 対訳文収集、20年くらい動的計画法だったけど、LASERの登場によりニューラルネットを使う流れが出てきた
  • 日英対訳特許文書
  • fine-tuning
  • セグメント対は多対多もある
  • マスクされてるとこを当てるのが領域適応
  • fine-tuningによる対訳分類器作成
  • Quora Question Pairs(QQP)

所感
対訳文収集、確かに大事ですよね〜と思いながら聞いてました。タスクに対する問題設計、アプローチ、面白く大変興味深い発表でした!

BERTのMulti Modalタスクへの活用 ymym3412さん

資料

私のメモ

  • マルチモーダル
  • 今回はVision+Languageだけ
  • ViLBERT, LXMERT, VL-BERT, Unicode-VL, UNITER
  • 解きたいタスク: Visual Question, Answering(画像とそれに対する質問にYES or NOで答える), Visual Commonsense Reasoning(画像+アノテーション+状況の説明、テキストでの質問、複数選択肢から答えを選ぶ), Referring Expression Comprehension(テキスト情報→画像ではどこに該当するか), Cross-Modal Retrieval(テキスト→画像の検索、画像→テキストの検索)

所感
マルチモーダル領域で使われているモデルについて知ることができて良い機会でした。〇〇BERTっていっぱいあるなあ......と思っても全然追えてなかったので。><
個人的にVL-BERTのImageもTextもENcoder分離せずに同じTransformerで扱ってるというのが、衝撃でした。「一緒に入れられるんだ!?」という。

BERTをブラウザで動かすには ―MobileBERTとTensorFlow.js― Shion Hondaさん

資料

私のメモ

  • Mobile BERT Q&A
  • TensorFlow.js Q&A モデル

tfjs-models/qna at master · tensorflow/tfjs-models · GitHub

所感
蒸留の工夫、アーキテクチャの工夫など知れて良かったです!

テキスト生成の評価 × BERT cfikenさん

資料

私のメモ

BERTScore github.com pip install で入れられるらしい。

MoverScore

  • Word Mover's Distance をBERT出力に適用
  • BERTScoreは最も類似度の高い単語だけを参照する、MoverScoreはどのように分布を移動させれば採用で済むかを計算する

BLEURT

  • 疑似データペアを大量に作成して活用
  • BERTを更にpre-trainingおよびfinetuning行う

余談
指標は3つに分類できる
1. ルールベース(BLEU等)
2. 汎用的なモデルの出力を比較(w2v, BERTScore 等)
3. 人手評価をモデリング(RUSE, BLEURT 等)

所感
テキスト生成、昔やっていたのですが、私自身はBLEUしか使ったことがなかったので、勉強になりました!
個人的には仕込んであるネタが全部面白くてツボでした。普通に笑ってたんですが、オンラインだと発表者には伝わらないことを失念していたので、YouTube Liveのコメントとかでちゃんと反応すれば良かったかもと今思っています。

おわりに

どの発表もめちゃくちゃ面白かったです!運営・発表者のみなさま、ありがとうございました。

おまけ

Cluster面白そうだなと思って、アカウント登録してチュートリアルやってみました。いつか他の勉強会で使う機会あるかもと思って、アバターを作成中です。ただ、運営する方はすごい大変そうだな〜と思って眺めていました。

本イベントの、他の参加者のブログ記事

upura.hatenablog.com

yhiss.hatenablog.com

atmaCup #4に参加してきました

はじめに

2020年3月1日(日)〜3月8日(日)に開催されたatmaCup #4に参加してきました。 本イベントの前回の様子をTwitterで見ていて、面白そうだなと思ったのと、前回初心者向けセッションもあるとのコメントを見かけたので「私でも参加できそう!」と思ったので参加しました。

このブログ記事はほぼポエムですが、「初心者でも楽しく参加できるよ!」ということを伝えたいのと、自分の忘備録のために書きました。

どんなイベント?

atma.connpass.com

オンサイトのデータ分析のコンペです。 3/1はリモートで、3/8は現地で参加しました。間の期間は各自で分析を進める感じでした。

私とコンペ

きちんとコンペに取り組んだのは初めてでした! なんと2sub以上したコンペは4年ぶりです。実質初めてです。

www.kaggle.com

参加してよかったこと

初動が遅いことに関する課題を認知できた

  • 過去のコンペの経験上、いつも1 subするまで時間がかかりすぎて1 subで力つきる事が多かったので、とりあえずInputからOutputまでの流れを作りました。1 sub目は1カラムだけ使いましたが、流れを最初に作れたのは良かったと思います。
  • Memory Errorで時間を溶かしました。根本的な原因は、行のduplicationを除けていない部分があった事でした。やってる事がおかしかったのが原因ではありましたが、Memory Errorで消耗するのはもうやめにしたいので、この辺りの対策は仕組み化したいと感じました。
  • データのmergeで結構とまどったので、pipelineをすっと使えるようにしようと思いました。
  • featureの保存は途中からするようにしました。
  • あんまり時間無いしなーと思ってnotebookでrun allする形でやっていたのですが、しんどかったので次からはscriptでやりたいです。
  • 初動を速くしてもっと生産的なことに時間を使いたいです。 EDAの時間もほぼ取れなかったし、思いついた特徴量の生成も終わりませんでした。
  • 特徴量を最初に増やしすぎたので、少しずつやった方がよかったなと思いました。

初心者向けセッションが良かった

  • 2回目は中間くらいのちょうどいい時期にあったので、自分のやっている事が大幅にずれていない確認になって良かったです。
  • 知らなかった書き方も知れました。

期間が自分にとってちょうど良かった

  • 1週間なのでだれなかったのが良かったです。
  • 今までコンペ続かなかったのですが、どのあたりがネックだったのかがなんとなくわかり、良い機会になりました。きちんと対策して前に進めそうです。

おわりに

コンペに取り組んでいる時間自体も楽しかったですし、今後のモチベUPにもなりました! またパワーアップしながらコンペ参加していきたいなと思います。

2019年にしたインプット・アウトプット、新しかったこと

はじめに

2019年の振り返りです。2018年と同じ形式で振り返ります。 kabayan55.hatenablog.com

2019年の年始には目標を立て、12月にそれに沿って振り返りをするという記事を書いたのですが、いま読み直したら、3行くらいで終わりそうだなと思いました。 振り返りの形式は2018年と合わせつつ、年始目標の項目も入れる形で振り返ろうと思います。

kabayan55.hatenablog.com

インプット

読書

2019年に読んだ本は110冊でした!(マンガは除く)
今年のおすすめは以下の記事で紹介しています。

kabayan55.hatenablog.com

勉強会・技術系イベント参加

Geek Women Japan New Year Party 2019

togetter.com

昨年参加して楽しかったので、参加しました。本当にみんなやってることがそれぞれ違って面白い!

Women in Machine Learning

kabayan55.hatenablog.com このイベント、英語でのイベントだったので、感想をあとで英語でも書こうと思っていたのに結局日本語でしか書かなかったやつです。

Machine Learning Casual Talks #8

mlct.connpass.com

kabayan55.hatenablog.com

イベント自体の感想は記事をご覧ください。 初めてブログ枠で参加したイベントです。まだブログに不慣れだったのもあって、書くのに3晩くらいかかりました。残りのお二方が当日夜には記事を書いて出していたので、わりと絶望しながら書いていましたが、一回ここでちゃんと書いたおかげでその後もイベント参加記事を書けるようになったと思っており、良い機会だったと思っています。 参加記事では触れていませんが、めちゃくちゃ懇親会が楽しかったです。

【交流会/女性限定】エンジニア "女子会" ミートアップ【meetup】

supporterzcolab.com

結構みんなしんどい思いをしているんだなーというのを感じました。吐き出せない悩みを吐き出せるこういう場があるのは良いことだと思います。私自身はかなり恵まれた環境にいるんだなというのも同時に感じました。

真冬こそ激アツの自由研究LT大会 engineers.connpass.com

エンジニアの登壇を応援する会」が主催のLT大会です。2018年にエンジニアの登壇を応援する会の忘年会に行き、LTしてみたいな、自由研究LT楽しそうだな、と思って参加しました。この会で、Twitterで絡むようになった人も結構いるので、LTして良かったなと思っています......!!

白金鉱業 Meetup Vol.6

brainpad-meetup.connpass.com

初めての白金台で、テンション上がってこの勉強会の前に、夜桜を見に行きました。

初めてLOVOTのお話を聞けて、LOVOTを見かけるたびに気になるようになりました。 lovot.life

この日の参加記事、途中まで書いていたのですが、出さずじまいで消してしまいました。メモはちゃんと取っていたので気合いが足りなかっただけです。 この会のu++さんの発表がエモすぎ&刺さりすぎて、過去を思い出したり人生について考えたりし始めたらブログを書き切る気力が無くなってしまいました(盛大な言い訳)。

新オフィスお披露目パーティー supporterzcolab.com

サポーターズの新オフィスです。渋谷ソラスタ、かっこいいですが、未だにちょっと迷います。この日は、ひたすら女子会をしていました。この時期は仕事が忙しくて、平日は家と会社の往復で土日は何もする気力がなかったので、良い息抜きになりました。

Webhack#24 x Mercari: Real World AI

webhack.connpass.com

Webhackは結構毎回テーマが違うので、自分と関係ありそうなテーマの時のみ参加しています。 Emotion Analysisの話が面白かったです!

tech.mercari.com

白金鉱業 Meetup Vol.10(一周年記念回)

brainpad-meetup.connpass.com

白金鉱業 Meetupに参加するのは2回目でした。
最高でした。最高すぎてまた記事が書けませんでした。ごめんなさい。

Bonfire Data Analyst #2 yj-meetup.connpass.com

Not for meでした。 今度はBonfire Data Scientistの方に参加したいです!

【東京】LTea Party ~女性登壇LT大会~ atlabo.connpass.com

登壇者が豪華すぎる会でした。

お菓子とかオシャレな紅茶とかもありました。 普段は業務に関係ある勉強会ばかり行っていますが、こういう会もたまにはいいなと思いました。

Machine Learning Production Pitch #4 x ML@Loft #6

machine-learning-pitch.connpass.com

kabayan55.hatenablog.com

ずっと気になっていたMLPP、興味のあるテーマだったので参加してきました。久しぶりにNLPしたいな〜と思いました!!!
半年ぶりにイベント参加記事を書きました。登壇者の方のうちのお一人と懇親会で話したのですが、感想伝えそびれちゃったな〜と思って書きました。今年参加した勉強会の中でも、結構面白い会だったと思うので読んでほしいです←

落合陽一が今、20代エンジニアに伝えたいこと

supporterzcolab.com

kabayan55.hatenablog.com

圧倒されてたら終わりました。やっとブログ早出しができるようになりました。

【Merpay x M3 x PFN 共催】 Machine Learning Night

machine-learning-pitch.connpass.com

kabayan55.hatenablog.com

↑ 詳細は上の記事に書いています。

アウトプット

サポーターズCoLab講師

kabayan55.hatenablog.com

↑ 上の記事とセットでやっと完成かなという感じです。2月の登壇だったのですが、色々考えているうちに参加についての記事を書くのが12月になってしまいました。自然言語処理アドベントカレンダーの記事にしたのでViewは結構あったのですが、肯定する意見も批判も全く見ていないので、難しいトピックなのかもしれないなと感じました。

LT

【交流会】17卒エンジニア限定 "新年会" ミートアップ【meetup】 supporterzcolab.com

「もっとアウトプットしていこう!」というLTをしました。日本での勉強会は、日本語で開催されるものが多いので(Machine Learning TokyoやWebHackは英語ですが)、日本人(日本語話者)である私がアウトプットしていくぞ!という話をしました。結構おもしろかったとの反応をいただきました。会社の同期の前でリハーサルをし、面白く無いと言われてだいぶ話す内容変えて発表したので良かったなと思っています。この時期の私は「日本語を話せる」という強みを活かしていきたいという思いが強く、この話をしました。というか、あまりにも自分に自信を持てなかった時期で、自分の得意なことは「日本語を話せること」くらいしか無いと感じていました←

真冬こそ激アツの自由研究LT大会 engineers.connpass.com

kabayan55.hatenablog.com

エスカレーターの話をしました。かき氷の話と迷ったのですが、開催時期が冬だったので、季節の関係ないエスカレーターを選びました。

この資料の中で、香港の世界一長いエスカレーターに行きますと書いていますが、実際に行ってきました。まさかエスカレーターを眺めながらランチをすることになるであろうとは予想していませんでした。笑
ちなみに、香港に行ったのはエスカレーターのためではなく、香港の大学院に通っている会社の元同期に会いに、同期何人かで旅行で行きました。

サポーターズCoLab女子会

kabayan55.hatenablog.com

LTした内容を、記事に書きました。前日夜に発表資料を作り始め、説明が足りなかったところもあったので補足的な意味で書いています。 女子会で「視覚優位か聴覚優位か」みたいな話題で盛り上がったのもあって(?)、記事内で、突然英語ツールに関係ないPodCast(日本語)の紹介をしています←

社内同期有志勉強会

Learn You a Haskell for Great Good!

learnyouahaskell.com

kabayan55.hatenablog.com

計算理論

books.rakuten.co.jp

books.rakuten.co.jp

仕事忙しくなって全く参加できませんでした。私は業務に直結する勉強以外の勉強の優先度が、わりと低い方なのかもと感じた一年でした。

社内部署有志勉強会

ディープラーニングの基礎から勉強したいよねという話になっていたので、RNNとLSTMの話をしたら完全に釈迦に説法でした。 あとは、Scikit-learnのPipelineを使う話をしました。この辺はブログに書こうかなと思いつつ書きそびれたまま年末になりました。

ブログ

この記事を含めて17記事です。そのうち8記事を12月に書いています。これは、会社同期アドベントカレンダーを埋めようと思って増えました。 4月以降ブログに対するやる気が無くなっていて、もしかしたらもう更新することはないかもと思うこともありましたが、9月のMLPPでやる気が復活したので感謝しかありません。

読書メーター

レビュー記事36/110冊 1月あたりは結構書いてましたが、次第に書かなくなりました。

bookmeter.com

2019年新しかったこと

分析

何を言っているかわからないかもしれないですが、データサイエンティスト3年目にして初めて業務で分析をしました。 kaggleも1サブで力尽きてしまっていたくらいなので、データ分析ってiterationを回すものなのだなという実感を強く持った一年でした。個人的には0からのスタートという気分でした。

ACM RecSys Challenge 2019

www.recsyschallenge.com

やる気満々で睡眠時間を削ってまでやっていたはずなのに、仕事の忙しさの波にのまれて結局断念しました。ちゃんと最後までやりたかったな......。

Will・Can・Must

ビジネスフレームワークです。キャリアについて考える際に、これに当てはめてみるといいよと紹介していただきました。

アクティビティ図

初めてアクティビティ図を書きました。 PlantUMLを使えるようになりました!

plantuml.com

デザインパターン

そもそも「デザインパターン」って何?というところからのスタートでした。 データサイエンティストがデザインパターンまで気にする必要があるかについては、色々な意見があるかもしれませんが、エンジニアリングに携わるものとしては、わかってた方がいいなと感じました。

デリゲーションポーカー

マネージャーとメンバーで、どのレベルで権限があると思っているか確認する時に使えます。 説明は以下の記事がわかりやすいと思います。

developers.cyberagent.co.jp

アイコン

アイコンを似顔絵にしました。ココナラで写真を送って描いてもらいました。 ずっと似顔絵のアイコンに憧れていたのですが、やっと決意できて変えました。 元々、Twitterだけ違う名前でやっていたのも同時に統一しました。 我が家はSNSが未だに禁止で、過去にSNSやブログが親バレして大げんかになって消したことが何度かあります。 もうどうとでもなれ、と思うようになったので、思い切ってアイコンを変えました。似顔絵アイコンにしていなかったのは、少しでも親バレの危険を避けたかったからです。 まだ変えて数ヶ月で効果はそこまで感じていませんが、似顔絵アイコンは最高です!アイコンと本人が結びつかない問題が解消されてくれればなと思っています。

note

気が向いたので、始めました。

note.com

note.com

ヨギボーは、いいぞ。(一部ネタバレ)

おまけ

今年は映画館に3度足を運びました! 鑑賞した作品は、『ラブライブ! サンシャイン!!The School Idol Movie Over the Rainbow』『天気の子』『翔んで埼玉』です。今年の後半は、なかなかまとまった時間を取れなくて行けませんでした。 来年気になっている映画は『AI崩壊』です。

どうしても、映画館はデートで行くところだというイメージが自分の中であって、ソロ映画は少し慣れてきましたが、まだそんなには行かず。一人で観るなら飛行機かアマプラで観ればいいやと待ってしまいがちです。『翔んで埼玉』は会社の同期たちと観に行きました。

ココイチにもちゃんと行きました!注文難しそうでドキドキしながら行ったのですが、杞憂でした。笑

他にも、一風堂てんやに初めて行きました!

来年行ってみたいと思っている行ったことないチェーン店は、一蘭リンガーハット串カツ田中 あたりです。 そもそも外食をすることがあまりないので、来年こそは積極的にいろんな人を誘ってご飯行くようにしようかなと思います!