l8l技術メモ

機械学習・深層学習・組込みとかのメモ

2019-01-01から1年間の記事一覧

メモ JupyterLab から pip パッケージインストール

Google Cloud Platform に最近追加された Jupyter Notebook で pip パッケージをインストールしたい。普通に terminal から pip intall しても反映されなかった。調べたところ、JupyerLabコンソール内で以下を打てばよいとわかった。実際にうまくいったので…

メモ: 高速化のためにはバッチサイズが大きい必要がある。 学習率を下げる~=バッチサイズをあげるではあるが、少なくとも高速化の文脈では、バッチサイズを大きくした方が良い https://openreview.net/pdf?id=B1Yy1BxCZ 一般に、バッチサイズが小さい方が…

kaggleのXXコンペへ参加してみた(2日)

- pandas力 - pytorch力 - 普段からの論文読み・実装読み・実装追試(実装力) がないと、まず競技が始まらないことを理解しました。 また、kaggle notebookだけだといくら何でもつらい場面がある。一回実験を回すのに6時間かかっていたら、さすがに改善も…

『Kaggleで勝つデータ分析の技術』を読み中

Kaggle自体はあまり興味がない(パズルの類は当面飽きているため)けど、具体例の羅列は理解の確認に役立って面白い。 読み終わったら感想を書きます。 ---------------------------- 読み終わった。全体的に丁寧にかかれている。 imbalanced なデータへのよ…

メモ 複雑さの分類と、説明する際の方針 複雑さ①:説明するのに・結論を導くのに理解しないといけない物事の量が多い ⇒結論を先に見せる。リスト化や構造化して、丁寧に説明する。 複雑さ②:説明対象が概念的に難しい。数式など。 ⇒比喩や図解を試みる(正確…

kaggle titanic 入門した

モチベーション: 画像のニューラルネットワークばかり普段触れていて、テーブルデータの経験が皆無だったため、何でもよいので手を動かしたかった。 コード: Kaggle Notebook (Public Score 0.77511) https://www.kaggle.com/lisosia /catboost?scriptVers…

「データサイエンティスト養成読本 ビジネス活用編」を読んだ (9月中旬読了)

参考になりそうな感想文 [1] https://medium.com/@shinichitakayanagi/データサイエンティスト養成読本ビジネス活用編-7082e8ef044b 動機 データサイエンティストではないが、データをもとに、(面と向かってではないにしても文書ごしに)顧客に説明する機会…

メモ:機械学習モデルのデプロイ手段(エンドポイントの用意の手段)

メモ: 機械学習モデルのデプロイのの手段。モデルのロードはマシンごとに初めに済ます、という要件がある。 * (何らかのライブラリを用いて)webAPIを自身で作成する * gRPCを使う RPCはRESTと同じくWeb APIを実現するための手法です。各サービス間の連携…

「クラウドエンジニア養成読本」を読んだ

動機 最近コンテナを使用する機会があり、仮想化とともに語られる(パブリック)クラウドについて最低限知っておきたかったため。 雑多な感想 なんとなくしか知らなかった、クラウドベンダの各種サービス概要を知ることができてよかった。Bigquery便利そう …

コーディング規約と生産性

適切な規約を選択し、チーム内で順守することで、コードが読みやすくなり、アンチパターンを回避できたり、不要な議論をなくすことができる。 私自身は、コードを引き継く機会もそこそこある。そういった場合には、既存のコーディングパターンに従う必要があ…

Windows10において、サードパーティーの拡張のせいでエクスプローラーの右クリックが異常に重い(~20秒)現象が発生した。 解決した方法: ShellExViewをインストールして、公式以外のextentionをすべてdisableしたら改善した。 情報源: https://answers.m…

「stanとRでベイズ統計モデリング」(アヒル本)読んだ

実践向けの内容。丁寧に書かれていて良き。 Stanで簡単なモデリングはできるようになった(気がする)。マルコフランダムフィールド(MRF)、セグメンテーションモデルででてきたな~と意外なところでつながり面白かった。

須山ベイズ本読んだ

「機械学習スタートアップシリーズ ベイズ推論による機械学習入門」。略名:須山ベイズ本 動機: 元々、PRMLを5章途中まで読んでいた。PRMLを読むの結構大変(というか全数式はおえていない)ので、ほかの優しめの本を読んだ方が良いという判断で鞍替えした…

「試して理解Linuxのしくみ: 実験と図解で学ぶOSとハードウェアの基礎知識」を読んだ

本業(?)ではあるので、買ってみた。立ち読みしたところ内容はほとんどは既知だが復習として買うことに。 基本をおさえつつ実験・図が豊富な本は貴重だなと思う。 スケジューリング・ページイン/アウト・スワップ・仮想メモリ・ディスクアクセスなどなど、タ…

PRML 2章から4章を読んだ

仕事に直接役立つ見込みもなかったので、一部を読んだ。http://d.hatena.ne.jp/n_shuyo/20121004/prml を参考に、章は選んだ。 内容は、2章は確率分布、3章は回帰モデル、4章は分類モデル。細かい数式はしばらくすれば忘れてしまうと思う。MLタスクでの意思…

TensorFlowで最適化(最小化)

値域つきの変数 0 < x1 < x2 < 1 からなる loss(x1,x2) を最小化したい。 lossが線形の時は線形計画法でよい。pythonのライブラリにpulpライブラリがあるらしい。非線形のとき、tensorflowなどで最適化できる。 変数の制約をつけたいとき 値域をつけたい -> …

PRML2章メモ カーネル密度推定

PRML2章 密度推定においては、ヒストグラム法よりカーネル密度推定や最近傍法が優れている。ハンド幅BW(平滑化係数)について、推定密度 p(x|X,bw) のデータノイズへ過敏さと過剰な平滑化の間のトレードオフがある。 BWの選択としては、CV(クロスバリデー…

Tensorflow(Keras)かPytorchか

KerasかPytorchか 簡単に調べた・知っている範囲だと ■ Keras 変なことしないなら少ない行数ですむ(?) Tensorflowバックエンドがついてくる(というかTF2.0でKerasと融合しつつある) TFバックエンドなら、モバイル(TFLite)への移行がスムーズ。EdgeTPUが…

メモ: 

Deep Learning for Image Denoising: A Survey https://arxiv.org/abs/1810.05052 0.5割読んだだけのメモ書きAwgn には有効だが、real image や複数種のノイズに一つのモデルで対応するのは依然課題っぽいUDNet はマルチレベルノイズへの対応を目指してい…

メモ: Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles

Simple and Scalable Predictive Uncertainty Estimation using Deep EnsemblesLakshminarayanan et. al 2017, https://arxiv.org/abs/1612.01474 要約記事 https://tech.instacart.com/3-nips-papers-we-loved-befb39a75ec2 Uncertaintyの推定は重要。 未知…

メモ: Why ReLU networks yield high-confidence predictions far away from the training data and how to mitigate the problem

Why ReLU networks yield high-confidence predictions far away from the training data and how to mitigate the problemhttps://arxiv.org/abs/1812.05720 信頼性(やしばしば求められる妥当性)という観点から、知らないデータに対しては、「don't-know…