bert-japanese 試してみた

github.com

事前学習タイプのBERTを日本語向けにチューンした bert-japanese を試してみた
上のページのサンプルを実際に Google Colaboratory で実行してみた


結論
Bag of Words + ロジスティック回帰と比較して
良いところ
平均で precision +2ポイント、recall +1ポイント、f1-score +2ポイント
分類性能が上がった

困ったところ
計算リソースが非常に多く必要になる。CPUだと全然ムリ。TPU等が必須だった
当たり前の話だけど、TPUで数分の処理がCPUだと何時間もかかる

その他
bert-japanese ではクラス毎の分類性能差が少ない


f:id:knaka20blue:20190814113530j:plain
precision


f:id:knaka20blue:20190814113551j:plain
recall


f:id:knaka20blue:20190814113606j:plain
f1-score