BERT 動かしてみる その1 MRPCを動かすまで

techblog.nhn-techorus.com

上記参考ページを見ながら Colaboratory で実行するために一部変更しながら BERT を動かしてみた

# BERT のダウンロード
!git clone https://github.com/google-research/bert

# BERT 学習済みモデルのダウンロード
!wget https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-12_H-768_A-12.zip

# 解凍
!unzip uncased_L-12_H-768_A-12.zip

# GLUE のデータダウンロード用スクリプトのダウンロード
!wget https://gist.githubusercontent.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e/raw/17b8dd0d724281ed7c3b2aeeda662b92809aadd5/download_glue_data.py
# 参考ページとはURLを変更している
#  [https://github.com/microsoft/AzureML-BERT/commit/b905b2dd251dca01fb2fdb3ee63bac28257cb47d#diff-3356639d4d1e0982f20115c3ee9925fc]

# GLUE のデータをダウンロード
!python download_glue_data.py --data_dir glue_data --tasks all

# MRPCの実行
!sh mrps.sh
#!/bin/sh
# mrps.sh ファイルの改行コードはLFにする。CRLFはNG

export BERT_BASE_DIR=uncased_L-12_H-768_A-12
export GLUE_DIR=glue_data/
python bert/run_classifier.py   --task_name=MRPC   --do_train=true   --do_eval=true   --data_dir=$GLUE_DIR/MRPC   --vocab_file=$BERT_BASE_DIR/vocab.txt   --bert_config_file=$BERT_BASE_DIR/bert_config.json   --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt   --max_seq_length=128   --train_batch_size=32   --learning_rate=2e-5   --num_train_epochs=3.0   --output_dir=/tmp/mrpc_output/