機械学習に利用されるKerasは、次のように2種類存在しています。
一般的にはバックエンドを自由に選択できる「独立版Keras」が有名ですが、ここではTensorFlowに組み込まれているKerasの使い方について載せておきます。
- 独立版Keras(バックエンドをTensorFlow, Theano, CNTKから選択できるもの)
- TensorFlowに組み込まれたKeras
TensorFlow.Kerasの導入方法
TensorFlowに組み込まれたKerasは、TensorFlowを導入すれば利用可能な状態になっています。個別にKerasを導入する必要はありません。
Anacondaを利用している場合は、
conda install tensorflow
、もしくはconda install tensorflow-gpu
でTensorFlowを導入できます。詳細は、「Keras/TensorFlow-GPU環境の作成」の「TensorFlow-GPUの導入」という部分を参照してください。
TensorFlowとKerasのバージョン(2019/1/4時点)
独立版のKerasと、TensorFlowに組み込まれているKerasのバージョンは違っていることがあります。現在のところ、独立版Kerasの方がバージョンが新しくなっています。
次のコードでTensorFlowとKerasのバージョンを確認できますが、2019/1/4時点では以下のようなバージョンになります。
- TensorFlow: 1.12.0
- TensorFlow.Keras: 2.1.6-tf
- Keras(独立版): 2.2.4
import tensorflow as tf import keras print('tf :', tf.VERSION) print('tf.keras :', tf.keras.__version__) print('keras :', keras.__version__)
TensorFlow.Kerasの利用方法
独立版KerasとTensorFlow.Kerasは、バージョンやデフォルト値の多少の違いはありますが、基本的には互換性があるためimport部分を書き換えるだけでTensorFlow.Kerasに対応できます。(詳細はTensorFlowのガイドを参照)
TensorFlowへのKeras取り込みは継続的に行われているため、バージョンによってimportする対象が少しずつ異なっています。現時点のTensorFlow 1.12.0の場合は、tensorflow.keras
という形で、tensorflowの直下にkerasが来ます。
以下に、独立版Kerasのサンプルとして公開してあるMNISTのコード(mnist_keras.py)と、TensorFlow.Keras用に書き換えたコード(mnist_tensorflow_keras.py)を載せておきます。
書き換えているのは、3~8行目のimport文だけになります。
# 独立版Keras用コード from __future__ import print_function import keras from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Flatten from keras.layers import Conv2D, MaxPooling2D from keras import backend as K batch_size = 128 num_classes = 10 epochs = 12 # input image dimensions img_rows, img_cols = 28, 28 # the data, split between train and test sets (x_train, y_train), (x_test, y_test) = mnist.load_data() if K.image_data_format() == 'channels_first': x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols) x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols) input_shape = (1, img_rows, img_cols) else: x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1) x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1) input_shape = (img_rows, img_cols, 1) x_train = x_train.astype('float32') x_test = x_test.astype('float32') x_train /= 255 x_test /= 255 print('x_train shape:', x_train.shape) print(x_train.shape[0], 'train samples') print(x_test.shape[0], 'test samples') # convert class vectors to binary class matrices y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes) model = Sequential() model.add(Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=input_shape)) model.add(Conv2D(64, (3, 3), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(128, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(num_classes, activation='softmax')) model.compile(loss=keras.losses.categorical_crossentropy, optimizer=keras.optimizers.Adadelta(), metrics=['accuracy']) model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=1, validation_data=(x_test, y_test)) score = model.evaluate(x_test, y_test, verbose=0) print('Test loss:', score[0]) print('Test accuracy:', score[0+1]) #Blogの都合で意図的に[0+1]と表記
# TensorFlow.Keras用コード from __future__ import print_function from tensorflow import keras from tensorflow.keras.datasets import mnist from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout, Flatten from tensorflow.keras.layers import Conv2D, MaxPooling2D from tensorflow.keras import backend as K batch_size = 128 num_classes = 10 epochs = 12 # input image dimensions img_rows, img_cols = 28, 28 # the data, split between train and test sets (x_train, y_train), (x_test, y_test) = mnist.load_data() if K.image_data_format() == 'channels_first': x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols) x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols) input_shape = (1, img_rows, img_cols) else: x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1) x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1) input_shape = (img_rows, img_cols, 1) x_train = x_train.astype('float32') x_test = x_test.astype('float32') x_train /= 255 x_test /= 255 print('x_train shape:', x_train.shape) print(x_train.shape[0], 'train samples') print(x_test.shape[0], 'test samples') # convert class vectors to binary class matrices y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes) model = Sequential() model.add(Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=input_shape)) model.add(Conv2D(64, (3, 3), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(128, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(num_classes, activation='softmax')) model.compile(loss=keras.losses.categorical_crossentropy, optimizer=keras.optimizers.Adadelta(), metrics=['accuracy']) model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=1, validation_data=(x_test, y_test)) score = model.evaluate(x_test, y_test, verbose=0) print('Test loss:', scores[0]) print('Test accuracy:', scores[0+1]) #Blogの都合で意図的に[0+1]と表記
独立版KerasからTensorFlow.Keras用にimportを書き換える際、基本的にはkeras
をtensorflow.keras
にすれば良いのですが、
import keras
としていた部分は、from tensorflow import keras
にする必要があります。
単純に import tensorflow.keras
に書き換えてしまうとエラーになるので注意してください。
パフォーマンスの比較
Kerasのバージョンが異なるのでパフォーマンスを比較してもあまり意味がないかもしれませんが、独立版KerasとTensorFlow.Kerasのパフォーマンスを載せておきます。
これは、上で紹介したMNISTの各エポック単位のstep処理時間を示したものです。実行環境には、nVIDIA GeForce GTX1080を使用しています。

グラフの通り、TensorFlow.Kerasの方が独立版Kerasよりも高速に処理できることが分かりました。今回の処理では、TensorFlow.Kerasの方が1割ほど高速に動作しています。
このテストではTensorFlow.Kerasの方が1割ほど高速でしたが、環境や処理の内容によっては結果が異なる可能性もあります。Kerasのバージョンの違いによるものかもしれないので、この結果だけでは「TensorFlow.Kerasの方が独立版Kerasよりも高速」と言い切ることはできません。
…が、TensorFlow.Kerasは、TensorFlow向けに最適化することも可能なはずなので、KerasとTensorFlow間の連携部分が改善されているのかもしれません。(ソースコードは比較していないので推測でしかありませんが…)