Missed TensorFlow World? Check out the recap. Learn more

映画レビューのテキスト分類

View on TensorFlow.org Run in Google Colab View source on GitHub

ここでは、映画のレビューをそのテキストを使って肯定的否定的かに分類します。これは、二値分類あるいは2クラス分類という問題の例であり、機械学習において重要でいろいろな応用が可能なものです。

ここでは、Internet Movie Databaseから抽出した50,000件の映画レビューを含む、 IMDB dataset を使います。レビューは訓練用とテスト用に25,000件ずつに分割されています。訓練用とテスト用のデータは均衡しています。言い換えると、それぞれが同数の肯定的及び否定的なレビューを含んでいます。

ここでは、TensorFlowを使ってモデルを構築・訓練するためのハイレベルなAPIである tf.kerasを使用します。tf.kerasを使ったもう少し高度なテキスト分類のチュートリアルについては、 MLCC Text Classification Guideを参照してください。

from __future__ import absolute_import, division, print_function, unicode_literals

import tensorflow as tf
from tensorflow import keras

import numpy as np

print(tf.__version__)
2.0.0

IMDB datasetのダウンロード

IMDBデータセットは、TensorFlowにパッケージ化されています。それは前処理済みのものであり、(単語の連なりである)レビューが、整数の配列に変換されています。そこでは整数が辞書中の特定の単語を表します。

次のコードは、IMDBデータセットをあなたのパソコンにダウンロードします。(すでにダウンロードしていれば、キャッシュされたコピーを使用します)

imdb = keras.datasets.imdb

(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/imdb.npz
17465344/17464789 [==============================] - 0s 0us/step

num_words=10000という引数は、訓練データ中に出てくる単語のうち、最も頻繁に出現する10,000個を保持するためのものです。データサイズを管理可能にするため、稀にしか出現しない単語は破棄されます。

データの観察

データの形式を理解するために少し時間を割いてみましょう。このデータセットは前処理済みで、サンプルそれぞれが、映画レビューの中の単語を表す整数の配列になっています。ラベルはそれぞれ、0または1の整数値で、0が否定的レビュー、1が肯定的なレビューを示しています。

print("Training entries: {}, labels: {}".format(len(train_data), len(train_labels)))
Training entries: 25000, labels: 25000

レビューのテキストは複数の整数に変換されており、それぞれの整数が辞書の中の特定の単語を表します。最初のレビューがどのようなものか見てみましょう。

print(train_data[0])
[1, 14, 22, 16, 43, 530, 973, 1622, 1385, 65, 458, 4468, 66, 3941, 4, 173, 36, 256, 5, 25, 100, 43, 838, 112, 50, 670, 2, 9, 35, 480, 284, 5, 150, 4, 172, 112, 167, 2, 336, 385, 39, 4, 172, 4536, 1111, 17, 546, 38, 13, 447, 4, 192, 50, 16, 6, 147, 2025, 19, 14, 22, 4, 1920, 4613, 469, 4, 22, 71, 87, 12, 16, 43, 530, 38, 76, 15, 13, 1247, 4, 22, 17, 515, 17, 12, 16, 626, 18, 2, 5, 62, 386, 12, 8, 316, 8, 106, 5, 4, 2223, 5244, 16, 480, 66, 3785, 33, 4, 130, 12, 16, 38, 619, 5, 25, 124, 51, 36, 135, 48, 25, 1415, 33, 6, 22, 12, 215, 28, 77, 52, 5, 14, 407, 16, 82, 2, 8, 4, 107, 117, 5952, 15, 256, 4, 2, 7, 3766, 5, 723, 36, 71, 43, 530, 476, 26, 400, 317, 46, 7, 4, 2, 1029, 13, 104, 88, 4, 381, 15, 297, 98, 32, 2071, 56, 26, 141, 6, 194, 7486, 18, 4, 226, 22, 21, 134, 476, 26, 480, 5, 144, 30, 5535, 18, 51, 36, 28, 224, 92, 25, 104, 4, 226, 65, 16, 38, 1334, 88, 12, 16, 283, 5, 16, 4472, 113, 103, 32, 15, 16, 5345, 19, 178, 32]

映画のレビューはそれぞれ長さが異なっていることでしょう。次のコードで、最初と2つ目のレビューの単語の数を見てみます。ニューラルネットワークへの入力は同じ長さでなければならないため、後ほどその問題を解決する必要があります。

len(train_data[0]), len(train_data[1])
(218, 189)

整数を単語に戻してみる

整数をテキストに戻す方法を知っていると便利です。整数を文字列にマッピングする辞書オブジェクトを検索するためのヘルパー関数を定義します。

# 単語を整数にマッピングする辞書
word_index = imdb.get_word_index()

# インデックスの最初の方は予約済み
word_index = {k:(v+3) for k,v in word_index.items()} 
word_index["<PAD>"] = 0
word_index["<START>"] = 1
word_index["<UNK>"] = 2  # unknown
word_index["<UNUSED>"] = 3

reverse_word_index = dict([(value, key) for (key, value) in word_index.items()])

def decode_review(text):
    return ' '.join([reverse_word_index.get(i, '?') for i in text])
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/imdb_word_index.json
1646592/1641221 [==============================] - 0s 0us/step

decode_reviewを使うと、最初のレビューのテキストを表示できます。

decode_review(train_data[0])
"<START> this film was just brilliant casting location scenery story direction everyone's really suited the part they played and you could just imagine being there robert <UNK> is an amazing actor and now the same being director <UNK> father came from the same scottish island as myself so i loved the fact there was a real connection with this film the witty remarks throughout the film were great it was just brilliant so much that i bought the film as soon as it was released for <UNK> and would recommend it to everyone to watch and the fly fishing was amazing really cried at the end it was so sad and you know what they say if you cry at a film it must have been good and this definitely was also <UNK> to the two little boy's that played the <UNK> of norman and paul they were just brilliant children are often left out of the <UNK> list i think because the stars that play them all grown up are such a big profile for the whole film but these children are amazing and should be praised for what they have done don't you think the whole story was so lovely because it was true and was someone's life after all that was shared with us all"

データの準備

レビュー(整数の配列)は、ニューラルネットワークに投入する前に、テンソルに変換する必要があります。これには2つの方法があります。

  • 配列をワンホット(one-hot)エンコーディングと同じように、単語の出現を表す0と1のベクトルに変換します。例えば、[3, 5]という配列は、インデックス3と5を除いてすべてゼロの10,000次元のベクトルになります。そして、これをネットワークの最初の層、すなわち、浮動小数点のベクトルデータを扱うことができるDense(全結合)層とします。ただし、これは単語数×レビュー数の行列が必要なメモリ集約的な方法です。
  • もう一つの方法では、配列をパディングによって同じ長さに揃え、サンプル数 * 長さの最大値の形の整数テンソルにします。そして、この形式を扱うことができるEmbedding(埋め込み)層をネットワークの最初の層にします。

このチュートリアルでは、後者を採用することにします。

映画レビューは同じ長さでなければならないので、長さを標準化する pad_sequences 関数を使うことにします。

train_data = keras.preprocessing.sequence.pad_sequences(train_data,
                                                        value=word_index["<PAD>"],
                                                        padding='post',
                                                        maxlen=256)

test_data = keras.preprocessing.sequence.pad_sequences(test_data,
                                                       value=word_index["<PAD>"],
                                                       padding='post',
                                                       maxlen=256)

サンプルの長さを見てみましょう。

len(train_data[0]), len(train_data[1])
(256, 256)

次に、パディング済みの最初のサンプルを確認します。

print(train_data[0])
[   1   14   22   16   43  530  973 1622 1385   65  458 4468   66 3941
    4  173   36  256    5   25  100   43  838  112   50  670    2    9
   35  480  284    5  150    4  172  112  167    2  336  385   39    4
  172 4536 1111   17  546   38   13  447    4  192   50   16    6  147
 2025   19   14   22    4 1920 4613  469    4   22   71   87   12   16
   43  530   38   76   15   13 1247    4   22   17  515   17   12   16
  626   18    2    5   62  386   12    8  316    8  106    5    4 2223
 5244   16  480   66 3785   33    4  130   12   16   38  619    5   25
  124   51   36  135   48   25 1415   33    6   22   12  215   28   77
   52    5   14  407   16   82    2    8    4  107  117 5952   15  256
    4    2    7 3766    5  723   36   71   43  530  476   26  400  317
   46    7    4    2 1029   13  104   88    4  381   15  297   98   32
 2071   56   26  141    6  194 7486   18    4  226   22   21  134  476
   26  480    5  144   30 5535   18   51   36   28  224   92   25  104
    4  226   65   16   38 1334   88   12   16  283    5   16 4472  113
  103   32   15   16 5345   19  178   32    0    0    0    0    0    0
    0    0    0    0    0    0    0    0    0    0    0    0    0    0
    0    0    0    0    0    0    0    0    0    0    0    0    0    0
    0    0    0    0]

モデルの構築

ニューラルネットワークは、層を積み重ねることで構成されます。この際、2つの大きな決定が必要です。

  • モデルにいくつのを設けるか?
  • 層ごとに何個の隠れユニットを使用するか?

この例では、入力データは単語インデックスの配列で構成されています。推定の対象となるラベルは、0または1です。この問題のためのモデルを構築しましょう。

# 入力の形式は映画レビューで使われている語彙数(10,000語)
vocab_size = 10000

model = keras.Sequential()
model.add(keras.layers.Embedding(vocab_size, 16))
model.add(keras.layers.GlobalAveragePooling1D())
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))

model.summary()
Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding (Embedding)        (None, None, 16)          160000    
_________________________________________________________________
global_average_pooling1d (Gl (None, 16)                0         
_________________________________________________________________
dense (Dense)                (None, 16)                272       
_________________________________________________________________
dense_1 (Dense)              (None, 1)                 17        
=================================================================
Total params: 160,289
Trainable params: 160,289
Non-trainable params: 0
_________________________________________________________________

これらの層は、分類器を構成するため一列に積み重ねられます。

  1. 最初の層はEmbedding(埋め込み)層です。この層は、整数にエンコードされた語彙を受け取り、それぞれの単語インデックスに対応する埋め込みベクトルを検索します。埋め込みベクトルは、モデルの訓練の中で学習されます。ベクトル化のために、出力行列には次元が1つ追加されます。その結果、次元は、(batch, sequence, embedding)となります。
  2. 次は、GlobalAveragePooling1D(1次元のグローバル平均プーリング)層です。この層は、それぞれのサンプルについて、シーケンスの次元方向に平均値をもとめ、固定長のベクトルを返します。この結果、モデルは最も単純な形で、可変長の入力を扱うことができるようになります。
  3. この固定長の出力ベクトルは、16個の隠れユニットを持つ全結合(Dense)層に受け渡されます。
  4. 最後の層は、1個の出力ノードに全結合されます。シグモイド(sigmoid)活性化関数を使うことで、値は確率あるいは確信度を表す0と1の間の浮動小数点数となります。

隠れユニット

上記のモデルには、入力と出力の間に、2つの中間層あるいは「隠れ」層があります。出力(ユニット、ノード、またはニューロン)は、その層の内部表現の次元数です。言い換えると、このネットワークが学習によって内部表現を獲得する際の自由度ということです。

モデルにより多くの隠れユニットがある場合(内部表現空間の次元数がより大きい場合)、または、より多くの層がある場合、あるいはその両方の場合、ネットワークはより複雑な内部表現を学習することができます。しかしながら、その結果として、ネットワークの計算量が多くなるほか、学習してほしくないパターンを学習するようになります。学習してほしくないパターンとは、訓練データでの性能は向上するものの、テスト用データの性能が向上しないパターンです。この問題を過学習overfitting)といいます。この問題は後ほど検証することになります。

損失関数とオプティマイザ

モデルを訓練するには、損失関数とオプティマイザが必要です。今回の問題は二値分類問題であり、モデルの出力は確率(1ユニットの層とシグモイド活性化関数)であるため、損失関数としてbinary_crossentropy(2値のクロスエントロピー)関数を使用することにします。

損失関数の候補はこれだけではありません。例えば、mean_squared_error(平均二乗誤差)を使うこともできます。しかし、一般的には、確率を扱うにはbinary_crossentropyの方が適しています。binary_crossentropyは、確率分布の間の「距離」を測定する尺度です。今回の場合には、真の分布と予測値の分布の間の距離ということになります。

後ほど、回帰問題を検証する際には(例えば家屋の値段を推定するとか)、もう一つの損失関数であるmean_squared_error(平均二乗誤差)の使い方を目にすることになります。

さて、モデルのオプティマイザと損失関数を設定しましょう。

model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['accuracy'])

検証用データを作る

訓練を行う際、モデルが見ていないデータでの正解率を検証したいと思います。もとの訓練用データから、10,000個のサンプルを取り分けて検証用データvalidation set)を作ります。(なぜ、ここでテスト用データを使わないのでしょう? 今回の目的は、訓練用データだけを使って、モデルの開発とチューニングを行うことです。その後、テスト用データを1回だけ使い、正解率を検証するのです。)

x_val = train_data[:10000]
partial_x_train = train_data[10000:]

y_val = train_labels[:10000]
partial_y_train = train_labels[10000:]

モデルの訓練

512個のサンプルからなるミニバッチを使って、40エポックモデルを訓練します。この結果、x_trainy_trainに含まれるすべてのサンプルを40回繰り返すことになります。訓練中、検証用データの10,000サンプルを用いて、モデルの損失と正解率をモニタリングします。

history = model.fit(partial_x_train,
                    partial_y_train,
                    epochs=40,
                    batch_size=512,
                    validation_data=(x_val, y_val),
                    verbose=1)
Train on 15000 samples, validate on 10000 samples
Epoch 1/40
15000/15000 [==============================] - 2s 106us/sample - loss: 0.6921 - accuracy: 0.5595 - val_loss: 0.6905 - val_accuracy: 0.6014
Epoch 2/40
15000/15000 [==============================] - 0s 28us/sample - loss: 0.6873 - accuracy: 0.6171 - val_loss: 0.6840 - val_accuracy: 0.6715
Epoch 3/40
15000/15000 [==============================] - 0s 29us/sample - loss: 0.6775 - accuracy: 0.7357 - val_loss: 0.6727 - val_accuracy: 0.6750
Epoch 4/40
15000/15000 [==============================] - 0s 28us/sample - loss: 0.6610 - accuracy: 0.7442 - val_loss: 0.6535 - val_accuracy: 0.7456
Epoch 5/40
15000/15000 [==============================] - 0s 28us/sample - loss: 0.6362 - accuracy: 0.7692 - val_loss: 0.6269 - val_accuracy: 0.7744
Epoch 6/40
15000/15000 [==============================] - 0s 28us/sample - loss: 0.6037 - accuracy: 0.7969 - val_loss: 0.5944 - val_accuracy: 0.7922
Epoch 7/40
15000/15000 [==============================] - 0s 28us/sample - loss: 0.5656 - accuracy: 0.8150 - val_loss: 0.5585 - val_accuracy: 0.8083
Epoch 8/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.5249 - accuracy: 0.8327 - val_loss: 0.5204 - val_accuracy: 0.8219
Epoch 9/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.4828 - accuracy: 0.8463 - val_loss: 0.4834 - val_accuracy: 0.8313
Epoch 10/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.4430 - accuracy: 0.8592 - val_loss: 0.4500 - val_accuracy: 0.8414
Epoch 11/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.4077 - accuracy: 0.8699 - val_loss: 0.4211 - val_accuracy: 0.8505
Epoch 12/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.3766 - accuracy: 0.8796 - val_loss: 0.3970 - val_accuracy: 0.8568
Epoch 13/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.3500 - accuracy: 0.8873 - val_loss: 0.3774 - val_accuracy: 0.8611
Epoch 14/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.3272 - accuracy: 0.8929 - val_loss: 0.3609 - val_accuracy: 0.8651
Epoch 15/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.3078 - accuracy: 0.8965 - val_loss: 0.3476 - val_accuracy: 0.8696
Epoch 16/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.2903 - accuracy: 0.9019 - val_loss: 0.3363 - val_accuracy: 0.8725
Epoch 17/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.2751 - accuracy: 0.9078 - val_loss: 0.3267 - val_accuracy: 0.8747
Epoch 18/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.2614 - accuracy: 0.9105 - val_loss: 0.3193 - val_accuracy: 0.8773
Epoch 19/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.2487 - accuracy: 0.9161 - val_loss: 0.3125 - val_accuracy: 0.8794
Epoch 20/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.2374 - accuracy: 0.9186 - val_loss: 0.3070 - val_accuracy: 0.8808
Epoch 21/40
15000/15000 [==============================] - 0s 27us/sample - loss: 0.2270 - accuracy: 0.9225 - val_loss: 0.3025 - val_accuracy: 0.8812
Epoch 22/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.2170 - accuracy: 0.9263 - val_loss: 0.2989 - val_accuracy: 0.8819
Epoch 23/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.2080 - accuracy: 0.9292 - val_loss: 0.2952 - val_accuracy: 0.8826
Epoch 24/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1996 - accuracy: 0.9324 - val_loss: 0.2927 - val_accuracy: 0.8834
Epoch 25/40
15000/15000 [==============================] - 0s 27us/sample - loss: 0.1921 - accuracy: 0.9359 - val_loss: 0.2909 - val_accuracy: 0.8843
Epoch 26/40
15000/15000 [==============================] - 0s 27us/sample - loss: 0.1847 - accuracy: 0.9391 - val_loss: 0.2888 - val_accuracy: 0.8837
Epoch 27/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1770 - accuracy: 0.9425 - val_loss: 0.2875 - val_accuracy: 0.8843
Epoch 28/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1703 - accuracy: 0.9469 - val_loss: 0.2873 - val_accuracy: 0.8838
Epoch 29/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1644 - accuracy: 0.9484 - val_loss: 0.2862 - val_accuracy: 0.8863
Epoch 30/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1588 - accuracy: 0.9494 - val_loss: 0.2861 - val_accuracy: 0.8860
Epoch 31/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1524 - accuracy: 0.9534 - val_loss: 0.2861 - val_accuracy: 0.8862
Epoch 32/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1469 - accuracy: 0.9557 - val_loss: 0.2869 - val_accuracy: 0.8860
Epoch 33/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1418 - accuracy: 0.9578 - val_loss: 0.2880 - val_accuracy: 0.8861
Epoch 34/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1370 - accuracy: 0.9593 - val_loss: 0.2890 - val_accuracy: 0.8856
Epoch 35/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.1323 - accuracy: 0.9605 - val_loss: 0.2891 - val_accuracy: 0.8862
Epoch 36/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.1271 - accuracy: 0.9634 - val_loss: 0.2907 - val_accuracy: 0.8858
Epoch 37/40
15000/15000 [==============================] - 0s 26us/sample - loss: 0.1229 - accuracy: 0.9651 - val_loss: 0.2929 - val_accuracy: 0.8861
Epoch 38/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.1189 - accuracy: 0.9656 - val_loss: 0.2941 - val_accuracy: 0.8864
Epoch 39/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.1149 - accuracy: 0.9672 - val_loss: 0.2970 - val_accuracy: 0.8850
Epoch 40/40
15000/15000 [==============================] - 0s 25us/sample - loss: 0.1105 - accuracy: 0.9694 - val_loss: 0.2979 - val_accuracy: 0.8839

モデルの評価

さて、モデルの性能を見てみましょう。2つの値が返されます。損失(エラーを示す数値であり、小さい方が良い)と正解率です。

results = model.evaluate(test_data,  test_labels, verbose=2)

print(results)
25000/1 - 2s - loss: 0.3143 - accuracy: 0.8735
[0.317243752784729, 0.87352]

この、かなり素朴なアプローチでも87%前後の正解率を達成しました。もっと高度なアプローチを使えば、モデルの正解率は95%に近づけることもできるでしょう。

正解率と損失の時系列グラフを描く

model.fit() は、訓練中に発生したすべてのことを記録した辞書を含むHistory オブジェクトを返します。

history_dict = history.history
history_dict.keys()
dict_keys(['loss', 'accuracy', 'val_loss', 'val_accuracy'])

4つのエントリがあります。それぞれが、訓練と検証の際にモニターしていた指標を示します。これを使って、訓練時と検証時の損失を比較するグラフと、訓練時と検証時の正解率を比較するグラフを作成することができます。

import matplotlib.pyplot as plt

acc = history_dict['accuracy']
val_acc = history_dict['val_accuracy']
loss = history_dict['loss']
val_loss = history_dict['val_loss']

epochs = range(1, len(acc) + 1)

# "bo" is for "blue dot"
plt.plot(epochs, loss, 'bo', label='Training loss')
# b is for "solid blue line"
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()

plt.show()
<Figure size 640x480 with 1 Axes>
plt.clf()   # 図のクリア

plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()

plt.show()

png

上記のグラフでは、点が訓練時の損失と正解率を、実線が検証時の損失と正解率を表しています。

訓練時の損失がエポックごとに減少し、訓練時の正解率がエポックごとに上昇していることに気がつくはずです。繰り返すごとに指定された数値指標を最小化する勾配降下法を最適化に使用している場合に期待される動きです。

これは、検証時の損失と正解率には当てはまりません。20エポックを過ぎたあたりから、横ばいになっているようです。これが、過学習の一例です。モデルの性能が、訓練用データでは高い一方で、見たことの無いデータではそれほど高くないというものです。このポイントをすぎると、モデルが最適化しすぎて、訓練用データでは特徴的であるが、テスト用データには一般化できない内部表現を学習しています。

このケースの場合、20エポックを過ぎたあたりで訓練をやめることで、過学習を防止することが出来ます。後ほど、コールバックを使って、これを自動化する方法を紹介します。

#@title MIT License
#
# Copyright (c) 2017 François Chollet
#
# Permission is hereby granted, free of charge, to any person obtaining a
# copy of this software and associated documentation files (the "Software"),
# to deal in the Software without restriction, including without limitation
# the rights to use, copy, modify, merge, publish, distribute, sublicense,
# and/or sell copies of the Software, and to permit persons to whom the
# Software is furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in
# all copies or substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
# IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
# FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
# THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
# LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
# FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
# DEALINGS IN THE SOFTWARE.