コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。

機械学習におけるプライバシー

責任あるAIの使用の重要な側面は、MLモデルが、人口統計情報や、人を識別するために使用できるトレーニングデータセット内の他の属性などの潜在的に機密性の高い情報を公開しないようにすることです。これを実現する1つの方法は、機械学習の標準確率的勾配降下(SGD)アルゴリズムの修正である、微分プライベート確率的勾配降下(DP-SGD)を使用することです。

DP-SGDでトレーニングされたモデルには、測定可能な差分プライバシー(DP)の改善があり、機密性の高いトレーニングデータを公開するリスクを軽減するのに役立ちます。 DPの目的は、個々のデータポイントが識別されないようにすることであるため、DPでトレーニングされたモデルは、トレーニングデータセット内の単一のトレーニング例の影響を受けないようにする必要があります。 DP-SGD手法は、連合学習で使用して、ユーザーレベルの差分プライバシーを提供することもできます。元の論文で、差分プライベートディープラーニングについて詳しく知ることができます。

import tensorflow as tf
from tensorflow_privacy.privacy.optimizers import dp_optimizer_keras

# Select your differentially private optimizer
optimizer = tensorflow_privacy.DPKerasSGDOptimizer(
    l2_norm_clip=l2_norm_clip,
    noise_multiplier=noise_multiplier,
    num_microbatches=num_microbatches,
    learning_rate=learning_rate)

# Select your loss function
loss = tf.keras.losses.CategoricalCrossentropy(
    from_logits=True, reduction=tf.losses.Reduction.NONE)

# Compile your model
model.compile(optimizer=optimizer, loss=loss, metrics=['accuracy'])

# Fit your model
model.fit(train_data, train_labels,
  epochs=epochs,
  validation_data=(test_data, test_labels),
  batch_size=batch_size)
  

TensorFlowプライバシー

Tensorflowプライバシー(TFプライバシー)は、GoogleResearchのチームによって開発されたオープンソースライブラリです。ライブラリには、DPを使用してMLモデルをトレーニングするために一般的に使用されるTensorFlowオプティマイザーの実装が含まれています。目標は、標準のTensorflow APIを使用するML実践者が、数行のコードを変更するだけでプライバシー保護モデルをトレーニングできるようにすることです。

差分プライベートオプティマイザーは、オプティマイザークラスを使用する高レベルAPI、特にKerasと組み合わせて使用​​できます。さらに、いくつかのKerasモデルの差分プライベート実装を見つけることができます。すべてのオプティマイザーとモデルは、 APIドキュメントにあります。