TensorFlow est une plate-forme Open Source de bout en bout dédiée au machine learning.

Avec TensorFlow, il est plus facile aux débutants comme aux experts de créer des modèles de machine learning. Consultez les sections ci-dessous pour vous lancer.

Accéder aux tutoriels

Des tutoriels vous montrent comment utiliser TensorFlow avec des exemples complets de bout en bout.

Afficher le guide

Des guides expliquent les concepts et les composants de TensorFlow.

Pour les débutants

Nous vous conseillons de commencer par un outil facile à utiliser : l'API Sequential. Vous pouvez créer des modèles en connectant différents composants. Exécutez l'exemple "Hello World" suivant, puis accédez aux tutoriels pour en savoir plus.

Pour découvrir le ML, consultez notre page "Apprentissage". Commencez par notre sélection de programmes afin de mieux maîtriser les grands domaines liés au ML.

import tensorflow as tf
mnist = tf.keras.datasets.mnist

(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10, activation='softmax')
])

model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

model.fit(x_train, y_train, epochs=5)
model.evaluate(x_test, y_test)

Pour les experts

Cette API de sous-classification permet de bénéficier d'une interface redéfinie en fonction de chaque exécution pour la recherche de pointe. Créez une classe pour votre modèle, puis codez la propagation avant sous forme impérative. Créez facilement des couches, des activations et de boucles d'entraînement adaptées à vos besoins. Exécutez l'exemple "Hello World" suivant, puis accédez aux tutoriels pour en savoir plus.

class MyModel(tf.keras.Model):
  def __init__(self):
    super(MyModel, self).__init__()
    self.conv1 = Conv2D(32, 3, activation='relu')
    self.flatten = Flatten()
    self.d1 = Dense(128, activation='relu')
    self.d2 = Dense(10, activation='softmax')

  def call(self, x):
    x = self.conv1(x)
    x = self.flatten(x)
    x = self.d1(x)
    return self.d2(x)
model = MyModel()

with tf.GradientTape() as tape:
  logits = model(images)
  loss_value = loss(logits, labels)
grads = tape.gradient(loss_value, model.trainable_variables)
optimizer.apply_gradients(zip(grads, model.trainable_variables))

Solutions aux problèmes fréquents

Découvrez des tutoriels détaillés conçus pour vous aider à avancer sur vos projets.

Pour les débutants
Votre premier réseau de neurones

Entraînez un réseau neuronal à classifier des images de vêtements (chaussures de sport et t-shirts, par exemple), dans cet aperçu rapide d'un programme TensorFlow complet.

Pour les experts
Réseaux antagonistes génératifs

Former un réseau antagoniste génératif afin de créer des images de chiffres manuscrits à l'aide de l'API de sous-classification de Keras.

Pour les experts
Traduction automatique neuronale avec mécanisme d'attention

Entraînez un modèle séquence-séquence pour la traduction de l'espagnol vers l'anglais à l'aide de l'API de sous-classification de Keras.

Actualités et annonces

Consultez notre blogblog pour en savoir plus, et abonnez-vous à notre newsletter TensorFlow mensuelle pour recevoir directement les dernières annonces.

14 juillet 2020
Démonstration de LipSync by YouTube avec TensorFlow.js

Réveillez l'artiste qui sommeille en vous et chantez en playback sur le hit planétaire "Dance Monkey". Le modèle Facemesh est utilisé directement dans le navigateur pour estimer les points clés autour des lèvres afin d'obtenir un score de précision pour la synchronisation labiale.

10 juillet 2020  
Quand TensorFlow 2 rencontre l'API Object Detection

Notre codebase offre une intégration étroite avec Keras, un accès aux stratégies de distribution et un débogage facile avec exécution eager : c'est-à-dire tout ce que l'on est en droit d'attendre d'un codebase TensorFlow 2.

8 juillet 2020  
TensorFlow 2.3 est là !

TensorFlow 2.3 s'accompagne de nouvelles fonctionnalités dans ‘tf.data’ afin de résoudre les problèmes de goulot d'étranglement du pipeline d'entrée et d'économiser des ressources, de couches Preprocessing Layers Keras expérimentales pour le prétraitement des données, et de nouveaux outils TF Profiler.

26 juin 2020
Découvrez comment optimiser un modèle BERT pré-entraîné

Ce nouveau tutoriel présente une implémentation prête à l'emploi d'un modèle d'apprentissage par transfert de texte à l'aide de BERT. Il est conçu pour que vous puissiez le modifier ou le réentraîner en partant de zéro.