O TensorFlow é uma plataforma completa de código aberto para machine learning

Com o TensorFlow, iniciantes e usuários avançados podem criar modelos de machine learning com facilidade. Veja as seções abaixo para começar.

Ver tutoriais

Os tutoriais ensinam a usar o TensorFlow com exemplos completos.

Ver o guia

Os guias explicam os conceitos e os componentes do TensorFlow.

Para iniciantes

O melhor lugar para começar é a API Sequential, que é fácil de usar. É possível combinar elementos fundamentais para criar modelos. Execute o exemplo "Hello World" abaixo e acesse os tutoriais para saber mais.

Para aprender ML, confira a página de educação. Comece com os currículos selecionados para aprimorar suas habilidades nas áreas básicas de ML.

import tensorflow as tf
mnist = tf.keras.datasets.mnist

(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10, activation='softmax')
])

model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

model.fit(x_train, y_train, epochs=5)
model.evaluate(x_test, y_test)

Para usuários avançados

A API de subclassificação fornece uma interface definida pela execução para pesquisas avançadas. Crie uma classe para o modelo e então escreva a instrução de maneira imperativa. Crie camadas, ativações e loops de treinamento com facilidade. Execute o exemplo "Hello World" abaixo e veja os tutoriais para saber mais.

class MyModel(tf.keras.Model):
  def __init__(self):
    super(MyModel, self).__init__()
    self.conv1 = Conv2D(32, 3, activation='relu')
    self.flatten = Flatten()
    self.d1 = Dense(128, activation='relu')
    self.d2 = Dense(10, activation='softmax')

  def call(self, x):
    x = self.conv1(x)
    x = self.flatten(x)
    x = self.d1(x)
    return self.d2(x)
model = MyModel()

with tf.GradientTape() as tape:
  logits = model(images)
  loss_value = loss(logits, labels)
grads = tape.gradient(loss_value, model.trainable_variables)
optimizer.apply_gradients(zip(grads, model.trainable_variables))

Soluções de problemas recorrentes

Descubra tutoriais passo a passo que auxiliam nos seus projetos.

Para iniciantes
Sua primeira rede neural

Treine uma rede neural para classificar imagens de vestuário, como tênis e camisetas, nesta visão geral rápida de um programa completo no TensorFlow.

Para usuários avançados
Redes adversárias generativas

Use a API de subclassificação do Keras para treinar uma rede adversária generativa e criar imagens de numerais escritos à mão.

Para usuários avançados
Tradução automática neural com atenção

Treine um modelo sequencial para traduzir do espanhol para o inglês com a API de subclassificação do Keras.

Notícias e avisos

Confira nosso blog para ver mais atualizações. Inscreva-se na newsletter mensal do TensorFlow para receber os comunicados mais recentes diretamente na sua caixa de entrada.

14 de julho de 2020
Demonstração do LipSync do YouTube com o TensorFlow.js

Veja como está sua sincronização no lip sync do sucesso "Dance Monkey." Essa experiência no navegador usa o modelo Facemesh para estimar os pontos principais em volta dos lábios e medir a precisão do lip sync.

10 de julho de 2020  
TensorFlow 2 com a API Object Detection

Nossa base de código oferece integração total com a Keras, acesso a estratégias de distribuição e depuração facilitada com execução rápida, todas as utilidades esperadas da base de código do TensorFlow 2.

8 de julho de 2020  
O TensorFlow 2.3 chegou!

O TensorFlow 2.3 demonstra novas funcionalidades em ‘tf.data’ para resolver gargalos do pipeline de entrada e economizar recursos, a Preprocessing Layers experimental da Keras para pré-processamento de dados e novas ferramentas TF Profiler.

26 de junho de 2020
Saiba como ajustar um modelo BERT pré-treinado

Este novo tutorial mostra uma implementação pronta para uso de aprendizado de texto por transferência usando BERT, projetado para permitir que seja modificado ou treinado novamente do zero.