TensorFlow Hub ist ein umfassendes Repository mit vorgefertigten Modellen, die zur Feinabstimmung bereit und überall einsetzbar sind. Laden Sie mit der Bibliothek tensorflow_hub die neuesten trainierten Modelle mit minimalem Code tensorflow_hub .

Die folgenden Tutorials sollen Ihnen dabei helfen, Modelle von TF Hub für Ihre Anforderungen zu verwenden und anzuwenden. Mit interaktiven Tutorials können Sie sie ändern und mit Ihren Änderungen ausführen. Klicken Sie oben in einem interaktiven Tutorial auf die Schaltfläche In Google Colab ausführen, um daran zu basteln.

Wenn Sie mit maschinellem Lernen und TensorFlow nicht vertraut sind, können Sie zunächst einen Überblick über die Klassifizierung von Bildern und Text erhalten, Objekte in Bildern erkennen oder Ihre eigenen Bilder wie berühmte Kunstwerke stilisieren:

Erstellen Sie ein Keras-Modell auf einem vorab trainierten Bildklassifizierer, um Blumen zu unterscheiden.
Verwenden Sie BERT, um ein Keras-Modell zu erstellen und eine Aufgabe zur Analyse der Stimmungsanalyse zur Textklassifizierung zu lösen.
Lassen Sie ein neuronales Netzwerk ein Bild im Stil von Picasso, van Gogh oder wie Ihr eigenes Stilbild neu zeichnen.
Erkennen Sie Objekte in Bildern mithilfe von Modellen wie FasterRCNN oder SSD.

In den erweiterten Tutorials erfahren Sie, wie Sie NLP-, Bild-, Audio- und Videomodelle von TensorFlow Hub verwenden.

Lösen Sie allgemeine NLP-Aufgaben mit Modellen von TensorFlow Hub. Alle verfügbaren NLP-Tutorials im linken Navigationsbereich anzeigen.

Klassifizieren und vergleichen Sie Sätze semantisch mit dem Universal Satzcodierer.
Verwenden Sie BERT, um GLUE-Benchmark-Aufgaben zu lösen, die auf TPU ausgeführt werden.
Beantworten Sie mehrsprachige Fragen aus dem SQuAD-Datensatz mithilfe des mehrsprachigen Q & A-Modells für universelle Satzcodierer.

Erfahren Sie, wie Sie GANs, Modelle mit hoher Auflösung und mehr verwenden. Alle verfügbaren Bild-Tutorials im linken Navigationsbereich anzeigen.

Generieren Sie künstliche Gesichter und interpolieren Sie mithilfe von GANs zwischen ihnen.
Verbessern Sie die Auflösung von heruntergesampelten Bildern.
Füllen Sie den maskierten Teil der angegebenen Bilder.

Entdecken Sie Tutorials mit trainierten Modellen für Audiodaten, einschließlich Tonhöhenerkennung und Klangklassifizierung.

Nehmen Sie das Singen auf und erkennen Sie die Tonhöhe Ihrer Stimme mit dem SPICE-Modell.
Verwenden Sie das YAMNet-Modell, um Sounds aus dem AudioSet-YouTube-Korpus als 521 Audioereignisklassen zu klassifizieren.

Probieren Sie trainierte ML-Modelle für Videodaten zur Aktionserkennung, Videointerpolation und mehr aus.

Erkennen Sie eine von 400 Aktionen in einem Video mithilfe des Inflated 3D ConvNet-Modells.
Interpolieren Sie zwischen Videobildern mithilfe von Inbetweening mit 3D-Konvolutionen.
Suchen Sie nach Videos, die am meisten mit einer Textabfrage zu tun haben.