Agenda 2020
9:00 MORGENS | Livestream beginnt | |
9:30 UHR | Keynote | Megan Kacholia Kemal El Moujahid Manasi Joshi |
9:55 Uhr | Lesen lernen mit TensorFlow und Keras Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) hat einen Wendepunkt erreicht. Dieser Vortrag zeigt Ihnen, wie TensorFlow und Keras das Vorverarbeiten, Trainieren und Hypertuning von Textmodellen vereinfachen. | Paige Bailey |
10:15 Uhr | TensorFlow Hub: Einfache Modellerkennung TF Hub ist das Haupt-Repository für ML-Modelle. Dieser Vortrag befasst sich mit allen neuen Funktionen und wie sie Ihre Modellentdeckungsreise noch besser machen können. | Sandeep Gupta |
10:25 Uhr | Kollaborative ML mit TensorBoard.dev Das Teilen von Versuchsergebnissen ist ein wichtiger Teil des ML-Prozesses. Dieser Vortrag zeigt, wie TensorBoard.dev die kollaborative ML ermöglichen kann, indem es einfach ist, Versuchsergebnisse in Ihrem Artikel, Blog-Beitrag, in sozialen Medien und mehr zu teilen. | Gal Oshri |
10:30 Uhr | Übergang von Kagglers zu TPU mit TF 2.x. Vor kurzem hat Kaggle die TPU-Unterstützung über seine Wettbewerbsplattform eingeführt. In diesem Vortrag wird angesprochen, wie Kaggler-Konkurrenten von der GPU zur TPU-Nutzung übergingen, zuerst in Colab und dann in Kaggle-Notebooks. | Julia Elliott |
10:35 Uhr | Leistungsprofilierung in TF 2 In diesem Vortrag wird ein Profiler vorgestellt, mit dem Google die TF-Leistung auf Plattformen wie GPU, TPU und CPU intern untersucht. | Qiumin Xu | 10:45 Uhr | Möglicher Q & A-Block Bitte nutzen Sie die LiveChat-Funktion im Livestream, da die Mitglieder des TensorFlow-Teams in Echtzeit im Chat antworten. Sollten wir zusätzliche Zeit im Livestream haben, werden wir einige Fragen live beantworten. | Alle Sprecher bisher |
10:55 Uhr | Unterbrechung | |
11:20 Uhr | Forschung mit TensorFlow In diesem Vortrag gehen wir auf einige interessante Funktionen von TF ein, die bei der Recherche nützlich sind. | Alexandre Passos |
11:35 Uhr | Differenzierbare konvexe Optimierungsschichten Konvexe Optimierungsprobleme werden verwendet, um viele Probleme in der realen Welt zu lösen. Bisher war es schwierig, sie in TensorFlow-Pipelines zu verwenden. In diesem Vortrag werden cvxpylayers vorgestellt, ein Paket, mit dem konvexe Optimierungsprobleme einfach in TensorFlow eingebettet werden können, sodass Sie sie mithilfe des Gradientenabfalls optimieren können. | Akshay Agrawal, Stanford University |
11:40 Uhr | Skalieren der Tensorflow-Datenverarbeitung mit tf.data Mit zunehmender Verbreitung des Modelltrainings hat sich tf.data zu einem verteilungsbewussteren und leistungsfähigeren Unternehmen entwickelt. In diesem Vortrag werden tf.data-Tools zur Skalierung der TensorFlow-Datenverarbeitung vorgestellt. Insbesondere: tf.data-Dienst, mit dem Ihre tf.data-Pipeline auf einem Cluster von Computern ausgeführt werden kann, und tf.data.snapshot, der die Ergebnisse auf der Festplatte für die Wiederverwendung über mehrere Aufrufe hinweg materialisiert. | Rohan Jain |
11:55 Uhr | Skalieren von TensorFlow 2-Modellen auf Multi-Worker-GPUs In diesem Vortrag werden mehrere Leistungsverbesserungen in TensorFlow 2.2 vorgestellt, um die ML-Schulungsarbeitslast der Benutzer auf Multi-Worker-Multi-GPUs zu beschleunigen und zu skalieren. Wir gehen die Optimierungen mithilfe einer BERT-Feinabstimmungsaufgabe im TF-Modellgarten durch, die mithilfe einer benutzerdefinierten Trainingsschleife geschrieben wurde. | Zongwei Zhou |
12:10 Uhr | Colab optimal nutzen Erfahren Sie Tipps und Tricks vom Colab-Team. In diesem Vortrag wird beschrieben, wie TensorFlow-Benutzer Colab optimal nutzen und einen Blick hinter die Kulissen werfen, um zu sehen, wie Colab funktioniert. | Timothy Novikoff |
12:15 Uhr | TensorFlow und maschinelles Lernen aus den Gräben: Das Innovation Experience Center im Jet Propulsion Laboratory Chris Mattmann erklärt, wie das JPL Innovation Experience Center im Büro des Chief Information Officer fortschrittliche Analysen, KI und maschinelles Lernen mit TensorFlow für intelligentere Rover, einen intelligenteren Campus und darüber hinaus unterstützt! | Chris Mattmann, NASA |
12:25 Uhr | Möglicher Q & A-Block Bitte nutzen Sie die LiveChat-Funktion im Livestream, da die Mitglieder des TensorFlow-Teams in Echtzeit im Chat antworten. Sollten wir zusätzliche Zeit im Livestream haben, werden wir einige Fragen live beantworten. | Referenten ab der Pause |
12:35 Uhr | Unterbrechung | |
13:40 Uhr | MLIR: Beschleunigung von TF mit Compilern In diesem Vortrag wird die MLIR - Compiler-Infrastruktur für maschinelles Lernen für TensorFlow beschrieben und erläutert, wie TensorFlow schneller skaliert werden kann, um den Anforderungen sich schnell entwickelnder Software und Hardware für maschinelles Lernen gerecht zu werden. | Jacques Pienaar |
13:50 Uhr | TFRT: Eine neue TensorFlow-Laufzeit TFRT ist eine neue Laufzeit für TensorFlow. Durch die Nutzung von MLIR soll eine einheitliche, erweiterbare Infrastrukturschicht mit erstklassiger Leistung für eine Vielzahl domänenspezifischer Hardware bereitgestellt werden. Dieser Ansatz bietet eine effiziente Nutzung der Multithread-Host-CPUs, unterstützt vollständig asynchrone Programmiermodelle und konzentriert sich auf eine niedrige Effizienz. | Mingsheng Hong |
14.00 Uhr | TFX: Produktion ML mit TensorFlow im Jahr 2020 Erfahren Sie, wie sich die ML-Plattform für die Google-Produktion, TFX, im Jahr 2020 verändert. | Tris Warkentin Zhitao Li |
14:25 Uhr | TensorFlow Enterprise: Produktion von TensorFlow mit Google Cloud TensorFlow Enterprise macht Ihre TensorFlow-Anwendungen für Unternehmen bereit und bietet eine Reihe von Verbesserungen an TensorFlow in Google Cloud. Es entsperrt Daten und Modelle im Cloud-Maßstab und vereinfacht die Entwicklung geschäftskritischer ML-Anwendungen vom Prototyp bis zur Produktion. Gemeinsam lösen wir den schwierigsten Teil von Enterprise ML in der Produktion. | Makoto Uchida |
14:35 Uhr | TensorFlow Lite: ML für mobile und IoT-Geräte Erfahren Sie, wie Sie ML auf Mobiltelefonen und eingebetteten Geräten bereitstellen. Jetzt auf Milliarden von Geräten in der Produktion bereitgestellt - es ist das weltweit beste plattformübergreifende ML-Framework für Mobilgeräte und Mikrocontroller. Freuen Sie sich auf unsere neuen aufregenden Ankündigungen. | Tim Davis TJ Alumbaugh |
14:55 Uhr | Jacquard: ML nahtlos in Alltagsgegenstände einbetten Jacquard ist eine ML-basierte Ambient-Computing-Plattform, die gewöhnliche, vertraute Objekte aufnimmt und sie mit neuen digitalen Fähigkeiten und Erfahrungen erweitert, während sie ihrem ursprünglichen Zweck treu bleibt. Wir werden beschreiben, wie wir ressourcenbeschränkte Modelle für maschinelles Lernen trainiert und eingesetzt haben, die sich nahtlos in alltägliche Kleidungsstücke und Accessoires einfügen. wie Ihre Lieblingsjacke, Ihren Lieblingsrucksack oder ein Paar Schuhe, die Sie gerne tragen. | Nicholas Gillian |
15:05 Uhr | TensorFlow.js: Maschinelles Lernen für das Web und darüber hinaus TensorFlow.js ist eine Plattform zum Trainieren und Bereitstellen von Modellen für maschinelles Lernen in Browsern oder überall dort, wo Javascript ausgeführt werden kann, z. B. auf Mobilgeräten, der WeChat Mini-App-Plattform und Raspberry Pi. Es bietet mehrere Back-Ends, darunter ein CPU-, GPU-, Node- und WASM-Backend. Es bietet auch eine Sammlung vorgefertigter Modelle, einschließlich der beiden neuesten Ergänzungen: MobileBERT und FaceMesh. | Na Li |
15:15 Uhr | Möglicher Q & A-Block Bitte nutzen Sie die LiveChat-Funktion im Livestream, da die Mitglieder des TensorFlow-Teams in Echtzeit im Chat antworten. Sollten wir zusätzliche Zeit im Livestream haben, werden wir einige Fragen live beantworten. | Referenten ab der Pause |
15:25 Uhr | Unterbrechung | |
15:45 Uhr | Beteiligung an der TF-Community Erfahren Sie, wie Sie Teil des wachsenden TensorFlow-Ökosystems werden und durch Code, Dokumentation, Schulung oder Community-Führung einen Beitrag leisten können. | Joana Carraqueira |
15:55 Uhr | Verantwortungsvolle KI mit TensorFlow: Fairness und Datenschutz Einführung eines Rahmens zum Nachdenken über ML, Fairness und Datenschutz. In diesem Vortrag wird ein fairheitsbewusster ML-Workflow vorgeschlagen, veranschaulicht, wie TensorFlow-Tools wie Fairness Indicators verwendet werden können, um Verzerrungen zu erkennen und zu mindern, und anschließend wird eine spezifische Fallstudie zum Datenschutz erstellt, die die Teilnehmer durch einige Infrastrukturelemente führt Dies kann dazu beitragen, ein Modell auf datenschutzrechtliche Weise zu trainieren. | Catherina Xu Miguel Guevara |
16:20 Uhr | TensorFlow Quantum: Eine Softwareplattform für hybrides quantenklassisches maschinelles Lernen Wir stellen TensorFlow Quantum vor, eine Open-Source-Bibliothek für das Rapid Prototyping neuartiger quantenklassischer Hybrid-ML-Algorithmen. Diese Bibliothek wird den Umfang der aktuellen ML unter TensorFlow erweitern und bietet die notwendige Toolbox, um Forschungsgemeinschaften für Quantencomputer und maschinelles Lernen zusammenzubringen, um Quantendaten zu steuern und zu modellieren. | Masoud Mohseni |
16:45 Uhr | Ankündigungen schließen |