ดูประเด็นสำคัญเซสชันผลิตภัณฑ์เวิร์กช็อปและอื่น ๆ จาก Google I / O ดูเพลย์ลิสต์

TensorFlow Hub เป็นที่เก็บข้อมูลแบบจำลองที่ผ่านการฝึกอบรมมาแล้วอย่างครอบคลุมพร้อมสำหรับการปรับแต่งและปรับใช้ได้ทุกที่ ดาวน์โหลดโมเดลที่ผ่านการฝึกอบรมล่าสุดโดยใช้โค้ดเพียงเล็กน้อยด้วยไลบรารี tensorflow_hub

บทช่วยสอนต่อไปนี้จะช่วยคุณในการเริ่มต้นใช้งานและใช้โมเดลจาก TF Hub ตามความต้องการของคุณ บทเรียนแบบโต้ตอบช่วยให้คุณแก้ไขและดำเนินการกับการเปลี่ยนแปลงของคุณได้ คลิกปุ่ม เรียกใช้ใน Google Colab ที่ด้านบนของบทช่วยสอนแบบโต้ตอบเพื่อคนจรจัดด้วย

หากคุณไม่คุ้นเคยกับแมชชีนเลิร์นนิงและ TensorFlow คุณสามารถเริ่มต้นด้วยการดูภาพรวมของวิธีการจัดประเภทรูปภาพและข้อความการตรวจจับวัตถุในรูปภาพหรือโดยการปรับสไตล์รูปภาพของคุณเองเช่นอาร์ตเวิร์คชื่อดัง

สร้างแบบจำลอง Keras ที่ด้านบนของลักษณนามภาพที่ผ่านการฝึกอบรมมาแล้วเพื่อแยกแยะดอกไม้
ใช้ BERT เพื่อสร้างแบบจำลอง Keras เพื่อแก้ปัญหาการวิเคราะห์ความคิดเห็นในการจำแนกประเภทข้อความ
ให้โครงข่ายประสาทเทียมวาดภาพใหม่ในสไตล์ Picasso, van Gogh หรือเช่นเดียวกับภาพสไตล์ของคุณเอง
ตรวจจับวัตถุในภาพโดยใช้โมเดลเช่น FasterRCNN หรือ SSD

ดูบทแนะนำขั้นสูงเพิ่มเติมเกี่ยวกับวิธีใช้โมเดล NLP รูปภาพเสียงและวิดีโอจาก TensorFlow Hub

แก้ไขงาน NLP ทั่วไปด้วยโมเดลจาก TensorFlow Hub ดูบทช่วยสอน NLP ที่มีอยู่ทั้งหมดในการนำทางด้านซ้าย

จำแนกและเปรียบเทียบความหมายประโยคด้วย Universal Sentence Encoder
ใช้ BERT เพื่อแก้งานเกณฑ์มาตรฐานของ GLUE ที่ทำงานบน TPU
ตอบคำถามข้ามภาษาจากชุดข้อมูล SQuAD โดยใช้แบบจำลองถาม & ตอบตัวเข้ารหัสประโยคสากลหลายภาษา

สำรวจวิธีใช้ GAN โมเดลความละเอียดสูงและอื่น ๆ ดูบทแนะนำเกี่ยวกับรูปภาพที่มีอยู่ทั้งหมดในการนำทางด้านซ้าย

สร้างใบหน้าเทียมและสอดแทรกระหว่างใบหน้าเหล่านั้นโดยใช้ GAN
ปรับปรุงความละเอียดของภาพที่ลดขนาด
เติมส่วนที่มาสก์ของรูปภาพที่กำหนด

สำรวจบทช่วยสอนโดยใช้แบบจำลองที่ได้รับการฝึกฝนสำหรับข้อมูลเสียงรวมถึงการจดจำระดับเสียงและการจำแนกเสียง

บันทึกการร้องเพลงของตัวเองและตรวจจับระดับเสียงของคุณโดยใช้โมเดล SPICE
ใช้โมเดล YAMNet เพื่อจัดประเภทเสียงเป็นคลาสเหตุการณ์เสียง 521 คลาสจากคลังข้อมูล AudioSet-YouTube

ลองใช้โมเดล ML ที่ผ่านการฝึกอบรมสำหรับข้อมูลวิดีโอสำหรับการจดจำการดำเนินการการแก้ไขวิดีโอและอื่น ๆ

ตรวจจับหนึ่งใน 400 การกระทำในวิดีโอโดยใช้โมเดล 3D ConvNet ที่สูงเกินจริง
สอดแทรกระหว่างเฟรมวิดีโอโดยใช้ Inbetweening กับ 3D Convolutions
ค้นหาวิดีโอที่เกี่ยวข้องกับข้อความค้นหามากที่สุด