מסגרת הלמידה המובנית העצבית

למידה מובנית עצבית (NSL) מתמקדת באימון רשתות עצביות עמוקות על ידי מינוף אותות מובנים (כאשר זמינים) יחד עם כניסות תכונות. כפי שהציגו Bui et al. (WSDM'18) , האותות המובנים הללו משמשים להסדרת האימון של רשת עצבית, מה שמאלץ את המודל ללמוד תחזיות מדויקות (על ידי מזעור אובדן מפוקח), ובו בזמן לשמור על הדמיון המבני של הקלט (על ידי מזעור אובדן השכן) , ראה את האיור למטה). טכניקה זו היא גנרית וניתנת ליישום על ארכיטקטורות עצביות שרירותיות (כגון Feed-Forward NNs, Convolutional NNs ו-Ns Recurrent).

קונספט NSL

שימו לב שמשוואת אובדן השכנים המוכללת היא גמישה ויכולה להיות בעלת צורות אחרות מלבד זו שהוצגה למעלה. לדוגמה, אנו יכולים גם לבחור\(\sum_{x_j \in \mathcal{N}(x_i)}\mathcal{E}(y_i,g_\theta(x_j))\) להיות האובדן שכן, אשר מחשב את המרחק בין האמת \(y_i\)לבין החיזוי מהשכן \(g_\theta(x_j)\). זה משמש בדרך כלל בלמידה יריבות (Goodfellow et al., ICLR'15) . לכן, NSL מכליל ללמידת גרף עצבי אם שכנים מיוצגים במפורש על ידי גרף, וללמידה אדוורסרית אם שכנים נגרמים באופן מרומז על ידי הפרעה אדוורסרית.

זרימת העבודה הכוללת עבור למידה מובנית עצבית מומחשת להלן. חיצים שחורים מייצגים את זרימת העבודה הרגילה של האימון וחצים אדומים מייצגים את זרימת העבודה החדשה כפי שהוצג על ידי NSL כדי למנף אותות מובנים. ראשית, דגימות האימון מוגדלות כדי לכלול אותות מובנים. כאשר אותות מובנים אינם מסופקים במפורש, הם יכולים להיבנות או להיגרם (האחרון חל על למידה אדוורסרית). לאחר מכן, דגימות האימון המוגברות (כולל הן דגימות מקוריות והן שכנותיהן) מוזנות לרשת העצבית לצורך חישוב ההטבעות שלהן. המרחק בין הטבעה של מדגם להטבעה של שכנתו מחושב ומשמש כהפסד השכן, אשר מטופל כמונח הסדרה ומתווסף להפסד הסופי. להסדרה מפורשת מבוססת שכן, אנו בדרך כלל מחשבים את הפסד השכן כמרחק בין הטבעה של המדגם להטבעה של השכן. עם זאת, ניתן להשתמש בכל שכבה של הרשת העצבית כדי לחשב את אובדן השכן. מצד שני, עבור רגוליזציה מושרית מבוססת שכן (אדברסרית), אנו מחשבים את אובדן השכן כמרחק בין חיזוי התפוקה של השכן היריב המושרה לבין תווית האמת הקרקעית.

זרימת עבודה של NSL

למה להשתמש ב-NSL?

NSL מביאה את היתרונות הבאים:

  • דיוק גבוה יותר : האות/ים המובנים בין הדגימות יכולים לספק מידע שלא תמיד זמין בכניסות תכונה; לפיכך, הוכח כי גישת האימון המשותף (עם אותות ותכונות מובנים כאחד) מתגברת על שיטות קיימות רבות (המסתמכות על אימון עם תכונות בלבד) במגוון רחב של משימות, כגון סיווג מסמכים וסיווג כוונות סמנטי ( Bui et al . ., WSDM'18 & Kipf et al., ICLR'17 ).
  • עמידה : מודלים שהוכשרו עם דוגמאות יריבות הוכחו כעמידים בפני הפרעות יריבות שנועדו להטעות חיזוי או סיווג של מודל ( Goodfellow et al., ICLR'15 & Miyato et al., ICLR'16 ). כאשר מספר דגימות האימון קטן, אימון עם דוגמאות יריבות גם עוזר לשפר את דיוק המודל ( Tsipras et al., ICLR'19 ).
  • נדרשים פחות נתונים מתויגים : NSL מאפשר לרשתות עצביות לרתום נתונים מסומנים וגם נתונים שאינם מתויגים, מה שמרחיב את פרדיגמת הלמידה ללמידה מפוקחת למחצה . באופן ספציפי, NSL מאפשר לרשת להתאמן באמצעות נתונים מתויגים כמו בהגדרה המפוקחת, ובמקביל דוחף את הרשת ללמוד ייצוגים נסתרים דומים עבור "הדגימות השכנות" שעשויות להיות להן תוויות או לא. טכניקה זו הראתה הבטחה גדולה לשיפור דיוק המודל כאשר כמות הנתונים המסומנים קטנה יחסית ( Bui et al., WSDM'18 & Miyato et al., ICLR'16 ).

הדרכות שלב אחר שלב

כדי לקבל ניסיון מעשי עם למידה מובנית עצבית, יש לנו הדרכות המכסות תרחישים שונים שבהם אותות מובנים עשויים להינתן במפורש, לבנות או להשרות. הנה כמה:

דוגמאות ומדריכים נוספים ניתן למצוא בספריית הדוגמאות של מאגר GitHub שלנו.