ערכי עדכון דלילים ב-'*var' ו-'*accum' לפי אלגוריתם FOBOS.
כלומר, עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ומצטברים באופן הבא: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
כיתות מקוננות
| מַחלָקָה | SparseApplyProximalAdagrad.אפשרויות |  תכונות אופציונליות עבור SparseApplyProximalAdagrad  | |
קבועים
| חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow | 
שיטות ציבוריות
| פלט <T> |  asOutput ()  מחזירה את הידית הסמלית של הטנזור.  | 
| סטטי <T מרחיב TType > SparseApplyProximalAdagrad <T> | |
| פלט <T> |  החוצה ()  זהה ל-"var".  | 
| סטטי SparseApplyProximalAdagrad.Options |  useLocking (useLocking בוליאני)   | 
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static SparseApplyProximalAdagrad <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? מרחיב את TNummer > מדדים, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyProximalAdagrad חדשה.
פרמטרים
| תְחוּם | ההיקף הנוכחי | 
|---|---|
| var | צריך להיות ממשתנה(). | 
| לצבור | צריך להיות ממשתנה(). | 
| lr | קצב למידה. חייב להיות סקלר. | 
| l1 | הסדרת L1. חייב להיות סקלר. | 
| l2 | הסדרת L2. חייב להיות סקלר. | 
| גראד | השיפוע. | 
| מדדים | וקטור של מדדים למימד הראשון של var ו-acum. | 
| אפשרויות | נושא ערכי תכונות אופציונליות | 
מחזיר
- מופע חדש של SparseApplyProximalAdagrad
 
public static SparseApplyProximalAdagrad.Options useLocking (שימוש בוליאניLocking)
פרמטרים
| השתמש בנעילה | אם נכון, עדכון של טנסור ה-var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. | 
|---|