מחלקה סופית ציבורית ResourceSparseApplyAdagradV2
עדכן את הערכים הרלוונטיים ב-'*var' ו-'*accum' בהתאם לתכנית adgrad.
כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ו-acum באופן הבא: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
כיתות מקוננות
| מעמד | ResourceSparseApplyAdagradV2.Options |  תכונות אופציונליות עבור ResourceSparseApplyAdagradV2  | |
קבועים
| חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow | 
שיטות ציבוריות
| static <T מרחיב את TType > ResourceSparseApplyAdagradV2 | |
| static ResourceSparseApplyAdagradV2.Options |  updateSlots (בוליאני updateSlots)  | 
| static ResourceSparseApplyAdagradV2.Options |  useLocking (useLocking בוליאני)   | 
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
 ערך קבוע: "ResourceSparseApplyAdagradV2" 
שיטות ציבוריות
public static ResourceSparseApplyAdagradV2 create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? מרחיב את המדדים של TNummer , Options... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagradV2 חדשה.
פרמטרים
| תְחוּם | ההיקף הנוכחי | 
|---|---|
| var | צריך להיות ממשתנה(). | 
| לצבור | צריך להיות ממשתנה(). | 
| lr | קצב למידה. חייב להיות סקלר. | 
| אפסילון | גורם קבוע. חייב להיות סקלר. | 
| גראד | השיפוע. | 
| מדדים | וקטור של מדדים למימד הראשון של var ו-acum. | 
| אפשרויות | נושא ערכי תכונות אופציונליות | 
החזרות
- מופע חדש של ResourceSparseApplyAdagradV2
 
public static ResourceSparseApplyAdagradV2.Options useLocking (שימוש בוליאני)
פרמטרים
| השתמש בנעילה | אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. | 
|---|