ResourceApplyAdagradDa

کلاس نهایی عمومی ResourceApplyAdagradDa

"*var" را طبق طرح آداگراد پروگزیمال به روز کنید.

کلاس های تو در تو

کلاس ResourceApplyAdagradDa.Options ویژگی های اختیاری برای ResourceApplyAdagradDa

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

static <T TType > ResourceApplyAdagradDa را گسترش می دهد
ایجاد ( دامنه دامنه ، عملوند <?> var، عملوند <?> gradientAccumulator، عملوند <?> gradientSquaredAccumulator، عملوند <T> grad، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، عملوند < TInt64 > گزینه های globalStep، Options... )
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyAdagradDa جدید را بسته بندی می کند.
استاتیک ResourceApplyAdagradDa.Options
useLocking (قفل کردن استفاده بولی)

روش های ارثی

org.tensorflow.op.RawOp
بولی نهایی
برابر است (object obj)
بین المللی نهایی
عمل
عملیات ()
این واحد محاسبه را به عنوان یک Operation واحد برگردانید.
رشته نهایی
بولی
برابر است (شیء arg0)
کلاس نهایی<?>
getClass ()
بین المللی
هش کد ()
باطل نهایی
اعلام کردن ()
باطل نهایی
اطلاع رسانی به همه ()
رشته
toString ()
باطل نهایی
صبر کنید (long arg0، int arg1)
باطل نهایی
صبر کنید (طولانی arg0)
باطل نهایی
صبر کن ()
org.tensorflow.op.Op
چکیده Execution Environment
env ()
محیط اجرایی را که این عملیات در آن ایجاد شده است برگردانید.
عملیات انتزاعی
عملیات ()
این واحد محاسبه را به عنوان یک Operation واحد برگردانید.

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "ResourceApplyAdagradDA"

روش های عمومی

عمومی استاتیک ResourceApplyAdagradDa ایجاد ( دامنه دامنه ، عملوند <?> var، عملوند <?> gradientAccumulator، عملوند <?> gradientSquaredAccumulator، عملوند <T> grad، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، Operand < TINT64 > globalStep، Options... option)

روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyAdagradDa جدید را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
var باید از یک متغیر () باشد.
gradient accumulator باید از یک متغیر () باشد.
gradientSquaredAccumulator باید از یک متغیر () باشد.
درجه گرادیان.
lr ضریب پوسته پوسته شدن باید اسکالر باشد.
l1 تنظیم L1. باید اسکالر باشد.
l2 تنظیم L2. باید اسکالر باشد.
globalStep شماره مرحله آموزش باید اسکالر باشد.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از ResourceApplyAdagradDa

عمومی استاتیک ResourceApplyAdagradDa.Options useLocking (useLocking بولی)

مولفه های
استفاده از قفل کردن اگر درست باشد، به‌روزرسانی تانسورهای var و accum توسط یک قفل محافظت می‌شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.