ResourceApplyAdagrad คลาสสุดท้ายสาธารณะ
อัปเดต '*var' ตามรูปแบบ adagrad
สะสม += grad * grad var -= lr * grad * (1 / (sqrt(สะสม) + epsilon))
คลาสที่ซ้อนกัน
| ระดับ | ResourceApplyAdagrad.ตัวเลือก | แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdagrad | |
ค่าคงที่
| สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow | 
วิธีการสาธารณะ
| คงที่ <T ขยาย TType > ResourceApplyAdagrad |  สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวเลือก... ตัวเลือก)  วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdagrad ใหม่ | 
| ResourceApplyAdagrad.Options แบบคงที่ |  updateSlots (บูลีน updateSlots) | 
| ResourceApplyAdagrad.Options แบบคงที่ |  useLocking (การใช้ล็อคแบบบูลีน)  | 
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
 ค่าคงที่: "ResourceApplyAdagradV2" 
วิธีการสาธารณะ
ResourceApplyAdagrad แบบคงที่สาธารณะ สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdagrad ใหม่
พารามิเตอร์
| ขอบเขต | ขอบเขตปัจจุบัน | 
|---|---|
| var | ควรมาจากตัวแปร () | 
| สะสม | ควรมาจากตัวแปร () | 
| ล | ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์ | 
| เอปไซลอน | ปัจจัยคงที่ ต้องเป็นสเกลาร์ | 
| ผู้สำเร็จการศึกษา | การไล่ระดับสี | 
| ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก | 
การส่งคืน
- อินสแตนซ์ใหม่ของ ResourceApplyAdagrad
ResourceApplyAdagrad.Options แบบคงที่สาธารณะ useLocking (useLocking แบบบูลีน)
พารามิเตอร์
| ใช้ล็อค | หากเป็น "จริง" การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง | 
|---|