ResourceApplyAdagradDa คลาสสุดท้ายสาธารณะ
อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง
คลาสที่ซ้อนกัน
| ระดับ | ResourceApplyAdagradDa.Options | แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdagradDa | |
ค่าคงที่
| สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
| คงที่ <T ขยาย TType > ResourceApplyAdagradDa | สร้าง ( ขอบเขต ขอบเขต ตัวถูกดำเนินการ <?> var, ตัวถูกดำเนิน การ <?> การไล่ระดับAccumulator, ตัวถูกดำเนินการ <?> การไล่ระดับสีSquaredAccumulator, ตัว ถูกดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัว ถูกดำเนินการ <T> lr, ตัวถูกดำเนินการ <T> l1, ตัวถูกดำเนินการ <T> l2, ตัวถูกดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก) วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdagradDa ใหม่ |
| ResourceApplyAdagradDa.Options แบบคงที่ | useLocking (การใช้ล็อคแบบบูลีน) |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
ค่าคงที่: "ResourceApplyAdagradDA"
วิธีการสาธารณะ
ResourceApplyAdagradDa แบบคงที่สาธารณะ สร้าง (ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> การไล่ระดับAccumulator, ตัวดำเนินการ <?> การไล่ระดับสีSquaredAccumulator, ตัว ดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัว ดำเนินการ <T> lr, ตัวดำเนินการ <T> l1, ตัวถูกดำเนินการ <T> l2, ตัวดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdagradDa ใหม่
พารามิเตอร์
| ขอบเขต | ขอบเขตปัจจุบัน |
|---|---|
| var | ควรมาจากตัวแปร () |
| การไล่ระดับสีสะสม | ควรมาจากตัวแปร () |
| การไล่ระดับสีSquaredAccumulator | ควรมาจากตัวแปร () |
| ผู้สำเร็จการศึกษา | การไล่ระดับสี |
| ล | ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์ |
| l1 | การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์ |
| l2 | การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์ |
| globalStep | หมายเลขขั้นตอนการฝึกอบรม ต้องเป็นสเกลาร์ |
| ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก |
การส่งคืน
- อินสแตนซ์ใหม่ของ ResourceApplyAdagradDa
ResourceApplyAdagradDa.Options แบบคงที่สาธารณะ useLocking (useLocking แบบบูลีน)
พารามิเตอร์
| ใช้ล็อค | หากเป็น True การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง |
|---|