स्व-सहायक मैट्रिक्स के एक बैच के ईजेन अपघटन की गणना करता है
(नोट: केवल वास्तविक इनपुट ही समर्थित हैं)।
टेंसर में अंतरतम एम-बाय-एन मैट्रिक्स के आइगेनवैल्यू और आइजेनवेक्टर की गणना इस प्रकार करता है कि टेंसर[...,:,:] = यू[..., :, :] * डायग(एस[..., :] ) * ट्रांसपोज़(v[...,:,:]).
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
विरासत में मिली विधियाँ
बूलियन | बराबर (ऑब्जेक्ट arg0) |
अंतिम कक्षा<?> | गेटक्लास () |
int यहाँ | हैश कोड () |
अंतिम शून्य | सूचित करें () |
अंतिम शून्य | सभी को सूचित करें () |
डोरी | स्ट्रिंग () |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0, int arg1) |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0) |
अंतिम शून्य | इंतज़ार () |
सार निष्पादन वातावरण | एनवी () उस निष्पादन वातावरण को लौटाएँ जिसमें यह ऑप बनाया गया था। |
सार संचालन |
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक स्थैतिक एसवीडी <टी> बनाएं ( स्कोप स्कोप, ऑपरेंड <टी> ए, लॉन्ग मैक्सइटर, फ्लोट एप्सिलॉन, स्ट्रिंग प्रिसिजन कॉन्फिग)
एक नए Svd ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
ए | इनपुट टेंसर. |
मैक्सइटर | स्वीप अपडेट की अधिकतम संख्या, यानी, पूरे निचले त्रिकोणीय भाग या निचले पैरामीटर के आधार पर ऊपरी त्रिकोणीय भाग। अनुमानतः, यह तर्क दिया गया है कि व्यवहार में लगभग लॉग (न्यूनतम (एम, एन)) स्वीप की आवश्यकता होती है (संदर्भ: गोलूब और वैन लोन "मैट्रिक्स कंप्यूटेशन")। |
एप्सिलॉन | सहनशीलता अनुपात. |
परिशुद्धताकॉन्फिग | एक क्रमबद्ध xla::PrecisionConfig प्रोटो। |
रिटर्न
- Svd का एक नया उदाहरण
सार्वजनिक आउटपुट <T> s ()
एकवचन मान. मानों को परिमाण के विपरीत क्रम में क्रमबद्ध किया जाता है, इसलिए s[..., 0] सबसे बड़ा मान है, s[..., 1] दूसरा सबसे बड़ा मान है, आदि।