最小サイズ 使用する媒体の特性やスペース等を十 とができなく なります。 この最小使用サイズは 、 東大マークの印刷物における再生上の規定 です。 分に検討し、 損なう恐れがあり、 最適のサイズで使用してくださ い。 また、 印刷方式、 媒体の条件などによって もマークの再現性が異なることについても 注意が必要です。 表示を正確に伝達するこ く 東大マーク 基本型 下で使用すると、 本項で示された最小サイズ以 されています。 使用時の最小サイズが設定 東大マークには、 基本型〈タテ〉 〈タテ〉 東大マークの再現性を著し 東大マーク集 2 C o m p u t a t i o n a l S c i e n c e A l l i a n c e T h e U n i v e r s i t y o f T o k y o Anisotropic tensor renormalization group and BTRG The University of Tokyo, Tsuyoshi Okubo Ref. D. Adachi, T. Okubo, and S. Todo, arXiv:1906.02007
最小サイズ とができなく 注意が必要です。 もマークの再現性が異なることについても 媒体の条件などによって 印刷方式、 また、 い。 最適のサイズで使用してくださ 分に検討し、 使用する媒体の特性やスペース等を十 です。 東大マークの印刷物における再生上の規定 、 この最小使用サイズは なります。 表示を正確に伝達するこ 損なう恐れがあり、 く 東大マークの再現性を著し 下で使用すると、 本項で示された最小サイズ以 されています。 使用時の最小サイズが設定 東大マークには、 基本型〈タテ〉 〈タテ〉 東大マーク 基本型 東大マーク集 2 Collaborators Department of Physics, The University of Tokyo Synge Todo Daiki Adachi
Contents • Tensor renormalization group for high dimensions • Anisotropic tensor renormalization group: A TRG • Bond-weighted TRG: B TRG.... • Summary
Tensor network renormalization group Purpose: approximate contraction of tensor network by using "coarse-graining" of the network ( L × L )/2 L × L Corse-graining (Renormalization) into √ 2 times longer scale. : D × D × D × D Approximation : D × D × D × D
<latexit sha1_base64="vkwbFgeGOstoguRgSjOnkpAIBu0=">ACnXichVG7SgNBFD2u72eiNoKFwaBoIxMNKBYSUMFCNDHGCD7C7jqJQ/bF7iYgz/gD1gIgoKo+Ae2Nv6AhZ8glhFsLy7WRAV9Q4zc+bMPXfOcBVLE47L2FOD1NjU3NLa1t7R2dXdEwr39m04ZslWeUY1NdPeVGSHa8LgGVe4Gt+0bC7risazSnHeu8+Wue0I01h3Kxbf0eWCIfJClV2icuG+1bGF3anxyLYj9IiH4+O5cJRNMD8iP0EsAFEkTDd9jGHkyoKEHhwGXsAYZDo0txMBgEbeDKnE2IeHfcxyhg7QlyuKUIRNbpLVAp62ANejs1XR8tUqvaDRtUkYwh7ZDauxB3bLntn7r7Wqfg3PS4V2pa7lVi50PJB+1el0+5i/1P1p2cXecz4XgV5t3zG+4Va15cPT2rp2bWR6i7YC/k/5w9sXv6gVF+VS9TfO30Dz8KefGreIjaFPvelJ9gY3IiRjgVjybmgoa1YRDGKOuTCOBJSRoVcOcIYrXEtD0qK0LK3U6WGQNOPLyFlPwDwq5ZJ</latexit> <latexit sha1_base64="j0e3T+nd9qacAvNb2pEVrByYd1Q=">ACj3ichVG7SgNBFD1ZX/GZqI1gEwyKNjIRbEIAS20MlETBR9hd53EMZvdZXcSiMEfsLITtVKwEP/A1sYfsPATxFLBxsK7mwVRMd5hZs6cuefOGa5mG8KVjD2FlJbWtvaOcGdXd09vXyTaP5BzrYqj86xuGZazqakuN4TJs1JIg2/aDlfLmsE3tNKCd79R5Y4rLHNd1my+U1aLpigIXZVE5VbGF3dnJvLROJtkfsR+g0QA4gibUXvsI09WNBRQRkcJiRhAypcGltIgMEmbgd14hxCwr/nOEIXaSuUxSlDJbZEa5FOWwFr0tmr6fpqnV4xaDqkjGUPbIb9soe2C17Zh9/1qr7NTwvNdq1hpb+cjx0Nr7v6oy7RL7X6qmniUKmPO9CvJu+4z3C72hrx6evq7Nr47Wx9gVeyH/l+yJ3dMPzOqbfp3hqxdN/Gjkxa/iIWpT4mdTfoPc1GSCcGY6nkoGDQtjGCMYp67MIoUlpJGlVw5wgjOcK/3KrJUo1UJRoBvEtlOVPSpOSRw=</latexit> Tensor Renormalization Group (TRG) algorithm TRG M. Levin and C. P. Nave, Phys. Rev. Lett. 99 , 120601 (2007) Low rank approximation by SVD Computation cost: Memory:
<latexit sha1_base64="6fFfiOA5K65pfNgux7h1VXJdczM=">ACaXichVFNLwNBGH6vq+Wi4NF7GpODWzJSEO0sTFkVZLQtPsrsGwX/ajSTX+gJOb4EQiIn6Giz/g4CeI4mLg7fbTYQG72Rmnmfd5ZkZzDOH5jD3FpI7Oru6eG+ir39gcCiZGi57duDqvKTbhu2ua6rHDWHxki98g687LldNzeBr2v5ic3+txl1P2NaqX3d4xVR3LEtdNUnqrzJDwJRqyZlmVhjLcDJQIyoli2kzfYxBZs6AhgsOCT9iACo/aBhQwOMRV0CDOJSTCfY4jJEgbUBanDJXYfRp3aLURsRatmzW9UK3TKQZ1l5TjyLBHdste2QO7Y8/s49dajbBG0udZq2l5U516DhdfP9XZdLsY/dL9adnH9uYC70K8u6ETPMWektfOzx9Lc4XMo1JdsVeyP8le2L3dAOr9qZfr/DCBRL0AcrP524H5VxWmc7mVmbk/EL0FXGMYQJT9N6zyGMJyjRuXs4wRnOYy9SkpLo61UKRZpRvAtJPkT06uMOA=</latexit> <latexit sha1_base64="YIVA2yiQgDvIytZWagYThANlkU=">ACd3ichVHLSsNAFD2N7/quhFcGCyVuikTH1RclIu3PWhbQUfJYmjhqZJSNJiLf6AP+BCEBSkip/hxh9w4SeIywoiuPA2DYiKeoeZOXPmnjtnZhRL1xyXsceA0NHZ1d3T2xfsHxgcGg6NjOYds2KrPKeaumlvKLDdc3gOVdzdb5h2VwuKzovKXl1n6hym1HM41t2bx7bK8b2h7miq7RBVDo6noyk58RhQTYkokuDAjFkNhFmNeiD+B5IMw/EiboQa2sAsTKiog8OAS1iHDIfaJiQwWMRto06cTUjz9jmOESRthbI4ZcjElmjcp9Wmzxq0btV0PLVKp+jUbVKiLAHdsOa7J7dsif2/mutulej5aVGs9LWcqs4fDK+9vqvqkyzi4NP1Z+eXexh0fOqkXfLY1q3UNv6tFpc20pG6lPs0v2TP4v2CO7oxsY1Rf1KsOzZwjSB0jfn/snyM/GpLnYbGY+nEz4X9GLCUwhSu8dRxKrSCNH5x7iHA1cB96ESWFaiLZThYCvGcOXEKQPyFSOKQ=</latexit> Higher Oder Tensor Renormalization Group (HOTRG) Anisotropic coarse-graining by using HOSVD instead of SVD Z. Y. Xie et a l, Phys. Rev. B 86 , 045139 (2012) HOTRG algorithm: Isometry is defined through HOSVD of ≡ Better accuracy than TRG, although, Computation cost: O ( D 7 ) > O ( D 5 ) (TRG)
<latexit sha1_base64="A6mXnAToaUnWb/dotHcsEqgHvFU=">ACb3icSyrIySwuMTC4ycjEzMLKxs7BycXNw8vHLyAoFacX1qUnBqanJ+TXxSRlFicmpOZlxpaklmSkxpRUJSamJuUkxqelO0Mkg8vSy0qzszPCympLEiNzU1Mz8tMy0xOLAEKxfhruMRVm6ToGtZqKsQLKBvoGYCBAibDEMpQZoCgHyB5QwxDCkM+QzJDKUMuQypDHkMJUB2DkMiQzEQRjMYMhgwFADFYhmqgWJFQFYmWD6VoZaBC6i3FKgqFagiESiaDSTgbxoqGgekA8ysxisOxloSw4QFwF1KjCoGlw1WGnw2eCEwWqDlwZ/cJpVDTYD5JZKIJ0E0ZtaEM/fJRH8naCuXCBdwpCB0IXzSUMaQwWYLdmAt1eABYB+SIZor+savrnYKsg1Wo1g0UGr4HuX2hw0+Aw0Ad5ZV+SlwamBs1m4AJGgCF6cGMywoz0DI31jAJNlB3soFHBwSDNoMSgAQxvcwYHBg+GAIZQoL0FDNMY5jMsYPzIJM4kx6QAUcrECNUjzIACmDQBVaiNPg=</latexit> Application to high dimensions Interests in 3d classical systems • 2d and 3d quantum systems • Much higher dimensions... • We want to perform tensor network RG for high dimensions! However, TRG : Not easy to generalize to high dimensions. HOTRG : Easy to generalize to high dimensions, but its cost is O ( D 4 d − 1 ) d=3 : O ( D 11 ) d=4 : O ( D 15 ) Is it possible to construct lower cost algorithm ?
Anisotropic TRG = ATRG D. Adachi, T. Okubo, and S. Todo, arXiv:1906.02007
<latexit sha1_base64="6fFfiOA5K65pfNgux7h1VXJdczM=">ACaXichVFNLwNBGH6vq+Wi4NF7GpODWzJSEO0sTFkVZLQtPsrsGwX/ajSTX+gJOb4EQiIn6Giz/g4CeI4mLg7fbTYQG72Rmnmfd5ZkZzDOH5jD3FpI7Oru6eG+ir39gcCiZGi57duDqvKTbhu2ua6rHDWHxki98g687LldNzeBr2v5ic3+txl1P2NaqX3d4xVR3LEtdNUnqrzJDwJRqyZlmVhjLcDJQIyoli2kzfYxBZs6AhgsOCT9iACo/aBhQwOMRV0CDOJSTCfY4jJEgbUBanDJXYfRp3aLURsRatmzW9UK3TKQZ1l5TjyLBHdste2QO7Y8/s49dajbBG0udZq2l5U516DhdfP9XZdLsY/dL9adnH9uYC70K8u6ETPMWektfOzx9Lc4XMo1JdsVeyP8le2L3dAOr9qZfr/DCBRL0AcrP524H5VxWmc7mVmbk/EL0FXGMYQJT9N6zyGMJyjRuXs4wRnOYy9SkpLo61UKRZpRvAtJPkT06uMOA=</latexit> <latexit sha1_base64="6fFfiOA5K65pfNgux7h1VXJdczM=">ACaXichVFNLwNBGH6vq+Wi4NF7GpODWzJSEO0sTFkVZLQtPsrsGwX/ajSTX+gJOb4EQiIn6Giz/g4CeI4mLg7fbTYQG72Rmnmfd5ZkZzDOH5jD3FpI7Oru6eG+ir39gcCiZGi57duDqvKTbhu2ua6rHDWHxki98g687LldNzeBr2v5ic3+txl1P2NaqX3d4xVR3LEtdNUnqrzJDwJRqyZlmVhjLcDJQIyoli2kzfYxBZs6AhgsOCT9iACo/aBhQwOMRV0CDOJSTCfY4jJEgbUBanDJXYfRp3aLURsRatmzW9UK3TKQZ1l5TjyLBHdste2QO7Y8/s49dajbBG0udZq2l5U516DhdfP9XZdLsY/dL9adnH9uYC70K8u6ETPMWektfOzx9Lc4XMo1JdsVeyP8le2L3dAOr9qZfr/DCBRL0AcrP524H5VxWmc7mVmbk/EL0FXGMYQJT9N6zyGMJyjRuXs4wRnOYy9SkpLo61UKRZpRvAtJPkT06uMOA=</latexit> <latexit sha1_base64="2zciyk2vwnFoLW36WVDOsDv0ef4=">ACbHicSyrIySwuMTC4ycjEzMLKxs7BycXNw8vHLyAoFacX1qUnBqanJ+TXxSRlFicmpOZlxpaklmSkxpRUJSamJuUkxqelO0Mkg8vSy0qzszPCympLEiNzU1Mz8tMy0xOLAEKRfpruMRVm9dqKsQLKBvoGYCBAibDEMpQZoCgHyB5QwxDCkM+QzJDKUMuQypDHkMJUB2DkMiQzEQRjMYMhgwFADFYhmqgWJFQFYmWD6VoZaBC6i3FKgqFagiESiaDSTgbxoqGgekA8ysxisOxloSw4QFwF1KjCoGlw1WGnw2eCEwWqDlwZ/cJpVDTYD5JZKIJ0E0ZtaEM/fJRH8naCuXCBdwpCB0IXzSUMaQwWYLdmAt1eABYB+SIZor+savrnYKsg1Wo1g0UGr4HuX2hw0+Aw0Ad5ZV+SlwamBs1m4AJGgCF6cGMywoz0DI31jAJNlB3soFHBwSDNoMSgAQxvcwYHBg+GAIZQoL25DJMZ5jDMZXzHJMIkzSQLUcrECNUjzIACmNQAXqMYQ=</latexit> <latexit sha1_base64="kSPOf+enmoaXqH5u8SB+yOD/d60=">ACbHicSyrIySwuMTC4ycjEzMLKxs7BycXNw8vHLyAoFacX1qUnBqanJ+TXxSRlFicmpOZlxpaklmSkxpRUJSamJuUkxqelO0Mkg8vSy0qzszPCympLEiNzU1Mz8tMy0xOLAEKRfpruMRVm9ZqKsQLKBvoGYCBAibDEMpQZoCgHyB5QwxDCkM+QzJDKUMuQypDHkMJUB2DkMiQzEQRjMYMhgwFADFYhmqgWJFQFYmWD6VoZaBC6i3FKgqFagiESiaDSTgbxoqGgekA8ysxisOxloSw4QFwF1KjCoGlw1WGnw2eCEwWqDlwZ/cJpVDTYD5JZKIJ0E0ZtaEM/fJRH8naCuXCBdwpCB0IXzSUMaQwWYLdmAt1eABYB+SIZor+savrnYKsg1Wo1g0UGr4HuX2hw0+Aw0Ad5ZV+SlwamBs1m4AJGgCF6cGMywoz0DI31jAJNlB3soFHBwSDNoMSgAQxvcwYHBg+GAIZQoL25DJMZ5jDMZXzHJMIkzSQLUcrECNUjzIACmNQAWqSMXw=</latexit> Central idea of Anisotropic TRG In ATRG, we coarse-grain tensors anisotropically as HOTRG: In order to reduce the computation cost, we decompose the local tensor into small pieces before performing coarse-graining. HOTRG ATRG O ( D 7 ) O ( D 5 ) ≡ ≡
Recommend
More recommend