検索対象:     
報告書番号:
※ 半角英数字
 年 ~ 
 年
検索結果: 3 件中 1件目~3件目を表示
  • 1

発表形式

Initialising ...

選択項目を絞り込む

掲載資料名

Initialising ...

発表会議名

Initialising ...

筆頭著者名

Initialising ...

キーワード

Initialising ...

使用言語

Initialising ...

発行年

Initialising ...

開催年

Initialising ...

選択した検索結果をダウンロード

論文

Self-learning Monte Carlo for non-Abelian gauge theory with dynamical fermions

永井 佑紀; 田中 章詞*; 富谷 昭夫*

Physical Review D, 107(5), p.054501_1 - 054501_16, 2023/03

 被引用回数:1 パーセンタイル:78.23(Astronomy & Astrophysics)

近年我々が開発している自己学習モンテカルロ法は、モンテカルロ法を機械学習によって加速する方法であり、あらゆるマルコフ連鎖モンテカルロ法を加速する可能性を秘める応用範囲の広い手法である。本論文では、数値シミュレーションが極めて難しく計算コストの高い格子量子色力学のモンテカルロシミュレーションに対して、自己学習モンテカルロ法を適用できたことを報告したものである。このシミュレーションではゲージ場を扱うため、通常のモンテカルロシミュレーションよりも複雑である。特に、ゲージ場とフェルミオン場が含まれる際には計算コストが跳ね上がる特徴をもつ。このような数値的にチャレンジングである系に対して、自己学習モンテカルロ法による有効模型構築を実施することに成功した。その結果、自己学習モンテカルロ法の応用範囲が極めて広いことを示すとともに、格子量子色力学モンテカルロシミュレーションを高速化できることを示した。

口頭

同変トランスフォーマーによる自己学習モンテカルロ法

永井 佑紀; 富谷 昭夫*

no journal, , 

生成AIにおける基幹技術であるTransformerを用いた新しい自己学習モンテカルロ法を提案した。本研究では、文章における距離の離れた単語の関連性を推測することができるTransformerのAttention機構を用いることにより、電子系の相転移で重要となる長距離相関を効率よく取り込める有効模型を構築した。さらに、スピン回転、空間並進など系が満たすべき対称性をネットワークに取り込むことにより、パラメータ数を劇的に減らすことに成功した。また、レイヤー数を増やすにつれてlossが減っていくというスケーリング則を見出した。

口頭

Self-learning Monte Carlo method with equivariant Transformer

永井 佑紀; 富谷 昭夫*

no journal, , 

生成AIにおける基幹技術であるTransformerを用いた新しい自己学習モンテカルロ法を提案した。本招待講演では、文章における距離の離れた単語の関連性を推測することができるTransformerのAttention機構を用いることにより、電子系の相転移で重要となる長距離相関を効率よく取り込める有効模型を構築した。さらに、スピン回転、空間並進など系が満たすべき対称性をネットワークに取り込むことにより、パラメータ数を劇的に減らすことに成功した。また、レイヤー数を増やすにつれてlossが減っていくというスケーリング則を見出した。本講演では、格子量子色力学分野におけるこの技術の応用についても議論する。

3 件中 1件目~3件目を表示
  • 1