03.07.2013 Aufrufe

Activity Report 2009 - KEK

Activity Report 2009 - KEK

Activity Report 2009 - KEK

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Activity</strong> <strong>Report</strong> <strong>2009</strong><br />

Computing Research Center<br />

<strong>KEK</strong> Progress <strong>Report</strong> 2010-1<br />

October 2010<br />

D<br />

High Energy Accelerator Research Organization, <strong>KEK</strong>


© High Energy Accelerator Research Organization (<strong>KEK</strong>), 2010<br />

<strong>KEK</strong> <strong>Report</strong>s are available from:<br />

High Energy Accelerator Research Organization (<strong>KEK</strong>)<br />

1-1 Oho, Tsukuba-shi<br />

Ibaraki-ken, 305-0801<br />

JAPAN<br />

Phone: +81-29-864-5137<br />

Fax: +81-29-864-4604<br />

E-mail: irdpub@mail.kek.jp<br />

Internet: http://www.kek.jp


<strong>Activity</strong> <strong>Report</strong> <strong>2009</strong><br />

Computing Research Center<br />

平成 22 年 12 月


巻 頭 言<br />

計算科学は,加速器・測定器と並んで加速器科学を支える重要な研究基盤のひとつであ<br />

る。加速器性能向上に伴うデータ量の飛躍的増加ならびに世界規模での分散データ処理へ<br />

の対応,高速データ収集・解析システムの開発等,今後も計算科学センターが果たすべき<br />

役割は大きい。特に,国際協力が益々強化されることに伴い,海外の研究機関・計算セン<br />

ター等との緊密な協力体制の構築は重要な課題である。<br />

また,格子 QCD に代表されるスーパーコンピュータを用いた大型シミュレーション研究<br />

は数々の成果を上げ,それ自身でひとつの研究分野に成長した。筑波大学・国立天文台・<br />

<strong>KEK</strong> による「計算基礎科学連携拠点」においては <strong>KEK</strong> の計算資源もその一翼を担っている。<br />

神戸の次世代スパコンとの連携を図りつつこの分野が更に発展するよう努力したい。<br />

計算科学の重要性が増す一方で,計算科学に強い若手研究者の数は,一部の研究分野を<br />

除いて減少傾向にある。当センターが <strong>KEK</strong> および大学の研究グループと連携して開催して<br />

きた計算科学関連の講習会やセミナーは,今後更に充実させる必要がある。<br />

本冊子,計算科学センターの活動報告書(<strong>Activity</strong> <strong>Report</strong> <strong>2009</strong>),には当センターの研<br />

究開発活動に加えて,ネットワーク,セキュリティ,電子メールシステム等の当センター<br />

が提供している様々な情報提供サービスがまとめられている。当センターの研究開発,研<br />

究支援活動に対する理解を深める一助になれば幸甚である。<br />

2010 年 10 月<br />

野崎光昭


1 研究開発<br />

1.1 RENKEI<br />

佐々木 節、渡瀬 芳行、岩井 剛、河井 裕<br />

インターネット上の計算資源の連携の実現に向けて<br />

世界中の計算機は、インターネット接続されており、研究者による計算資源の共有が進められ<br />

ている。インターネットを介し、単一の計算機システムを利用することは容易であるが、複数<br />

のシステムを同時に利用するためには、グリッド技術を利用することが必要である。グリッド<br />

技術を実現するミドルウエアは、地域的に独立に開発が進められたこともあり、完全な互換性<br />

が実現されておらず、利用者は異なるグリッドミドルウエア跨って同時に利用することは、現<br />

状では、困難である。<br />

計算科学センターのグリッド研究チームは、異なるミドルウエアの違いを吸収し、単一のコマ<br />

ンド体系で異なるシステムを利用するためのソフトウエア階層の開発を行っている。グリッド<br />

のみならず、ローカルバッチキューイングシステムや、クラウド技術をも統合し、下位の技術<br />

の違いを利用者が意識せずに済むことを目標に研究を行っている。<br />

国際標準化団体である OGF(Open Grid Forum)で標準化が進められている SAGA 採用し、必要な<br />

ソフトウエアの開発が進められている。Figure 1 にソフトウエアアーキテクチャを示す。異な<br />

る技術にたいしてアダプタを実装することにより、その違いを吸収することが出来る。<strong>KEK</strong> で<br />

は、国産のグリッドミドルウエアである NAREGI のアダプタの他、複数のジョブスケジューラ<br />

に対するアダプタの開発を行った。また、他のプロジェクトにより、<strong>KEK</strong> で利用されている<br />

LSF や、globus、could 技術に対するアダプタも開発済みである。<br />

Figure 1: ソフトウエアアーキテクチャ<br />

1


将来の高エネルギー実験は、広い地域から多数の機関が参加する事が想定されており、様々な<br />

ミドルウエアへの対応が必要となる。この技術を利用することにより、上位のアプリケーショ<br />

ン開発が容易に行えるようになる。<br />

Super Computing‘09 会議において、この研究のデモンストレーションが行われた。 がんの粒<br />

子線治療シミュレーションを題材として、NAREGI ミドルウエアで連携している <strong>KEK</strong>, 国立天文<br />

台、広島工業大学、国立情報学研究所の計算資源と GLOBUS ミドルウエアで稼働している米国<br />

ルイジアナ州立大学(LSU)の計算資源と いう、二つの異なるグリッド環境を同時に用いて計算<br />

を行った。Figure 2 に粒子線治療シミュレーションの結果を可視化したものを示す。<br />

Figure 2: 粒子線治療シミュレーション<br />

RENKEI(REsources liNKage for E-scIence)プロジェクトは、文部科学省の受託研究として国立情報<br />

学研究所を中心に行われている。高エネルギー加速器研究機構は、「マルチグリッドミドルウ<br />

ェア環境下でのアプリケーションインタフェースに関する研究」を分担している。<br />

http://www.e-sciren.org/<br />

2


1.2 Geant4<br />

1.2.1 はじめに<br />

佐々木 節、村上 晃一、岩井 剛、野崎 光昭<br />

Geant4 の維持、開発は、世界中の研究機関共同による Geant4 コラボレーション組織の<br />

下で行われている。計算科学センターは、日本グループの活動のホストとしての役割を果<br />

している。また、ユーザサポートとして、研究会や講習会などを定期的に開催している。<br />

研究開発面では、Geant4 の利用促進という観点から、高エネルギー、原子核実験にとどま<br />

らず、学際分野への応用を広げる活動を積極的に行っている。<br />

1.2.2 Geant4 コラボレーションの運営<br />

Geant4 コラボレーションでは、様々な委員会のもと、コラボレーションの運営が図られ<br />

ている。日本グループからも Oversight Board や Steering Board の委員として、コラボレ<br />

ーションの運営に携わっている。日本グループは、トラッキング、粒子と物理過程、ユー<br />

ザインターフェース、可視化、ドキュメンテーション管理、ウェブサービスなど主要な部<br />

分の責任者となり、Geant4 の開発に主要な貢献を果している。計算科学センターからは、<br />

佐々木、村上が Steering Board の委員、野崎センター長が Oversight Board の委員となっ<br />

ている。<strong>2009</strong> 年度は、1 件のメジャーバージョンリリース(9.3)と 2 件のマイナーパッチを<br />

公開した。<br />

1.2.3 国際会議、研究会の開催<br />

ユーザサポート活動として、研究会や講習会なども定期的に開催している。<strong>2009</strong> 年度は、<br />

12 月 7〜12 日に、Asia-Pacific Geant4 Workshop and Training Course をつくば国際会議<br />

場で開催した。国内外から 66 名の Geant4 開発者およびユーザが参加した。アジア、太平<br />

洋地域を対象とした初めての講習会、ワークショップであり、特にアジア地区(韓国、台湾)<br />

からの参加者が多数集った。高エネルギー・原子核実験をはじめ、医学、宇宙、原子力関<br />

係の各分野のユーザが集り、Geant4 の利用に関して開発者とユーザ間での議論を行った。<br />

講習会では、VMware を利用して Geant4 のユーザ体験の向上を図った。Geant4 のソフトウ<br />

ェア一式をインストールしたシステムの VMware イメージを配布することで、ユーザはすぐ<br />

3


に Geant4 のシミュレーションを体験できる。ユーザ環境に左右されることがないので、講<br />

習会での実習効率が高くなる。今後の講習会でも VMware を利用していく。<br />

1.2.4 Geant4 の医学応用<br />

JST/CREST プロジェクトとして、2003 年からの 5 年間のプロジェクトも 2008 年度をもっ<br />

て終了した。本プロジェクトでは、粒子線治療をシミュレーションするためのソフトウェ<br />

ア一式を開発した。粒子線治療シミュレーションを行うためのシミュレーションフレーム<br />

ワーク PTSim とシミュレーション結果の 3 次元可視化ツール gMocren である。<strong>2009</strong> 年度は、<br />

これらの成果物の普及を進めた。PTSim は、放医研、国立がんセンター、兵庫県立がんセン<br />

ターなどの国内の粒子線施設でのシミュレーションに利用されている。また、海外での利<br />

用としては、北米での粒子線シミュレーションのグループとの研究協力も行っている。ま<br />

た、gMocren のソフトウェアを公開し、放射線医学応用のユーザに利用してもらい、機能改<br />

善を継続的に行っている。<br />

1.2.5 教育分野への応用<br />

Geant4 を放射線教育の分野に応用するための研究を行っている。Geant4 は豊富な物理<br />

過程を記述でき、個々の素粒子の反応を可視化する機能を持っている。そのため、Geant4<br />

を放射線教育に利用することは非常に有用である。教育用のコースマテリアルをウェブ上<br />

に公開している。また、Geant4 を使った教育アプリケーションとして、仮想実験室アプリ<br />

ケーションを開発した。このアプリケーションは、Geant4 の Python インターフェースを利<br />

用した GUI アプリケーションとなっている。また、これらの教育コンテンツを収録した<br />

VMware イメージの配布を行い、だれでも簡単に教育用ソフトを利用することができるよう<br />

になっている。<br />

1.2.6 マルチコア、マルチプロセス対応へ向けた取組み<br />

昨今の CPU の技術トレンドは、CPU の周波数向上より、マルチコア化の方に流れている。<br />

マルチコア化された CPU を効率的に利用するには、アプリケーションを並列化する必要が<br />

ある。すでに、MPI(Message Passing Interface)を利用した並列化手法は、村上によって<br />

開発され、Geant4 にコミットしている。この実装は、MPI を使って複数の Geant4 アプリケ<br />

ーションを同時実行する手法なので、メモリを多く利用するアプリケーションの場合、搭<br />

4


載されるシステムメモリ容量がコア数に見合わず、コア数の増加に対応できない欠点があ<br />

る。そこで、別の手法として、Geant4 をマルチスレッド化する方法も考えられている。し<br />

かし、マルチスレッド化には、変数のスレッド安全性の保証、アルゴリズムの並列化など<br />

改善すべき点が非常に多い。まずは、コードレビューを行い、マルチスレッド化に向けた<br />

技術的問題の調査を開始した段階である。<br />

また別のアプローチとして、最近、GPU(Graphic Processor Unit)を科学技術計算に利<br />

用して、アプリケーションの速度を大幅に向上させることが様々な研究分野で行われてい<br />

る。マルチスレッド化の延長として、Geant4 を使ったシミュレーションを GPU 上で行うた<br />

めの並列化アルゴリズムの開発にも着目している。<br />

5


1.3 GRACE<br />

6<br />

GRACE グループ<br />

1.3.1. はじめに<br />

素粒子物理学では、標準模型やそれを超えた模型などが提唱されて、物質の元となる素<br />

粒子の性質や時空の理解を進めようとしている。実際にこれらの素粒子の模型を使って高<br />

エネルギー実験などの結果を合わせるためには、素粒子物理学の場の理論に基づき lattice<br />

QCD のような非摂動的な扱いを行うものと、摂動的に行う方法等がある。GRACE グループで<br />

は、与えられた物理模型(ラグランジアン)を与え、摂動的に素粒子衝突反応の断面積を<br />

計算機で自動的に数値計算を行うためのシステム開発を行っている。とりわけ素粒子物理<br />

学におけるエネルギーフロンティアの加速器実験(LHC、リニアコライダー計画)において<br />

は、未知の素粒子を発見することが期待されており、高エネルギー衝突で起こる様々な現<br />

象を高精度で測定することが期待される。実験データを解析し素粒子の性質などを精密に<br />

分析するためには、多様な素粒子衝突反応の高次補正を含む精密な大規模な理論計算が不<br />

可欠となっている。自動計算システムの構築するためには場の理論の記号処理的な取り扱<br />

いから、数値計算法など様々な計算機科学にも関係する研究要素が広がっている。当セン<br />

ターにおいても以下のような研究開発を行っている。<br />

プロセス指定<br />

外線粒子,<br />

モデル,次数<br />

終状態の<br />

位相空間<br />

ループ<br />

ライブラリ<br />

自動計算の<br />

フローの概要<br />

ダイアグラム<br />

ジェネレータ<br />

グラフ<br />

記述<br />

振幅<br />

ジェネレータ<br />

振幅<br />

モンテカルロ<br />

積分<br />

断面積,分布<br />

ファインマン<br />

ルール<br />

データベース<br />

イベント<br />

ジェネレータ<br />

グリッド<br />

情報<br />

自動生成<br />

システム<br />

グラフ描画 グラフ<br />

ラグランジアン<br />

イベント


1.3.2. Geometric Sector Decomposition(金子)<br />

摂動論の計算では、ループ積分からもたらされる赤外発散は、粒子生成過程からもたら<br />

される赤外発散と打ち消しあう。通常 QCD では D 次元法により (4-D)/2 に関する極とし<br />

て発散を分離し、その係数が打ち消しあうことを見る。ループ積分を数値的に計算する場<br />

合には、発散部分を取り除いた部分と、発散部分の極の係数を取り出して数値計算するこ<br />

とになる。この様な発散部分の分離のためには、積分領域の分割と変数変換を繰り返し行<br />

う Sector Decomposition の方法が有効である。<br />

Sector Decomposition の標準的な方法では、各段階の積分領域の分割・変数変換でど<br />

のようなやり方を選ぶかにより効率が異なるため、さまざまな方法が提案されている。方<br />

法の優劣は 1. 常に分割が完了することが保障されているか、 2. 分割された領域数がい<br />

かに少なくなるか、の 2 点により判断される。Sector Decomposition の新たな方法として、<br />

繰り返し積分領域を分割するのではなく、被積分関数を多次元空間の幾何学的な表現に対<br />

応させ、それに基づいて積分領域を分割する新たな方法を提唱する。具体的な積分領域の<br />

分割には、計算幾何学のアルゴリズムを援用し、凸錐の双対錐を求め、得られた凸錐を三<br />

角分割することにより行う。この<br />

方法をテストするためのプログ<br />

ラムを作成し、いくつかの代表的<br />

な例で他の文献上の計算結果と<br />

比較し、この有用性を確認した。<br />

三角分割については、最小分割数<br />

を保障する方法は知られていな<br />

いため、比較的簡便な方法を組み<br />

頂点の数を変えない三角分割でも、方法によっては分割数<br />

込 ん だ 。 こ の 場 合 で も 、 他 の<br />

が変わる場合がある。この例では図形 (a) が (b) または<br />

Sector Decomposition の方法に比<br />

(c) に分割されるが、(b) では 2 個に (c) では 3 個になる。<br />

べ少ない分割数により、常に分割<br />

が完了することがわかった。<br />

1.3.3 pp → ttbb + X 反応に対する NLO 補正 (Bredenstein )<br />

量子色力学における pp→ttbb 過程の next-to-leading order(NLO) 補正の解析が完了し、<br />

これに基づくモンテカルロイベントジェネレータを作成した。計算結果については様々な<br />

検証を行った。0.1%程度の誤差の範囲での計算では、このベントジェネレータが実験解析<br />

のために実用的に使えることを確認した。<br />

この研究において開発された計算法方の改良、高速化、数値計算の安定化などの方法は、<br />

他の反応過程に対する自動計算に適用できる。このうち特に、通常場の理論に現れる特異<br />

点を正規化するための次元正規化法に現れる赤外発散の相殺において進歩がみられた。こ<br />

7


の発散の相殺に関する手法は解析を検証を容易にする点で重要である。可能な全ての相互<br />

作用とグラフの位相的性質を解析することにより、複数の過程から位相空間上の積分で互<br />

いに相殺する過程を自動的に見つけるプログラムの作成に役に立つ。また、ループ積分に<br />

おいては、通常テンソル積分をスカラー積分に帰着させるが、その方法をプログラムライ<br />

ブラリとして開発した。<br />

なお、Axel Bredenstein 氏の外国人特別研究員の採用期間は <strong>2009</strong> 年 9 月 1 日をもって<br />

終了した。<br />

1.3.4 完全数値的ループ積分(湯浅・石川)<br />

摂動論の高次の計算に現れるループ積分を、数値的に<br />

求める方法を研究している。ループ積分は多次元の複素<br />

積分で、被積分関数の分母が零になる時に発散する。被<br />

積分関数の分母に発散を回避するための微小パラメータ<br />

iεをいれて計算を行うが、このパラメータを有限化し、<br />

積分を実行した後ε→0の極限を求めこれを積分結果と<br />

してもよい。我々は、この一連の作業を全て数値的に扱<br />

う方法(以下、直接計算法という)を開発している。現<br />

図 1 gg → bbH のファイン<br />

在までのところ、この方法により、1 ループ3点(バー<br />

マン図。ボックス型 1 ループを<br />

テックス型)、4点(ボックス型)、5点(ペンタゴン型)<br />

含む。<br />

のおよび 2 ループ2点(セルフエネルギー型)、3点(バ<br />

ーテックス型)、4点(ボックス型)のループ積分について事例計算を終了した。<br />

直接計算法は、数値積分法と加速法の組み合わせか<br />

らなるため非常に柔軟である。この柔軟性により直接計<br />

算法には、ループ積分が特異性を有する場合も計算可能<br />

である、ループの内線の質量の有無によらずに計算可能<br />

である、内線に幅をいれた場合も計算可能(図1のルー<br />

プ積分において内線に幅をいれた計算結果を図2に示<br />

す。解析的な結果とよく一致している。)であるなど有<br />

利な点がある。一方、計算時間がかかる、桁落ちにより<br />

精度を失なう場合があるなど、数値計算上の課題がある。<br />

図 2 gg → bbH のボックス<br />

課題の克服のために、最適な数値積分法の選択法、最適<br />

型 1 ループ積分を t と W に噴複素質<br />

な加速法の選択法、多倍長精度の計算法および高速化の<br />

量をもたせた場合の実部の計算結<br />

方法を開発している。次に述べるアクセラレータボード<br />

果。横軸はエネルギー。<br />

などの最新のハードウェアも高速化には有効である。<br />

8


アクセラレータボードの利用と開発<br />

天文学におけるGRAPEプロジェクトは、専用ハードウェアとソフトウェアを組み合わせる<br />

ことで、重力多体問題のシミューレーション研究を推進し世界的な評価を得てきている。<br />

他方、素粒子物理学における摂動論による素粒子反応自動計算システムは、複数の研究グ<br />

ループにより開発が進められているが、これらは主としてソフトウェアの開発であり専用<br />

ハードウェアを用いているものはない。 我々は、平成19年度よりGRAPEプロジェクトで開<br />

発されたGRAPE-DRアクセラレータ上でループ積分のうち計算時間がかかる部分を実行でき<br />

るよう準備をすすめてきた。事例として、3点、4点の1ループ積分(重心系のエネルギー<br />

s


対応するヒッグス粒子が予言されているが、その質量の大きさに別の観点から問題が生じ<br />

る。それを解決する理論として「超対称性理論(SUSY)」などが提唱されている。現在大型<br />

加速器を使った素粒子の高エネルギー実験においては、ヒッグス粒子の発見、超対称性粒<br />

子の発見・検証を目指している。一方宇宙の観測から、宇宙の物質は、96%は見ることも<br />

検出することもできない暗黒物質と暗黒エネルギーで成り立っていると考えられている。<br />

暗黒物質だけで宇宙の 26%を構成していると推定されている。暗黒物質の候補として最も<br />

有力なのは、超対称性理論によって存在が予想されているニュートラリーノという未発見<br />

の粒子とも言われている。<br />

さて、超対称性理論とは、理論のボーズ粒子とフェルミ粒子に対して、それぞれ対応す<br />

るフェルミ粒子とボーズ粒子(超対称性粒子)が存在すると考える理論である。ボーズ粒<br />

子とフェルミ粒子を入れ替える数学的変換を超対称変換と呼び、特にゲージ粒子に対して<br />

も超対称性粒子を考える理論の事を超対称ゲージ理論と呼ぶ。また、超対称性を考えた標<br />

準模型や重力理論(一般相対論)は、それぞれ超対称標準模型、超重力理論と呼ばれる。<br />

超弦理論も超対称性理論の一種である。<br />

超対称性理論、とりわけ電弱相互作用の標準模型を超対称性に拡張した MSSM 模型<br />

(Minimal Supersymmetric extension of the Standard Model)の研究は進められてきてい<br />

る。この模型は電弱相互作用の標準模型の超対称性を満たすように拡張した最小の模型で<br />

はあるが、マヨラナ粒子の存在、フェルミ粒子数の非保存等の超対称性に特有な問題を有<br />

している。自動計算システムでは MSSM 模型のボルン反応の断面積を取り扱うことができる。<br />

1ループの高次補正計算の自動化に向けて開発を進めてきている。自動計算するシステム<br />

では、自己検査機能が不可欠であり、MSSM 模型においても標準模型と同様、非線型ゲージ<br />

項を導入し、ゲージパラメータを変化させて数値的に物理不変性を確認するという処方を<br />

用いている。またこれまで、MSSM 模型では、統一的に繰り込み理論を構築した例はなく、<br />

繰込み理論の様々な検証も行うことができる。<br />

平成 21 年度は、MSSM 模型における自動計算システムにおける QCD 一次補正版について<br />

研究開発を中心として行い、このシステムを用い sfermion と gluino の崩壊幅の電弱相互<br />

補正および QCD 補正の一次補正まで計算を行った。これまで QCD 補正のための繰りこみ処<br />

方 と し て こ れ ま で 、 On-shell ス キ ー ム を 用 い て き た 。 gluon お よ び<br />

up,down,charm,strange-quark については質量 0 として、DR-bar スキームを用いた。<br />

top と bottom については、これまで通り On-shell スキームを用いた。<br />

sfermion の 2 体崩壊と gluino の 2 体崩壊幅について数値計算を行い、共同研究者<br />

が国際会議で発表を行った。共同研究者の成蹊大学近匡教授の元、飯塚京子氏の修士<br />

論文はこれらの研究をまとめたものである。以下の図は共同研究の gluino の崩壊幅<br />

の質量依存性を示す。<br />

10


ILC の将来の素粒子の高エネルギー実験でこの分岐比を精密の測定することにより、<br />

MSSM 理論で現れるパラメータを決めることになる。超対称性理論においては、ファイマン<br />

規則が何千個という数になり、自動計算システムの役割は重要である。<br />

1.3.6 スクールの開催<br />

平成21年度には、次の二つのスクールを開催した。<br />

(1) アクセラレータボードを使った高速化スクール(石川、松古、湯浅)<br />

開催日:<strong>2009</strong>年12月7日- 9日<br />

開催場所:<strong>KEK</strong>、計算科学センター第一会議室<br />

参加人数:30名<br />

ホームページ:http://suchix.kek.jp/bridge/Accel09/<br />

特徴:講義と実習によりアクセラレータボードの利用法を実用的なレベルまで身につける<br />

ことを目標としたスクール<br />

(2) GRACEスクール(素核研との共催、計算科学センター担当者:金子、石川、湯浅)<br />

開催日:<strong>2009</strong>年8月31日 - 9月3日<br />

開催場所:<strong>KEK</strong>、2号館1階会議室中<br />

参加人数:大学院生9名、スタッフ8名<br />

ホームページ:http://minami-home.kek.jp/GRACE-school/<br />

11


特徴:素粒子物理学実験および理論専攻の大学院生を対象とし、自動計算システムGRACEを<br />

用いて素粒子散乱の理論的な予言値を自分で求め、実験解析に必要なイベントジェネレー<br />

タのソフトウェアを作れるようになることを目的としたスクール<br />

発表論文<br />

“A Geometric method of sector decomposition”, T.Kaneko and T.Ueda,<br />

Comput.Phys.Commun.181(2010)1352-1361<br />

“Sector decomposition via computational geometry”, T.Kaneko and T.Ueda,<br />

arXiv:1004.5490(2010), PoS(ACAT2010) (投稿中)<br />

“Interdisciplinary Applications of Mathematical Modeling”, E.de Doncker, S.<br />

Li, H. Li, Y. Shimizu, J.Fujimoto, F.Yuasa, T.Ishikawa and N.Hamaguchi,<br />

ACM International Conference Proceeding Series; Vol. 403(<strong>2009</strong>), Proceedings<br />

of the 2nd International Conference on Interaction Sciences: Information<br />

Technology, Culture and Human, p142-148<br />

“アクセラレータによる四倍精度演算”、中里直人、石川 正、牧野淳一郎、湯浅富<br />

久子情報処理学会研究会 <strong>2009</strong>-HPC-121(<strong>2009</strong>) 39-45.<br />

“Systematic study of 1-loop correction on sparticle decay widths using<br />

GRACE/SUSY-loop”, K. Iizuka, T. Kon, K. Kato, T. Ishikawa, Y. Kurihara, M. Jimbo,<br />

and M. Kuroda, Pos(RADCOR<strong>2009</strong>)068.<br />

“アクセラレータボードを積んだパソコンでの多倍長高性能計算”、湯浅 富久子, 石<br />

川 正、第 4 回 パーソナルコンピュータ利用技術学会全国大会・論文集<br />

“Deterministic numerical box and vertex integrations for one-loop hexagon<br />

reductions”, E. De Doncker, T. Ishikawa, Y. Kurihara, Y. Shimizu, F. Yuasa, J.<br />

Fujimoto, N. Hamaguchi, PoS(ACAT2010) (投稿中)<br />

“Transformation, reduction and extrapolation techniques for Feynman loop<br />

integrals”, E. de Doncker, J. Fujimoto, N. Hamaguchi, T. Ishikawa, Y. Kurihara,<br />

Y. Shimizu and F. Yuasa,<br />

ICCSA 2010, Part II, Lecture Notes in Computer Science 6017(2010), pp.139-154.<br />

“GRAPE-DR を用いた素粒子反応計算への応用のまとめ”、石川 正、総合研究大学院<br />

大学 葉山高等研究センター 研究プロジェクト全体報告会・報告集(2010) p66-68.<br />

口頭発表<br />

湯浅 富久子、GRAPE-DR によるループ積分計算<br />

日本物理学会第 <strong>2009</strong> 秋期大会 <strong>2009</strong> 年 9 月 10 日甲南大学<br />

湯浅 富久子、アクセラレータボードを積んだパソコンでの多倍長高性能計算<br />

12


第 4 回 パーソナルコンピュータ利用技術学会全国大会、<strong>2009</strong> 年 12 月 13 日、慶應義<br />

塾大学日吉キャンパス<br />

F.Yuasa, Numerical approach to Feynman diagram calculations: Benefits from new<br />

computational capabilities<br />

13th International Workshop on Advanced Computing and Analysis Techniques in<br />

Physics Research, Jaipur, India February 26, 2010<br />

T.Kaneko, Sector decomposition via computational geometry<br />

13th International Workshop on Advanced Computing and Analysis Techniques in<br />

Physics Research, Jaipur, India February 26, 2010<br />

石川正、GRAPE-DR を用いた素粒子反応計算への応用<br />

総合大学院大學葉山高等研究センター研究プロジェクト全体報告会、2010 年 1 月 14 日、<br />

湘南国際村センター<br />

石川正、高次補正計算の専用化のための研究<br />

「次世代スーパーコンピュータでせまる物質と宇宙の起源と構造」 次世代スーパーコ<br />

ンピュータ戦略プログラム・分野5「物質と宇宙の起源と構造」・科研費新学術領域研<br />

究「素核宇宙融合による計算科学に基づいた重層的物質構造の解明」合同シンポジウ<br />

ム 、3 月 16 日、東京大学小柴ホール<br />

石川正、GRAPE-DR によるループ積分計算(II)<br />

日本物理学会第 65 年次大会 2010 年 3 月 20 日岡山大学<br />

13


1.4 格子ゲージ理論シミュレーション<br />

14<br />

松古 栄夫<br />

1.4.1 はじめに<br />

素粒子であるクォークの間に働き、原子核を形作る核力の源である強い相互作用は、量子色力<br />

学(Quantum Chromodynamics, QCD)によって記述される。QCD はその結合の強さが距離とともに増<br />

大するという特徴を持つため、結合定数によって展開する摂動論的手法は、高エネルギー、即ち近<br />

距離では有効であるが、低エネルギー領域では破綻し、解析的な計算が困難となる。このため、ハ<br />

ドロンの性質や粒子衝突におけるハドロン散乱振幅などを定量的に調べるには、なんらかの非摂動<br />

的手法が必要である。格子 QCD は場の理論としての QCD を 4 次元立方格子上で定式化したもので、<br />

経路積分を数値的に実行することにより、第一原理である QCD に基づいた計算を摂動展開によらず<br />

に実現できる。<br />

近年の理論的進展、計算機の発達、アルゴリズムの改良などによって、格子 QCD シミュレーショ<br />

ンの精度や信頼性は大きく向上し、素粒子・原子核の物理現象を理解する上で重要な役割を果たし<br />

ている。 動的なクォークの自由度として 2+1 (u,d,s クォークに対応)を含む計算も多くのグルー<br />

プによって行われ、フレイバー物理に現れるハドロン行列要素への応用も盛んである。 これらのシ<br />

ミュレーションによって生成されたゲージ配位のデータを共有するための枠組みも国際的に議論さ<br />

れ、ILDG (International Lattice Data Grid)として 2006 年より正式運用が始まった。<br />

また格子ゲージ理論は、標準理論を構成する QCD のみならず、他の場の理論の解析にも適用でき<br />

る。標準理論を超えた物理として LHC 実験でも注目されている、超対称性理論やテクニカラー理論<br />

に対しても、非摂動的な解析を行うことができる手法として注目されている。<br />

以上のような状況において、我々は次のような観点から研究を進めている。<br />

(1) 格子上の厳密なカイラル対称性を持つ理論による大規模シミュレーション<br />

(2) 標準理論を超えた物理の探索のためのゲージ理論の構造の解析<br />

(3) 計算科学のためのアルゴリズムとシミュレーション手法の研究<br />

これらによって標準理論の検証とそれを超えた物理の探索や、素粒子・原子核・宇宙物理の計算科<br />

学的研究に貢献することを目指している。以下ではそれぞれについて詳しく述べる。<br />

1.4.2 格子上の厳密なカイラル対称性を持つ理論による大規模シミュレーション<br />

この研究は <strong>KEK</strong> を中心とした JLQCD コラボレーションに参加して行っている。計算には <strong>KEK</strong> で<br />

運用しているスーパーコンピュータシステムを中心に用いている。<br />

近年の格子 QCD の大きな発展として、長い間困難とされてきた、カイラル対称性を厳密に持つ<br />

格子フェルミオン作用が可能になったことがある。特に我々の採用したオーバーラップ・フェルミ


オン(Neuberger, 1998 年)はエレガントな理論的構造を持ち、種々の物理量の計算やその解析の見<br />

通しが良くなるという大きなメリットを持つ。一方で計算に必要なコストは、従来のフェルミオン<br />

作用に対し 100 倍のオーダーで大きいため、アルゴリズムの改良が大規模計算プロジェクト成功の<br />

鍵となる。<br />

我々は理論的な改良、アルゴリズムの高速化、および強力なスーパーコンピュータによって、<br />

オーバーラップ・フェルミオンのシミュレーションを可能にし、クォークの真空偏極の効果を含む<br />

大規模計算プロジェクトを 2006 年に開始した。<strong>2009</strong> 年度には、2+1 フレイバー(u,d,s クォークに<br />

対応)の真空偏極効果を含むゲージ場配位の生成を、これまでより大きな格子サイズ(24 3x48) で行<br />

いながら、これまでに生成した 2 フレイバー(u,d クォークに対応)および 2+1 フレイバーのゲージ<br />

場配位での物理量の測定を行った。<strong>2009</strong> 年度においては以下のような成果を論文として公表した。<br />

パイオン形状因子の計算<br />

非摂動くりこみによるくりこみ定数の決定<br />

また、以下のような研究を進めている。<br />

核子のシグマ項の測定<br />

2+1 フレイバーでのクォーク質量ゼロ近傍のメソン質量の振る舞い<br />

2+1 フレイバーでのトポロジカル感受率の計算<br />

2 フレイバーでの有限温度相転移<br />

2 フレイバーのゲージ場配位データについては、ILDG (International Lattice Data Grid)で公開<br />

した。<br />

参考サイト: http://jlqcd.kek.jp/<br />

1.4.3 標準理論を超えた物理の探索のためのゲージ理論の構造の解析<br />

間もなく稼働を始める LHC 実験では、標準理論を越えた物理の発見が期待されているが、それに<br />

は現象の背後にある物理の理論的理解が不可欠である。標準理論におけるヒッグス粒子のセクター<br />

は、高エネルギーではテクニカラー模型と呼ばれる未知のゲージ理論で記述されている可能性があ<br />

り、どのような形の模型が可能かについて盛んに議論されている。この模型では、基本表現や高次<br />

の表現のフェルミオンが、QCD と同じタイプのゲージ場を介して相互作用しており、その理論構造<br />

を調べるためには格子 QCD の手法が適している。<br />

我々はこのような模型の可能性を検討するために、様々なゲージ理論において相構造や結合定数<br />

のスケール依存性などを調べている。<strong>2009</strong> 年度においては、以下のような研究を行った。<br />

SU(3)ゲージ理論において 12 フレイバーの質量ゼロフェルミオンの動的シミュレーションを<br />

行い、結合定数のスケール依存性を調べた。この理論は赤外固定点が存在する可能性があり注<br />

目を集めているが、まだ確定した結論に至っていない。我々はツイストした境界条件でのポリ<br />

ヤコフループによって結合定数を定義する手法を用いている。現在も計算を継続中である。<br />

15


オーバーラップ演算子を用いて、SU(2)ゲージ理論のフレイバー依存性を調べる研究の準備を<br />

進めている。フェルミオンとしては基本表現および随伴表現の場合を考えている。オーバーラ<br />

ップ演算子の局所性のためには、その演算子の核である Wilson 演算子に関して「青木相」と呼<br />

ばれる相の外側に系があることが必要である。<strong>2009</strong> 年度にはこの「青木相」の構造に関する研<br />

究を行った。<br />

1.4.4 計算科学のためのアルゴリズムとシミュレーション手法の研究<br />

2008 年度より、新学術領域研究「素核宇宙融合による計算科学に基づいた重層的物質構造の解明」<br />

(領域代表者・青木慎也筑波大学)に参加し、計画研究 「分野横断アルゴリズムと計算機シミュレ<br />

ーション」における研究代表となっているため、数値計算アルゴリズムと、種々のアーキテクチャ<br />

の性能を十分引き出すための手法について、本格的な研究を開始し、計算機科学や応用数学の専門<br />

家との連携を進めている。この研究ではそれぞれの分野で培った技術を分野横断的に応用すること<br />

や、原子核、宇宙の分野の研究者と連携・共同して計算手法を発展させてゆくことも目標にしてい<br />

る。また計算科学に必要なデータグリッドなどの環境整備も目指している。<br />

計算アルゴリズムに関しては、格子 QCD のオーバーラップ・フェルミオンに対する線形問題解法<br />

の高速化のために、線型アルゴリズムの研究者との連携のための準備を行った。オーバーラップ演<br />

算子を行列としてのデータフォーマットに変換し、筑波大学が運用する行列データベースに登録し<br />

た。また線型問題としての特徴等を整理し、今後の研究に向けての準備を行った。<br />

<strong>2009</strong> 年度は特に、演算アクセラレータを効率的に利用するための手法の研究に力を入れた。<br />

NVIDIA Tesla C1060, AMD Radeon, Cell Broadband Engine による演算アクセラレータを導入し、<br />

特に NVIDIA Tesla を用いるための CUDA 言語による格子 QCD 計算のプログラム開発を行った。また<br />

以下のような講習会、研究会、スクールを開催した。<br />

CUDA 講習会・研究会 (<strong>2009</strong> 年 6 月 23, 24 日)<br />

アクセラレータボードを使った高速化スクール (<strong>2009</strong> 年 12 月 7-9 日)<br />

Cell B.E. プログラミング講習会 (2010 年 1 月 21,22 日)<br />

講習会、スクールでは、それぞれのハードウェアに精通した講師による、実践的な講習を行った。<br />

計算環境としては、JLDG (Japan Lattice Data Grid)の開発と運用を行っている。これについて<br />

は、スパコン・大型シミュレーションの項を参照されたい。<br />

また、新学術領域研究のプロジェクトの一つとして、格子 QCD の共通コードの開発を開始した。<br />

<strong>2009</strong> 年度においては、設計の準備のため、他のコードやオブジェクト指向設計法などについての調<br />

査を行った。<br />

参考サイト: http://bridge.kek.jp/<br />

16


1.5 中性子用オブジェクト指向データ解析システム<br />

(1) データ解析フレームワークの研究開発<br />

17<br />

鈴木 次郎、真鍋 篤<br />

大強度陽子加速器施設(J-PARC)は、高エネルギー加速器研究機構(<strong>KEK</strong>)と日本原子<br />

力研究開発機構(JAEA)が共同で建設/運用を行う実験施設である。J-PARC の研究施設のひと<br />

つである物質生命科学研究施設(Materials and Life Science Facility: MLF)は世界最高<br />

強度のパルス中性子/中間子ビームを用いて物質科学と生命科学実験を行う実験研究施設<br />

であり、2008 年 5 月に中性子と中間子ビームの供給が開始され共同利用が開始した。MLF<br />

には、23 の中性子実験用のビームラインが整備され様々な研究分野に対応する分光器が設<br />

置される。<br />

従来の放射光や中性子などの物質科学の共同利用に用いられている大規模な散乱装置<br />

は、研究分野と研究目的、実験手法に対応した装置制御と解析ソフトウエアが装置ごとに<br />

開発されて利用されてきたため、施設内でのデータの共有、互換性に問題があるだけでな<br />

く、ソフトウエアの長期に渡った維持管理を研究施設として組織的にサポートできない問<br />

題が指摘されてきた。MLF は、米国 Spallation Neutron Source (Oak Ridge National<br />

Laboratory)、英国 Rutherford Appleton Laboratory、仏国 Institut Laue-Langevin と並<br />

ぶ大強度中性子実験施設として世界的な研究拠点となることが強く期待されている。その<br />

ためには、国際協調体制が求められ、実験データのみならず計算機環境の世界標準化が不<br />

可欠であり、本研究は中性子実験のデータ解析ソフトウエアの世界標準となることを目指<br />

たものである。<br />

MLF における実験装置の計算機とネットワーク環境は MLF 計算環境検討グループによっ<br />

て研究開発され整備されてきた。計算科学センターは、この検討グループ発足当初より参<br />

加/協力をしている。オブジェクト指向データ解析システム(Manyo-Lib)は MLF 計算環境の<br />

データ解析システムの中核となるフレームワークである。また、(2)に示す高分子用シミュ<br />

レータは、高分子分野の中性子実験の結果をシミュレートするものである。Manyo-Lib は、<br />

多人数での開発と利用が想定され、また長期間にわたって研究施設としてサポートを行え<br />

るオブジェクト指向の概念に基づいて設計と開発が行われている。Manyo-Lib は、中性子実<br />

験で共通に使用する機能(データコンテナ、ネットワーク分散処理環境、並列化機能、デー<br />

タ解析演算子)を提供することで、個々の分光器の仕様、研究者の目的に合致したデータ解<br />

析ソフトウエアの構築の基盤となる。このような基盤ソフトの整備は、物質科学分野では<br />

初めての試みである。ソフトウエアの骨格部分を統一的に、かつ、充分なテストを行った<br />

上で提供することで研究施設全体のソフトウエア環境の信頼性向上に貢献でき、世界最高<br />

強度の貴重な中性子ビームの有効利用という面で重要である。このフレームワークで採用<br />

しているデータフォーマットは、NeXus (http://www.nexusformat.org/)を採用している。


NeXus は物質科学の散乱実験データフォーマットとして策定が行われている。鈴木は NeXus<br />

International Advisory Committee の委員として会議に出席し、MLF のみならずアジア唯<br />

一の委員として要望を提案するとともに、国際規格の策定に貢献をしている。<br />

<strong>2009</strong> 年度は、共同利用に供される各種分光器のプロトタイプの作成と実運用に用いられ<br />

る解析ソフトウエアの開発支援を行った(図 1 参照)。同時に、イベントデータとヒストグ<br />

ラムデータの入出力機能、ネットワーク分散処理で利用するソケットライブラリの速度向<br />

上をのための研究開発を行った。具体的には、Boost C++の Serialization の機能を用いる<br />

ことで、Manyo-Lib で定義されている各種データコンテナのシリアル化のアルゴリズムを最<br />

適化し、最大で 10 倍の効率化を達成した。この分散処理の効率化によって、従来では分散<br />

処理をすることで逆に速度低下を招いていたデータ解析処理を分散処理できるようになっ<br />

た。<br />

2010 年度は、上記のシリアル化機能を、Manyo-Lib の標準機能として取り込むこと、<br />

データコンテナの四則演算、コピーなどの演算機能のマルチスレッド化を行い、より効率<br />

的なフレームワークの構築を目指す予定である。<br />

図 1: 残留応力解析中性子分光器:匠の実験データ解析ソフトウエア 絵巻(えまき)。<br />

(JAEA 伊藤崇芳 氏提供)<br />

(2) 高分子用シミュレータの研究開発と応用<br />

このシミュレータは、高分子材料の中性子散乱の実験データの解析を目的とするもので、<br />

MLF の解析環境に接続できるシミュレータの一つとする予定である。高分子の分子を構成す<br />

るモノマー、鎖、分子のそれぞれをソフトウエアの中では階層的にオブジェクト指向を用<br />

いて記述しているため、高分子がいかなる分岐構造やトポロジーを持っていてもシミュレ<br />

18


ーションできる。<br />

このシミュレータを利用して、環状高分子の中性子散乱の実験データの解釈を試みたと<br />

ころ、高分子の鎖の拡がりの指数(フローリの指数)が溶融体ではν=1/3 であることをシミ<br />

ュレーションから明らかにし、併せて Self-Consistent Theory で検証を行った。また、<br />

Knotted-や Catenated-ring のバルクにおける拡がりについて考察を進めている。(2010 年<br />

度に発表予定)<br />

学会発表<br />

1. 中性子用オブジェクト指向データ解析フレームワーク<br />

日本中性子科学会 第 9 回年次大会<br />

茨城量子ビーム研究センター <strong>2009</strong> 年 12 月 9 日<br />

2. モンテカルロシミュレーションによるバルクにおける環状高分子の拡がりの観<br />

測<br />

第 58 回 高分子学会年次大会<br />

神戸国際会議場 <strong>2009</strong> 年 5 月 27 日<br />

3. バルクにおける環状高分子の拡がり<br />

第 58 回高分子討論会<br />

熊本大学 <strong>2009</strong> 年 9 月 16 日<br />

発表論文<br />

1. Dimension of ring polymers in bulk studied by Monte-Carlo simulation and<br />

self-consistent theory<br />

Jiro Suzuki, Atsushi Takano, Tetsuo Deguchi and Yushu Matsushita,<br />

J. Chem. Phys., 131, 144902 (<strong>2009</strong>).<br />

その他<br />

1. NeXus Internatioan Advisory Committee<br />

2. 波紋 (中性子科学会 学会誌) 地区編集委員<br />

3. 種々の環状高分子のトポロジー効果と分子鎖の拡がりの相関<br />

科研費 若手 B 22740281 (2010 年度-)<br />

19


1.6 RDBMS の有効活用に関する研究開発<br />

20<br />

村上 直<br />

RDBMS (リレーショナルデータベース管理システム) の有効活用に関する研究開発とし<br />

て、DBPowder プロジェクトを進めている。DBPowder は、DMZ ホスト管理者のセキュリティ<br />

関連作業を円滑に行うためのサイト DMZ user's portal のエンジンに採用されており、2006<br />

年より実運用で実績を重ねている。<br />

RDBMS は各種データを管理するための強力なシステムであり、業務データ(物品・人事・<br />

ホスト情報・etc)や、実験データ(メタデータ・イベントデータ・etc)などの管理に利用で<br />

きる。 Oracle、MS SQL Server、日立 HiRDB、MySQL、PostgreSQL などが知られる。しかし、<br />

RDBMS の適切な利用は容易ではない。たとえば RDBMS は複数のテーブル(表)を連携させるこ<br />

とで威力を発揮するが、適切な連携には専門的知識を要するほか、連携したテーブルに対<br />

応したアプリケーションの実装にはコストがかかる。近年 Ruby on Rails など、RDBMS を用<br />

いたアプリケーションの構築コストを下げるフレームワークが隆盛だが、複数テーブル連<br />

携の際にデータスキーマの記述が散逸するなどの問題点を残している。<br />

DBPowder は主に、データスキーマを簡潔に記述するための言語 DBPowder-mdl と、それ<br />

に基づいたアプリケーションを構築するコードジェネレータから構成される。DBPowder は、<br />

フレームワーク基幹部分は簡潔でありながら、オブジェクト指向の関連、委譲、多態性、<br />

継承の記述が可能であり、また RDB の SQL 言語との連携もできる。<strong>2009</strong> 年度は、これらの<br />

特徴について機能やインタフェースの整理を進めた。現在も継続して取り組んでいる。<br />

現在 <strong>KEK</strong> のセキュリティログは、1 日あたり 10GB 前後発生しており、これの有効活用が<br />

課題となっている。<strong>2009</strong> 年度はこれを RDBMS に格納するシステムを構築した。これにより、<br />

セキュリティ事象発生時などに通信状況を迅速に検索できるようになった。また、統計的<br />

解析手法の実証実験に用いている。現在、このシステムを汎用化して DBPowder の一部とし<br />

て取り込むことを進めている。<br />

DBPowder そのものは RDB を用いた汎用的なシステム上で利用可能である。公開して一般<br />

に利用できるよう、取り組んでいるが、利用マニュアルやエラーメッセージの整備などが<br />

課題となっている。


1.7 統計的手法の物理解析への応用とシミュレーション<br />

概要<br />

21<br />

柴田 章博<br />

データマイニングや情報処理に通知統計に基づく研究やその応用研究が様々な分野で<br />

行なわれている。例えば、高エネルギー実験におけるデータ解析は、データマイニングの<br />

過程であり、様々な検出器でとらえられた事象を蓄積し、その蓄積されたデータの中から<br />

興昧あるデータの組(事象)を何段階かに分けて抽出し、データモデルの解析をとおして物<br />

理現象を理解する。データ解析の各ステップにおいても、ニューラルネットワークをはじ<br />

めとしてさまざまなデータマイニングの手法が使われてきた。近年の高エネルギー実験は、<br />

装置の複雑化・巨大化に伴って、解析すべきデータも複雑化・巨大化となるため、効率よ<br />

い開発のためには、実験装置やデータ解析法開発が不可欠である。また、急速な計算機の<br />

発展は、データのデジタル処理を加速し、大規模かつ高速なデータ処理が必要とされる。<br />

一方、ベイズ統計の枠組みは、データ及びモデルパラメータを確率変数として統一的に<br />

扱うことができ、また従来のパラメータ・フィットで使う最尤法を含むため系統的かつ厳<br />

密な解析を行うことができるが、一方で、膨大な計算量を必要としていた。近年の計算機<br />

の急速な発展と普及に伴い、データマイニング及び情報処理においてベイズ統計に基づく<br />

数値統計の研究が急速に発展を遂げ、その成果の様々な分野への応用が行われている。<br />

本プロジェクトでは、ベイズ統計に基づく数値統計の技術・手法の研究とともに、主と<br />

して高エネルギー実験や構造解析など加速器実験におけるデータ解析で必要とされる解析<br />

法に焦点をあてて、具体的テーマを取りあげて研究を進める。と実験データの解析への応<br />

用について研究を行っている。ベイズ統計の特徴であるデータとパラメータを統一的に取<br />

り扱いや条件付確立は因果関係と対応付けたクラフィカルモデルを活用した解析を行うと<br />

ともに、ベイジアン・ネットワークの学習(パラメータ推定)理論などの統計学のさまざ<br />

まなテクニックを活用、及びそれに付随するアルゴリズムの研究を行う。<br />

高輝度電子陽電子線形加速器における実験解析を題材として<br />

ベイズ統計の枠組みを用いることで、対象としている変数全体の関係を統一的に扱い、<br />

データやモデルパラメータにあるあるデータの因果律(物理のモデル法則)を対応させ分<br />

析する。ベイジアン・ネットワークに現れる条件付確率分布関数を連続変数における分布<br />

関数に拡張し、グラフィカルモデリングの手法を用いて、視覚的・直観的に複雑なデータ<br />

構造捉え統計モデルの分析を系統的に見通しよく行う。<br />

高輝度電子・陽電子線形加速器の衝突実験におけるルミノシティー推定法を題材に、事<br />

象のスペクトラムの推定法を研究した。粒子加速、反応式、測定器のモデルに分解するこ


とができ、データ解析に登場する(隠<br />

れ変数を含む)変数全体について分析<br />

を行うことができる。ベイズ統計の特<br />

徴であるデータとパラメータを統一的<br />

に取り扱いによって、各プロセスに分<br />

解し統計モデルの検証を行うことがで<br />

きる。分解したプロセスごとのモデル<br />

の構築と評価をイベント生成器と連携<br />

して行った。<br />

解析用のデータ生成は、素粒子反応<br />

のイベント生成器を活用した。模擬実験(シミュレーション)でデータ生成することで、事<br />

象スペクトラムやノイズの厳密にコントロールの下にモデル評価ができる。このとき、あ<br />

る実験のベイジアンネットパラメータを与えれば、この実験を行ったときのデータ分布の<br />

シミュレーションの結果(順問題)を表現していることになり、ベイジアン・ネットワー<br />

クのパラメータ推定を行うことは、測定器の誤差などを含めた計全体のモデルパラメータ<br />

を決定する逆問題に対応する。<br />

<br />

<br />

厳密な粒子反応の統計モデルを構築とベイズ統計に基づく推定を用いることで、従来の<br />

研究におけるパラメータ推定よりはるかに少ない(実用的な)データ量でパラメータ推定<br />

を行うことができることを示した。また、(加速器パラメータを非対象な設定にするなど)<br />

推定するパラメータ数を増やした環境下においても、精度よくパラメータ推定が可能であ<br />

り、従来提唱の方法を大きく改善するものであることを示した。<br />

EMアルゴリズムによるEMベイジアンネットの評価は、高次元積分などCPU資源を<br />

必要とするため、事象の独立性を利用したMPIによる並列化アルゴリズムの実装し高い<br />

効率化が可能であることを確認した。また、高次元積分の評価法の改善として、積分モジュ<br />

ールの並列化やモンテカルロ法のアルゴリズムの改善について検討を行った。<br />

検出器を配置できないなどにより測定データに欠損が生じ、粒子反応の事象を再構成が<br />

できない場合や解析対象と酷似する事象が発生する場合について、推定法の検討及び系統<br />

的な誤差評価法についても検討を行った。(1)個々の測定器誤差が比較的大きな場合にお<br />

けるパラメータ推定(2)データ欠損や解析事象と酷似するデータの混在する場合のフィ<br />

ルターリングとパラメータ推定法(モデルセレクション)など。擬似データ除去や欠損を<br />

伴うデータの取り扱いを確立することは、精密実験を行なう上で重要であり、現在も、統<br />

計モデルの解析を継続中である。<br />

22<br />

p 1<br />

p 2<br />

q 1<br />

q 2<br />

q 3<br />

photon<br />

<br />

<br />

q’ 1<br />

q’ 2<br />

q’ 3<br />

Missing


2 ネットワークサービス<br />

2.1 機構外接続<br />

苅田 幸雄、湯浅 富久子、鈴木 聡、村上 直、廣瀬 均、<br />

25<br />

西口 三夫、中村 貞次、橋本 清治<br />

<strong>KEK</strong> の対外接続は J-PARC,SINET,APAN,BINP とあり、大学や研究機関に対しての通信はほ<br />

ぼ SINET もしくは APAN を利用している。データ転送の通信経路はこれらのネットワークの<br />

運用ポリシーによって決定される。<br />

<strong>2009</strong> 年度は Belle 実験のデータ転送のため、オーストラリア・メルボルン大との通信お<br />

よびドイツ・カールスルーエ大との通信性能を向上させた。オーストラリアはシンガポー<br />

ルなどを経由する経路とアメリカ西海岸やハワイを経由する経路がある。アメリカを経由<br />

する方がバンド幅は大きいが遅延も長くなるのでこの 2 つの経路のうちどちらが良いかは<br />

ユーザーの使い方によって異なる。Belle グループから相談を受けた段階ではメルボルン大<br />

学についてはシンガポール経由となっていたので、メルボルン大学側のアドレスを小さく<br />

絞ってアメリカ経由となるように変更してもらった。<br />

調査中に経路だけの問題ではなく、データ転送に使用している ssh が依存している暗号<br />

化ライブラリ OpenSSL のバージョンによって著しくデータ転送速度が異なるなどの問題が<br />

判明し、それらの修正によって 300kB/s から 7MB/s へと向上した。<br />

カールスルーエ大については経路の問題はなかったが、両端の ssh に長遅延用のパッチ<br />

を施し、OS の設定を変更することで 265kB/s から 16MB/s へと改善した。<br />

また、ロシア BINP とのシリアル回線を 1 月に 512kbps から 768kbps にアップグレード<br />

を行った。<br />

2.2 機構内ネットワーク<br />

<strong>KEK</strong> セキュアネットワークシステムは運用を開始して 1 年が経過した。今年度のハード<br />

ウェア障害は、新エッジスイッチと新無線アクスポイントについては各1台の交換となっ<br />

ている。ネットワーク処理件数は 3082 件で増加したホスト数は 188、廃止されたホスト数<br />

は 1053、総ホスト数は 10179 であった。また、無線 LAN(MA クラスター)の MAC アドレス<br />

登録数は 7372 であった。<br />

今年度は建物の改修工事が例年より多く、それに伴うネットワーク整備を行った。主と<br />

して、エッジスイッチと無線アクセスポイントの移設や増設と光ファイバー等の LAN ケー


ブルの敷設工事である。建物の改修工事は以下の通りである。<br />

・研究本館1F レクチャーホール・展示室<br />

小林ホール・ラウンジ・会議室へと改修されるため、有線の情報コンセント増設及<br />

び既設無線アクセスポイントの移設と増設を行った。小林ホールには、無線アクセス<br />

ポイント 6 台を設置し各座席列に有線ポート一つを設置することとなったため、sHub<br />

をホール内に増設した。なお、ホール内の無線アクセスポイントはホールの内装・メ<br />

ンテナンスを考慮してアンテナを延長して設置されており、アクセスポイント本体は<br />

ラック内に収容されている。<br />

・国際交流センター<br />

広報室が研究本館1F から国際交流センターユーザーズルームへ移転したことや、<br />

交流ラウンジが展示室に改修されたことによるネットワーク構成を検討したところ、<br />

当面は現状の構成で使用することとなった。<br />

・1 号館<br />

1 号館は全面改修されるため、既存のエッジスイッチと無線アクセスポイントを一<br />

時撤去し建物の竣工時に再設置した。建物のレイアウト変更によりエッジスイッチは、<br />

光ケーブルと共に1F から2F へ移設された。無線アクセスポイントの設置位置につ<br />

いては会議室の場所が変わったため設置位置を見直して再設置を行った。J-PARC の<br />

JLAN 用無線アクセスポイントも同様に移設・再設置を行っている。<br />

・東カウンターホール<br />

改修により用途もユーザーも変わったため、ハブ管理者・AP 管理者が交代となった。<br />

また、会議室新設等により無線アクセスポイントを増設した。今後、設備の建設に伴<br />

ってネットワーク機器の増設が予想される。<br />

2.3 ネットワーク系 UPS 運用報告<br />

計算機南棟マシン室に設置された UPS は現在 3 台稼働しており、それらにはネットワー<br />

ク全般、電子メール、共通情報 WEB サーバの重要な機器が UPS 配下に接続されている。<br />

2006 年 3 月 UPS3 号機導入<br />

2008 年 1 月 UPS4 号機導入<br />

2010 年 3 月 UPS5 号機導入<br />

3 台の UPS は、それぞれ 3 相 200V 40KVA の性能能力を持ち瞬間停電や非常時の停電に機<br />

構側が復電を保証する 10 分程度の保有能力を持つ。また、機構計画停電時には、計算機南<br />

棟西側外壁に設置されている「非常用発電機切り替え盤」から仮設発電機によって UPS を<br />

停止することなく電源供給を行えるようにしている。これにより、UPS 配下の機器は 24 時<br />

間 365 日停止することなく稼働が可能である。<br />

26


<strong>2009</strong> 年 3 月から稼働を開始した <strong>KEK</strong> セキュアネット導入に伴い、機器の全面入れ替えが<br />

行われた。UPS の機能として UPS 主幹、二次側回路の使用状況は、WEB サーバから確認する<br />

ことが出来るが接続機器のデータについては、ローカルに所有し、確認を行っていた。<br />

これを踏まえ、機器導入入れ替え完了後、接続機器の再調査を実施し、接続機器が設置さ<br />

れているラックの名称を決め、ホスト名、機器名の情報収集を行い、電子情報としてデー<br />

タベース化を行った。これにより、WEB サーバのマシン室レイアウトからラックに設置され<br />

ているホスト情報を閲覧することを可能にした。また、ホスト名からもどの回路に接続さ<br />

れているか検索が可能でホスト名と接続ラックの紐付けを行った。但し、UPS への新規接続<br />

や接続変更があった場合は、手動にてデータベース情報の更新を行い、常に最新のデータ<br />

を保つ様にグループ内で管理する必要がある。<br />

図 1 WEB サーバから参照可能なマシン室レイアウトを示す。<br />

図2 各 UPS 主幹使用状況を示す。<br />

図 1 WEB サーバから参照可能なマシン室レイアウト<br />

27


図 2 各 UPS 主幹使用状況<br />

28


3 セキュリティサービス<br />

(<strong>KEK</strong> セキュアネットワークシステム)<br />

金子 敏明、苅田 幸雄、湯浅 富久子、鈴木 聡、村上 直<br />

広瀬 均、柿原 春美、西口 三夫、中村 貞次、橋本 清治<br />

3.1 <strong>KEK</strong> セキュアネットワークシステム<br />

<strong>2009</strong> 年 2 月に <strong>KEK</strong> セキュアネットワークシステムの運用が開始された。ここでは <strong>2009</strong> 年<br />

度のセキュリティに関するセキュアネットワークシステム運用状況について述べる。<br />

3.1.1 <strong>KEK</strong> DMZ ネットワーククラスタの運用<br />

2002 年度より機構外部と双方向の通信が必要な機器のために DMZ ネットワーククラスタ<br />

を運用している。DMZ ネットワーククラスタは、冗長化された二台のファイアウォール装置<br />

で構成されている。<strong>2009</strong> 年度には DMZ 機器の総数は 290 台(<strong>2009</strong> 年 12 月 31 日の時点)とな<br />

った。<strong>2009</strong> 年度における機器の登録及びアクセス許可申請件数を図 1 に示した。<br />

図 1 <strong>2009</strong> 年度月別 DMZ ネットワークへの登録及びアクセス許可申請件数<br />

3.1.2 常時セキュリティ診断システム<br />

<strong>2009</strong> 年 12 月 31 現在、DMZ ネットワーククラスタ (以下 DMZ) では 290 台の機器にそれ<br />

ぞれ最大 3 名の DMZ 機器管理者 (以下管理者) が登録されている。管理者は合計 112 名で<br />

ある。計算科学センターは、各々の管理者の日常セキュリティ維持業務や、情報セキュリ<br />

ティ管理部会による年度毎セキュリティ監査の支援などのために、常時セキュリティ診断<br />

システム nCircle IP360 (以下 nCircle) を運用するとともに、ウェブサイト DMZ user’s<br />

29


• nCircleAPI<br />

nCircle IP360 が提供<br />

各機能をAPI化<br />

– XMLRPC<br />

– ホスト診断操作が可能<br />

– ユーザ情報・ホスト情報等の<br />

取得編集が可能<br />

(※編集不能な情報が多い)<br />

• nCircle hacking<br />

nCircle API で提供されない<br />

機能を実装<br />

– nCircle の html を parse し<br />

て必要データを取得<br />

– DMZ User’s Portal の<br />

form-data を nCircle にフィ<br />

ットする形に変換後、nCircle<br />

に投げる<br />

html<br />

html<br />

Proxy<br />

parse html to<br />

retrieve data<br />

• 監査レポート作成<br />

• 一部自動化<br />

• 各種ウェブ画面<br />

• レポート提出状況一覧<br />

• 1000点以上脆弱性一覧<br />

セキュリティ<br />

マネージャ<br />

nCircle IP360<br />

User info<br />

nCircleAPI<br />

(XMLRPC)<br />

User info<br />

Send<br />

form-data RDBMS<br />

Portal<br />

Module<br />

DMZ User’s Portal<br />

30<br />

Sync log<br />

(Excel XML)<br />

User info<br />

Sync Script<br />

DB-<br />

Powder<br />

Mail Parser<br />

• 1000点以上の<br />

脆弱性メール配信<br />

• 脆弱性一覧表示<br />

• 診断実行<br />

• 診断レポート提出<br />

• Outboundアクセス制御<br />

図 2 常時セキュリティ診断システム 全体図<br />

• User Info Sync<br />

nCircleのユーザDBを<br />

RDBと同期<br />

– 同期結果をExcel<br />

で出力<br />

• Mail Parser<br />

ユーザのホスト申請<br />

メールをparseし、<br />

DBPowderに格納<br />

– 管理者がチェッ<br />

クし最終データ<br />

となる<br />

Hosts<br />

- apply<br />

- modify<br />

- removal<br />

DMZ管理者<br />

portal を構築運用している(図 2)。<br />

nCircle は 2005 年 10 月に運用を開始した。ネットワーク機器のレンタル化に伴い、<strong>2009</strong><br />

年 3 月に最新機種へ更新した。nCircle は、対象機器のスキャンを行う診断装置 3 台と診断<br />

結果を蓄積し解析する管理装置から構成される。3 台の診断装置は機構外ネットワーク<br />

(wan)、DMZ クラスタネットワーク(dmz)、及び機構内ネットワーク(lan) に配置され、機構<br />

内外のネットワークからの攻撃耐性を診断する。診断結果の脆弱性は項目ごとに点数化さ<br />

れ、1000 点以上の脆弱性は危険とされる。nCircle は、必要なときに随時診断を実施でき<br />

るほか、各 DMZ 機器に週 1 回自動的に診断しその診断データを蓄積する。管理者は、自ら<br />

が管理する機器について診断結果を pdf レポートとして受け取ることができる。<br />

ウェブサイト DMZ user’s portal は、nCircle ほか各システムと連動し、DMZ セキュリ<br />

ティに関する各サービスを提供する(図 2)。計算科学センターでは全ての DMZ 機器管理者(管<br />

理者)に nCircle と portal のアカウントを発行している。管理者は、自らが管理する機器<br />

の診断・pdf レポートの取得・脆弱性一覧の閲覧を簡便な操作で実施できる。計算科学セン<br />

ターでは 2007 年度より週 1 回、1000 点以上の脆弱性リストを該当する管理者にメール通知<br />

するサービスを実施している。また <strong>2009</strong> 年度より、管理者の ssh サービスの管理状況を 12<br />

問の質問項目にまとめたアンサーシートを管理者に提供し、セキュリティ監査に活用して<br />

いる。


2005 年より年 1 度、情報セキュリティ管理部会によって DMZ セキュリティ監査が実施さ<br />

れている。<strong>2009</strong> 年度についても、セキュリティ監査(レポート提出)実施方針(付録 A:資料<br />

1)に基づいた監査が実施された。監査で DMZ 機器管理者は、セキュリティ監査の提出期間<br />

内に適切なセキュリティ対策を実施の上 nCircle の pdf レポートなどを診断レポートとし<br />

て提出した。wan からの診断結果については、検出された脆弱性項目ごとに点数が 1000 点<br />

未満であることが求められた。dmz, lan については個別の運用事情を考慮の上 DMZ 機器管<br />

理者へのヒアリングが実施された。<strong>2009</strong> 年度の提出期間は <strong>2009</strong> 年 12 月 7 日~2010 年 1 月<br />

29 日であった。監査結果を付録 B に示す。<br />

計算科学センターでは管理者への広報、診断結果のとりまとめなどの実務を担当した。<br />

DMZ user’s portal を用いて、管理者が管理する機器の把握、レポート作成、レポート提<br />

出を円滑に行えるサービスを提供した (図 2)。<br />

3.1.3 VPN(Virtual Private Network)サーバ運用報告<br />

機構外から機構内ネットワークへのリモートアクセス手段として、機構職員及び共同利<br />

用者に対して VPN によるリモートアクセスサービスを提供している。<strong>2009</strong> 年度は、Web ブ<br />

ラウザを使用して VPN 接続を行う SSL-VPN 方式の本格運用を開始した。従来から運用して<br />

いる IPSec-VPN 方式と並行運用を行う。これによりユーザは、ユーザ端末やネットワーク<br />

環境に合わせて IPSec-VPN と SSL-VPN の二種類の接続方式を選ぶことができるようになり、<br />

ユーザの利便性を向上させることができた。また、特定クラスタ接続 VPN アカウント申請<br />

について、これまでアカウントの有効期限は最長年度末までとし次年度も使用したい場合<br />

には新規で申請が必要であったが、申請処理の事務量の軽減を行うためにアカウントの次<br />

年度利用について継続申請を設けることとなった。<br />

2010 年 3 月末までの登録者数は職員が 494 名、共同利用者が 164 名、特定クラスタ接続<br />

VPN 利用者が 22 名の合計 680 名となっている。図3に月別のアクセス統計を示した。今年<br />

度から本格運用を開始した SSL-VPN 方式での接続も加わり接続数が前年度よりも増加して<br />

いる。<br />

図 3 月別延べアクセス件数<br />

31


3.1.4 不正アクセス検知装置運用報告<br />

<strong>2009</strong> 年度は <strong>KEK</strong> セキュアネットの導入に伴い、<strong>2009</strong> 年 5 月 19 日より不正アクセス検知<br />

装置(以下、IDS と呼ぶ)を CiscoSecureIDS から McAfee IntruShield4010 へ運用変更を行<br />

った。新 IDS では、<strong>KEK</strong>(DMZ も含む)と機構外部及び <strong>KEK</strong> を経由して広域イーサネットで<br />

接続されている 6 大学との通信を TAP 装置を介して複数の通信を監視している。<br />

最近は、セキュリティインシデントとしては、ウィルス感染や WEB アプリケーションへ<br />

の攻撃が目立っている。それらを IDS で検知し、2005 年 10 月から行っているリモートセキ<br />

ュリティ監視により、24 時間 365 日体制で監視を行っている。図4に <strong>2009</strong> 年度の外部から<br />

<strong>KEK</strong> 及び <strong>KEK</strong> から外部宛の通信で IDS が検知したアラート件数を示す。<br />

図 4 <strong>2009</strong> 年度 IDS アラート件数<br />

セキュリティインシデント発生状況<br />

図5に <strong>2009</strong> 年度のセキュリティインシデント発生件数を示す。<br />

図 5 <strong>2009</strong> 年度セキュリティインシデント発生件数<br />

32


【ウィルス感染】<br />

<strong>2009</strong> 年度は、ウィルス感染被害が多く発生し、なかでも USB の自動実行/再生を悪用し、<br />

ウィルス感染を広げた Conficker ウィルスが 12 件、<strong>2009</strong> 年 10 月から発生した Gumblar ウ<br />

ィルスが 6 件、その他ウィルス対策ソフトウェアの未更新等で 8 件、計 26 件のウィルス感<br />

染被害があった。特に Gumblar ウィルスについては、クライアントの Windows OS やウィル<br />

ス対策ソフトウェアが最新であってもサードパーティ製ソフトウェアの Java スクリプトや<br />

Adobe Reader/Flash Player 等のソフトウェアが最新でないと、改竄された WEB サイトを閲<br />

覧しただけで Gumblar ウィルスに感染してしまう。感染するとクライアントに保存された<br />

サーバ接続の為の ID とパスワードを流出させようとし、被害拡大が繰り返される。ウィル<br />

ス感染した PC は、ウィルス対策ソフトウェアで駆除作業を行っても完全に駆除されるまで<br />

には数日掛かり、ウィルス対策ソフトウェアが最新でも定義ファイルの対応が間に合わな<br />

いという厄介なことになっている。<br />

【WEB アプリ脆弱性攻撃】<br />

<strong>2009</strong> 年 5 月 8,9 日にドイツのサイトから <strong>KEK</strong> の公開 WEB サーバに対して複数の翻訳辞書<br />

を利用可能なフロントエンドアプリケーション wordtrans の脆弱性を狙う偵察行為が行わ<br />

れ、そのうち <strong>KEK</strong> DMZ の 1 ホストが脆弱性を突かれ、システムコマンドの実行が行われた。<br />

また、このホストを踏み台にして外部から不正なスクリプトをダウンロードしようと何十<br />

回か試みられたが、接続に失敗し、スクリプトは幸いにも実行されなかった。当該ホスト<br />

は、機構外部に対し、iptables によるアクセス制限によって被害拡大を免れた。<br />

【SSH 辞書攻撃】<br />

<strong>2009</strong> 年 7 月 26 日に <strong>KEK</strong> DMZ の 1 ホストから機構外部の不特定多数のサイトに対し、SSH<br />

辞書攻撃が判明した。調査の結果から当該ホストは 6/26 に account A とパスワードが奪取<br />

され、7/11 には、 account B(guest)とパスワードが奪取されていたことが分かった。ア<br />

カウントを奪取されてから不正アクセスが判明する間、数回に渡り不正にログインされ、<br />

不正アクセスのために使われるツール群を置かれ、実行された。7/26 に当該ホストから機<br />

構外部宛に 1678 万の IP address に対して SSH 辞書攻撃が行われたことが <strong>KEK</strong> ファイアウ<br />

ォールのログから判明している。account A 及び account B(guest)のパスワードが脆弱<br />

だったことが原因となったが、外部からの通信においては、VPN 接続が可能なことから DMZ<br />

ホストの運用を廃止し、システムの初期化を行い、機構内部へ接続申請を行なうことにし<br />

た。<br />

【P2P ファイル交換ソフトウェアの遮断】<br />

機構は、ファイル交換ソフトを利用する著作権侵害について外部機関より警告を受けた<br />

ことで 2008 年 12 月 26 日から P2P ファイル交換ソフトによる通信を遮断することを決めた。<br />

33


これにより、新 IDS でもそれらを継承し、以下の 10 種類の Signature を遮断対象としてい<br />

る。<br />

・ Ares/Gnutella<br />

・ Azureus<br />

・ BitTorrent<br />

・ Fileguri/Freechal<br />

・ KaZaA<br />

・ LimeWire<br />

・ WinMX<br />

・ Winny<br />

・ Xunlei<br />

・ eDonkey<br />

3.2 その他のサービス<br />

3.2.1 アンチウィルスソフトウェアの配布<br />

2001 年度より Windows 用、Macintosh 用など各種のアンチウィルスソフトウェアの配布を行<br />

っている。このうち、Windows 用のものはサーバ・クライアント形態で、集中管理サーバ<br />

(Corporate Edition)と利用者に配布するクライアントソフトウェアからなっている。配布状<br />

況を付録 C に示した。<br />

3.2.2 認証サービス<br />

Web サーバ証明書発行活動(<strong>KEK</strong> LRA 活動)<br />

国立情報学研究所(以下、NII)の学術情報ネットワーク運営・連携本部認証作業部会が進<br />

める「サーバ証明書の発行・導入の啓発・評価研究プロジェクト」(以下、旧プロジェクト)<br />

が終了し新しく「UPKI オープンドメイン証明書自動発行検証プロジェクト」(以下、新プロ<br />

ジェクト)が開始された。<strong>KEK</strong> も新プロジェクトに引き続き参加することとなり、旧プロジ<br />

ェクトから発行されているサーバ証明書の新プロジェクトへの移行作業を行い無事移行す<br />

ることができた。新プロジェクトにおいても計算科学センターはオープンドメイン認証局<br />

の LRA(Local Registration Authority)として発行手続きの業務を担う。主な業務は、申請<br />

者の本人性・実在性の確認、サーバ機器の実在性・管理責任の確認、CSR(Certificate Signing<br />

Request)の受付と NII への送付などである。これらの業務を効率良く行うために Web イン<br />

ターフェイスを開発して使用している。2010 年 3 月末までに 31 枚のサーバ証明書が発行さ<br />

れた。<br />

認証サーバの運用<br />

リモートアクセス(VPN/電話回線)および eduroam 接続時のユーザ認証のために Radius<br />

34


サーバを運用している。2010 年 3 月末の登録者数は、それぞれ 680 名(VPN/電話回線)と 9<br />

名(eduroam)であった。<br />

口頭発表<br />

(1) “<strong>KEK</strong>セキュアネット機器申請電子化 & 2008年度セキュリティ監査”, 村上 直, 第<br />

13回共同利用機関におけるセキュリティワークショップ, <strong>2009</strong>年9月28 -29日, 大阪大学<br />

(2) “<strong>KEK</strong>情報セキュリティ近況<strong>2009</strong>”, 湯浅富久子, 第13回共同利用機関におけるセキ<br />

ュリティワークショップ, <strong>2009</strong>年9月28 -29日, 大阪大学<br />

(3) "セキュアな個人認証環境構築への取り組み" , 橋本清治, 平成21年度高エネルギー加<br />

速器研究機構技術研究会, 2010年3月18日-19日, 高エネルギー加速器研究機構<br />

35


付録 A :資料 1 <strong>2009</strong> 年度 セキュリティ監査(レポート提出) 実施方針<br />

<strong>2009</strong> 年度 セキュリティ監査(レポート提出) 実施方針<br />

情報セキュリティ責任者<br />

<strong>KEK</strong>-DMZ ネットワークに接続されている機器(DMZ ホスト)は、<strong>KEK</strong> の情報セキュリティ<br />

ーポリシーにおいて、年度毎にセキュリティ監査を実施する事とさだめられています(<strong>KEK</strong><br />

情報セキュリティポリシー実施手順書 3.9 項)。DMZ に接続されている監査対象機器毎に、<br />

以下の要領に基づきレポートをご提出くださいますようお願いいたします。なお、適切な<br />

レポートが提出されないなど、監査により機構内外の他の機器の安全性や機構の他の業務<br />

を脅かすと判断された場合には、 <strong>KEK</strong> セキュリティポリシーに基づき、当該ホストの利用<br />

が停止あるいは廃止される場合がありますので、ご注意ください。<br />

また、以下の記載内容にあらわれる各種用語や作業の流れについては、下記のウェブペ<br />

ージに説明がありますので、ご不明な場合は併せてご一読下さい。<br />

http://pencil.kek.jp/wiki/dmz-info/audit/audit<br />

(1) 提出期間<br />

<strong>2009</strong> 年 12 月 1 日(火)~2010 年 1 月 22 日(金)<br />

※ <strong>2009</strong>/12/7(月)~2010/1/29(金) に変更<br />

(2) 監査対象<br />

<strong>2009</strong> 年 12 月 31 日時点で DMZ ホストとして登録されている全ホスト。<br />

記<br />

(3) 提出するレポート<br />

通常の運用条件で DMZ ネットワークに接続し、DMZ User's Portal ウェブサイトを用<br />

いて、dpwan(機構外からの脆弱性を診断する装置)の pdf レポートを作成し、DMZ<br />

User's Portal から提出して下さい。<br />

ネットワークに常時接続していないホストについても、期間中に最低 1 度はネットワ<br />

ークに接続した状態で診断を行い、レポートを作成の上、提出して下さい。<br />

(4) 脆弱性対応<br />

1000 点以上の脆弱性があった場合には、それらの全てに対処したのち再診断を行い、<br />

レポートを作成してください。発見された脆弱性が nCircle 診断機器の誤検知による<br />

場合は、その旨を記述した補足レポートを添付して下さい。<br />

(5) pdf レポートが作成できない場合<br />

(5-1) nCircle が該当ホストを認識できない場合<br />

アクセス制限等の運用形態によっては、pdf レポートが作成できない場合があります。<br />

DMZ User's Portal が、nCircle 以外の手段によって該当ホストが認識できた場合は、<br />

診断不能証明書が発行されますので、それを提出して下さい。<br />

36


診断不能証明書も発行されない場合には、ネットワーク利用実態を記した補足レポー<br />

トを提出して下さい。<br />

(5-2) 該当ホストが DMZ ネットワークに接続していない場合<br />

機器の故障等のため、期間中に DMZ ネットワークに 1 度も接続できなかった場合には、<br />

その理由を補足レポートに記載し提出して下さい。<br />

この場合、危険な状態の機器が不用意に接続されるのを防ぐため、機構外部との通信<br />

が停止されます。<br />

DMZ ネットワークへ再度接続する場合は、仮接続の後、診断レポートを提出し改めて<br />

セキュリティ監査を受けて下さい。監査の結果問題がなければ、機構外部との通信が<br />

再開されます。<br />

なお、接続再開なしに 2 期連続休眠ホストとなることはできませんので、その場合に<br />

は当該ホストの利用はセキュリティ管理部会によって廃止されます。<br />

(6) 問い合わせ先<br />

内容が不明な場合の問い合わせ先は、以下のとおりです。<br />

・ 実施方針一般:各組織のセキュリティマネージャ<br />

(http://www.kek.jp/intra-j/security/local/files/security-kanri_meibo.html)<br />

・ 技術的内容 :計算科学センターコンサルト<br />

(consult@kek.jp)<br />

(7) その他<br />

・ dmz, lan からの診断内容など、提出レポート以外の情報から著しい脆弱性が明らか<br />

になった場合は、セキュリティ管理部会より改善勧告が出されることがあります。<br />

・ 診断内容についてセキュリティマネージャから問い合わせを受けたときは、ご協力<br />

をお願いします。<br />

37


付録 B <strong>2009</strong> 年度セキュリティ診断<br />

B.1 診断実施内容<br />

情報セキュリティポリシーに基づき、各 DMZ 機器管理者がセキュリティ診断を実施した。<br />

計算科学センターは各管理者が診断により作成した診断レポートを収集しとりまとめた。<br />

診断期間と範囲は、表 B.1 の通りである。<br />

提出期間 <strong>2009</strong> 年 12 月 7 日~2010 年 1 月 29 日<br />

監査対象 <strong>2009</strong> 年 12 月 31 日現在、本機構 DMZ クラスタに登録された全ホスト 290 台<br />

診断内容 各 DMZ ユーザが、脆弱性診断装置 nCircle IP360 を用いて、各々管理するホス<br />

トの脆弱性を機構外ネットワークから診断した。主に、以下の項目の実施状況<br />

を診断した:<br />

・ サーバーソフトの更新<br />

・ IP フィルタリングソフトの利用<br />

・ 不要なサービスの停止<br />

表 B.1: 診断期間・範囲<br />

<strong>2009</strong> 年度セキュリティ診断では、nCircle が検出した赤色脆弱性(点数 1000 点以上)の対<br />

処を全て完了させるまで、各管理者が何度でも診断を繰り返すこととした(図 B.1)。この赤<br />

色脆弱性の対処には 2 通りある。<br />

1. セキュリティ対策が十分でない場合<br />

nCircle の勧告などに基づき対策を実施し、再度診断を行う<br />

2. セキュリティ対策が十分な場合<br />

セキュリティ対策済であることを述べた補足レポートを作成する<br />

⑥手動診断<br />

【手動診断】<br />

ユーザの手による診断<br />

【自動診断】<br />

nCircleが週に1度<br />

自動的に行う診断<br />

Start<br />

(nCircle利用)<br />

①診断結果閲覧<br />

②赤色脆弱性が<br />

検出されたか?<br />

(補足レポート未作<br />

成のもの)<br />

Yes<br />

Yes ③赤色脆弱性は<br />

セキュリティ<br />

No<br />

対策済か?<br />

⑤補足レポート<br />

作成<br />

④セキュリティ対策<br />

実施<br />

セキュリティ管理<br />

部会による監査へ<br />

38<br />

【スキャンレポート】<br />

nCircle による脆弱性診断<br />

結果を、pdf に出力したもの<br />

【補足レポート】<br />

nCircleが検出した赤色脆弱性に<br />

対して、セキュリティ対策が<br />

十分であることを示した、<br />

DMZユーザによるレポート<br />

No<br />

⑦診断レポート<br />

提出(提出期間内に!)<br />

※スキャンレポート+補足レポート<br />

図 B.1:セキュリティ診断実施フロー


B.2 監査結果<br />

情報セキュリティ管理部会 (以下、管理部会) によって実施された、<strong>2009</strong> 年度セキュリ<br />

ティ監査の結果を表 B.2 にまとめた。2) は、管理部会によってそれぞれのホストの運用形<br />

態が調査され、個別に対処がなされた。3), 4) は、監査でも合格となった。<br />

1) 利用廃止となったホスト (うち、締切後の廃止申請:2 台) 6 台<br />

2) 診断不能証明のあったホスト 12 台<br />

3) セキュリティ対策済みだが nCircle がそれを検出しなかったと報告のあった 0 台<br />

ホスト(補足レポート添付)<br />

4) 最高点が 1000 点を下回ったホスト<br />

271 台<br />

(うち、pdf レポート締切後提出:6 台、アンサーシート締切後提出:8 台)<br />

5) 休眠ホストとして申請のあったホスト (うち、締切後の申請:1 台) 1 台<br />

合計:290 台<br />

(実施期間:<strong>2009</strong> 年 12 月 7 日~2010 年 1 月 29 日)<br />

表 B.2:監査結果<br />

監査対象ホストの組織別内訳は以下の通りである。<br />

監査対象ホスト内訳(組織別内訳)<br />

素核研 50 台<br />

物構研 31 台<br />

加速器 39 台<br />

共通 (計算科学センター除く) 10 台<br />

計算科学センター (DMZ)<br />

共通計算機 20 台、運用管理室 6 台、<br />

B 計算機 5 台、その他 39 台<br />

39<br />

70 台<br />

(GRID-LAN) 67 台<br />

管理局 17 台<br />

(2010/1/1 以降の利用廃止) 6 台<br />

B.3 診断・監査にあたっての広報・支援活動<br />

表 B.3:監査対象ホスト内訳(組織別)<br />

合計:290 台<br />

<strong>2009</strong> 年度セキュリティ診断および監査を実施するにあたり、以下のように DMZ 機器管理


者に広報・支援活動を行った。<br />

1. DMZ user’s Portal (<strong>2009</strong> 年度)<br />

https://pencil.kek.jp/dmz/ (機構内からアクセス可能)<br />

セキュリティ診断・監査にあたり、DMZ 機器管理者が管理する機器の把握、レポート作<br />

成、レポート提出を円滑に行えるよう、各種機能を集約したウェブページである。<br />

2. DMZ ホストセキュリティ診断のページ(<strong>2009</strong> 年度)<br />

http://pencil.kek.jp/wiki/dmz-info/audit (機構内からアクセス可能)<br />

各管理者への連絡事項などは、メーリングリストを用いるとともに、このページに集約<br />

した。<br />

3. <strong>2009</strong> 年度セキュリティ診断結果報告<br />

http://sec-mgrs.kek.jp/dmz/audit/<strong>2009</strong>_audit_summary.pdf<br />

(機構内からアクセス可能)<br />

<strong>2009</strong> 年度セキュリティ診断の結果報告の詳細である。<br />

40


付録 C <strong>2009</strong> 年度アンチウィルスソフトウェア配布状況<br />

配布するアンチウィルスソフトウェアの種類<br />

○Symantec AntiVirus for Windows(日本語版)<br />

[Windows 98, ME, NT 用] Symantec AntiVirus Corporate Edition 9.0.4<br />

[Windows 2000, XP, 2003 Server 用] Symantec AntiVirus Corporate Edition 10.1<br />

[Windows Vista 用]Symantec AntiVirus Corporate Edition 10.2<br />

○Symantec AntiVirus for Windows(英語版)<br />

[Windows 98, Me, NT 用] Symantec AntiVirus Corporate Edition 9.0.6<br />

[Windows 2000, XP, 2003 Server 用] Symantec AntiVirus Corporate Edition 10.1<br />

[Windows Vista 用] Symantec AntiVirus Corporate Edition 10.2<br />

○Norton AntiVirus for Macintosh<br />

[OS 9 用] Symantec AntiVirus for Macintosh 7.0.2<br />

[OS X 用] Symantec AntiVirus for Macintosh 9.0.1<br />

[OS X(10.3 及び 10.4)用] Symantec AntiVirus for Macintosh 10.0<br />

[OS X(10.5)用] Symantec AntiVirus for Macintosh 10.2<br />

○Symantec Client Security for Windows<br />

[Windows 98, Me 用] Symantec Client Security 2.0.4<br />

[Windows 2000, XP 用] Symantec Client Security 3.1<br />

○Norton Internet Security 3.0 for Macintosh<br />

Norton Internet Security 3.0<br />

○McAfee VirusScan<br />

McAfee VirusScan Enterprise 8.5.0i<br />

41


アンチウィルスソフトウェア配布数<br />

アンチウィルスソフトウェア配布数(集計期間 : <strong>2009</strong>年4月1日~2010年3月31日)<br />

1600<br />

1400<br />

1200<br />

1000<br />

800<br />

600<br />

400<br />

200<br />

0<br />

42<br />

09/04 09/05 09/06 09/07 09/08 09/09 09/10 09/11 09/12 10/01 10/02 10/03<br />

Symantec AntiVirus for Windows (日本語版) Symantec AntiVirus for Windows (英語版) Norton AntiVirus for Macintosh<br />

Symantec Client Security for Windows Norton Internet Security 3.0 for Macintosh McAfee VirusScan<br />

発行割合(%)<br />

09/04 09/05 09/06 09/07 09/08 09/09 09/10 09/11 09/12 10/01 10/02 10/03 ライセンス残数 ライセンス発行<br />

上限数<br />

1368 1378 1370 1375 1370 1374 1374 1379 1375 1377 1379 1365 15 1380 99<br />

109 109 110 110 110 110 109 109 109 109 110 108 2 110 98<br />

208 209 209 199 209 209 210 209 210 210 210 210 0 210 100<br />

279 265 264 263 264 264 264 264 264 264 264 264 6 270 98<br />

7 7 7 7 7 7 7 7 7 7 7 7 3 10 70<br />

Symantec AntiVirus<br />

for Windows<br />

Symantec AntiVirus<br />

for Windows (英語版)<br />

Norton AntiVirus for<br />

Macintosh<br />

Symantec Client<br />

Security for Windows<br />

Norton Internet Security<br />

3.0 for Macintosh<br />

McAfee VirusScan 297 297 297 296 297 296 297 296 296 296 296 296 4 300 99<br />

合計発行数 2268 2265 2357 2250 2257 2260 2261 2264 2261 2263 2266 2250


4 情報サービス<br />

4.1 電子メールシステム<br />

4.1.1 概要<br />

43<br />

押久保 智子、飯田 好美(<strong>KEK</strong>mail)<br />

佐々木 節(<strong>KEK</strong>mail)、真鍋 篤(PostJ-PARC)<br />

電子メールシステム(<strong>KEK</strong>mail と称す)は、共通情報システムの一部として導入され、<br />

研究系用電子メールシステム(Post<strong>KEK</strong> と称す)と管理局系電子メールシステム(Mail<strong>KEK</strong><br />

と称す)からなり、冗長化構成による 24 時間 365 日無停止運用を行なう機構電子メール<br />

環境の中核をなすシステムである。本システムは、2008 年度の共通情報システムリプレ<br />

ースにより、2008 年 12 月より新システムにて運用を行っている。<strong>2009</strong> 年度は、機構計画<br />

停電時の USP 作業のため 3 時間の計画停止を除いて、順調に運用できている。<br />

J-PARC 電子メールシステム(PostJ-PARC と称す)については、7 月から新メーリングリ<br />

ストサーバによる運用と、年度末に PostJ-PARC の主サーバであるメッセージサーバ<br />

Mirapoint の更新を実施した。<br />

4.1.2 活動報告<br />

4.1.2.1 <strong>KEK</strong>mail の主な業務<br />

今年度は、昨年度のシステムリプレースに付随した業務と、継続利用手続き方法の見直<br />

しが主なものであった。<br />

WebMail ソフトである Active!mail 6 については、導入にあたり検証した結果、改良及<br />

び機能追加をメーカーに要望したが一部導入時までには間に合わなかった。今年度になっ<br />

て提供されたもの等について、テスト機上で検証の後サービスに供している。<strong>2009</strong> 年度<br />

は 3 回のバージョンアップを実施している。<br />

8 月の機構計画停電時に、<strong>KEK</strong>mail の接続 UPS を USP2 から UPS3 へ変更した。<strong>KEK</strong>mail<br />

のシステム移行に際しては、メール送受信を停止することなく実施するという方針を採っ<br />

たため、一定期間の新旧両システムの並行運用が必要であった。予定していた UPS3 と UPS4<br />

の容量では賄えない可能性があることが分かり、廃棄予定にしていた UPS2 を整備して新<br />

<strong>KEK</strong>mail が夏まで使用し、8 月の計画停電時に UPS3 に移行した。同時に旧システム仮設置<br />

場所であった MT 操作室から UPS3 まで敷設していた電源ケーブルの撤去作業も行っている。<br />

継続利用手続き方法については、従来は、ユーザ情報ページにて各自が更新ボタンをク<br />

リックする方法をとっていたが、「職員は業務にてメールアカウントを持たされているの<br />

で手続きを免除して欲しい」、「業務委託者などが勝手に更新できてしまうのは、まずい場<br />

合がある」などの声があり、手続き方法を見直した。検討を重ねた結果、以下の方法に決<br />

定した。


1) CCDB と機構職員人事情報をもとに、職員については更新済みにチェックした部局毎<br />

の登録者チェックリストを作成。<br />

2)計算科学センター長、管理局長を経由して、部局の長にデータのチェックを依頼。<br />

3)回収したチェックリストに従い、「更新済み」、「自己更新」、「更新停止」のデータを<br />

作成し、ユーザ情報ページに反映。<br />

4)「自己更新」対象者は、継続利用手続き期間内に各自が手続きを実施。<br />

この方法により、従来の方法よりユーザとのトラブルが減少した。<br />

4.1.2.2 PostJ-PARC メッセージサーバとメーリングリストサーバの更新<br />

PostJ-PARC の主サーバであるメッセージ<br />

サーバ Mirapoint M450(2004 年 2 月購入)が<br />

PostJ-PARC構成図<br />

T52A1<br />

今年度末には運用 7 年目に入り、メーカーサ<br />

JLAN-DMZ<br />

ポートも終了となるため、機器を更新した。<br />

post post1<br />

jms jms1<br />

Mira M600 Mira M600 Iron C150 Iron C160<br />

M450 更新にあたり、種々検討を重ねた結果、<br />

Message server<br />

(Remote Server Replication)<br />

MX server<br />

(Preference value)<br />

Mirapoint M600 2 台 に よ る RSR(Remote<br />

JALANintra-DMZ<br />

Server Replication)を用いた冗長環境を構<br />

ML server LDAP server<br />

築し、データ移行は、アプライアンス製品の<br />

JLANintra<br />

postreg<br />

ため、Mirapoint 本社に委託することとした。<br />

メッセージサーバの更新およびデータ移行作業には運用停止が必要となる。そのため、東<br />

海キャンパス停電時の 2010 年 3 月 27 日夕から 28 日朝にかけ、15 時間運用を停止して移<br />

行作業を実施した。<br />

メーリングリストサーバは 2008 年度末にセットアップは終了したが、ML のデータや保<br />

存メールの移行に運用停止が必要なため、東海キャンパス停電時の 7 月 4 日に更新作業を<br />

実施し、新サーバによる運用を開始した。機器更新に際し、メーリングリストサーバの接<br />

続を JLAN-DMZ から JLANintra-DMZ に変更した。<br />

4.1.2.4 運用報告<br />

<strong>KEK</strong>mail については、上記でも述べたが UPS 接続変更のため機構停電時に 7 時間ほど運<br />

用を停止した。それ以外ではサーバの障害が 2 件あったが、冗長構成のため運用への影<br />

響はなかった。また、配送トラブルなどもなく順調に運用することができている。作業<br />

依頼・問い合わせ等の SE による対応は、335 件(運用管理室対応のものを除く)であった。<br />

PostJ-PARC については、東海キャンパス停電時の 7 月 4 日にメーリングリストサーバ<br />

更新、3 月 27・28 日にメッセージサーバ更新のため、運用を停止している。運用への影響<br />

は無いが、RSR による同期が終了せずバックアップができない障害か 3 件起きている。ま<br />

た、登録ユーザの増加により、ユーザ対応も増加傾向にある。<br />

44<br />

jml jml1 jld jld1


4.1.3 運用統計<br />

4.1.3.1 <strong>KEK</strong>mail<br />

<strong>KEK</strong>mail の登録アカウント数は 2010 年 3 月末現在 1,394 であり、前年度の同時期と比<br />

較すると 19 減である。毎年実施している年度更新手続き前には最大登録数となり 1,500<br />

近くになるが、年度末登録数としてはここ数年 1,400 前後である。運用アドレス総数は<br />

約 5,000 である。メール処理件数は月平均 200 万通で、前年より 40%減少している。2008<br />

年 11 月からスパムメール配信者に対する法的処置が強化され急激にメール処理数が減少<br />

していると思われるが、上記処理件数の<br />

3/4 はスパムとして検知されている。<br />

×10<br />

4<br />

電子メールシステム利用統計<br />

IMAP&POP アクセス数は、月平均 284 万件、<br />

メール処理件数<br />

IMAP&POPアクセス数<br />

Spamメール数<br />

前年より 14%増となっている。IMAP と<br />

POP のアクセス比は約 2:3 であるが、オ<br />

ンタイムでは IMAP 接続が POP 接続を上<br />

3<br />

2<br />

回ることが多々ある。WebMail 接続数は<br />

月平均約 2.8 万件強で、前年度より 40%<br />

1<br />

増である。(利用統計グラフ参照)<br />

0<br />

Apr-09 Jun-09 Aug-09 Oct-09 Dec-09 Feb-10<br />

ウイルス検知件数は年間約 7,761 件で、<br />

前年度より 6 倍強となっている。特に、<br />

9 月下旬から 11 月上旬にかけてウイル<br />

ス付きメールの受信が多く、またそのメ<br />

ールからは複数のウイルスが検知され<br />

ているのが特徴である。ウイルス検知グ<br />

ラフ中、送信メールにわずかではあるが<br />

値がある。これらはパスワード付きファ<br />

イルや、拡張子がスキャン対象外の<br />

unscannable メールであるが、2010 年 1 月には 1 件のウイルスメールを検知している。 (ウ<br />

ィルス検知件数グラフ参照)<br />

メーリングリストは、2010 年 3 月末現在 495 リストを運用しており、前年度より微増<br />

である。リスト年度更新手続きにより、50 以上のメーリングリストを削除しているため、<br />

70 以上の新規申請があったことになる。リストのメンバ数が 1,000 を超える、大きなメ<br />

ーリングリストも増加している。<br />

6<br />

電子メールシステムウィルス検知件数<br />

×10<br />

3<br />

2<br />

送信件数<br />

受信件数<br />

1<br />

0<br />

Apr-09 Jun-09 Aug-09 Oct-09 Dec-09 Feb-10<br />

3<br />

4.1.3.2 PostJ-PARC<br />

PostJ-PARC の登録アカウント数は 2010 年 3 月末現在 872 であり、<strong>2009</strong> 年の同時期の<br />

35%増である。運用アドレス数は約 1800、運用メーリングリスト数 90、配送リスト 60 で<br />

ある。<br />

45


4.2 Web システム<br />

柿原 春美(*)、飯田 好美、村上 晃一、橋本 清治、八代 茂夫<br />

4.2.1 Web サーバ全般について<br />

現在、研究情報システム、コンファレンス Web システム、機構 Web システムの3シス<br />

テム共順調に稼動し続けている。ディスク総容量はそれぞれ研究情報 Web が 2000GB、 コ<br />

ンファレンス Web が 500GB、機構 Web が 200GB 備えていて、容量的には余裕がある。研<br />

究情報 Web ではユーザ単位では標準ディスククオータ値 1GB、グループディスククオー<br />

タ値 100GB で運用中であり利用希望者は日々増加している。各システムの登録アカウン<br />

ト数は2010年6月時点で以下のようになっている。<br />

Web システム関連 active ユーザ&グループ数(2010 年 6 月 14 日時点)<br />

○研究情報 web システム<br />

アカウント数:213<br />

グループ数:97<br />

特に研究プロジェクトのページには、スーパーB ファクトリー、J-PARC ハドロンビーム<br />

ライングループ等の74グループの研究情報が掲載されている。<br />

また研究者・技術者個人のページ にも15人がホームページを公開している<br />

○コンファレンス web システム<br />

アカウント数:71<br />

グループ数 :74<br />

○機構 Web システム<br />

アカウント数:89<br />

グループ数 :25<br />

○ccwww (計算科学センター関連 Web)<br />

アカウント数:28<br />

グループ数 :44<br />

4.2.2 機構 Web の統計情報<br />

広報室が運用している機構 Web では、ホームページのデザインが今年 4 月より一新さ<br />

れ斬新なデザインに模様替えされた。また当 Web のホームページの <strong>2009</strong> 年のアクセス<br />

状況に関していえば、アクセス件数としては900万件前後/月 70万ページ前後/<br />

46


月である。国別では、日本からのアクセスが50%を占めている。組織的には kek.jp<br />

が25%程である。<br />

<br />

<br />

<br />

月 リクエスト件数 ページ数<br />

<strong>2009</strong> 年 1 月 10718529 672919<br />

<strong>2009</strong> 年 2 月 9580893 621219<br />

<strong>2009</strong> 年 3 月 9110031 646951<br />

<strong>2009</strong> 年 4 月 10305926 679870<br />

<strong>2009</strong> 年 5 月 10318598 670016<br />

<strong>2009</strong> 年 6 月 9983459 640405<br />

<strong>2009</strong> 年 7 月 9580928 648101<br />

<strong>2009</strong> 年 8 月 8706371 620807<br />

<strong>2009</strong> 年 9 月 8517868 636307<br />

<strong>2009</strong> 年 10 月 9402603 701053<br />

<strong>2009</strong> 年 11 月 9022679 716356<br />

<strong>2009</strong> 年 12 月 9845000 770209<br />

<br />

日付 リクエスト件数 ページ数<br />

<strong>2009</strong> 年 1 月 1 日 95845 9465<br />

<strong>2009</strong> 年 2 月 1 日 224028 15043<br />

<strong>2009</strong> 年 3 月 1 日 161443 15000<br />

<strong>2009</strong> 年 4 月 1 日 374482 23442<br />

<strong>2009</strong> 年 5 月 1 日 387809 22605<br />

<strong>2009</strong> 年 6 月 1 日 393806 22128<br />

<strong>2009</strong> 年 7 月 1 日 338833 21052<br />

<strong>2009</strong> 年 8 月 1 日 179236 18295<br />

<strong>2009</strong> 年 9 月 1 日 353365 22112<br />

<strong>2009</strong> 年 10 月 1 日 378612 27601<br />

<strong>2009</strong> 年 11 月 1 日 159827 14409<br />

<strong>2009</strong> 年 12 月 1 日 425569 30352<br />

<strong>2009</strong> 年 12 月 18 日 846532 43518(最大)<br />

<strong>2009</strong> 年 12 月 31 日 100614 12610<br />

47


曜日 リクエスト件数 ページ数<br />

日 8878121 783051<br />

月 19220906 1260795<br />

火 19294756 1287693<br />

水 18688711 1242549<br />

木 19667299 1275721<br />

金 19770404 1326054<br />

土 9572688 848350<br />

<br />

<br />

このレポートは、リクエストしたコンピュータの国別(組織別)統計を表します。<br />

48


<br />

このレポートは、リクエストをしたコンピュータのドメインの統計を表します。<br />

49


4.3 アジェンダシステム<br />

4.3.1 はじめに<br />

50<br />

八代 茂夫、村上 晃一、柿原 春美<br />

KDS (<strong>KEK</strong> Document Server) は CERN Document Server Software Consortium によって<br />

開発されている CDS Indico による、会議や打ち合わせを支援するシステムである。運用し<br />

ているバージョンは 0.96.2 である。最新バージョン 0.97.0 の適用については、安定性の<br />

状況を見ているところである。<br />

4.3.2 利用状況<br />

カテゴリー毎に登録イベント数(会議数)の状況を表1および図1に示す。Experiments<br />

関連イベントが、J-PARC 実験の開始に伴い目覚しく増加している。Belle, Belle II 関連<br />

の増加も目立っている。<br />

表1登録イベント数の推移<br />

Category 2007/3 末 2008/3 末 <strong>2009</strong>/3 末 2010/3 末<br />

Experiments 355 925 1500 2714<br />

Projects - - 224 316<br />

IPNS 14 18 37 102<br />

Photon Factory (PF) - - 0 3<br />

Accelerator Lab. - 194 1057 1356<br />

CRC 8 15 22 25<br />

Cryogenics Science<br />

Center<br />

- - 1 1<br />

Conferences,<br />

Workshops<br />

15 33 47 63<br />

Seminars 10 10 10 10<br />

JPS 3 5 7 9<br />

合計 405 1200 2905 4599


events<br />

5000<br />

4500<br />

4000<br />

3500<br />

3000<br />

2500<br />

2000<br />

1500<br />

1000<br />

500<br />

0<br />

Jan-07<br />

Mar-07<br />

May-07<br />

Jul-07<br />

Experiments<br />

Projects<br />

Accel. Lab.<br />

Other<br />

Total<br />

Sep-07<br />

Nov-07<br />

Jan-08<br />

Mar-08<br />

図 1 登録イベント数の月毎の推移<br />

May-08<br />

51<br />

Jul-08<br />

Sep-08<br />

Nov-08<br />

Jan-09<br />

Mar-09<br />

May-09<br />

Jul-09<br />

Sep-09<br />

Nov-09<br />

Jan-10<br />

Mar-10


4.4 Wiki システム<br />

4.4.1 運用<br />

52<br />

村上 晃一、八代 茂夫、柿原 春美<br />

2008 年度の共通情報システムの更新に伴い、<strong>2009</strong> 年 4 月より Wiki システムの運用が開<br />

始された。ネットワーク上で簡単にコンテンツの追加や編集が行え、研究グループの文書<br />

共有や研究者の文書管理、情報発信として利用されている。<br />

共通情報システムでは、アトラシアン社製 Confluence を使用している。500 ユーザまで<br />

利用可能なライセンスを導入している。コンテンツ領域として、2TB のディスクスペースを<br />

用意している。http://wiki.kek.jp/ にて運用を行っており、現在、約 90 人のユーザ、25<br />

の研究グループで利用されている。<br />

<strong>2009</strong> 年度は、システムメンテナンスとして、Confluence のバージョンアップ作業を 2010<br />

年 1 月に実施した。また、ユーザのリクエスト等により、適宜、プラグイン機能の追加を<br />

行っている。システムの稼働率は高く、サービス停止時間を極力少なくして運用されてい<br />

る。今年度の運用では、システムトラブル等による障害は発生していない。また、検証シ<br />

ステムにて事前の検証作業を行うことで、メンテナンスによる停止時間を 30 分程度と非常<br />

に短くすることが可能となっている。<br />

4.4.2 利用統計<br />

登録ユーザ数と登録スペース数の推移を図 1、図 2 に示す。


図1 Wiki システムの登録ユーザ数の推移<br />

図 2 Wiki システムの登録スペース数の推移<br />

53


4.5 ソフトウェア・サポート<br />

54<br />

柿原 春美、村上 晃一、金子 敏明<br />

<strong>2009</strong> 年度において、計算科学センターが利用者に提供してきたサイトライセンス扱いの<br />

ソフトウェアやソフトウェア開発環境には次のものがある。<br />

数式処理プログラム Mathematica<br />

構造解析プログラム ANSYS<br />

4.5.1 Mathematica<br />

この中で今年度も最もよく使われていたのはサイトライセンスの Mathematica である。<br />

このサイトライセンスの運用は、機構内有志の協力を得て行なわれている。<br />

利用ホストとしては Windows、Macintosh 用のものが圧倒的に多く両方合わせて約66<br />

1件近くになる。Linux/PC-Unix 90数件になり、UNIX 系が少々となる 。また Mathematica<br />

Home Use ライセンスの利用申請も、当年度末で総計26件(2010/6 末)に達している。こ<br />

のライセンスを取得(無償)すれば、本機構の職員の個人所有の家庭の PC 等でも Mathematica<br />

を使用することができる。ただし提供会社の規約により機構職員に順ずる人がこの制度を利<br />

用することはできない。<br />

以下は9月の契約更新時の登録のべユーザ数は以下の通りである。ただし、廃止数の把<br />

握は困難であり、実際のユーザ数はこれより少ない。<br />

Windows(シングル) 342<br />

Macintosh(シングル) 319<br />

Linux(シングル) 90<br />

Unix(シングル+ネットワーク) 177<br />

計 928<br />

表 1 当表は9月の契約更新時の登録のべユーザ数は以下の通りである。ただし、廃<br />

止数の把握は困難であり、実際のユーザ数はこれより少ない。


4.5.2 ANSYS<br />

次によく使われているのは ANSYS である。物質構造科学研究所から 1 ライセンス供出し<br />

てもらっており、これを含め <strong>2009</strong> 年度も solver が 3 ライセンス、(Emag/3D 1 本、Multiphysics<br />

2本)、prepost が 3 ライセンスの構成となっている。当年度に新たに 30 人の利用申請があ<br />

った。(去年は18人)内訳としては、<strong>KEK</strong> 内部、JPARC、東大、阪大の<br />

共同研究者であった。最近時勢で <strong>KEK</strong> 職員が JPARC で利用するケースがでてきた。<br />

4.5.3 アンチウイルス・ソフト<br />

Symantec AntiVirus for Windows<br />

(日本語版)<br />

Symantec AntiVirus for Windows<br />

(英語版)<br />

2010/03時点のライセンス許可数<br />

55<br />

1365<br />

Norton AntiVirus for Macintosh 264<br />

Symantec Client Security for<br />

Windows<br />

Norton Internet Security 3.0 for<br />

Macintosh<br />

McAfee VirusScan 296<br />

合計発行数 2250<br />

上の表のようにライセンスの余りは殆どなく、一番利用度の高い Symantec AntiVirus for<br />

Windows(日本語版)で残り10前後である。今期は年度更新を実施し、不要なライセンス<br />

の引き上げを考えている。<br />

4.5.4 ソフトウエア・サーバ<br />

共通情報システムの上でソフトウエア・サーバを利用しているが、共通情報システムの<br />

更新に伴い、利用可能スペースが拡大し約5000GB(5Tb)を供与してもらって ANSYS(windows<br />

版、Linux 版)、Mathematica(主に windows 版)のインストールの際にもこれを利用している。<br />

109<br />

279<br />

7


4.6 PC 構成サーバ<br />

4.6.1 PC 構成サーバの概要<br />

56<br />

柴田 章博<br />

計算科学センターでは、デスクトップ PC のインストール・セットアップ作業やセキュリ<br />

ティー対策などの管理作業コストを軽減させることを目的として、PC 構成サーバを設置し<br />

た。PC 構成サーバは、機構キャンパスに散在する PC を対象とし、機構 LAN を経由した遠隔<br />

支援のサービスを提供している。現在は、Windows (XP professional、Vista business) の<br />

稼働する PC を対象としており、運用管理室で貸出している「プレゼンテーション用 PC」や<br />

研究系の事務室などが主要ユーザとなっている。<br />

PC 構成サーバでは、(a)PC の構成情報の収集 (b)ソフトウエアのインストールや環境設<br />

定の自動実行 (c) 基本ソフト(OS)やセキュリティー対策ソフトの自動更新 (d) 定期的<br />

に収集した各 PC 構成情報に基づき、自動メンテナンス (e) 研究や業務に必要な主要な有<br />

償ソフトウエアのライセンス管理と配布、のサービスと提供している。<br />

これらのサービスは、さまざまなグループの利用目的に合わせたソフトウエア構成に対応<br />

できるように, (1) PC 構成サーバであらかじめスケジュールされたプログラムに従い、自<br />

動実行されるものと, (2)メニュー形式によってユーザが選択的に実行するものとで構成さ<br />

れている。<br />

4.6.2 サービスの充実<br />

4.6.2.1 Windows 7 への対応<br />

<strong>2009</strong> 年度暮れに、新しい基本ソフト(OS)Windows 7 がリリースされた。PC 構成サー<br />

バのサービスを構築しているソフトウエアは、OS に係る情報の収集など、OS に依存した部<br />

分を多く含んでおり、新しい OS へ対応するために様々な変更が求められる。今回の更新は、<br />

Windows Vista のカーネルをベースとしており、基盤ソフトウエア(pallet control)の<br />

Windows 7 対応版でのバージョンアップを行うことで対応できることが期待された。<br />

基盤ソフトウエアの Windows 7 対応版は、Windows 7 発表後 4 カ月余り遅れた。Windows<br />

Vista への対応においては、リリース直前にβ版(評価版)からの変更がなされたため、基<br />

盤ソフトウエアのリリースが発売から大幅に遅れるなど、対応に提供サービス変更および<br />

検証作業に時間を要した。今回の更新は、プリンタードライバーなど配布ソフトを Windows<br />

7 版と置き換えるなどの最小限のものに抑えられた。しかしながら、提供ソフトウエアそれ<br />

ぞれの新しい OS への対応状況の確認と参照環境における動作確認などの作業が必要であり、<br />

サービスを提供するまでにさらに 1 月ほどの作業時間を要した。


4.6.2.2 標準環境の完全自動管理の R&D<br />

現在の PC 構成サーバの運用で配布するソフトウエアは、基本構成ソフトウエア、標準<br />

構成ソフトウエア、追加ソフトウエアの3種類の構成となっており、基本構成ソフトウエ<br />

アと重大なセキュリティーパッチのみが自動更新の対象となっている。様々なユーザの利<br />

用形態を画一的な管理を行うことに伴う弊害を危惧して、PC 構成サーバからインストー<br />

ル・環境設定・変更のメニューを提供し、メニューから必要項目を選択・実行してもらう<br />

方式を行っている。<br />

もう一つの選択肢として、完全自動管理を行う方策について R&D を進めてきた。対象と<br />

する PC 群は、複数のサブネットや NAT・パーソナルファイアウォールの配下にあるため<br />

Windows の active directory (windows ドメイン)を用いた一元的な管理方式ではなく、PC<br />

構成サーバの管理機能を用いて実現することを目的とする。このことによって、PC のユー<br />

ザの管理作業が大幅に軽減される。R&D は、プレゼンテーション用 PC を対象にプロトタイ<br />

プを作成し行ってきた。<br />

本サービスは、PC 構成サーバ配下の PC の新たな管理グループを作成し、完全自動管理<br />

のグループに属する PC のみに対して、完全自動化のサービスを適用するように設定を行っ<br />

た。<strong>KEK</strong>-LAN を経由した PC の遠隔管理は、PC ログイン時(または、決められた時間)に PC<br />

構成サーバにインベントリー情報を送るように設定されており、そのタイミングで PC グル<br />

ープや PC 毎に計画されたタスクが実行されることで実現される。<br />

現在、一般の PC を対象として、サービスを提供するための準備を行っている。PC の参<br />

照構成(標準構成)を定め、スタートアップ CD を用いた標準構成の一括設定やセキュリテ<br />

ィーパッチ、ソフトウエアのアップデートの自動化を提供する予定である。<br />

57


5. 計算サービス<br />

5.1 共通計算機システム<br />

5.1.1 はじめに<br />

飯田 好美(*)、八代 茂夫、村上 晃一、佐々木 節<br />

共通計算機システム(以下、「<strong>KEK</strong>CC」という)は、素粒子・原子核実験、放射光実験、中<br />

性子実験、加速器開発、理論計算等の様々な研究ニーズに応じたデータ解析システムを提供<br />

するものである。<strong>2009</strong> 年 3 月 2 日から運用が開始された新 <strong>KEK</strong>CC は、とくに J-PARC プロジ<br />

ェクトでの実験グループが主要ユーザとなる。また、本格的な GRID サービスの提供が開始<br />

された。<br />

5.1.2. <strong>2009</strong> 年度の運用<br />

1) HPSS の接続コネクション数の調整<br />

HPSS の利用が増大するにつれて、接続コネクション数が上限に達してアクセスが失敗する<br />

事象が発生するようになった。<strong>KEK</strong> の max connection=450 は推奨値となっており、増加さ<br />

せると別の問題の誘因となる可能性があった。値を 600(<strong>2009</strong>/5/7), 900(<strong>2009</strong>/6/4) と副作<br />

用が起こらないことを確認しながら少しずつ増加させた。<strong>2009</strong>/6/14 に 1200 にしたところ、<br />

リソース不足ということで、HPSS アクセスの失敗、アクセスに異常に時間がかかる等の問題<br />

が発生した。<strong>2009</strong>/6/24 に値を 1000 にしたところ安定しているので、この値で運用を行な<br />

っている。<br />

問題を調査している中で、API や pftp の場合には 1 つのファイル I/O に数個のコネク<br />

ションを張ること、一方、iRODS, GRIDftp, SCP など VFS 経由のアクセスの場合には、コネ<br />

クションが管理されているために少ない数で済むことが判明した。<br />

2) HPSS のバージョンアップ<br />

当初導入して現在も使用しているバージョン 6.2 は <strong>2009</strong>/12 で開発元のサポート対象外<br />

となった。<strong>KEK</strong>CC ではバージョンアップの予定の調整が難航して遅れているが、2010/8 末に<br />

行なうことで調整がついた。<br />

バージョンアップにより、 VFS の安定運用が期待できる。また、かねてから要望していた、<br />

小さいファイルの効率的な処理機能がサポートされる。この新機能については、公開する前<br />

に HPSS の担当者で十分な検証を行なう予定である。<br />

一方、利用者のクライアント計算機では、HPSS パッケージの入れ替えや、プログラムの再<br />

コンパイルが必要になる。<br />

58


3) Belle グループの HPSS 利用<br />

Belle グループから、DataGrid 技術を用いたデータ転送試験を行うために、<strong>KEK</strong>CC の HPSS<br />

を使いたいとの要望が 2010 年 4 月に出された。<strong>KEK</strong> の計算資源の使い分けの方針にかかわる<br />

問題であるので、計算資源審議委員会の了解を得た上で利用可能にした。<br />

4) サーバ計算機の電源ユニットの障害調査と対策<br />

計算サーバおよびワークサーバで、CPU の負荷が高まると温度異常を検出して電源断によ<br />

りシステムが停止する現象が <strong>2009</strong> 年 4 月から 12 月にかけて 13 回発生した。当初、同機種<br />

で類似現象が起こっていないということなので、局所的な温度上昇を疑い、さまざまな送風<br />

の対策を繰り返したが解決しなかった。<br />

その後、外国の CPU 負荷が非常に高い使い方をしているサイトでも同様の現象が発生した。<br />

開発元で調査をすすめた結果、原因が判明し部品交換を行なうことになった。2010/2/15 か<br />

ら 4/9 にかけて全 96 ノードの交換作業を行なった。<br />

5.1.3 利用状況<br />

<strong>KEK</strong>CC の 2010 年 3 月末までの CPU 使用率は図 1 の通りで、had, mlf, t2k などの J-PARC<br />

実験グループが使用率の約半分を占めている。<br />

図 1 <strong>KEK</strong>CC 計算サーバ CPU 使用率<br />

59


<strong>KEK</strong>CC の 2010 年 3 月までの HPSS データ総量は図 2 の通りである。koto グループのデータ<br />

蓄積量は 1 年で倍増し、300TB にまで達した。この図には旧システムの前のシステムから引<br />

き継いだ 120TB のテープライブラリは掲載されていないため、総データ量としては約 490TB<br />

となる。<br />

5.1.4 <strong>KEK</strong>CC の概要<br />

図 2 <strong>KEK</strong>CC HPSS データ総量<br />

<strong>2009</strong> 年に導入した <strong>KEK</strong>CC は、表 1 に示すサーバ群により構成されている。<br />

1) 磁気ディスク<br />

計算サーバ、ワークサーバおよび並列サーバのユーザのホーム領域であり、GPFS のインタ<br />

ーフェイスでアクセス可能である。この領域は研究グループの計算機のデータ領域としても<br />

利用できるよう、NFS サーバ、Samba サーバおよび SSH サーバとしての運用も行っている。<br />

2) 階層化ストレージ<br />

実験データ等の特に大容量のデータを保存するための領域であり、磁気ディスクをステー<br />

ジング領域、磁気テープをデータ保管領域とする階層型記憶管理システムである。3592 容量<br />

拡張カートリッジ(最大容量 1TB)を 3000 カートリッジ以上搭載可能となっており、実効容量<br />

は 3PB 以上である。<br />

ユーザインターフェイスとしては高速アクセスのための API および pftp、ファイルシステ<br />

ムとしての VFS、NFS V4 および CIFS を運用している。また、SCP, iRODS, GRIDftp, により<br />

60


VFS 経由でアクセスが可能にしている。<br />

磁気ディスク IBM General Parallel File System(GPFS)<br />

IBM System StrageDS4800 6 台, 205TB<br />

IBM System p5 520(POWER5+ 1.65GHz, 4GB)6 台<br />

階層化ストレージ IBM High Performance Storage System(HPSS) 最大 3PB<br />

IBM System Storage TS3500 テープライブラリ 9 フレーム<br />

IBM System Storage TS1130 テープドライブ 10 台<br />

IBM System Storage DS4800 10TB(ステージング領域)<br />

IBM System p550(POWER6 3.5GHz, 8GB)2 台<br />

IBM System p5 220(POWER5+ 1.65GHz, 4GB)5 台<br />

IBM System x3650(Intel Xeon-QX5460 3.16GHz, 8GB)4 台<br />

ワークサーバ Red Hat Enterprise Linux 5<br />

IBM System x3550(Intel Xeon-QX 5460 3.16GHz, 16GB)8 台, 64CPU<br />

計算サーバ Red Hat Enterprise Linux 5<br />

IBM System x3550 80 台, 640CPU<br />

並列サーバ Red Hat Enterprise Linux 5<br />

IBM System x3650(Intel Xeon-QX 5460 3.16GHz, 32GB)4 台, 32CPU<br />

アクセスサーバ IBM System p 51A 2 台<br />

GRID サーバ IBM System x3650 33 台<br />

IBM System xSeries226(Intel Xeon 3GHz, 4GB)2 台<br />

表 1 <strong>KEK</strong>CC の構成<br />

3) ワークサーバ、計算サーバ<br />

ワークサーバは SSH でログインして、プログラム開発、ジョブの投入などの作業を行うた<br />

めのものである。ワークサーバから投入されたジョブは Platform Computing 社製 LSF によ<br />

りスケジューリングされて計算サーバで実行される。<br />

新 <strong>KEK</strong>CC のワークサーバでは旧 <strong>KEK</strong>CC のアクセス制限つきアクセスサーバの機能を統合し、<br />

申請のあった機構外部の共同研究機関からも SSH で直接ログインすることが可能である。<br />

4) 並列サーバ<br />

並列サーバは SSH でログインし、並列計算に特化したプログラムの開発、ジョブの実行を<br />

行うためのものである。汎用量子化学計算プログラム Gaussian 03 がインストールされてい<br />

る。<br />

5) アクセスサーバ<br />

機構外からワークサーバに SSH でログインするための DMZ 上の中継サーバである。公共の<br />

ネットワークからの接続などを考慮し、アクセス制限は行っていないが、アクセスサーバか<br />

61


ら接続できるのはワークサーバへの SSH ログインのみである。<br />

6) GRID サーバ<br />

GRID ミドルウェアとして LCG、NAREGI および iRODS を稼動しており、GRID 環境に必要な<br />

電子認証局も同時に運用を行っている。LCG および NAREGI の計算ノードとしては <strong>KEK</strong>CC の計<br />

算サーバが、LCG、NAREGI および iRODS のデータストレージとしては <strong>KEK</strong>CC の階層化ストレ<br />

ージが利用可能である。<br />

5.1.5 報告等<br />

・共通計算機システム、HEPnet-J ユーザー会<br />

http://kds.kek.jp/conferenceDisplay.py?confId=3679、<strong>2009</strong>/10/2<br />

・JPARC 実験データの共通計算機システムへの転送、八代茂夫、<strong>2009</strong> 年度技術研究会(<strong>KEK</strong>)、<br />

2010/3/19<br />

http://www-eng.kek.jp/meeting09/proceedings/pdf/h21g5006.pdf<br />

・iRODS を用いたデータ管理システムの導入、飯田好美、<strong>2009</strong> 年度技術研究会(<strong>KEK</strong>)、<br />

2010/3/19<br />

http://www-eng.kek.jp/meeting09/proceedings/pdf/h21g5007.pdf<br />

62


5.2 グリッドシステム<br />

5.2.1 概要<br />

飯田好美、岩井剛、河井裕、佐々木節、鈴木聡、渡瀬芳行、八代茂夫<br />

計算科学センターではグリッドコンピューティングの仕組みを利用し、本機構と共同研<br />

究を行う研究機関との間で、データ及び計算資源を共有するためにグリッドシステムを構<br />

築し、運用を行っている。<br />

混乱を避けるため、先に本節で用いられるグリッドシステムという用語に対する解釈を<br />

与える。図 1 は実際にインストールされた計算科学センターに於いて運用中の要素をサー<br />

ビスに着目し、まとめたものである。図 1 に示されるように多くの場合、グリッドに於け<br />

るサービスとは一つ以上の小サービスがお互いに作用することにより形成され、複数のサ<br />

ービスにより、グリッドに於ける管理単位に相当する「サイト」が形成される。これはグ<br />

リッドの「複数機関に跨った計算基盤を利用する」という設計思想に基づく。このサイト<br />

を形成・構築するためのソフトウェアを特に区別してミドルウェアと呼ぶが、計算科学セ<br />

ンターでは複数のミドルウェア(gLite、NAREGI、iRODS、SRB 等)を使用し、複数サイトを<br />

運用している。本節では計算科学センターで運用される、これら複数のサイトを全て含め<br />

「グリッドシステム」として扱うこととする。<br />

次節以降でグリッドシステムを構成しているサイトの利用状況と、これらにより提供さ<br />

れる計算基盤上での昨年度活動内容について報告する。<br />

図 1 計算科学センターにて実運用中の Grid 計算基盤の構成。実際には複数のミドル<br />

ウェア(NAREGI, SRB, iRODS, gLite 等)により複数のサイトが構成されているが、混<br />

乱を避けるため、図中には gLite ミドルウェアにより構成された LCG (LHC Computing<br />

Grid) 計算基盤のみを示した。<br />

5.2.2 <strong>KEK</strong> Grid CA (Certificate Authority)<br />

<strong>KEK</strong> Grid CA は世界に 80 程度ある IGTF1 の策定する規格に準拠・承認された認証局の一<br />

つである。2006 年 2 月に正式運用を開始して以来、主に国内のグリッド利用者、及びサー<br />

1 The International Grid Trust Federation: http://www.gridpma.org/<br />

63


ビス提供ホストに対して電子証明書を発行して<br />

いる。<br />

図 2 に <strong>KEK</strong> Grid CA が <strong>2009</strong> 年度に発行した<br />

個人証明書とホスト証明書の発行部数を示す。<br />

<strong>2009</strong> 年度は 232 部の個人証明書と 308 部のホス<br />

ト証明書が発行され、認証局運用開始以来の累<br />

計発行部数はそれぞれ 640 部、1195 部に達した。<br />

図 2 <strong>2009</strong> 年度の電子証明書発行部数<br />

5.2.3 LCG 計算基盤<br />

JP-<strong>KEK</strong>-CRC-01 及び JP-<strong>KEK</strong>-CRC-02(以降 <strong>KEK</strong>-1 及び <strong>KEK</strong>-2 と表記)は EGEE2 が開発を推<br />

進する gLite ミドルウェアにより構築された計算資源を提供するサイトである。約 50 カ<br />

国・200 機関から 300 程度のサイトが参加することによって、LCG と呼ばれる全世界規模の<br />

計算基盤が展開され、当センターはそのうちの 2 サイトである <strong>KEK</strong>-1 及び <strong>KEK</strong>-2 が運用中<br />

である。<br />

<strong>KEK</strong>-1 は研究開発用途に、<strong>KEK</strong>-2 は <strong>KEK</strong>-1 で培われた経験に基づき、より安定したサー<br />

ビスを提供するために分離して運用がなされている。<strong>2009</strong> 年度中は <strong>KEK</strong>-1 に対して大きな<br />

変更や障害が発生しなかったため、以降は特に注釈のない限り、<strong>KEK</strong>-2 のみに関する報告で<br />

ある。<br />

サービス稼働率<br />

図 3 に <strong>2009</strong> 年度中に発生したダウンタイム<br />

とサービス稼働率を示す。<strong>2009</strong> 年度は 300 時間<br />

程度のダウンタイムが発生し、システムの年間<br />

稼働率は 96.5%であった。図 3(上)からわかる<br />

ように、<strong>2009</strong> 年 4 月に 160 時間以上のダウンタ<br />

イムが発生しているが、これは <strong>2009</strong> 年 3 月に導<br />

入された現行の共通情報システムへの移行に於<br />

いて、逐次、段階的に計算資源を供し 1 ヶ月ほ<br />

どの間、縮退運転していたことが原因である。<br />

したがってサービスの全停止を意味していない。<br />

LCG に於いて定められた月間最小サービス稼働<br />

率は 70%に設定されており 3 、これは図 3(下)<br />

に見ることが出来るように <strong>2009</strong> 年 4 月以外の月 図 3 <strong>2009</strong> 年度に発生したダウンタイム<br />

次は年度を通じて満足した。<br />

(上)とサービス稼働率(下)<br />

2 Enabling Grids for E-sciencE: http://public.eu-egee.org/<br />

3 算出式を含む完全な資料は https://edms.cern.ch/document/860386/ から取得可能。<br />

64


利用状況<br />

図 4 に <strong>2009</strong> 年度中に投入されたジョブ数と<br />

CPU 消費時間 4 を示した。投入ジョブの総数は<br />

23,790 でそのうち 56%は Belle VO で 33%は ILC<br />

VO で一方、CPU 消費時間は Belle VO が 31%で ILC<br />

VO が 64%であった。<strong>2009</strong> 年度は段階的に計算資<br />

源を増量したため、月次毎に全体の資源量が異<br />

なる。そのため正確な CPU 使用率の算出は難し<br />

いが、図 4(下)に於けるピーク月(<strong>2009</strong> 年 12<br />

月次)は全体の 20%程度に相当する。<br />

ストレージサービスは共通情報システム<br />

HPSS をバックエンドに VFS マウントした領域を<br />

GridFTP 及び SRM プロトコルでサービスを提供<br />

している。記憶領域の増設については、グルー<br />

プ毎にテープカートリッヂを購入してもらう方<br />

針で運用している。<strong>2009</strong> 年後期までは現行の共<br />

通情報システム導入に割り当てた初期状態の領<br />

域を各 VO で共有していたが、この領域が Belle<br />

と ILC の要求には見合わないため、テープを購<br />

入してもらい、それぞれ 12TB、30TB の独立した<br />

領域を割り当てた。年間を通じて 2TB の読み出<br />

しと 4TB の書き込みが行われた。(図 5)<br />

B ファクトリー計算機システムとの統合<br />

<strong>2009</strong> 年 12 月に B ファクトリー計算機シス<br />

テムの一部の計算資源(192 ノード・1536 コア)<br />

をグリッド環境から利活用するための統合作業<br />

を処した。これにより、LCG 全体に対して <strong>KEK</strong><br />

が提供する CPU リソースは 420M SI2K 中 6M<br />

SI2K に達した。<br />

4 SPEC (Standard Performance Evaluation Corporation) が策定したシステムの性能<br />

評価を行うベンチマークスコアにより規格化した CPU 消費時間。高エネルギー実験分<br />

野で使用されるプログラムは SPEC Int にスケールすることが多いため、ここでは<br />

1000 Spec Int 2000 で CPU 消費時間を規格化している。<br />

65<br />

図 4 <strong>2009</strong> 年度のジョブ処理数(上)と<br />

CPU 消費時間(下)いずれも運用・開発目<br />

的の dteam および ops 仮想組織は含まな<br />

い。<br />

図 5 <strong>2009</strong> 年度ストレージ利用量


中核サービスの変更<br />

VOMS とは仮想組織(VO)に所属する利用者の情報を管理するサービスで 2006 年 8 月よ<br />

り voms.kek.jp にて、Belle を含むいくつかの VO の中核サービスとして稼働中のサービス<br />

である。<strong>2009</strong> 年度は OS の更新と併せてミドルウェアの更新を行い、現在は voms.cc.kek.jp<br />

及び vomrs.cc.kek.jp にてサービスを提供している。<br />

5.2.4 ユーザー対応・他<br />

グリッドの運転維持には多くの計算資源と<br />

人的資源が必要とされるため、大学研究室の規<br />

模で継続的に運用をまかなうことは困難である。<br />

当センターでは 2007 年 3 月に国内の共同研究機<br />

関(東北大・筑波大・名古屋大・神戸大・広工<br />

大)にシステム一式を構築し、拠点間を遠隔相<br />

互診断するための計算基盤として <strong>KEK</strong> を含む 6<br />

拠点間で科学的目標に依存しない加速器科学仮<br />

想組織を整備した。<br />

各拠点のソフトウェア・アップデート、QA<br />

対応といった運用支援も継続的に行われている。<br />

<strong>2009</strong> 年度は 184 人・時間の運用支援が各拠点に<br />

対して行われ、うち 9 割は <strong>KEK</strong> 以外の拠点に対<br />

する支援に費やされた。(図 6)<br />

図 6 加速器科学仮想組織の運用支援<br />

機構内の研究グループ(ILC と BELLE)への<br />

支援も継続的に行われている。定期的にミーティングを開催し、性能向上・環境改善に役<br />

立てられた。<br />

66


発表等<br />

[1] Yutaka Kawai and Adil Hasan, “High Availability iRODS System (HAIRS)”, iRODS<br />

User Meeting, Chapel Hill, US, Mar 2010<br />

[2] Takashi Sasaki, “Grid related activities at <strong>KEK</strong>”, ISGC2010, Taipei, Mar 2010<br />

[3] Yutaka Kawai and Yoshimi Iida, “Data Management @<strong>KEK</strong>”, ISGC2010 Taipei, Mar<br />

2010<br />

[4] Yoshiyuki Watase, Go Iwai, Yutaka Kawai, and Takashi Sasaki, “Prototype of<br />

Universal Grid File Catalog based on RNS1.1 and SAGA”, OGF28, Munich, Germany,<br />

Mar 2010<br />

[5] Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase, “Updates on SAGA<br />

related activities since OGF27 on October <strong>2009</strong>”, OGF28, Munich, Germany, Mar<br />

2010<br />

[6] Go Iwai, “gLite deployment and operation toward the <strong>KEK</strong> Super B factory”,<br />

FJPPL Workshop, Lyon, France, Feb 2010<br />

[7] 岩井剛, “電子認証を使った安全で内容が正確なウェブ構築”, TX テクノロジーシ<br />

ョーケース, 筑波大, 2010 年 1 月<br />

[8] Go Iwai et al., “Updates related on Grid since last meeting in December 2008:<br />

Service, resource, and recent achievements to utilize distributed computing<br />

infrastructures”, ILC Detector Workshop, Tsukuba, Japan, Dec <strong>2009</strong><br />

[9] Yutaka Kawai and Adil Hasan, “High Availability iRODS System (HAIRS)”,<br />

Interoperability of Digital Repositories Workshop, London, UK, Dec <strong>2009</strong><br />

[10] Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase, “Recent updates<br />

related on SAGA Belle2 Computing Workshop”, Tsukuba, Japan, Nov <strong>2009</strong><br />

[11] Go Iwai et al., “Updates related on Grid since last meeting in March <strong>2009</strong>:<br />

Service and Resource Scale for Belle VO”, Belle2 Computing Workshop, Tsukuba,<br />

Japan, Nov <strong>2009</strong><br />

[12] Yoshiyuki Watase et al., “Demo: Universal Grid API for Multi-Grid”, at booth<br />

#359 SC09, Portland, Oregon, Nov <strong>2009</strong><br />

[13] Go Iwai et al., “Grid infrastructure in Japan and the development of<br />

applications in Physics and Biophysics”, ACGrid-II, Kuala Lumpur, Malaysia,<br />

Nov <strong>2009</strong><br />

[14] Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase, “Job execution<br />

and Application example in <strong>KEK</strong> with SAGA Adaptor”, OGF27, Banff, Alberta,<br />

Canada, Oct <strong>2009</strong><br />

[15] Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase, “Recent Update<br />

on SAGA-related Activities at <strong>KEK</strong>”, OGF27, Banff, Alberta, Canada, Oct <strong>2009</strong><br />

67


[16] Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase, “A Prototyping<br />

of Web Interface for Treatment Planning in Radiotherapy in the Multi Grid<br />

Infrastructure”, Asia Simulation Conference <strong>2009</strong>, Ritsumeikan University,<br />

Shiga, Japan, Oct <strong>2009</strong><br />

[17] Go Iwai, “Current Status and Recent Activities on Grid at <strong>KEK</strong>”, TILC09 -<br />

Joint ACFA Physics and Detector Workshop and GDE, Tsukuba, Japan, Apr <strong>2009</strong><br />

68


5.3 B ファクトリー計算機システム<br />

5.3.1 概要<br />

69<br />

鈴木 次郎、真鍋 篤<br />

計算科学センターでは、B ファクトリー(Belle)実験のデータアーカイブ/解析環境として B<br />

ファクトリ計算機システムを導入し運用を行っている。現在のシステムは、2006 年 3 月に<br />

稼働を開始し、<strong>2009</strong> 年 2 月にシステム増強を行い、2012 年 2 月まで稼働予定である。<br />

B ファクトリー計算機は、導入当初は 1208 ノード(2416 CPU)の計算サーバ、1PB の磁気<br />

ディスク、3.5PB のテープライブラリで構成される HSM と呼ばれるストレージシステムで構<br />

成されていた(HSM = hierarchical storage management)。2008 年度末のシステム増強で<br />

560 ノード(4480 CPU)の計算サーバ、1.5PB の磁気ディスクに増強された。図 1 にシステム<br />

の概要を示す。図 2(a)に計算サーバ、図 2(b)にテープライブラリを示す。<br />

ユーザは、WG(ワークグループサーバ)にログインし、プログラム開発やデータアーカイ<br />

ブなどの作業を行った上で、バッチジョブの投入を行い、計算サーバ(SC)でデータ解析な<br />

どのジョブの実行を行う。<br />

図 1: B 計算機システムの構成図


図 2(a) : 計算サーバ<br />

図 2(b) : HSM ストレージシステム<br />

5.3.2 運用状況<br />

<strong>2009</strong> 年度は、ハードウエア、ソフトウエアともシステム全体が停止するような重<br />

大な問題点、セキュリティインシデントはなかったが、問題がいくつか発生した。代表的<br />

な問題は、<br />

(1)特定のファイルサーバの負荷が 100%近くになり、アクセスが不安定になる<br />

(2)HSM テープが切断されてしまう事例が連続発生<br />

(3)磁気ディスク装置の回路の一部がショートし発煙。電源ブレーカで電源が自動遮断<br />

で火災には至らず<br />

などの注意を要する事例が発生した。<br />

日常的なシステムメンテナンスは、月に数台の故障した計算サーバや磁気ディスク、テ<br />

70


ープドライブ、ネットワークスイッチ、各種電源ユニットなどの交換であるが、多くの場<br />

合は冗長構成のために無停止での対応が可能である(日常的な保守は 5 名の常駐保守員が行<br />

っている)。システムの停止が伴う保守作業は、年末年始の数日と夏期停電時の前後に一括<br />

して行うことでユーザへの影響を最小限にするようにしている。<br />

A) 計算サーバ<br />

図 3 に <strong>2009</strong> 年度の計算サーバの CPU 利用率を示す。すべての CPU にバッチジ<br />

ョブが割り当てられている場合に 100 パーセントとなるように規格化してあ<br />

る。<strong>2009</strong> 年度前半は、CPU 利用率が 50 パーセント弱であったが、年度後半は<br />

80 パーセントに達し、時間帯によっては CPU 資源を使い尽くしていることも<br />

あり、CPU 資源が不足していると言える。バッチジョブシステムのチューニン<br />

グでしのいでいるのが現状である。<br />

B) HSM<br />

図 4 に HSM のディスクとテープの利用状況を示す。実験データやユーザが生<br />

成したデータは、いったん HSM ディスクに書き込まれ一定時間アクセスがな<br />

いと自動的にテープにアーカイブされる設計である。ユーザの利便性や書き<br />

込み速度の維持のためにディスクに 70 パーセント以上書き込まれた場合は夜<br />

間の負荷の低い時間帯にテープにデータが移動されるように設定されている。<br />

従って、ディスクの利用率の最大は 70 パーセントとなる。HSM テープは、<strong>2009</strong><br />

年度末で 90 パーセントまで書き込みがなされ順調にデータのアーカイブが行<br />

われていることを示す。<br />

図 3 : 計算サーバ CPU 利用率<br />

71


5.3.3 将来計画<br />

図 4 : HSM 利用状況<br />

2010 年 6 月に <strong>KEK</strong> B ファクトリー(Belle 測定器)は、ルミノシティ増強のための<br />

作業のために運転停止した。停止によって、新たな実験データの書き込みは行われなくな<br />

ったが、現在までに蓄積した実験データの解析やモンテカルロ計算などに使われ続けてい<br />

る。また、上記の高度化によってルミノシティ増強が実現された場合には、現在のストレ<br />

ージシステムでは実験データのアーカイブは書き込み速度と容量は全く不足となるため、<br />

次期 B ファクトリー計算機の計画立案が本年度の最重要項目である。<br />

72


6 共同利用<br />

6.1 スパコン・大型シミュレーション研究<br />

6.1.1 大型シミュレーション研究<br />

金子 敏明、石川 正、湯浅 富久子、鈴木 聡、松古 栄夫<br />

本機構においては、平成8年度より共同研究型研究制度「大型シミュレーション研究」<br />

の公募を行い、スーパーコンピュータシステムを使ったシミュレーション研究の推進を図<br />

ってきた。平成 16 年度からは、素粒子・原子核分野において共同利用の枠を設け、より公<br />

開性の高い制度とするとともに、これまで素粒子・原子核分野に限られていた共同研究の<br />

公募対象を広げ、これらの分野を包含する高エネルギー加速器科学全てについて公募する<br />

ことになった。大型シミュレーション研究においては、制度全般に関わる方針の決定を大<br />

型シミュレーション推進委員会が決定し、申請課題の審査を大型シミュレーション審査委<br />

員会が行い、実際の運用を大型シミュレーション推進室が担当する体制となっている。<br />

平成 21 年度は、2006 年 3 月から稼働を開始した現在のシステムの 4 年度目にあたる。今<br />

年度より、研究期間を半年間ずらし、10 月より翌年度 9 月までとした。このため今年度に<br />

おいては 4 月から 9 月までの平成 21 年度分、及び 10 月より平成 22 年 9 月までの平成 21<br />

-22 年度分の二回の研究公募を行った。21 年度分については 20 年度末に申請を公募し、<br />

審査委員会による審査の結果、25 件の研究グループの課題が採択された。利用者数は総計<br />

で 108 人であった。21-22 年度分については、21 年 8 月に申請を公募し、審査委員会によ<br />

る審査の結果、25 件の研究グループの課題が採択され、研究がおこなわれている。採択さ<br />

れた課題については提出された報告書のウェブでの公開を行っており、出版も予定してい<br />

る。<br />

参考サイト: <strong>KEK</strong> 大型シミュレーション研究 (http://ohgata-s.kek.jp/)<br />

計算基礎科学連携拠点について<br />

平成 20 年 11 月、本機構、自然科学研究機構国立天文台、及び筑波大学は、計算基礎科<br />

学連携拠点を設置した。計算科学の手法による素粒子・原子核・天文宇宙の戦略的な研究<br />

教育拠点を形成することにより、計算科学の発展に資することを目的としている。平成 21<br />

年 10 月より、三者間の覚書により活動を開始した。連携拠点としての学際共同利用プログ<br />

ラム「計算基礎科学プロジェクト」公募を 2010 年度に開始するにあたって、本機構のスー<br />

73


パーコンピュータシステムからも計算資源の提供を予定しており、運用面でも協力体制を<br />

進めることが必要である。<br />

参考サイト: 計算基礎科学連携拠点 (http://www.jointicfs.jp/)<br />

6.1.2 スーパーコンピュータシステム<br />

現在のスーパーコンピュータシステムは、以下のような 2 つの計算サーバを中心に構成<br />

された複合システムであり、2006 年 3 月 1 日より稼働している。<br />

システム A の計算サーバ、日立製作所 SR11000 モデル K1 は、汎用的な計算に適した構成<br />

になっている。クロスバスイッチで結ばれた 16 ノード(各ノードは SMP 並列の 16CPU から<br />

構成)からなり、総理論演算性能 2.15TFlops、総メモリ容量 512GB である。システム B の<br />

計算サーバは IBM System Blue Gene Solution であり、大規模並列計算に適した構成であ<br />

る。1024 ノードを持つラック 10 ラックで構成され、総理論演算性能は 57.3TFlops である。<br />

トーラス型の高速ノード間通信ネットワークを備え、各ノードは 512MB のメモリを共有す<br />

る 2 つの CPU コアを持つ。システム全体で 80TB の磁気ディスク、最大 780TB のバックアッ<br />

プ用テープ装置を備えている。<br />

運用は夏期の停電、年末年始のメンテナンスを除いて 24 時間運用を行っており、シス<br />

テムの 5%以上が停止する大規模な障害では、夜間・休日でも対応を行うことになっている。<br />

<strong>2009</strong> 年度においては、システム A、B ともすでに安定した運用が可能となっており、大きな<br />

障害はほとんどなく運用を行うことができた。<strong>2009</strong> 年度のそれぞれのシステムでの稼働率、<br />

ジョブ使用率は次のようになっている。<br />

表1 <strong>2009</strong>年度稼働率とジョブ使用率<br />

稼働率 ジョブ使用率<br />

システム A(SR11000) 98.98 93.54<br />

システム B(Blue Gene) 98.62 98.43<br />

参考サイト: <strong>KEK</strong> スーパーコンピュータシステム (http://scwww.kek.jp/)<br />

74


6.1.3 HEPnet-J/sc, JLDG<br />

平成 14 年度より、国立情報学研究所が運営する広域ネットワーク SINET のギガビット専<br />

用線を利用して、高エネルギー理論のための専用ネットワーク HEPnet-J/sc を構築してい<br />

る。これは、本機構のスーパーコンピュータと国内の主要大学のスーパーコンピュータ等<br />

を高速ネットワークで接続してデータの共有を進めるもので、これまでに筑波大学計算科<br />

学研究センター、大阪大学核物理研究センター、京都大学基礎物理学研究所、広島大学理<br />

学部物理学科および金沢大学自然科学研究科が参加している。<br />

HEPnet-J/sc によって、研究拠点相互のデータ共有が格段に進み、共同利用グループのデ<br />

ータのやりとりも円滑に行われるようになった。これまで HEPnet-J/sc で行ってきたファ<br />

イルサーバ間のミラーリングサービスは、<strong>2009</strong> 年度も継続した。しかしながら今後のデー<br />

タの大容量化に対応してゆくため、次に述べる JLDG (Japan Lattice Data Grid)によるサ<br />

ービスに徐々に移行しつつある。<br />

格子 QCD 分野では、データ公開の要望が世界的に高まっていることを受けて、国際的な<br />

データ共有のための組織 ILDG (International Lattice Data Grid)が立ち上げられた。<br />

2006 年 6 月より正式運用を行うとともに、ミドルウェア等の開発が続けられている。国内<br />

では、ILDG に対応する国内組織として、JLDG (Japan Lattice Data Grid)が結成された。 筑<br />

波大学計算科学研究センターが中心となり、<strong>KEK</strong> など HEPnet-J/sc に参加するサイトが参加<br />

して、ILDG へのデータ提供、HEPnet-J/sc を利用した国内でのデータ共有のための仕組み<br />

の開発を行っている。後者については、産業技術総合研究所・筑波大学の開発した Gfarm<br />

によるグリッドファイルシステムを中心とした構成を採用した。JLDG は 2008 年 5 月に正式<br />

運用を開始した。<strong>2009</strong> 年度においては、Gfarm のバージョンを V2 に上げることにより、グ<br />

ループ管理機能が導入された。これを受けて、研究グループ内でのデータ共有・サイト間<br />

データ転送サービスを開始した。現在もより使いやすいシステムとするための改良が続け<br />

られている。<br />

データの公開に関しては、<strong>KEK</strong> でも JLQCD コラボレーションの生成した配位データの公開<br />

に向けて、ILDG への供給のためのデータのマークアップを進めた。フレイバー数 2 の配位<br />

データの公開準備が整い、2010 年 5 月の ILDG および JLDG での公開に至った。 今後もフレ<br />

イバー数 2+1 のデータなどの公開を進めてゆく予定である。また JLDG のクライアント環<br />

境の整備を進めるとともに、ファイルサーバに対し Gfarm の導入テストを行い、JLDG のシ<br />

ステムに用いるための準備を進めた。<br />

参考サイト: JLDG (http://www.jldg.org/)<br />

ILDG (http://www.lqcd.org/ildg/)<br />

75


7 J-PARC 情報システム<br />

7.1 これまでの経緯及び体制<br />

苅田 幸雄、湯浅 富久子、鈴木 聡、村上 直、鈴木 次郎、<br />

八代 茂夫、押久保 智子、中村 貞次、橋本 清治、<br />

76<br />

西口 三夫、飯田 好美、真鍋 篤、<br />

2000 年度後半ごろより J-PARC 建設のために必要な計算機・ネットワーク環境につい<br />

て検討する必要性が強く認識され始め 2001 年 2 月、<strong>KEK</strong> 計算科学センター(CRC)、日本原<br />

子力研究所中性子科学研究センターの共催により「大強度陽子加速器計画における、計算<br />

機、ネットワーク環境についての検討会」が開催された。このなかで、加速器設計及びビ<br />

ームラインのシールドのための大量のシミュレーション計算環境 および、建設期におい<br />

て地理的に離れたつくば市 <strong>KEK</strong>、東海村日本原子力研究所 両機関を有機的に連結し、<br />

J-PARC 建設の活動を支えるためのネットワークが必要であることが再認識された。<br />

これを契機として同年 4 月より大強度陽子加速器計画(現 J-PARC)プロジェクトチーム<br />

計画調整グループの下に 計算機ネットワークワーキンググループが 日本原子力研究所<br />

(現日本原子力研究開発機構)大強度陽子加速器施設開発センター関係者と高エネルギー<br />

加速器研究機構 大強度陽子加速器計画推進部、CRC 関係者より以下のメンバーで組織され<br />

た。<br />

鵜飼熊太郎、宇野喜智、苅田幸雄、川端節也、榊泰直、坂元眞一、佐々敏信、澤田真也、<br />

千葉順成、古坂道弘、宮武宇也、武藤豪 (五十音順、敬称略)<br />

計算機ネットワークワーキンググループは日本原子力研究所 計算科学技術推進センタ<br />

ー (現 日本原子力研究開発機構 システム計算科学センター(CCSE))と協力し 2002 年 4<br />

月上旬に Togo-VLAN と呼ぶ J-PARC 用の LAN(現在の J-PARC ネットワーク (JLAN))を提<br />

案した。この構想に基づき同月末に 日本原子力研究所と高エネルギー加速器研究機構の<br />

間で J-PARC 建設期のネットワーク構築について正式に合意され JLAN の整備運用が開始<br />

され、同時に JLAN の運用実務を担う組織として「JLAN 運用実務者連絡会議」を CCSE、CRC、<br />

J-PARC 関係者 および運用サポート業者で組織した。<br />

一方、J-PARC が完成し供用が開始した暁には、さらに大規模な計算機ネットワーク環<br />

境が必要となる。2003 年 10 月 J-PARC 計画調整グループの下に、JAEA/<strong>KEK</strong> 両計算科学セン


ター及び J-PARC プロジェクトチーム各グループのメンバーからなる「設計検討作業タスク<br />

フォース」を組織し、J-PARC における将来の詳細な計算資源の需要を聴取し、J-PARC 情報<br />

システムの仕様を作成し、業者からの技術提案を広く募りつつ必要予算の積算作業を行っ<br />

た。 2004 年 4 月には、「設計検討作業タスクフォース」を発展的に解消し、J-PARC プロ<br />

ジェクトチームディレクターの下に独立して「情報検討ワーキンググループ」を組織し<br />

J-PARC 情報システムの仕様の改定、再見積もり積算作業を継続して行った。<br />

2005 年 4 月 情報検討ワーキングループを母体とし「JLAN 運用実務者連絡会議」を統合<br />

し、J-PARC の基幹部分についてネットワーク・計算機資源についても責任を持つ組織とし<br />

て、J-PARC プロジェクトチームのグループ「情報システムグループ」を発足し、活動する<br />

こととなった。情報システムグループには、引き続き JAEA,<strong>KEK</strong> の両計算センターの協力の<br />

下、JLAN 実務者連絡会議に加えて「事務局」、「基幹ネットワークシステム」、「認証システ<br />

ム」、「実験系データベース」、「業務系データベース」のサブグループを作り、各々の分野<br />

の具体的な活動を精力的に進めた。<br />

当初の予定では、情報システムグループの計画に沿って 2007 年 10 月より J-PARC 情報<br />

システム運用期用システムをリース契約で調達して開始予定であった。これは、従前の JLAN<br />

が利用対象を J-PARC 職員のみとする「建設期用」システムであり、J-PARC 供用開始に伴い、<br />

広く J-PARC 共同利用者の利用も含む「運用期用」システムに更新する必要があるからであ<br />

る。しかしながら、予算状況がこの更新を許さず、J-PARC 情報システムの整備について以<br />

下のように見直し、再スケジュールを行った。<br />

・ 現在の建設期用 J-PARC 情報システムの延長を Phase1 システム、運用期用のシステ<br />

ムとして新規に導入するシステムを Phase2 システム と位置付ける。 2008-<strong>2009</strong> 年<br />

度を目処に Phase2 システムが運用開始になるまでは現行システムの延長としての<br />

Phase1 システムを整備・運用する。<br />

・ Phase 1 では<br />

現在までに行われたネットワーク需要調査で各グループから回答されたエッ<br />

ジスイッチについては最優先で整備する。<br />

既存の機器、資源を生かしつつ必要な機能を可能な限り実現するよう努力す<br />

る。2008-<strong>2009</strong> 年度に利用可能な予算が明確になり次第、設置可能機器、実現<br />

可能な機能・サービスを見直す。<br />

機能、個人認証の実現方法等については、予算の範囲内で整備する。<br />

FW(Fire Wall)+IPS(Intrusion Prevention/Protection System)は、<strong>KEK</strong>、JAEA<br />

の既存装置を J-PARC と共用せずに、独自の装置を用意する。<br />

インターネットとの接続は東海ノードとする。<br />

2006 年 6 月策定するセキュリティポリシは Phase 1 システム に適用する。<br />

但し、Phase2 システムへの適用を踏まえるよう留意する。<br />

77


予算手当が可能になり次第、Phase 2 システムへの移行を計画する。<br />

・ Phase2 として、以下のシステムを目指す。<br />

2004 年に策定した概念仕様書(及びその更新版)に準じ、J-PARC 情報システ<br />

ムとしてあるべきシステムを目指す。<br />

J-PARC 情報システムグループは Phase1 システムを準備・運用しながら、<br />

Phase2 システムを設計する。<br />

Phase1 システムの機器は、Phase2 システム へは引き継がない。従って、<br />

Phase1→2 は、不都合のない限り全ての機器は更新する。 これは、既存の<br />

機器が老朽化して保守費用がかさむ事および、建設期においては JAEA-<strong>KEK</strong> 費<br />

用折半原則、資産管理、保守支援等に関して現 J-PARC 情報システムの暫定的<br />

な整備・運用が内包する諸問題を解決する必要性からである。 但し、Phase1<br />

で設置した機器の Phase2 後の取り扱いには留意する。<br />

Phase2 システムに係る費用は、JAEA、<strong>KEK</strong> で原則折半とし、調達を3者契約<br />

で行うなど資産管理、保守上の問題がおこらないように留意する。<br />

運用は Phase1 と同様に JAEA、<strong>KEK</strong> 両計算センターの協力下に行う。<br />

2007 年 7 月に、J-PARC センターが発足(2007 年)以降の基盤情報システム管理運用体<br />

制の在り方について、永宮 J-PARC センター長、大山 J-PARC 副センター長、村澤業務ディ<br />

ビジョン長、平山 JAEA CCSE センター長、川端 <strong>KEK</strong> CRC センター長(平山氏、川端氏は 情<br />

報システムグループの当時のリーダー)を中心に議論がなされた。JAEA CCSE と <strong>KEK</strong> CRC が<br />

協力し J-PARC 情報システムを共同管理していく方法では、今後複雑化する J-PARC の情報<br />

システムに対する要求に対応が困難であるため、J-PARC センター内部に情報システム部門<br />

を持つほうが望ましいという結論に至った。 この結果を受けて 2007 年 12 月の J-PARC 運<br />

営会議において J-PARC センターの下に(ディビジョンなし)情報システムセクションを設<br />

置することが発議、承認された。<br />

2008 年 4 月より J-PARC 情報システムセクションの活動を開始した。情報システムセク<br />

ションは JAEA CCSE より主務勤務 1 名(五來氏 JAEA CCSE 兼務)、JAEA J-PARC センター<br />

より主務勤務 1 名(宇野氏 J-PARC 広報セクション兼務)、<strong>KEK</strong> からは、真鍋がセクション<br />

リーダーとなり、CRC 職員全員が兼務で参加することになった。 CRC 職員全員が情報シス<br />

テムセクションに参加したのは、東海、つくばで人員を分離分担するのではなく、J-PARC<br />

業務に当たるためであった。J-PARC 情報システムセクションのスタートにより、JLAN の JAEA、<br />

<strong>KEK</strong> 両計算センターによる共同管理運用は終了し、J-PARC センター配下部署による運用と<br />

なった。<br />

2008 年度中に、富士通(株)より石川氏が、ネットワンシステムズ(株)から古橋氏、<br />

が JAEA 技術協力員(出向職員)として情報システムセクション配属となり、JAEA 側は職員<br />

4 名の体制となった。<br />

78


<strong>2009</strong> 年度には、カストマシステム(株)より舘氏が JAEA 技術協力員として参加し、JAEA<br />

側職員は 5 名となった。<strong>KEK</strong> 側 職員は、岩井氏が JLAN 運用から Grid 専任となった他、JLAN<br />

業務の実態がなかった者をメンバーからはずし 東海常駐:真鍋、全般: 鈴木(次)、メ<br />

ール:押久保、セキュリティ:中村、村上(直)、ネットワーク:鈴木(聡)、苅田、認証シス<br />

テム:湯浅、橋本、共通計算機関連:八代、飯田 の兼務 11 名で担当することになった。ま<br />

た、情報システムセクション引き継ぎ後の JLAN の安定運用を優先させたため、JLAN phase2<br />

については引き続き延期されている。JLAN の各機器において老朽化(メーカーサポート終<br />

了を含む)が進んでいること、調達手続きに約 1.5 年を要することから phase2 検討を出<br />

来るだけ早急に検討することが必要である。<br />

7.2 基幹ネットワーク関連<br />

<strong>2009</strong> 年度は JAEA CCSE から基幹ネットワーク業務を移管して 2 年目となり、既存のシス<br />

テムを概ね安定的に運用することができるようになるとともに、新規のセキュリティ装置<br />

等を導入する等して機能の拡張を図ることができた。<br />

(1) JLAN センタースイッチの移動<br />

JLAN が JAEA/<strong>KEK</strong> の共同管理体制から移行するにあたり、JAEA CCSE より JLAN 運用室<br />

のある情報交流棟 2F 居室と 同棟 地下計算機室の JLAN 機器設置場所の返還を要求さ<br />

れた。情報システムセクションは、情報システムセンター(旧計算機センター建家)<br />

に部屋を確保できたため、2008 年度中に情報システムセクション員の居室入居と JLAN<br />

運用室の移動は終了していた。 6 月までに情報システムセンター101 室のフリーアク<br />

セス床工事、空調設置工事、電源工事、無停電電源(UPS)装置の設置を行い、JLAN 基幹<br />

機器の移動の準備を完了させ、7 月に 2 日間あった JAEA 原子力科学研究所(原科研)<br />

の全域停電を利用し JLAN コアスイッチを含む、ほぼすべての機器を情報交流棟から情<br />

報システムに移動した。48 時間という限られた時間において、停電中の情報交流棟計<br />

算機室(空調、照明、エレベーターは停電中は停止)での作業であり、困難であった<br />

が予定通り完了することができた。移動の残作業として、ファイバー線の中継地点<br />

(J-PARC 各建屋からのファイバー線は情報交流棟が集約場所のままであるため)であ<br />

るスプライシングボックス収容ラックを計算機室の端に移動する作業があるが、これ<br />

は、JAEA スーパーコンピューター更新がある今後 4 年以内に実施すればよいことにな<br />

っている。<br />

(2) Dynamic VLAN 選択機能サーバー 問題<br />

JLAN では、基幹機能である dynamic VLAN 選択機構に、JLAN コアスイッチ メーカー<br />

の独自機能を使用しているが、この機能のサーバー機器のメーカーサポートが <strong>2009</strong> 年<br />

79


度で終了した。このため、<strong>KEK</strong> LAN 更新で不要になった同機種サーバーを 20 台譲り受<br />

け 点検して予備として備蓄することとした。あわせて、このサーバーはつくば地区<br />

に設置されていたが東海へ移設した。今後、この備蓄機器が使えなくなる前に JLAN の<br />

更新を行う必要がある。<br />

(3) 無線 LAN、エッジスイッチの整備<br />

<strong>2009</strong> 年度末現在で、84 エッジスイッチ、173 無線 LAN アクセスポイントを運用してい<br />

る。これは、前年度比それぞれ 19% 、27%増であり、引き続き高い比率で増加してい<br />

る。特に <strong>2009</strong> 年 2 月に原<br />

科 研 に 隣 接 す る 敷 地 に<br />

<strong>KEK</strong> 東海一号館が開館し<br />

たため、この建屋での需<br />

要増加が大きかった。来<br />

年度には、共同利用宿舎<br />

の完成が予定されており、<br />

実験建屋関係の建設が概<br />

ね終了した後も暫くは関<br />

連新設施設への導入が続<br />

くると思われる。<br />

JLAN に接続されるホスト数は昨年度末 1572 ホストから 2152 ホスト(<strong>2009</strong>.2 現在)<br />

に増加し昨年比 37%の<br />

増加であった。当初低迷<br />

していた JAEA 職員の<br />

JLAN 利用も確実に増え<br />

て き て い る 。 ま た 、<br />

J-PARC 共 同 利 用 者 も<br />

JLAN 接続ホスト数の約<br />

10%程度の数になってい<br />

る。接続ホスト数は、実<br />

験ビームラインの整備、<br />

共同利用実験者の増加<br />

とともにさらに増加の<br />

傾向で推移する予定で<br />

ある。<br />

80


JLAN では、つくばは <strong>KEK</strong> LAN のエッジスイッチを共用し、東海ではほとんどが JLAN<br />

独自のエッジスイッチを利用しているが、原科研 第 2 研究棟(J02)と核融合特研(J03)<br />

だけは、JAEA LAN のエッジスイッチを共用している。2007 年度に CCSE より、JAEA LAN<br />

と JLAN を物理的にも完全に分離するよう要請があった。<strong>2009</strong> 年 4 月に J03 の利用を<br />

停止したが、<strong>KEK</strong> 東海一号館(旧 NTT8 号館を改修する)の完成が遅れ、第 2 研究棟に<br />

居室を持つ <strong>KEK</strong> 職員の移転が伸びたため、CCSE に依頼し、2010 年 6 月まで利用延長許<br />

可を得た。<br />

J-PARC での無線 LAN は、JLAN-intra 接続用の SSID(Service Set Identifier)「非<br />

広報」で WEP(Wired Equivalent Privacy)暗号化による JLANair と、2008 年度より開<br />

始した、SSID「広報」で WEP 暗号による短期来訪滞在者向けインターネット接続用の<br />

GWLAN を運用している。 SSID 非広報の JLANair については、種々な要因で接続性が<br />

悪いとの苦情がたびたびあり、そのほとんどは、無線 LAN 端末機器の再設定や、JLAN<br />

以外の私設無線 LAN 基地局(AP)を停止したりすることで解決したが、特に Mac OS にお<br />

いて SSID が非広報であること、WEP 方式であることを遠因としている接続不具合があ<br />

った。また、WEP 方式は暗号として極めて脆弱であるため、JLANAir は WPA2(Wi-Fi<br />

Protected Access2)方式である JLANAir2 へ移行することとした。9 月より JLANAir2 を<br />

1 カ月試行し、10 月から 3 か月間の JLANAir との併用期間を経て 2010 年 1 月に JLANAir<br />

の運用を事実上停止した。旧機種において移行が出来ない等の相談を数件受けたが概<br />

ね順調に移行を終了した。<br />

(4) つくば―東海回線の増速<br />

JLAN の つ く ば ― 東 海 間 は 、 主 回 線 と し て 国 立 情 報 学 研 究 所 ( NII ) の<br />

SINET3(http://www.sinet.ad.jp/)の L2VPN サービスを利用し、バックアップ回線とし<br />

て 茨城ブロードバンドネットワーク(IBBN http://www.ibbn-itsc.jp/) の 100Mbps 専<br />

用回線を利用している。 つくば―東海間の接続は <strong>2009</strong> 年 9 月までは 1Gbps であった。<br />

J-PARC で収集したデータを <strong>KEK</strong> 共通計算機のストレージに転送する帯域幅として今後<br />

増強が必要であったため、10 月の J-PARC 共用実験再開前に、国立情報学研究所にお願<br />

いし、帯域を 1Gbps から 2Gbps に増強していただいた。2011 年度より始まる SINET4<br />

においては、最大 10Gbps まで増強される可能性がある。<br />

81


(つくば―東海間 2Gbps 増速前の 10 月以前は測定データがない)<br />

(5) 短期滞在者用ネットワーク(GWLAN)の改良と、ユーザーネットワークの開発<br />

JLAN の無線 LAN アクセスポイント(AP)を利用した、J-PARC 内で開催される会合等への<br />

参加者向けの短期滞在者用ネットワーク(GWLAN)を昨年度後半より運用開始している。<br />

このシステムでは WEP キーを毎週変更して利用者に連絡する必要があり、運用の手間<br />

も多く、WEP キーを知っていることのみが利用者の制限であるという難点もあった。そ<br />

こで、接続 PC ごとに個別の接続パスワードを発行し、これを入力することで利用でき<br />

るネットワークシステムとする予定であったが、J-PARC 各部署より、一人ひとり異な<br />

る個別のパスワードを会合参加者に通知し管理するのは困難であるとの指摘があった。<br />

このため、会合ごとにパスワードを発行し、会合内の参加者については会合事務局で<br />

管理する方式として開発を行った。<br />

GWLAN は、会合等参加者向けであるが、J-PARC に実験に来た共同利用者用としては、<br />

1 週間ごとにパスワードを変更する必要がある等 利便性の観点から適していない。ユ<br />

ーザーズオフィスの利用者支援システムの ID とパスワードを使って利用できるユーザ<br />

ーネットワークの開発を開始した。ユーザーネットワークは、GWLAN に比較して、前述<br />

のパスワードの違い以外に、・有線での利用も可能 ・JLAN との間で限られてはいるが<br />

情報交換が可能 という点を改善する。<br />

<strong>2009</strong> 年度末に新 GWLAN およびユーザネットの運用を開始する予定である。<br />

(6) 情報セキュリティ装置、ネットワーク監視装置関連<br />

82


○ IDP, IDS の設置<br />

6 月に IDP の運用を開始した。警報が非常に多く発報するが、この中から順次誤報<br />

と思われるものを取り除き、情報セキュリティ警報に組み込んだ。<br />

12 月に IDS システムを設置し運用を開始した。IDS は <strong>KEK</strong> と同様外部ログ監視業者<br />

が異常監視をする。設置直後に PC のウィルス感染を発見することが出来た。情報セ<br />

キュリティを守る上で有効で、かつ解析エキスパートが解析するため誤報が極めて<br />

少ない。<br />

○ Web application FW(WAF)の設置<br />

JLAN には共同利用支援システムや、課題申請システムなど個人情報をあつかう Web<br />

サーバーが存在するため 、WAF の導入が急がれていた。11 月に設置を行った。暫く<br />

は情報システムセクションでテストを行い、ユーザーズオフィス等の Web サーバー<br />

へ適用していく予定である。<br />

○ FW ログ解析システム、アンチウィルスソフトウェア(AV)集中監視システム<br />

2008 年度に改修した FW ログ解析システムをさらに改修し、検索をより容易にでき<br />

るようにするとともに、多量不審なアクセスが内部と外部の間にあった場合に通報<br />

が可能になった。<br />

AV 集中監視システムでも一度に多量のウィルス検知が発見された場合通報される<br />

ようになった。<br />

○ ホスト脆弱性診断システム<br />

<strong>KEK</strong>-DMZ で運用実績のある、常時ホスト脆弱性診断システムを、JLAN にも導入した。<br />

ネットワーク機器のセキュリティ脆弱性を外部から検査し、その結果を自動的に項<br />

目化・点数化し、報告書を作成する。機器管理者はこの報告書を管理する機器の情<br />

報セキュリティ対策に役立てることができる。<strong>2009</strong> 年度は JLAN-DMZ 上のネットワ<br />

ーク機器のセキュリティ確保及び継続維持を図るため、同機器全件に対して外部公<br />

開前及び週 1 度の定期検査を実施する運用を開始した。各機器管理者に対しては、<br />

脆弱性検査結果の点数を毎週通知することで、セキュリティ脆弱性に対する意識を<br />

高めることが出来る。2010 年度は、<strong>KEK</strong> LAN で培ってきたノウハウが集約された DMZ<br />

User's Portal をベースに J-PARC にカスタマイズした、Web 上でこのシステムを利<br />

用できる仕組みを展開する計画をしている。これにより、セキュリティ管理側の運用<br />

管理の確立、各機器管理者へのサービス拡充及びセキュリティ脆弱性に対する更な<br />

る意識向上の両側面から、J-PARC のセキュリティ向上に寄与する予定である。<br />

83


(7) メールサーバー関係<br />

J-PARC メールサーバーユーザーは 900 人を超え、メーリングリスト数も 100 を超える<br />

など利用が進み、限られた職員のみでメールサーバーの運用を維持することが困難と<br />

なった。 このため、一部運用の業務委託を開始した。<br />

ML サーバーは老朽化したため、7 月停電時を利用して更新した。<br />

メールサーバーのメーカーサポートが <strong>2009</strong> 年度末で終了となることから機器の更新を<br />

行った。メールスプールの内容、メールに関する個人の設定などをすべて引き継ぐた<br />

め、約一カ月の準備期間中に慎重にデータ移行を行い、3 月末週末に 1 日運用を停止し<br />

更新を行った。特に大きな障害、問題などなく順調に完了した。<br />

(8) ネットワークサーバー関係<br />

昨年度運用を開始したスイッチ類の負荷、トラフィック量をモニターするためのシス<br />

テムのユーザー公開を 7 月より開始した。<br />

スイッチ、サーバー類を監視し異常が検知された場合に通報するシステムを 2008 年 3<br />

月より運用開始した。<br />

機器のバージョンアップにより SSL-VPN 装置の細かい通信ログが採取出来なくなって<br />

いたため、10 月に新たに機器を導入しログが採取できるようにした。<br />

2 月に DHCP クライアントが 2000 台を超え、使用していた DHCP サーバーの能力を超え<br />

たため更新をした。新サーバーでは 10000 台までは対応が可能となる。<br />

ユーザーズオフィスで行っている共同利用者が持ち込み PC のセキュリティーチェック<br />

を、自動で行うための検疫ネットワークの検討を行った。 導入予定の機器では機能<br />

的に要求が満たされないことが判明しため、引き続き別機種の検討を行っている。<br />

(9) IP 申請システムの開発<br />

JLAN の接続申請は Web より行うが、その後の処理はメールを回覧でおこなっている。<br />

このため、非効率や申請見逃しが生じている。申請フローすべてを Web ベースで行え<br />

るシステムを JAEA の IP 申請システムを元に開発している。<strong>2009</strong> 年度中に完成予定。<br />

(10) その他<br />

東海村所有のいばらき量子ビーム研究センター1F、2F 会議室には、J-PARC で会議室と<br />

して利用する際に仮設にて JLAN 無線 LAN を利用可能としていた。J-PARC センターが<br />

常設を希望したため、東海村等と交渉し 機器は常設とするようにした。ただし、JLAN<br />

の接続はリモート制御で J-PARC での会合が行われる時間にだけ行うようにした。<br />

ユーザーズオフィスが、共同利用者の個人情報を <strong>KEK</strong> つくばと、J-PARC 東海で分散し<br />

て管理する必要から、独自に VPN を構築することとなった。情報セクション以外が VPN<br />

84


を設置することは J-PARC のセキュリティ対策基準に反するため、例外申請を行い、一<br />

部を情報セクションで管理、監視することとして 3 月より運用開始した。<br />

(11) JLAN 全域にわたる障害<br />

<strong>2009</strong> 年度における JLAN 全域にわたる障害は以下の事象があった。<br />

1. FW のバージョンアップを 5 月初旬に行ったが、その後、一部 TV 会議に支障がで<br />

るようになった。原因判明までに時間を要したが 10 月に原因が判明し対策をす<br />

ることにより解消した。FW のバグが原因であったが、バージョンアップは行わ<br />

ず、回避処置を施している。<br />

2. 10 月 2 日 つくば―東海回線にフラッピングが発生し夜間数時間ほど この間<br />

の通信に障害が出た。同日に SINET の工事があり、これを原因として発生した。<br />

3. 1 月 21 日 つくば―東海回線にフラッピングが発生し夜間この間の通信に障害<br />

が出た。同日に SINET の工事があり、これを原因として発生した。SINET 側に原<br />

因調査を依頼しているアが回答なし。工事が予定される場合、事前に IBBN バッ<br />

クアップ回線に切り替えておくようにすることとした。 3 月 10 日にも同様な<br />

事象がおこったが、バックアップ回線に切り替えていたため影響はでなかった。<br />

4. 2 月 28 日早朝から午前中にかけて JLAN よりインターネットへ接続できない 障<br />

害が発生した。原因は JLAN 機器の故障。<br />

7.3 認証システム<br />

1) 認証サーバーの運用<br />

情報システムグループでは、次の認証サーバーを運用している(下表)。<strong>2009</strong> 年度に<br />

は、SSL-VPN の利用者が増えて、ワンタイムパスワード認証サーバー登録者数が約 2 倍<br />

以上になった。<br />

認証サーバー 用途 登録者数<br />

ワンタイム<br />

パスワード認証サーバ<br />

ー(SecureMatrix)<br />

JLAN 用 SSL-VPN サーバーへの接続認証 155<br />

Radius サーバー VLAN 選択機構サーバーへの接続認証 76<br />

LDAP サーバー<br />

(試験運用)<br />

MLF でのログイン環境における Kerberos<br />

認証との連携試験<br />

認証サーバーと登録者数<br />

85<br />

2


2)PKI(Public Key Infrastructure)環境構築のための R&D<br />

<strong>2009</strong> 年度も、PKI 環境構築のための R&D を継続した。本 R&D では、アウトソース型と<br />

イ ン ハ ウ ス 型 の 両 方 に つ い て CA ( Certificate Authority : 認 証 局 ) お よ び RA<br />

(Registration Authority:登録局)を構築している。両者において、IC カードに証明<br />

書を格納し高度なセキュリティレベルを確保することを目指している。2008 年度末まで<br />

に、インハウス型認証局で発行した証明書を格納するための IC カードの種類を選定し、<br />

<strong>2009</strong> 年度には利用試験などを行う予定であった。SSL-VPN 接続、S/MIME メールなどに利<br />

用が可能となったが、利用者は情報セクションの内部にとどまっている。<br />

3)Web サーバー証明書発行活動(J-PARC LRA 活動)<br />

J-PARC 情報システムセクションは、NII の「サーバー証明書の発行・導入の啓発・<br />

評価研究プロジェクト」に 2008 年 1 月より参加している。<strong>2009</strong> 年度もこのオープンド<br />

メイン認証局の LRA(Local Registration Authority)として、J-PARC における発行<br />

申請手続きの業務を行った。2010 年 3 月までの Web サーバー証明書発行は 13 件となっ<br />

た。(2008 年度は 6 件)<br />

86


7.4 データベースシステム<br />

データベースシステムに関する活動として、情報システムグループ時代より J-PARC の<br />

情報を可能な限りデータベース化、オンライン化するとともに、J-PARC 共同利用者に首尾<br />

一貫した、ワンストップ申請・情報提供をサービスできる Web ポータルサイトの開発を目<br />

指してきた。しかしながら予算の制約などから、当初の計画より大幅な縮小を余儀なくさ<br />

れ、現在は以下のアクティビティのみが活動を継続している。<br />

(1) J-PARC 共同利用者支援システム、J-PARC 実験課題申請、審査、成果管理システム<br />

開発、運用<br />

(2) J-PARC 装置保守管理記録データベースシステム開発<br />

(3) J-PARC スタッフ人員データベースシステム開発<br />

(4) 情報システム 接続申請、アカウント申請 管理システム開発<br />

(5) 実験ログ DB プロトタイプの検討継続<br />

下表 に各アクティビティの今後の計画を示す。<br />

FY‘09 FY‘10 FY’11<br />

利用者ポータルサイト 改修 改修 完成<br />

人管理 DB 共同利用者用<br />

改修<br />

87<br />

職員用 改修<br />

共同利用支援システム 改修 宿舎対応 改修<br />

実験課題システム<br />

(申請、審査、成果管理)<br />

成果管理開発<br />

開始<br />

改修 共用法対応<br />

情報システムアカウント申請 開発 開発 運用開始<br />

各システムの開発スケジュール


(1) J-PARC 共同利用者支援システム、J-PARC 実験課題申請、審査、成果管理システム<br />

情報システムグループが先導し計画して予算を確保し、実際の設計、運用については<br />

実務を行う業務ディビジョン利用支援セクションが行っている。J-PARC 共同利用者か<br />

らの実験課題申請をはじめ、実験実施に必要な各種手続きを、電子申請で行えるよう<br />

以下のシステムを整備し順次稼働させる計画である。<br />

1)実験課題申請システム(2008 年 5 月本稼働開始)<br />

実験課題の公募情報掲示、申請受付のためのシステム。<br />

2) 利用者支援システム(2008 年 12 月稼働開始)<br />

J-PARC での実験に必要な各種手続きを WEB 上で行うシステム。<br />

3) 実験課題審査システム(<strong>2009</strong> 年 3 月テスト稼働)<br />

実験課題の審査を WEB 上で行うためのシステム。<br />

4) 実験成果管理システム (<strong>2009</strong> 年開発開始)<br />

実験成果である、成果報告書、論文データなどを管理する。<br />

(2) 装置保守管理記録データベースシステム<br />

J-PARC 施設の設備や装置の故障修理・調整保守の記録を電子ファイルとして保存する<br />

と共にデータベース化して管理するために 2006 年度に開発を開始した。<br />

保守管理記録をデータベース管理することで、関係者によるデータの共有、記録の検<br />

索、統計処理などを可能にし、過去の経験をその後の施設運転維持管理に活かすこと<br />

で、保守作業の迅速化や故障予防措置など、J-PARC 施設の運転管理の効率化、施設稼<br />

働率の向上を図ることを目的とする。 また、加速器制御の電子ログシステムと連携<br />

して、加速器運転状況ログから、故障時のその後の対処などについても有用なリンク<br />

が可能となる。機器保守管理記録データベースはできるだけ多くの記録を残すことが<br />

目的であるため、多くの人に利用していただく必要がある。 この観点から、このシ<br />

ステム専用のログインアカウントを作成せず、J-PARC メールサーバーのアカウント管<br />

理と LDAP 情報を共有し共通のアカウント、パスワードで機器保守管理記録データベー<br />

スシステムにもログインできるように検討を進めている。<strong>2009</strong> 年度より運用を開始し、<br />

実際に加速器ディビジョンで使用を始めている。<br />

(3) J-PARC スタッフ人員データベースシステム<br />

共同利用者の人管理データベースとしては(1)の利用者支援システムがあり、J-PARC ス<br />

タッフの人管理 DB としてこのシステムがあり、相互に補って J-PARC としての人の情<br />

報および情報資源などの利用権確認、所属情報などを管理する目的である。<br />

現在、業務事務への利用価値が明白でないため、業務側の理解が得られておらず人<br />

事と連動したデータ入力の目途が立っていない。当分は J-PARC メールサーバーの申<br />

請情報により運用していく予定である。<strong>2009</strong> 年度は入力方法の改善等を行った。<br />

(4) J-PARC 実験ログ DB プロトタイプの作成<br />

88


昨年度より MLF グループに移管されたため、情報システムセクションでは関与してい<br />

ない。詳しくは昨年度以前のアクティビティレポートを参照されたい。<br />

7.5 情報セキュリティ関係<br />

(1) 情報セキュリティ監査への対応<br />

<strong>2009</strong> 年度 J-PARC 情報セキュリティ監査は、情報セキュリティ委員会で選任された <strong>KEK</strong><br />

の川端監査責任者により、<strong>2009</strong> 年 12 月より 2 月まで実施された。外部監査業者により、<br />

J-PARC セキュリティポリシ、同対策基準、同実施手順の文書監査、 J-PARC 永宮最高<br />

情報セキュリティ責任者を含む、各部署職員の合計 10 名への聞き取り調査が行われた。<br />

その結果 情報セキュリティ教育などについて数点の指摘を受けたが緊急に改善を要<br />

する点はなかった。情報システムセクションでは古橋氏を中心に外部監査業者選定、<br />

各部署との調整等の協力を行った。<br />

(2) 情報セキュリティインシデント警報への対応<br />

JLAN に設置された、各種情報セキュリティ監視装置による警報に対して、当該情報シ<br />

ステムセキュリティ責任者に対して状況の確認等を行った。<br />

セキュリティ監視装置による警報数<br />

FW: Firewall IDS: Intrusion Detection System<br />

IDP: intrusion prevention system NAV: Network Virus Detection System<br />

CAV: Central Controlled Endpoint Anti-Virus software<br />

89


(3) セキュリティインシデント対応<br />

<strong>2009</strong> 年度に JLAN 内で発生したセキュリティインシデントは合計 4 件であった。アン<br />

チウィルスソフトの非導入や期限切れ放置による windows PC の単発的なウィルス感染<br />

であった。外国人職員に違反を繰り返すものがおり、所属部署でのセキュリティ教育<br />

について依頼した。セキュリティインシデントについては、ディビジョン長会議で注<br />

意喚起をし、各部署への周知をお願いするとともに、Gumblar や Conficker 等の流行<br />

に対して対策を JLAN 利用者メーリングリスト、情報システムセクションの Web ページ<br />

に記載し、注意喚起と対策依頼を行っている。<br />

(4) セキュリティ委員会対応<br />

<strong>2009</strong> 年 3 月に第 3 回 J-PARC セキュリティ委員会が行われた。 情報システムセクショ<br />

ンでは、情報セキュリティ監査結果の報告と対策の提案、2008 年度の情報セキュリテ<br />

ィインシデントの集計や報告などを行った。 また、情報セキュリティ委員会に協力<br />

し、アンチウィルスソフトの非導入など情報セキュリティ対策が施されていない情報<br />

システムが情報セキュリティインシデントを起こした場合の対処、情報機器が外部で<br />

盗難、亡失した場合の手順について策定した。2008 年度に策定された情報セキュリテ<br />

ィ実施手順書(サーバー編、PC 編)について改訂を行った。2008 年度に行われた JLAN<br />

接続の全 PC についての、アンチウィルスの導入状況、自動 OS アップデートの設定状<br />

況のアンケート調査に基づき、転出などで責任者が不明となった約 90 台をリストアッ<br />

プし、そのうち 42 台について接続廃止処置等を行った。<br />

7.6 J-PARC 実験解析システムとしての共通計算機システムの利用<br />

J-PARC で計算機需要が見込まれるニュートリノグループ、ハドロングループ、MLF グル<br />

ープについて 2011 年までの最低限の必要資源をまとめ、2008 年 2 月に更新される <strong>KEK</strong> 共<br />

通計算機システムの仕様に含めて調達を行った。利用資源分の賃貸借費用を J-PARC が負担<br />

し共通計算機システムを利用する。MLF グループについては、JAEA 職員には利用させるが、<br />

<strong>KEK</strong>,JAEA 職員以外で <strong>KEK</strong> の共同利用者ではない JAEA ビームラインのユーザー、茨城県等<br />

第 3 者機関ビームラインのユーザーへの利用は当分見合わせることとなった。<br />

90


2011 年度までの各グループで必要な計算機資源量と実際に割り当てられた資源量<br />

必要資源量 CPU 資源 磁気ディスク テープ<br />

MLF 170 core 74TB 1.3PB<br />

ニュートリノ 400 core 50TB<br />

ハドロン 300 core 150TB<br />

共通計算機で J-PARC<br />

用に割り当てられた<br />

資源量<br />

91<br />

1.8PB<br />

250 core 150TB 2.0PB<br />

<strong>2009</strong> 年度における、共通計算機の利用統計を下に示す。これによるとニュートリノユー<br />

ザーが利用を徐々に開始し始めている。 J-PARC MR ユーザーは 旧 12GeV PS (Proton<br />

Synchrotron)ユーザーであった koto グループが主に使っている。MLF はまだほとんど利用<br />

をしていたい状況であった。共通計算機のある つくば と J-PARC 施設のある 東海では<br />

RTT(Round Trip Time) で 9.8m 秒ほどの時間がかかる(SINET3 の経路上一旦東京を経由する<br />

ため)ことから、通常の転送方法をそのまま使用しただけでは、期待する転送速度が出ない。<br />

このため 並列転送をユーザーが意識せずに利用できる、iRods による転送や、 pftp など<br />

の利用を、今後広めていく必要があると思われる。<br />

共通計算機の CPU 利用率<br />

J-PARC 関係者としては旧 PS 利用のハドロンユーザーが主に利用している。


共通計算機へのログイン回数/月<br />

νグループが徐々に利用を開始している。<br />

共通計算機のディスク使用量(上)とテープ使用量(下)<br />

92


8 ユーザサポート、施設設備<br />

8.1 ユーザサポート<br />

8.1.1 利用者相談窓口<br />

93<br />

柿原 春美、金子 敏明<br />

運用管理室の利用者相談窓口では、センター管轄の共通データ解析システム、電子メー<br />

ル・システム等のシステムに関する利用者から問い合わせ、およびネットワークに関する<br />

問い合わせに対応してきた。問い合わせは、メール(consult@kek.jp)で常時受け付け、<br />

電話(5770)でも常時受け付けた。電話は平日 8:30~17:30 は運用管理室が対応している<br />

が、その他の時間帯は遠隔監視センターの対応となっている。但し遠隔監視センターの役<br />

目は夜間休日のハード系障害監視のための業務のためのものなので直接利用者相談にあた<br />

ることはなく、各担当への連絡窓口としての役割を果たしている。なお利用者相談業務は<br />

上記運用管理室が第一次窓口になり、解決方法が確立された相談事については決められた<br />

道筋にのっとり解決してゆくが、相談内容によってはセンター内のスタッフ、及び他のネ<br />

ットワークサポート業者と連携しながら業務を遂行している。<br />

問い合わせの内容としては今年度も昨年に同じく電子メール、ネットワーク、共通計算機<br />

に関係するものが圧倒的に多い。問題解決のために現場に赴くことも日常業務となってい<br />

る。これ以外に、ウィルス対策ソフトウェアのライセンス管理、プリンタ障害への対応、<br />

センター運用計算機への利用者登録、計算機資源のバックアップ、一般ユーザ PC のウイル<br />

ス感染(セキュリティーインシデント)対応、ネットワーク HUB 管理、PC 貸し出し、消耗<br />

品管理、計算機の年度更新等の作業を行なった。また JPARC,JLAN についても <strong>KEK</strong> サイドで<br />

サポートできる範囲の業務(利用者相談、利用者登録等)を行なった。<br />

利用統計をに示す。<br />

8.1.2 Linux サポート窓口<br />

「Linux サポート」は、ユーザが運用する Linux 機器での問題解決を支援するサービス<br />

である。ここで運用するサーバによりソフトウェアを配布するとともに、メール・電話・<br />

直接の問い合わせに対して回答する。また講習会の実施および Web サーバ・メーリングリ<br />

ストによる情報提供をおこなっている。<br />

昨年期より reflx5.kek.jp にて「最新 Linux 体験サービス」というサービスを行っている。


Linux サポートが対象とするディストリビューションは以下の通りである。<br />

Red Hat Linux、Red Hat Enterprise Linux、<br />

Scientific Linux、Scientific Linux Cern、<br />

Fedora Core 、Vine Linux、CentOS 5<br />

Linux サポート・サーバ reflx1.kek.jp では次のようなサービスを行なっている。<br />

・Linux に関する各種情報の提供、特にセキュリティ情報の提供<br />

・Linux のインストールおよびアップデートのためのサーバ機能<br />

・役立つ手法の紹介<br />

・質問応答集の検索、講習会の資料掲載<br />

・セキュリティ修正パッチの提供(Red Hat Linux:2008 年 12 月まで)<br />

以下、統計情報を示す。<br />

<strong>2009</strong> 年度問合せ件数は 33 件<br />

<strong>2009</strong> 年度アップデート・サーバ利用累積回数<br />

Apt 103 件 (16 ホスト)<br />

Yum 74426 件 ( 961 ホスト)<br />

備考)アップデートツール<br />

APT: Advanced Packaging Tool<br />

YUM: Yellow dog Updater, Modified -<br />

Linux-support のページへのアクセスは 3097 件(511 ホスト)<br />

Linux 講習会3回開催第(21 回~23 回)<br />

・<strong>2009</strong> 年 6 月 25 日「 Linux と Windows 共存とデータ互換性」<br />

・<strong>2009</strong> 年 10 月 29 日「ムービーキャプチャーとチュートリアルビデオの作成」<br />

・2010 年 3 月 4 日「Web サーバ Apache と lighttpd」について」<br />

8.1.3 広報<br />

利用者へ計算機利用に関する情報を適宜提供する広報の機能は、センターにとってまた<br />

利用者にとって重要である。本年度は、計算科学センター速報を3回発行した。速報は<br />

紙へ印刷したものと、電子メール版の双方を配布している。<br />

94


8.1.4 参考資料<br />

95<br />

2010年6月11日現在<br />

計算機 アカウント(active)数<br />

B計算機 472<br />

Super 117<br />

Post<strong>KEK</strong> 1200<br />

Post<strong>KEK</strong><br />

(メーリングリスト)<br />

587<br />

Mail<strong>KEK</strong> 239<br />

共通計算機(kekcc) 430<br />

共通計算機(cifs) 137<br />

共通計算機(access) 315<br />

機構Web(広報室側) 89<br />

機構Web(計セ側) 28<br />

研究情報Web 213<br />

コンファレンスWeb 71<br />

J-park Mail 911<br />

vpn 680<br />

vpn(特定クラスタ) 15<br />

vlan 103<br />

職員用MAクラスタ<br />

MACアドレス<br />

表1 アクティブ・アカウント数<br />

共同利用宿舎用<br />

MAクラスタMACアドレス<br />

2238<br />

5698


4 0<br />

3 5<br />

3 0<br />

2 5<br />

2 0<br />

1 5<br />

1 0<br />

共通<br />

計算<br />

機<br />

WEB<br />

シ<br />

ステ<br />

ム<br />

スー<br />

パー<br />

コン<br />

ピュ<br />

ータ<br />

表2 利用者問い合わせ状況(<strong>2009</strong>年4月~2010年3月)<br />

B<br />

計<br />

算<br />

機<br />

Post<br />

<strong>KEK</strong><br />

メー<br />

ル<br />

シス<br />

テム<br />

J-PA<br />

RC<br />

メー<br />

ル<br />

シス<br />

テム<br />

<strong>KEK</strong><br />

ネッ<br />

トワ<br />

ーク<br />

96<br />

JLA<br />

N<br />

セ<br />

キ<br />

ュ<br />

リ<br />

テ<br />

ィ<br />

ア<br />

ン<br />

チ<br />

ウ<br />

ィ<br />

ル<br />

ス<br />

ソ<br />

フ<br />

ト<br />

無<br />

線<br />

LAN<br />

テ<br />

レ<br />

ビ<br />

会<br />

議<br />

VPN そ<br />

の<br />

他<br />

4月 25 12 0 0 12 5 18 0 2 3 2 3 - 17 99(13)<br />

5月 16 6 0 0 6 5 19 0 0 6 3 5 - 6 72(15)<br />

6月 16 6 0 0 37 2 26 0 2 3 3 6 - 6 107(11)<br />

7月 15 4 0 0 32 5 23 0 1 3 1 2 - 2 88(15)<br />

8月 16 6 0 0 37 2 26 0 2 3 3 6 - 6 107(11)<br />

9月 7 5 0 0 10 2 14 0 0 1 3 2 - 10 54(3)<br />

10月 4 6 0 1 13 2 10 0 0 2 2 6 - 4 50(10)<br />

11月 9 3 0 0 7 3 13 0 0 2 5 2 - 4 48(6)<br />

12月 11 3 0 0 6 2 8 0 2 4 2 5 8 6 57(9)<br />

5<br />

0<br />

1月 11 4 0 0 9 1 12 0 3 2 4 5 5 8 64(9)<br />

2月 8 1 0 1 11 1 11 0 4 4 1 5 3 2 52(8)<br />

3月 6 4 0 0 5 0 11 1 1 7 1 2 9 3 50(7)<br />

※( )内の数値は現地対応件数分<br />

4 月 5 月 6 月 7 月 8 月 9 月 1 0 月 1 1 月 1 2 月 1 月 2 月 3 月<br />

共 通 計 算 機 W E B シ ス テ ム ス ー ハ ゚ー コ ン ヒ ゚ ュ ー タ B 計 算 機<br />

P o s tK E K メ ー ル シ ス テ ム J - P A R C メ ー ル シ ス テ ム K E K ネ ッ ト ワ ー ク J L A N<br />

セ キ ュ リ テ ィ ー ア ン チ ウ ィ ル ス ソ フ ト 無 線 L A N テ レ ビ 会 議<br />

V P N そ の 他<br />

図 1 利用者相談問い合わせ状況(項目別グラフ)<br />

合計


1400<br />

1200<br />

1000<br />

800<br />

600<br />

400<br />

200<br />

0<br />

120<br />

100<br />

80<br />

60<br />

40<br />

20<br />

0<br />

問合せ件数月平均<br />

2004年度 2005年度 2006年度 2007年度 2008年度 <strong>2009</strong>年度<br />

図2:問い合わせ件数月平均図<br />

利用者相談受付内容の推移<br />

2004年度 2005年度 2006年度 2007年度 2008年度 <strong>2009</strong>年度<br />

図3:利用者相談受付の推移図<br />

97<br />

その他<br />

VPN<br />

テレビ会議<br />

無線LAN<br />

アンチウィルスソフト<br />

セキュリティー<br />

JLANネットワーク<br />

<strong>KEK</strong>ネットワーク<br />

J-PARCメールシステム<br />

Post<strong>KEK</strong>メール<br />

B計算機<br />

原子核物理計算機<br />

スーパーコンピュータ<br />

WEBシステム<br />

共通計算機


表3 遠隔監視センター受付状況<br />

遠隔監視センター受付件数(対応時間帯内訳)<br />

年・月 休日・祭日 時間外1 時間外2 時間外3 総受付件数<br />

09/04 月 1 4 0 0 5<br />

09/05 月 1 1 1 0 3<br />

09/06 月 5 2 0 0 7<br />

09/07 月 1 9 0 0 10<br />

09/08 月 2 2 1 0 5<br />

09/09 月 2 3 1 0 6<br />

09/10 月 1 0 0 1 2<br />

09/11 月 3 1 1 0 5<br />

09/12 月 0 3 0 0 3<br />

10/1 月 0 3 1 0 4<br />

10/2 月 1 2 0 1 4<br />

10/3 月 3 2 0 0 5<br />

計 20 32 5 2 59<br />

98<br />

休日・祭日:08:30~翌日 8:30<br />

時間外 1:17:30~22:00<br />

時間外 2:22:00~翌日 05:00<br />

時間外 3:05:00~08:30


遠隔監視センター受付件数(現地対応時間帯内訳)<br />

上記の件数のうちで、現場に足を運んだ件数を示す。<br />

年・月<br />

内訳<br />

休日・祭日 時間外1 時間外2 時間外3<br />

99<br />

現地対応件数<br />

09/04 月 0 0 0 0 0<br />

09/05 月 0 0 0 0 0<br />

09/06 月 2 0 0 0 2<br />

09/07 月 0 0 0 0 0<br />

09/08 月 0 0 1 0 1<br />

09/09 月 1 0 1 0 2<br />

09/10 月 0 0 0 0 0<br />

09/11 月 0 0 0 0 0<br />

09/12 月 0 1 0 0 1<br />

10/1 月 0 1 0 0 1<br />

10/2 月 0 0 0 0 0<br />

10/3 月 0 0 0 0 0<br />

計 3 2 2 0 7<br />

休日・祭日:08:30~翌日 8:30<br />

時間外 1:17:30~22:00<br />

時間外 2:22:00~翌日 05:00<br />

時間外 3:05:00~08:30


(集計期間 : <strong>2009</strong>年4月1日~2010年3月31日)<br />

(集計期間 : <strong>2009</strong>年4月1日~2010年3月31日)<br />

1600<br />

1400<br />

1200<br />

1000<br />

800<br />

600<br />

400<br />

200<br />

0<br />

1600<br />

1400<br />

1200<br />

1000<br />

800<br />

600<br />

400<br />

200<br />

0<br />

Symantec AntiVirus for Windows (日本語版) Symantec AntiVirus for Windows (英語版) Norton AntiVirus for Macint<br />

Symantec AntiVirus for Windows (日本語版) Symantec AntiVirus for Windows (英語版) Norton AntiVirus for Macint<br />

Symantec Client Security for Windows Norton Internet Security 3.0 for Macintosh McAfee VirusScan<br />

Symantec Client Security for Windows Norton Internet Security 3.0 for Macintosh McAfee VirusScan<br />

図3 アンチウィルスソフトライセンス登録作業<br />

図3 アンチウィルスソフトライセンス登録作業<br />

表4 ライセンス登録状況(2010 年 3 月時点)<br />

表4 ライセンス登録状況(2010 年 3 月時点)<br />

2010<br />

2010 ライセンス ライセンス 発行割合<br />

ライセンス ライセンス 発行割合<br />

/03<br />

/03<br />

残数<br />

残数 発行上限数<br />

発行上限数 (%)<br />

(%)<br />

Symantec AntiVirus<br />

Symantec AntiVirus 1365<br />

for Windows<br />

for Windows<br />

1365<br />

15<br />

15<br />

1380<br />

1380<br />

99<br />

99<br />

Symantec AntiVirus<br />

Symantec AntiVirus 108<br />

for Windows<br />

for Windows<br />

(英語版)<br />

(英語版)<br />

108<br />

2<br />

2<br />

110<br />

110<br />

98<br />

98<br />

Norton AntiVirus<br />

Norton AntiVirus<br />

for Macintosh<br />

for Macintosh<br />

210<br />

210<br />

0<br />

0<br />

210<br />

210<br />

100<br />

100<br />

Symantec Client<br />

Symantec Client<br />

Security<br />

Security<br />

for Windows<br />

for Windows<br />

264<br />

264<br />

6<br />

6<br />

270<br />

270<br />

98<br />

98<br />

Norton Internet<br />

Norton Internet<br />

Security 3.0<br />

Security 3.0<br />

for Macintosh<br />

for Macintosh<br />

7<br />

7<br />

3<br />

3<br />

10<br />

10<br />

70<br />

70<br />

McAfee VirusScan<br />

McAfee VirusScan 296<br />

296<br />

4<br />

4<br />

300<br />

300<br />

99<br />

99<br />

合計発行数<br />

合計発行数 2250<br />

2250<br />

100


8.2 施設整備<br />

8.2.1 <br />

101<br />

柿原 春美、中村 貞次、金子 敏明<br />

無停電電源装置(400KVA 及び 250KVAUPS)および蓄電池の定期点検(1回 / 年)<br />

計算科学センター建屋出入りシステムの定期点検(1回 / 年)<br />

計算科学センター各マシン室用消火設備の定期点検(2回 / 年)<br />

計算科学センター各マシン室用空調の定期点検(1回 ~3回/ 月)<br />

8.2.2 <br />

・ <strong>2009</strong>年8月18日(火)、19日(水) の計画停電時に、ネットワーク機器、<br />

メールシステム、Web システムを稼動させるために、リース発電機を動かし電力<br />

供与した。具体的には、270KVA 発電機2台(1台はバックアップ)で、ネット<br />

ワーク機器、メールシステム、及び Web システムに給電した。更に、37KVA 発電<br />

機2台で照明系、空調系に給電した。<br />

8.2.3 <br />

・2008年度に南棟マシン室の85年製の空調3台を新しく更新したが<br />

<strong>2009</strong>年度はこれに加え4台を更新した。これにより B ファクトリー計算機<br />

システムの運用のため工事できないものを除き、導入後 20 年を超える旧式空<br />

調は残り1台 となった。(工期は2011年1月末~2月中旬の予定)<br />

・北棟の屋根の補修を施設部の予算で実施してもらった。(2010 年3月)<br />

・PS 主リング電源棟のハウジング設備に受益者負担による分電盤工事<br />

(2010 年3月)<br />

・ネットワーク系UPSを1台増強した。(2010 年 3 月)


9. 著作<br />

9.1 論文<br />

・"Non-perturbative renormalization of bilinear operators with dynamical overlap fermions"<br />

(松古栄夫)<br />

JLQCD and TWQCD collaborations (J. Noaki et al.)<br />

Phys. Rev. D 81 (2010) 034502 (22 pages) [arXiv:0907.2751]<br />

(査読あり)<br />

・"Pion form factors from two-flavor lattice QCD with exact chiral symmetry"<br />

(松古栄夫)<br />

JLQCD, TWQCD collaborations (S.Aoki et al.)<br />

Phys. Rev. D 80 (<strong>2009</strong>) 034508 (20 pages) [arXiv:0905.2465]<br />

(査読あり)<br />

・J. Suzuki, et.al,<br />

J. Chem. Phys. 131,144902 (<strong>2009</strong>).<br />

(査読あり)<br />

・"Interdisciplinary Applications of Mathematical Modeling"<br />

E.de Doncker,K.Kaugars,S.Li,H.Li,Y.Shimizu,J.Fujimoto,<br />

F.Yuasa,T.Ishikawa,N.Hamaguchi,<br />

ACM International Conference Proceedings Series<br />

(ICCIT<strong>2009</strong> &ICIS<strong>2009</strong>, 24-26 Nov., Seoul, Korea)<br />

(査読あり)<br />

・小特集「粒子線シミュレーション基盤の開発」<br />

佐々木節<br />

シミュレーション学会論文誌 28(1), 2-40<br />

(査読あり)<br />

・「マルチグリッド環境における効率的な監視システムに関する研究」,<br />

小山敦, 長坂康史, 渡瀬芳行, 佐々木節, 岩井剛, 佐藤三久, 建部修見,<br />

Vol.<strong>2009</strong>-HPC-122 No.8, pp. 1-6, <strong>2009</strong> 年 10 月,<br />

(査読有り)<br />

105


・「アクセラレータによる四倍精度演算」<br />

中里直人、石川正、牧野淳一郎、湯浅富久子<br />

情報処理学会研究報告(IPSJ SIG Technical <strong>Report</strong>)<br />

情報処理学会研究会 <strong>2009</strong>-HPC-121(<strong>2009</strong>) 39.<br />

(査読あり)<br />

・「アクセラレータボードを積んだパソコンでの多倍長高性能計算」<br />

湯浅 富久子, 石川 正<br />

第 4 回 パーソナルコンピュータ利用技術学会全国大会・論文集<br />

慶応義塾大学 <strong>2009</strong> 年 12 月 12 日<br />

・「インターネット通信のサービス別揺ぎの DFA 解析」,<br />

柴田章博,村上直,<br />

第 15 回交通流のシミュレーションシンポジウム,<strong>2009</strong>/12.<br />

(査読あり)<br />

9.2 Proceedings<br />

・"Systematic study of 1-loop correction on sparticle decay widths using<br />

GRACE/SUSY-loop"<br />

K. Iizuka, T. Kon, K. Kato, T. Ishikawa, Y. Kurihara, M. Jimbo, and M. Kuroda<br />

Pos(RADCOR<strong>2009</strong>)059.<br />

・"Interdisciplinary Applications of Mathematical Modeling",<br />

E.de Doncker, S. Li, H. Li, Y. Shimizu, J.Fujimoto, F.Yuasa, T.Ishikawa<br />

and N.Hamaguchi<br />

ICIS<strong>2009</strong>: 2nd ICIS: <strong>2009</strong> International Conference on Interaction Sciences:<br />

Information Technology, Culture and Human.<br />

24-26 November, <strong>2009</strong> - Seoul, Korea.<br />

・"A Prototyping of Web Interface for Treatment Planning in Radiotherapy<br />

in the Multi Grid Infrastructure";<br />

Go Iwai, Yutaka Kawai, Takashi Sasaki, Yoshiyuki Watase,<br />

Asian Simulation Conference <strong>2009</strong>, 7-9 October <strong>2009</strong>,Shiga, Japan<br />

Proc. of ASC<strong>2009</strong>/JSST<strong>2009</strong><br />

(査読有り)<br />

106


・"Study of Aoki phase in Nc=2 gauge theories with fundamental and adjoint<br />

fermions",<br />

H. Matsufuru, Y. Kikukawa, and N. Yamada,<br />

PoS (LAT2005) 123 <strong>2009</strong>:<br />

Proceedings of 27th International Symposium on Lattice<br />

Field Theory (Lattice <strong>2009</strong>), Beijing, China, 25-31 Jul <strong>2009</strong>.<br />

・"Chiral properties of light mesons with N(f) = 2+1 overlap fermions",<br />

(松古栄夫)<br />

TWQCD and JLQCD Collaboration (J. Noaki et al.),<br />

PoS (LAT<strong>2009</strong>) 096, <strong>2009</strong>:<br />

Proceedings of 27th International Symposium on Lattice<br />

Field Theory (Lattice <strong>2009</strong>), Beijing, China, 25-31 Jul <strong>2009</strong>.<br />

・"Search for the IR fixed point in the twisted Polyakov loop scheme",<br />

E. Bilgici et al.,<br />

(松古栄夫)<br />

PoS (LAT<strong>2009</strong>) 063, <strong>2009</strong>:<br />

Proceedings of 27th International Symposium on Lattice<br />

Field Theory (Lattice <strong>2009</strong>), Beijing, China, 25-31 Jul <strong>2009</strong>.<br />

・"Nucleon sigma term and strange quark content in 2+1-flavor<br />

QCD with dynamical overlap fermions".<br />

H. Ohki et al., (松古栄夫)<br />

PoS (LAT<strong>2009</strong>) 124, <strong>2009</strong>:<br />

Proceedings of 27th International Symposium on Lattice<br />

Field Theory (Lattice <strong>2009</strong>), Beijing, China, 25-31 Jul <strong>2009</strong>.<br />

・"Topological quantum fluctuations in lattice QCD with overlap Dirac quarks",<br />

T.H. Hsieh et al.,<br />

(松古栄夫)<br />

PoS (LAT<strong>2009</strong>) 085, <strong>2009</strong>:<br />

Proceedings of 27th International Symposium on Lattice<br />

Field Theory (Lattice <strong>2009</strong>), Beijing, China, 25-31 Jul <strong>2009</strong>.<br />

・"Data Preservation in High Energy Physics".<br />

107


By DPHEP Study Group (Richard Mount et al.).<br />

(佐々木節)<br />

DPHEP-<strong>2009</strong>-001, Dec <strong>2009</strong>. 18pp.<br />

e-Print: arXiv:0912.0255 [hep-ex]<br />

・「e サイエンス基盤構築のためのミドルウエア技術」<br />

佐々木節<br />

情報処理学会誌, 2010 年 2 月号 127-133<br />

・「GRAPE-DR を用いた loop 積分計算」<br />

湯浅富久子、石川正<br />

日本物理学会 <strong>2009</strong> 年秋季大会 予稿集<br />

・「アクセラレータボードを積んだパソコンでの多倍長高性能計算」<br />

湯浅富久子、石川正<br />

第 4 回パーソナルコンピュータ利用技術学会全国大会講演論文集<br />

10. 会議発表<br />

10.1 国際会議<br />

・"Development of a Monte Carlo Tool Toward Evidence Based Medicine" (invited)<br />

IEEE Nuclear Science Symposium <strong>2009</strong>, Oct.29,<strong>2009</strong>,<br />

(佐々木節)<br />

Asis Simulation Conference <strong>2009</strong>, Oct.7.<strong>2009</strong>,"Geant4 - A Simulation<br />

Toolkit for Elementary Particles and Nuclei" Key note<br />

・"Numerical approach to Feynman diagram calculations:Benefits<br />

from new computational capabilities"(Invited)<br />

(湯浅富久子)<br />

ACAT2010 (XIII International Workshop on Advanced Computing<br />

and Analysis Techniques in Physics Research), Jaipur, India,<br />

February 22-27, 2010<br />

・"<strong>KEK</strong> GRID for ILC Experiments";<br />

Akiya Miyamoto, Go Iwai, Katsumasa Ikematsu,<br />

108


Talk given by A. Miyamoto at LCWS2010, IHEP, Beijing, China, Mar 2010;<br />

http://lcws10.ihep.ac.cn/<br />

・"Updates on SAGA related activities since OGF27 on October <strong>2009</strong>";<br />

Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase,<br />

Talk given at OGF28, Munich, Germany, Mar 2010;<br />

http://ogf.org/OGF28/<br />

・"gLite deployment and operation towrad the <strong>KEK</strong> Super B factory";<br />

Go Iwai,<br />

Talk given at FJPPL Workshop, CC-IN2P3, Lyon, France, Feb 2010;<br />

http://indico.in2p3.fr/conferenceDisplay.py?confId=2804<br />

・"Updates related on Grid since last meeting in December 2008: Service,<br />

resource, and recent achievements to utilize distributed computing<br />

infrastructures";<br />

Go Iwai et al., Talk given at ILC Detector Workshop, Tsukuba, Japan, Dec <strong>2009</strong>;<br />

http://kds.kek.jp/conferenceDisplay.py?confId=3363<br />

・"Recent updates related on SAGA";<br />

Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase,<br />

Talk given at Belle2 Computing Workshop, Tsukuba, Japan, Nov <strong>2009</strong>;<br />

http://kds.kek.jp/conferenceDisplay.py?confId=4124<br />

・"Updates related on Grid since last meeting in March <strong>2009</strong>: Service and<br />

Resource Scale for Belle VO";<br />

Go Iwai et al., Talk given at Belle2<br />

Computing Workshop, Tsukuba, Japan, Nov <strong>2009</strong>;<br />

http://kds.kek.jp/conferenceDisplay.py?confId=4124<br />

・"Grid infrastructure in Japan and the development of applications in<br />

Physics and Biophysics";<br />

Go Iwai et al., Talk given at ACGrid-II, Kuala Lumpur, Malaysia, Nov <strong>2009</strong>;<br />

http://indico.in2p3.fr/conferenceDisplay.py?confId=2116<br />

・"Recent Update on SAGA-related Activities at <strong>KEK</strong>";<br />

109


Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase,<br />

Talk given at OGF27, Banff, Alberta, Canada, Oct <strong>2009</strong>;<br />

http://ogf.org/OGF27/<br />

・"A Prototyping of Web Interface for Treatment Planning in Radiotherapy in<br />

the Multi Grid Infrastructure";<br />

Go Iwai, Yutaka Kawai, Takashi Sasaki, and Yoshiyuki Watase,<br />

Talk given at Asia Simulation Conference <strong>2009</strong>,<br />

Ritsumeikan University, Shiga, Japan, Oct <strong>2009</strong>;<br />

http://www.jsst.jp/e/asc<strong>2009</strong>/<br />

・"Current Status and Recent Activities on Grid at <strong>KEK</strong>";<br />

Go Iwai, Talk given at TILC09 - Joint ACFA Physics and<br />

Detector Workshop and GDE, Tsukuba, Japan, Apr <strong>2009</strong>;<br />

http://tilc09.kek.jp/<br />

・"Job execution and Application example in <strong>KEK</strong> with SAGA Adaptor",<br />

河井 裕<br />

SAGA Workshop in Open Grid Fourm (OGF) 27, <strong>2009</strong> 年 10 月 15 日<br />

・"High Availability iRODS System (HAIRS)",<br />

河井 裕<br />

Interoperability of Digital Repositories Workshop, <strong>2009</strong> 年 12 月 2 日<br />

・"Study of Aoki phase in Nc=2 gauge theories with fundamental<br />

and adjoint fermions",<br />

H.Matsufuru with Y. Kikukawa and N. Yamada,<br />

Poster at 27th International Symposium on Lattice<br />

Field Theory (Lattice <strong>2009</strong>), Beijing, China, 25-31 Jul <strong>2009</strong>.<br />

・"Sector decomposition via computational geometry",<br />

T. Kaneko and T.Ueda<br />

ACAT2010 (XIII International Workshop on Advanced Computing<br />

and Analysis Techniques in Physics Research), Jaipur, India<br />

February 22-27, 2010<br />

110


10.2 国内会議<br />

・「格子 QCD シミュレーションにおける固有値問題」<br />

H.Matsufuru (招待講演),<br />

特異値固有値合同ワークショップ, 21-22 Nov <strong>2009</strong>, エポカルつくば、つくば市<br />

・「iRODS を用いたデータ管理システムの導入」<br />

飯田好美<br />

H21 年度 <strong>KEK</strong> 技術研究会、2010 年 3 月 18-19 日、<br />

・「Grid」<br />

Go Iwai,<br />

HEPnet-J ユーザー会, <strong>KEK</strong>, Oct <strong>2009</strong>,<br />

http://kds.kek.jp/conferenceDisplay.py?confId=3679<br />

・「データ解析フレームワークによるイベントデータのヒストグラム化」,<br />

鈴木次郎、稲村泰弘、中谷武、大友季哉<br />

日本中性子科学会第 9 回年次大会<br />

いばらき量子ビーム研究センター, <strong>2009</strong>.12.09-11<br />

・「モンテカルロシミュレーションによるバルクにおける環状高分子の拡がりの観測」<br />

鈴木次郎,高野敦志,松下裕秀<br />

高分子学会 春季年会<br />

神戸国際会議場 <strong>2009</strong>.05.27-29<br />

・「バルクにおける環状高分子の拡がり」,<br />

鈴木次郎,高野敦志,松下裕秀<br />

高分子学会 討論会 (秋季年会)<br />

熊本大学 <strong>2009</strong>.09.16-18<br />

・「Nc=2 格子ゲージ理論の Wilson-Dirac 演算子に関する相構造」<br />

松古栄夫、菊川芳夫、山田憲和<br />

日本物理学会 <strong>2009</strong> 年 9 月 10-13 日、甲南大学<br />

・「GPU 上の大規模格子シミュレーションに向けて」<br />

松古栄夫 in collaboration with 青山龍美、野秋淳一、山田憲和<br />

111


GPGPU 研究会, 筑波大学計算科学研究センター, 24 Jun <strong>2009</strong>.<br />

・「A04 分野横断アルゴリズムと計算機シミュレーション」次世代スーパーコンピュータ戦略プ<br />

ログラム・分野5「物質と宇宙の起源と構造」・ 科研費新学術領域研究 「素核宇宙融合による<br />

計算科学に基づいた重層的物質構造の解明」合同シンポジウム 「次世代スーパーコンピュータで<br />

せまる物質と宇宙の起源と構造」、<br />

松古 栄夫<br />

2010 年 3 月 15-16 日、 東京ステーションコンファレンス/東京大学理学部小柴ホール<br />

・「<strong>KEK</strong> セキュアネット 機器申請電子化 & ログ & 2008 年度セキュリティ監査」<br />

村上 直,<br />

共同利用機関におけるセキュリティワークショップ, <strong>2009</strong>/9, 大阪大学銀杏会館<br />

コンベンションセンター, 大阪<br />

・「共同利用のための計算機環境」<br />

八代茂夫<br />

第13回セキュリティワークショップ, <strong>2009</strong>/9/28-29,<br />

・「共通計算機システム」、<br />

八代茂夫<br />

HEPnet-J ユーザー会, <strong>2009</strong>/10/2-3,<br />

・「JPARC 実験データの共通計算機システムへの転送」<br />

八代茂夫<br />

高エネルギー加速器研究機構 技術研究会, 2010/3/18-19,<br />

・「<strong>KEK</strong> 情報セキュリティ近況 <strong>2009</strong>」,<br />

湯浅富久子<br />

SWS<strong>2009</strong> (第 13 回共同利用機関における計算機・ネットワークセキュリ<br />

ティワークショップ), <strong>2009</strong> 年 9 月 28 - 29 日<br />

・「GRAPE-DR を用いた loop 積分計算」,<br />

湯浅富久子<br />

日本物理学会 <strong>2009</strong> 年秋季大会, <strong>2009</strong> 年 9 月 10 日 - 13 日<br />

・「アクセラレータボードを積んだパソコンでの多倍長高性能計算」,<br />

112


湯浅富久子<br />

第 4 回パーソナルコンピュータ利用技術学会(JPCATS)全国大会,<br />

<strong>2009</strong> 年 12 月 12 日<br />

・"Discussion of <strong>KEK</strong> use and evaluation of iRODS"<br />

飯田好美<br />

iRODS workshop, 20th April <strong>2009</strong>,<br />

・"J-PARC repository"<br />

飯田好美<br />

Interoperability of Digital Repositories, 2nd - 4th December <strong>2009</strong>,<br />

10.3 講演, セミナー発表等<br />

・「マルチグリッドミドルウェアに於けるユーザ環境の現状」<br />

河井 裕<br />

RENKEI プロジェクト内部ワークショップ, <strong>2009</strong> 年 8 月 24 日<br />

・"Lattice QCD simulation with exact chiral symmetry"<br />

H.Matsufuru for JLQCD Collaboration,<br />

理化学研究所セミナー、<strong>2009</strong> 年 5 月 15 日.<br />

・「CUDA programming for lattice QCD」<br />

松古栄夫、青山龍美、野秋淳一、山田憲和、石川健一、尾崎裕介<br />

高性能加速研究会、2008 年 6 月 4 日、筑波大学計算科学研究センター<br />

・パネルディスカッション「スーパーコンピュータの将来」<br />

大阪大学サイバーメディアセンター<br />

平成 21 年度スーパーコンピュータシンポジウム <strong>2009</strong> 年 10 月 8-9 日<br />

パネリスト (松古栄夫)<br />

11. 会議出席(委員・座長等のみ)<br />

11.1 国際会議<br />

・IEEE Nuclear Science Symposium <strong>2009</strong>, Oct.29,<strong>2009</strong><br />

113


座長、プログラム委員 (佐々木節)<br />

・ICCSA2010/NMMS2010 プログラム委員<br />

日付:2010 年 3 月 23 日 - 26 日 (湯浅富久子)<br />

11.2 国内会議<br />

12. 会議開催<br />

12.1 国際会議<br />

・Geant4 Asia-Pacific workshop and training course <strong>2009</strong>、<br />

<strong>2009</strong> 年 12 月 7-11 日、エポカルつくば、70 名<br />

(佐々木節)<br />

12.2 国内会議<br />

12.3 研究会<br />

・Asia-Pacific Geant4 Workshop and Training Course <strong>2009</strong> 7-12 December <strong>2009</strong><br />

Tsukuba International Congress Center (Epochal), Tsukuba, Japan<br />

70 名<br />

講習会とあわせて、実作業セッションを設け、より実践的な事例紹介を直接的に得られるよう工<br />

夫した。<br />

(岩井 剛)<br />

・"1st Belle II gLite training course" にて講師を担当<br />

(岩井 剛)<br />

・「GPGPU 講習会・研究会」<br />

日時:6 月 23 日(火)、24 日(水) 研究会は 24 日<br />

場所:筑波大学 計算科学研究センター ワークショップ室<br />

世話人:高橋大介(筑波大)、松古栄夫、野秋淳一(<strong>KEK</strong>)<br />

114


特徴:GPGPU を使った高性能計算に関する研究。<br />

人数:参加者 約 20 名<br />

(松古栄夫)<br />

12.4 講習会<br />

・「GPGPU 講習会・研究会」<br />

日時:6 月 23 日(火)、24 日(水) 講習会は 23 日<br />

場所:筑波大学 計算科学研究センター ワークショップ室<br />

講師:日本 SGI 講師<br />

世話人:高橋大介(筑波大)、松古栄夫、野秋淳一(<strong>KEK</strong>)<br />

特徴:GPGPU を使った高性能計算、特に CUDA のよるプログラミング手法を学ぶ。<br />

人数:参加者 約 50 名<br />

(松古栄夫)<br />

・「アクセラレータボードを使った高速化スクール」<br />

日時:<strong>2009</strong> 年 12 月 7 日(月)-9 日(水)<br />

場所:高エネルギー加速器研究機構(<strong>KEK</strong>) 計算科学センター<br />

講師: 中里直人氏 (会津大学)<br />

世話人: 湯浅富久子、松古栄夫 (<strong>KEK</strong>)<br />

特徴:アクセラレータボードを使った高性能計算の手法を学ぶ。<br />

人数:参加者 約 20 名<br />

(松古栄夫)<br />

・「Cell B.E. プログラミング講習会」<br />

日時:2010 年 1 月 21 日(木)、22 日(金)<br />

場所:高エネルギー加速器研究機構(<strong>KEK</strong>) 計算科学センター<br />

講師:株式会社フィックスターズ講師<br />

世話人:松古栄夫 (<strong>KEK</strong>)<br />

特徴:Cell Broadband Engine を使う高性能計算の手法を学ぶ。<br />

人数:参加者 6 名<br />

(松古栄夫)<br />

・GRACE スクール<br />

日時:<strong>2009</strong> 年 8 月 31 日 - 9 月 3 日<br />

場所:<strong>KEK</strong><br />

115


人数:10 名程度<br />

特徴:素粒子物理学実験および理論専攻の大学院生を対象とし、自動計算システム GRACE を用<br />

いて素粒子散乱の理論的な予言値を自分で求め、実験解析に必要なイベントジェネレータのソフ<br />

トウェアを作れるようになることを目的としたスクール<br />

(湯浅富久子)<br />

・アクセラレータボードを使った高速化スクール<br />

日時:<strong>2009</strong> 年 12 月 7 日- 9 日<br />

場所:<strong>KEK</strong><br />

人数:30 名程度<br />

特徴:講義と実習によりアクセラレータボードの利用法を実用的なレベルまで身につけることを<br />

目標としたスクール<br />

(湯浅富久子)<br />

・Linux support 講習会<br />

<strong>2009</strong>年 6月25日「Linux&Windows 共存とデータ互換性」<br />

<strong>2009</strong>年10月29日「ムービーキャプチャーとチュートリアルビデオの作成」<br />

2010年3月4日 「Web サーバ Apache と lighttpd」<br />

13. 共同研究<br />

13.1 国際間の大学・研究機関との共同研究<br />

・題名 Ultralight<br />

参加者 Caltech、CERN、FNAL 等<br />

特徴 高エネルギー物理実験での遠隔共同作業環境としてどういう可能性がありうるかを、主に<br />

ネットワーク面から探っている<br />

(苅田幸雄)<br />

・JLQCD-TWQCD Collaboration,<br />

国内(JLQCD) 十数名、台湾(TWQCD)数名<br />

カイラル対称性を厳密に持つ格子 QCD の大規模シミュレーション<br />

(松古栄夫)<br />

・Study of Infrared fixed point of lattice gauge theories<br />

京大基研 大野木哲也氏ら、10 名<br />

116


格子上でゲージ理論の結合定数のコンフォーマル固定点を探ることにより、標準理論を超え<br />

た物理の解明に役立てる<br />

(松古栄夫)<br />

・Geant4<br />

(佐々木節)<br />

・「ファインマンループ積分法の数値的計算法の研究」米国ウェスタンミシガン大学コンピュー<br />

タサイエンス学部、Elise de Doncker 教授との共同研究<br />

(湯浅富久子)<br />

13.2 国内の大学・研究機関との共同研究<br />

・研究開発課題名:研究コミュニティ形成のための資源連携技術に関する研究<br />

参加者:国立情報学研究所、富士通株式会社、玉川大、大阪大、筑波大、産業技術<br />

総合研究所、東京工業大学、高エネルギー加速器研究機構(佐々木節、川端節彌、<br />

渡瀬芳行、村上晃一、岩井剛、飯田好美)<br />

(岩井 剛)<br />

・題名 JGN2plus<br />

参加者 情報通信研究機構<br />

特徴 高エネルギー物理国際共同研究用計算機ネットワークに必要な諸要素について検討し整<br />

備・検証<br />

(苅田幸雄)<br />

・RENKEI: 国立情報学研究所ほか e サイエンス<br />

<strong>KEK</strong> 大学連携事業 放射線シミュレータの開発 富山商船高専 阿蘇司<br />

(佐々木節)<br />

・国立天文台牧野淳一郎教授、会津大学中里直人准教授、一橋大学台坂博准教授<br />

(湯浅富久子)<br />

13.3 受け入れ外国人<br />

・日本学術振興会外国人特別研究員 Axel Bredenstein,<br />

2007 年 11 月から <strong>2009</strong> 年 9 月まで<br />

117


(金子敏明)<br />

・<strong>KEK</strong> 短期招聘研究員 Liverpool University Adil Hasan <strong>2009</strong>.8-9<br />

(佐々木節)<br />

13.4 その他<br />

・ "電子認証を使った安全で内容が正確なウェブ構築";<br />

TX テクノロジーショーケース<br />

(2010 年 1 月) に出展<br />

http://www.science-academy.jp/showcase/09/index.html<br />

(岩井 剛)<br />

・ "粒子線利用シミュレータ"; イノベーションジャパン <strong>2009</strong> (<strong>2009</strong> 年 9 月) に出展<br />

http://expo.nikkeibp.co.jp/innovation/index.html<br />

(岩井 剛)<br />

14. プロジェクト等での研究活動、成果<br />

14.1. 機構外<br />

・「GRAPE-DR の素粒子反応自動計算システムへの応用のまとめ」<br />

総合研究大学院大学・葉山高等研究センター・新領域プロジェクト:代表<br />

(石川 正)<br />

・ NeXus International Advisory Committee メンバー<br />

中性子、X線、中間子の物性実験で使われるデータフォーマットの国際規格の策定委員会のメ<br />

ンバーである。(日本のとりまとめ役として出席であるが アジアで唯一のメンバーである)主に、<br />

MLF の装置責任者の意見をとりまとめて、委員会で発言/投票を行いデータフォーマットの策定<br />

に貢献/反映を行っている。<br />

(鈴木 次郎)<br />

・Japan Lattice Data Grid,<br />

筑波大 吉江友照、など筑波大学、<strong>KEK</strong>、阪大 RCNP, 京大基研、<br />

広島大、金沢大の計算素粒子物理学研究者が参加<br />

118


Lattice QCD(計算素粒子物理)のデータの共有と高速転送のためのインフラとしてのデータ<br />

Grid の構成<br />

(松古栄夫)<br />

・Geant4<br />

(佐々木節)<br />

・RENKEI<br />

(佐々木節)<br />

・「GRAPE-DR の素粒子反応自動計算システムへの応用」<br />

総合研究大学院大学・葉山高等研究センター・新領域プロジェクト:分担<br />

(代表者:石川正)<br />

(湯浅富久子)<br />

・「戦争と平和」<br />

総合研究大学院大学・葉山高等研究センター・「人間と平和」プロジェクト:分担<br />

(代表者:総研大清水韶光)<br />

(湯浅富久子)<br />

14.2 機構内<br />

・「大型シミュレーション研究のためのプロジェクト」(分担)<br />

新しい計算機の評価等<br />

(石川正)<br />

MLF 計算環境検討会議のメンバー<br />

MLF の計算環境(ソフトウエア、ネットワーク)の研究施設全体の方針決定と環境整備に貢献。<br />

<strong>KEK</strong>,JAEA などのメンバー(10 名程度)<br />

(鈴木 次郎)<br />

GRACE 自動計算システムに関する研究活動に参加(計算科学センター、素核研)<br />

(湯浅富久子 石川正 金子敏明)<br />

119


15. 教育・人材育成活動<br />

15.1 非常勤講師等<br />

・呉大学大学院社会情報研究科非常勤講師<br />

茨城県立医療大学保健医療学部非常勤講師<br />

(苅田幸雄)<br />

・広島大学理学部物理科学科 物理学特別講義 VI(高エネルギー物理学特論)<br />

12 月 22 日 「スーパーコンピュータで探るクォークの世界」<br />

(松古栄夫)<br />

16. 社会連携・社会貢献活動<br />

16.1 客員教授、客員研究員等<br />

・総合研究大学院大学・葉山高等研究センター・特任研究員<br />

(石川 正)<br />

・国立情報学研究所 客員教授<br />

(佐々木節)<br />

・ 国立情報学研究所 ネットワーク作業部会 客員准教授<br />

理研 客員研究員 (MuSR)<br />

(鈴木聡)<br />

・国立情報学研究所客員准教授<br />

(湯浅富久子)<br />

16.2 国の委員会等<br />

・文部科学省 次期学術情報ネットワークに関する検討会<br />

(佐々木節)<br />

120


16.3 他機関の委員等<br />

・「先端加速器科学技術推進協議会」の事務局員<br />

(石川 正)<br />

・中性子学会誌 「波紋」地区編集委員<br />

(鈴木 次郎)<br />

・阪大核物理研究センター 計算機コンタクトパーソン<br />

(松古栄夫)<br />

・Hitachi アカデミックシステム研究会 企画幹事<br />

(松古栄夫)<br />

・国立情報学研究所 連携本部 グリッド作業部会<br />

国立情報学研究所 連携本部 企画作業部会<br />

(佐々木節)<br />

・国立大学法人総合研究大学院大学情報セキュリティー・計算機システム委員会委員<br />

(湯浅富久子)<br />

・国立情報学研究所学術ネットワーク運営・連携本部認証作業部会委員<br />

(湯浅富久子)<br />

16.4 学協会活動<br />

・情報処理学会インターネットと運用技術研究会 運営委員<br />

SS 研 セキュリティワーキンググループ 委員<br />

(鈴木聡)<br />

・Scientific System 研究会(富士通)推進会議委員<br />

(湯浅富久子)<br />

・Scientific System 研究会(富士通)情報化された組織のセキュリティマネジメ<br />

ントWGWG 委員<br />

(湯浅富久子)<br />

121


17. 外部資金取得状況<br />

17.1 科学研究補助金<br />

・新学術領域研究(領域番号 2004)・公募研究<br />

「高次補正計算の専用化のための研究」<br />

課題番号 21105513<br />

H21 年度 2,000 千円<br />

代表:石川 正<br />

・新学術領域研究(研究領域提案型)「素核宇宙融合による計算<br />

科学に基づいた重層的物質構造の解明」(領域代表者・青木慎也)<br />

計画研究(A04 班)「分野横断アルゴリズムと計算機シミュレーション」<br />

代表:松古栄夫、期間: H20-24, 課題番号:20105005<br />

(松古栄夫)<br />

・若手研究(B)、<br />

「カイラル対称性を持つ2+1フレイバーの動的格子 QCD とフレイバー物理への応用」<br />

代表:松古栄夫、期間: H19-21, 課題番号:19740160<br />

・基盤(C)、「QCD 解析のためのループ積分法の開発」<br />

代表:金子敏明、期間:H21-23, 課題番号: 21540286<br />

H21 年度 1,000 千円<br />

17.2 その他<br />

・「GRAPE-DR の素粒子反応自動計算システムへの応用のまとめ」<br />

総合研究大学院大学・葉山高等研究センター・新領域プロジェクト:<br />

H21 年度 600 千円<br />

(石川 正)<br />

・研究コミュニティ形成のための資源連携技術に関する研究<br />

文部科学省受託研究費 三浦謙一、2008-2011 年、<br />

国立情報学研究所 CSI 経費<br />

(佐々木節)<br />

122

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!