2024/07/17

気候モデルの問題: モデルの検証

 (このブログは「気候変動社会の技術史」(日本評論社)の公式解説ブログの一部です) 

前回同様に、ここでは気候モデルという言葉を用いているが、この問題は大循環モデルも地球システムモデルでも同じである。

1980 年代にモデルが現実の気候の振る舞いを、高い信頼性を持ちある程度の正確さで捉えることができることを示すには、基本的に2 つの方法があった。一つの方法は、モデルのパラメータ値を現在に近い状態に設定し、20~100 年間のシミュレーションを実行して気候を求め、その結果を現実の大気循環の統計値と比較することである。

もう1 つは、最終氷期や高温の白亜紀のような現在と異なる条件にパラメータを設定する方法である。もしモデルの結果が古生物学的に推定された過去の気候条件とほぼ同じであれば、モデルの性能に対する信頼が高まる。そして、このモデルのパラメータを現在の状態に合わせれば、シミュレーションが正確である可能性が高くなる。

しかし、モデルの結果を実際の気候と比較して、両者が似ていればモデルの結果が常に信頼できるか?という議論は簡単ではない。例えば、科学史家であるナオミ・オレスケスは、モデルの結果は本質的に複雑な帰納的議論であると主張している。帰納的命題は完全に確実に証明することができないため、厳密な意味ではモデルの性能を実証することはできない。それは、モデルで与えた条件で現実に近い状態が再現できても、その現実に近い条件がモデルで与えた条件でなければ出現しない、ということを立証することが出来ないからである。

しかし、そのようなモデルが科学的論理で完全に立証されたと言えなくても、モデルの結果は「有効」である可能性は高い。そのため、オレスケスらは、そのようなモデルの結果は少なくとも「確認された(confirmed)」ものであると主張している。

この見解は、科学的仮説(あるいはモデル結果)は、観測によって誤りであることを証明することはできるが真理であることを証明することはできない、とする科学哲学者カール・ポパーのよく知られた反証主義の教義と一致する。

そのため、IPCCの評価報告書では、モデルと現実との間の対応の一致度の判定として、「評価(evaluation)」という言葉を用いている。

モデルの信頼度を表すのに別のやり方がある。それはモデル同士の相互比較である。大気モデル相互比較プロジェクト(AMIP)は、これらのプロジェクトの中でも最初のものだった。このプロジェクトは、1989 年にローレンス・リバモア国立研究所で組織された。AMIP が取った戦略は、各モデルグループに対する特定の「境界条件」またはパラメータを用いたモデル実行の要請だった。その上、すべてのモデルの実行結果は、特定の出力変数を標準様式で提供することが要求された。

モデルを異なる条件で動かして異なる様式で出力させると、結果を比較することは困難である。しかし、この共通仕様による各モデルの気候計算により、モデルの性能を相互に比較して、モデルの動作の違いの原因を診断するための基盤が構築された。

このAMIP の後、相互比較はより入念な一連のプロジェクトへと発展していった。例えば、結合モデル相互比較プロジェクト(CMIP)では、さまざまな共通条件の下で、結合モデルのシミュレーション結果が比較されている。

著者によると、このモデルの相互比較はさまざまなモデルやモデルグループをつなぐ標準化されたゲートウェイとして機能する(ゲートウェイについては「インフラストラクチャとしての気候知識(3)」を参照)。モデル同士や標準化された観測に基づくデータセットとの定期的で直接的、かつ有意義な比較を可能にしたことで、これは気候モデル作成を、個々の研究所の技術的活動からほぼすべての世界の気候モデルグループが関わる共通化および標準化された集団的活動へと変貌させることに貢献した。そして、それらの結果はIPCCに反映されている。

 

図 SPM.1  世界平均気温の変化の歴史と最近の温暖化の要因(AR6第 1 作業部会報告書 政策決定者向け要約より)
過去 170 年間の世界平均気温の変化(黒色の線)。18501900 年を基準とした年平均値を、第 6 期結合モデル相互比較プロジェクト(CMIP6)気候モデルによるシミュレーションから得られた人為起源と自然起源の両方の駆動要因を考慮した気温(茶色)及び自然起源の駆動要因(太陽及び火山活動)のみを考慮した気温(緑色)と比較している。各色の実線は複数モデルの平均値、着色域はシミュレーション結果の可能性が非常に高い範囲を示す。

 

例えばAR6の「政策決定者向け要約」には、気候の現状として次のように既述している。これにある気温幅は、CMIP6のモデル相互比較の結果から得られたものである。

18501900 年から 20102019 11までの人為的な世界平均気温上昇の可能性が高い範囲は 0.8℃~1.3℃であり、最良推定値は 1.07℃である。よく混合された 温室効果ガスは 1.0℃~2.0℃の昇温に寄与し、他の人為起源の駆動要因(主にエーロゾル)は 0.0℃~0.8℃の降温に寄与し、自然起源の駆動要因は世界平均気温を-0.1℃~0.1℃変化させ、内部変動は-0.2℃~0.2℃変化させた可能性が高い。

例え現実に近い結果を出すモデルでも、1個だけだとその信頼性には限界がある。しかし、信頼性が確立された多数のモデルの結果を集めてその幅を示すことで、いろんな可能性を含めた結果の信頼性が増すとともに、その限界もわかるようになる。決定論的な結果でなくとも、その幅や限界がわかれば、それは人類の知として十分に機能する。

 

2024/07/13

気候モデルの問題: パラメタリゼーションとチューニング

 (このブログは「気候変動社会の技術史」(日本評論社)の公式解説ブログの一部です)


 パラメタリゼーション

ここでは気候モデルという言葉を用いているが、この問題は、大循環モデルも地球システムモデルでも同じである。

「モデル物理学」には、大気中で発生するすべての主要な物理プロセスが含まれる。例えば、これらのプロセスの多くは熱の伝達を伴っている。しかも、実際の大気ではこれらのプロセスは通常はモデル格子よりもはるかに小さく、究極的には分子スケールで起こるものもある。このようなプロセスをモデル格子上で直接表現することはできない。モデル作成者(モデラー)は、このようなモデル格子より小さなプロセスを「サブ格子スケール」プロセスと呼ぶ。

モデラーは、このような小規模な物理プロセス、例えば陸面または海面と大気間の摩擦、海洋と大気間の熱の移動、雲の生成などを直接モデル化せずに、その大規模な効果だけを反映する数学関数や定数を使用してモデル格子内で表現する。これがパラメタリゼーションである。これによって、モデル格子間隔では直接表現できないプロセスによる物理変数を、モデル格子上で観測値に近い値になるように間接的に表現する。

 

積雲対流の影響をパラメタリゼーションで格子点上で現す場合の模式図
例えば、個々の積雲が下層で風(緑)を集めて上層へ熱(橙)を移送し水分(青)を落下させる。これらのプロセスによる総体的影響を、何らかパラメタリゼーションを用いて格子点上の値(実線矢印)として表す。模式図は実際の積雲の物理を示しているものではない。

そもそも米国気象学会によると、パラメータとは、問題を処理できるように任意に値を割り当てることができる量を指す。これは、直接モデル化することはできないプロセスを、推定するあるいは推察することができるようにするものである。そして、それらのパラメータをモデル内に導入することを、パラメタリゼーションと呼ぶことがある。

あるプロセスをパラメタリゼーションで表す場合、モデラーは、観測値の範囲を確認しながら、そのプロセスとモデル内で用いている格子点の独立変数との間に関係を見出そうとする。そのような関係を見出すことに成功した場合、その結果得られたパラメータを「物理ベース」と呼ぶ。しかし、格子点を代表する物理変数との直接的な関連性を見出せないこともしばしばある。このような場合、モデラーはその場限りの手法を考案して、モデルに導入することもある。

本書では、パラメタリゼーションの例として、降雨のプロセス、大気での放射伝達での分光パラメータの例を挙げている。通常、モデル物理には、何百、何千ものパラメタリゼーションが含まれている。モデルの最終的な出力は、すべてのパラメタリゼーション間の相互作用と、それらのモデルの力学との相互作用に依存する。これらの相互作用は非常に複雑であるため、モデルの結果がなぜそうなるのかを、物理学的に判断することは、困難なことが多い。

そのため、気候学者のスティーブン・シュナイダーらは、これらのパラメータを「半経験的(semi-emprical」と呼んだ。著者によると、この呼び方はパラメータと観測データとの関係があいまいであることを強調する適切な表現としている。

気候のモデル化において、現実のサブ格子スケールの物理プロセスを、パラメタリゼーションを用いて完全に表現することは難しい。このため、パラメタリゼーションは、科学論争および政治論争の原因となっている。

チューニング

「チューニング」とは、パラメタリゼーションにおいて、モデル全体の結果をもっと良く観測結果と合うように、パラメータの係数の値を調整したり関係式を再構築したりすることを意味する。パラメータは他のパラメータと強く相互作用するため、あるパラメータを変更すると、ほかのパラメータの挙動が許容範囲外になり、さらなるチューニングが必要になることもある。

一般的に、モデラーはチューニングを必要悪と見なしている。多くのモデラーは、チューニングにおいてある種の制約を守ろうとしている。例えばチューニングによって、チューニングされた変数は既知の観測された結果の範囲外に出ないようにしなければならない。また、モデルの結果は、明示的にチューニングされていない観測データを用いて評価される必要がある。

 

 パラメタリゼーションとチューニングの考え方

2024/07/03

米国で活躍した日本の気候モデル研究者

 (このブログは「気候変動社会の技術史」(日本評論社)の公式解説ブログの一部です)


前回、気象学などのモデルが、電子コンピュータといかに密接な関係があったかを述べた。この本では、以下で紹介する3名の日本出身で米国で活躍した大循環モデルの作成者(モデラー)が登場する。

 1960年前後の当時、大規模な大循環モデル(後に気候モデルに発展)を作成して、気候科学に貢献できたのは、実質的に米国の彼らが属していた3つの機関に限られていた。それらそれぞれの機関での大循環モデルの開発を、日本人が主導したというのは興味深い。彼らは協力しながらもそれぞれの機関で独自に活躍した。

真鍋淑郎

2021年にノーベル物理学賞を受賞した真鍋淑郎は、米国に渡る前に、東京大学で計算機を用いた降雨予測を行っていた。この成果に地球物理学流体力学研究所(GFDL)のスマゴリンスキー博士が目を止めて、1958年に米国のGFDLへ招聘した。

 

真鍋淑郎博士
https://commons.wikimedia.org/wiki/File:Crafoord_Prize_EM1B0732_(42329290061).jpg

電子コンピュータと気象学」で述べたように、当時のモデルを用いた気象学者たちは、ある意味で今日でいう先端のIT技術者でもあった。真鍋淑郎は、当初は機械語を使ってプログラムするために壁にメモリマップを貼って、どのレジスタに何を格納したのかなどをわかるようにして苦労したと述べている。その後機械語はアセンブリ言語に置き換わったが、それでも今日から見るとプログラムはアルファベットと数字による暗号のような記述である。その後、高級言語FORTRANの出現とGFDLでのプログラマーの雇用によって、真鍋淑郎はプログラミングからは解放されたようである。

その後、彼は大循環モデルで気候をシミュレーションするようになったが、その際に二酸化炭素が気候に大きな影響を与えることに気づいた。それまでの温室効果の議論は、大気全体の放射効果だけを考慮したものだった。しかし、実際の温室効果ガスは各高度の大気層毎に放射と吸収を繰り返す。これを考慮しなければ、正確な温室効果を計算することが出来ない。そのため、これを考慮した放射伝達モデルを初めて作成して大循環モデルに組み込んだ。これによって温室効果ガスによる影響である「放射強制力」がより適切に評価できるようになった。大循環モデルに放射伝達モデルを組み込んだことが、後のノーベル賞受賞のきっかけの一つとなった。

真鍋らのグループは大循環モデル を使用して、初めて二酸化炭素が産業革命時より倍増した場合の気温上昇を計算した。その後、この二酸化炭素倍増実験は、「気候感度」として、地球温暖化予測における世界標準の一つとなっていった。ただし、これは一つの指標であって、これが将来の予測気温というわけではない。

また、海洋は気候に重大な影響を与える。そのため大気のシミュレーションの際には、海洋の影響を加味する必要があった。彼は1969年に海洋学者ブライアンと協力して、初めて大気モデルと海洋モデルを結合した「大気海洋結合モデル」を作った。その際には、比熱や挙動が全く異なるこれらを一つのモデルに組み込むために多大な苦労があった。この結合の成功は、後に大気海洋結合モデルが発展していくきっかけとなった。

GFDLでの大循環モデルのリーダーはスマゴリンスキーだったが、彼は全球大気研究プログラム(GARPの運営や管理に時間が取られて余裕が全くなかった。そのため、GFDLでの大循環モデル開発の実質的なリーダーは真鍋だった。彼の研究スタイルは常に仲間との緊密な協働という形をとった。他の日本人研究者がいる研究室でも、このような順応性や勤勉性、協調性といった姿勢は見られたが、このような研究スタイルは、個人主義、成果主義の米国では特殊だったようである。アメリカの気象学者ジョン・ルイスは、自分が所属したグループの中で、日本人研究者がいたグループでは仲裁が必要な深刻な対立は起こらなかったと述べている[1]。

荒川昭夫

二人目の荒川昭夫は、1950年に東京大学を卒業後、気象庁に入って観測船に乗っていた。その後気象庁の気象研究所で米国の文献に基づいて数値予報の研究を行ったが、当時使えたのは手回しの計算機だった。気象研究所では、彼は当時開発されつつあった電子コンピュータを用いるために、機械語から始めて後にFORTRAN言語を学んだが、当時日本にはFORTRANで動くマシンがなかった。彼は実機なしに作成したFORTRANプログラムを、米国に送ってそこのIBM機で走らせてもらったと述べている。驚くべきことにこれはいきなりノーエラーで動作した。しかし、米国での大循環を模した回転水層実験などの結果を知り、彼は大気大循環に関心を向けた。

        荒川昭夫(コロラド州立大学 David  A. Randall 教授提供)

カリフォルニア大学ロサンゼルス校(UCLA)のイェール・ミンツ博士が日本人気象学者を探していた際に、東京大学の気象学教室の正野重方教授が荒川昭夫を推薦したようである。彼は1961年に一時的にUCLAに渡った。2 層の全球プリミティブモデルによる大循環モデルを完成させた後、荒川は日本へ戻った。しかし、荒川の素晴らしい能力に気づいたミンツは、彼を説得した結果、荒川は1965年にUCLAへ戻った。

当時、大循環モデルは途中で計算不安定を引き起こすため、約1か月以上先の計算を行うことができなかった。荒川昭夫は、1966年にモデル格子に数学的な工夫を凝らすことによって、世界で初めて大循環モデルの長期計算を可能にした。彼は米国で計算機の魔術師と呼ばれた。彼が編み出したモデル手法は「荒川スキーム」と呼ばれて、彼の論文は気象学だけでなく、流体力学や宇宙物理学の論文でも引用されている。また荒川は、1974年に同僚のシューバートと二人で積雲のパラメタリゼーションに画期的な手法を考案し、これも代表的な手法として世界中で使われている。

真鍋淑郎と荒川昭夫は同じ東京大学出身である。UCLAの荒川はGFDLの真鍋より4歳年上であるが、荒川は大学院へは行っていないので、学生時代に接触はなかったと思われる。しかし、米国に渡ってから両者は同じ気候モデル分野ということで頻繁に交流があり、研究仲間でありかつライバルとなった。公開されているエドワーズとのインタビューで、真鍋は荒川のことを「物理学的洞察力と数学のバランスが良い稀有な人物」と評している。荒川は真鍋の研究を互いに補完的なものだったと評している。もちろん互いがそれぞれの成果を取り込んで、さらに気候モデルの分野は発展した。

笠原彰

3人目の気候モデラーである笠原彰は、1954年に東大地球物理学教室からテキサスA&M大学などを経て、1963年にアメリカの気象学者フィリップ・トンプソンの招聘で国立大気研究センター(NCAR)へ移った。NCARは大循環モデル開発では後発組であり、むしろ大学連合(UCAR)が母体であったNCARの特色を活かして、彼は同僚らと一緒に開発した大循環モデルプログラムを公開化したコミュニティモデルの開発を進めた。

 

笠原彰。笠原彰とウォーレン・ワシントンは、1960年代から70年代にかけて開発されたNCAR大循環モデルの実行に、NDC6600スーパーコンピュータを利用していた。GCMの実行結果は、写真のIBMの9トラック磁気テープに保存されていた。(UCAR提供, ©2024 UCAR)


 笠原彰とウォーレン・ワシントン。
2016年NCARのメサラボで。(UCAR提供, ©2024 UCAR)

モデルプログラムが公開されても、それを他のコンピュータに移植して走らせる場合、同じプログラムコードで走るとは限らず、そのコンピュータに合わせたコードの修正が必要になることが多い。また、研究者自身がそのモデルコードをベースに、さまざまな修正や改良を行うこともある。そのため、それを行いやすいように、笠原らは開発したコミュニティモデルの徹底した文書化とモジュール化を進めた。このモデルは、いわゆるプログラムのオープンソース化の先駆けとなった。そのため、NCARのモデルは世界中の多くのモデル研究者たちに使われた。

私は1992年に大気化学のコロキウムのためNCARのメサラボに2週間ほど滞在した。 その時、屋外のカフェテリアに一人の日本人が座っているのを時々目撃していた。おそらく彼が笠原博士だったのだろう(彼と私以外に日本人はいなかった)。当時、私には気候モデルに関する知識がなく、彼と話をしなかったのが、今となっては残念に思っている。


米国での大循環モデルの開発(成果の一部は直ちに他のモデルでも採用された)

なお気象学分野では、この3名以外にも、多くの日本人研究者たちが、主に米国と日本でめざましい活躍をした。米国で活躍した彼らは頭脳流出組と呼ばれることもあった。この時代活躍した日本人研究者たちのうち、東京大学の正野重方教授の気象学教室出身者たちを、この3名を含めて正野スクール(正野学派)と呼ぶことがある。

参照文献

[1] John M. Lewis, Meteorologists from the University of Tokyo: Their Exodus to the United States Following World War II, Bulletin of the American Meteorological Society, Vol. 74, No. 7, 1993.

2024/07/01

電子コンピュータと気象学

 (このブログは「気候変動社会の技術史」(日本評論社)の公式解説ブログの一部です)


 気象学者と電子コンピュータ

コンピュータというと今では電子式が当たり前であるが、昔は計算機としては機械式計算機 や計算尺なども一般的に含まれていた。ここでは、それらと区別するために、電子コンピュータという言葉を使用する。

数値予報モデルや大循環モデルなどの気象学におけるモデルの発達は、電子コンピュータの発達と密接に関連している。電子コンピュータが登場するまで、気象学はそのほとんどが理論による思考かデータ解析であり、必要な道具は、ペンと紙か機械式計算機で作業する研究だった。もちろん1950年頃の気象学者たちは、電子回路やそれへの命令を行うソフトウェアに関する知識をほとんど持っていなかった。

ちょうどその頃から、電子コンピュータを用いた気象予報モデルの研究が盛んになった。ところが、電子コンピュータの技術者は少なく、しかも彼らは気象学のことは全くわからなかった。そのため、電子計算機を使った数値予報や大循環モデルなどの新たな気象学を目指す研究者たちは、気象学だけでなく、当時異分野の新技術だった電子コンピュータの動作原理とそれを制御するソフトウェアにも詳しくなければならなかった。

その橋渡しをしたのは米国で活躍した科学者フォン・ノイマンである。数値予報を含めて彼の活躍した分野の紹介は「フォン・ノイマンについて(1)~(12)」に譲るが、彼の専門の一つは流体力学であり、彼は開発中の電子コンピュータの利用目的の一つとして、数値予報に目を付けた。

気象予報(数値予報)は流体力学の計算の応用にまさに好適だった。そして電子コンピュータを用いた数値予報の開発グループを組織し、資金を調達した。ただし多忙なため、彼がそれに直接関わることは少なかった。そして、電子コンピュータ「エニアック」を用いた最初の数値予報実験の際には、自らそのためにエニアックを改良し、そのためのプログラム作成も支援した。

紆余曲折はあったが、計算機による予報実験の成功を受けて、数値予報モデルの本格的な開発が始まった。数値予報モデル(方程式群)をプログラムにして、それを電子コンピュータ上で動かすという科学は、それまでの伝統的な紙とペンを使った科学的手法とは全く異なっていた、それは気象学の研究者たちに新しい世代が出てきたからこそ可能なことだった。

 


電子コンピュータと気象学との関係

しかも当初の電子コンピュータは、現在と異なって、中央演算装置(CPU)やレジスタ(格納装置)に、難解な低水準のプログラム言語を使って、どのレジスタの番地の値を使った計算結果をどのレジスタの番地に格納するかなどを直接指示しなければならなかった。なお、低水準プログラム言語とは、機械語やアセンブリ言語などのようにハードウェアに近い部分を直接制御するプログラムコードを指しており、高水準プログラム言語とは、人間がより直感的に理解しやすいプログラム言語(FORTRANPythonなど)を指している。

著者のエドワーズによると、気象のモデルの開発に最も成功した機関は、予報理論の研究者とプログラム作成の魔術師(wizard)を組み合わせたところだった。そしてその魔術師の多くは、自分のプログラム作成の才能を発見した研究者自身だった。そのため、モデルを用いた気象学者たちは、ある意味で今日でいう先端のIT技術者でもあった。

プログラミングと気象学

それでも気象や気候のモデル のプログラムコードを作成するには、予報理論のモデルを構成する複雑な数学だけでなく、計算機独特の数値手法をプログラム化するための優れた技法も必要だった。したがってモデル開発の研究者チームは、数値解析や非線形計算の安定性などを専門とする数学者や技術者にその手法を相談することが多くなり、そのための専門のプログラマーを雇うようになった。

そのうちに、いくつかの研究者チームは主なプログラマーを論文の共著者として記載するようになり、彼らの技術的貢献に対する科学的重要性を認めた。これはそれまでの科学論文としては極めて異例なものだったが、それだけプログラム作成技術と科学的成果とが密接に関係していたということでもあった。

気象学による電子コンピュータへの影響

逆に、大量の計算を必要とする数値予報モデルや大循環モデルは、電子コンピュータの発達を促した面もあった。当時、気象学以上の計算を必要とする分野は、核兵器の設計しかなかった。気候および気象モデルのセンターは、常に最先端のスーパーコンピュータ設備を維持して、スーパーコンピュータ産業の発展に大きな影響を与えた。たとえば、米国の国立大気研究センター(NCAR)が1977 年にクレイ・リサーチ社から購入した最初の量産スーパーコンピュータCray1-A は製造番号3だった。ちなみに製造番号1 のテストモデルは、前年にロスアラモスの核兵器研究所に納入されたものだった。

現代からは想像も出来ないが、1970年代の終わりまで、コンピュータメーカーが納入するのはハードウェアだけで、オペレーティングシステム(OS)、コンパイラ、そのほかの基本的なソフトウェアは、コンピュータが納入された研究所が自前で作成していた。この慣習を変えたのはNCARだった。コンピュータメーカーのクレイ・リサーチ社は、NCARからの要望によって、自社コンピュータ用のシステムソフトウェアを提供するようになった。これで研究者たちは、モデルなどのアプリケーションの開発に専念できるようになった。

今ではOSなどの基本ソフトウェアは、コンピュータとパッケージになっていることが当たり前になっている(オープンソースのものもある)。しかし気象学では、特に気候モデル作成の分野では、今日でもユーティリティなどのソフトウェアを、研究者が開発して共有するという伝統が一部で残っている。

気候モデルと貿易摩擦

そして、「気候学の歴史(9): 気候モデルとコンピュータ」にあるように、気候モデル用のスーパーコンピュータは、日米貿易摩擦を引き起こした。

1994 年から1996 年にかけて、NCAR は老朽化したクレイ社のスーパーコンピュータを新しいものに更新する入札を行った。そして、このスーパーコンピュータの落札者が、歴史上初めて米国以外の企業となった。NEC SX-4 は、NCAR がこれまでに評価したコンピュータの中で最高のパフォーマンスを記録していた。

 NEC スーパーコンピュータ SX-4(NEC提供)

クレイ社は、入札の際にNEC がマシンの価格を「ダンピング(違法値引き)」したと米国商務省に異議を唱えた。商務省はクレイ社を支持する判断を下し、NEC 454%の関税を課した。これは訴訟にまで発展した。この訴訟は、最終的に連邦最高裁判所に持ち込まれたが、同裁判所は1999 年に商務省の決定を支持した。NCAR は「私たちは世界で最も強力なベクトルコンピュータシステムの入手を拒否されている」と述べてこの決定に不満を唱えたが、どうしようもなかった。