2024/07/13

気候モデルの問題: パラメタリゼーションとチューニング

 パラメタリゼーション

ここでは気候モデルという言葉を用いているが、この問題は、大循環モデルも地球システムモデルでも同じである。

「モデル物理学」には、大気中で発生するすべての主要な物理プロセスが含まれる。例えば、これらのプロセスの多くは熱の伝達を伴っている。しかも、実際の大気ではこれらのプロセスは通常はモデル格子よりもはるかに小さく、究極的には分子スケールで起こるものもある。このようなプロセスをモデル格子上で直接表現することはできない。モデル作成者(モデラー)は、このようなモデル格子より小さなプロセスを「サブ格子スケール」プロセスと呼ぶ。

モデラーは、このような小規模な物理プロセス、例えば陸面または海面と大気間の摩擦、海洋と大気間の熱の移動、雲の生成などを直接モデル化せずに、その大規模な効果だけを反映する数学関数や定数を使用してモデル格子内で表現する。これがパラメタリゼーションである。これによって、モデル格子間隔では直接表現できないプロセスによる物理変数を、モデル格子上で観測値に近い値になるように間接的に表現する。

 

積雲対流の影響をパラメタリゼーションで格子点上で現す場合の模式図
例えば、個々の積雲が下層で風(緑)を集めて上層へ熱(橙)を移送し水分(青)を落下させる。これらのプロセスによる総体的影響を、何らかパラメタリゼーションを用いて格子点上の値(実線矢印)として表す。模式図は実際の積雲の物理を示しているものではない。

そもそも米国気象学会によると、パラメータとは、問題を処理できるように任意に値を割り当てることができる量を指す。これは、直接モデル化することはできないプロセスを、推定するあるいは推察することができるようにするものである。そして、それらのパラメータをモデル内に導入することを、パラメタリゼーションと呼ぶことがある。

あるプロセスをパラメタリゼーションで表す場合、モデラーは、観測値の範囲を確認しながら、そのプロセスとモデル内で用いている格子点の独立変数との間に関係を見出そうとする。そのような関係を見出すことに成功した場合、その結果得られたパラメータを「物理ベース」と呼ぶ。しかし、格子点を代表する物理変数との直接的な関連性を見出せないこともしばしばある。このような場合、モデラーはその場限りの手法を考案して、モデルに導入することもある。

本書では、パラメタリゼーションの例として、降雨のプロセス、大気での放射伝達での分光パラメータの例を挙げている。通常、モデル物理には、何百、何千ものパラメタリゼーションが含まれている。モデルの最終的な出力は、すべてのパラメタリゼーション間の相互作用と、それらのモデルの力学との相互作用に依存する。これらの相互作用は非常に複雑であるため、モデルの結果がなぜそうなるのかを、物理学的に判断することは、困難なことが多い。

そのため、気候学者のスティーブン・シュナイダーらは、これらのパラメータを「半経験的(semi-emprical」と呼んだ。著者によると、この呼び方はパラメータと観測データとの関係があいまいであることを強調する適切な表現としている。

気候のモデル化において、現実のサブ格子スケールの物理プロセスを、パラメタリゼーションを用いて完全に表現することは難しい。このため、パラメタリゼーションは、科学論争および政治論争の原因となっている。

チューニング

「チューニング」とは、パラメタリゼーションにおいて、モデル全体の結果をもっと良く観測結果と合うように、パラメータの係数の値を調整したり関係式を再構築したりすることを意味する。パラメータは他のパラメータと強く相互作用するため、あるパラメータを変更すると、ほかのパラメータの挙動が許容範囲外になり、さらなるチューニングが必要になることもある。

一般的に、モデラーはチューニングを必要悪と見なしている。多くのモデラーは、チューニングにおいてある種の制約を守ろうとしている。例えばチューニングによって、チューニングされた変数は既知の観測された結果の範囲外に出ないようにしなければならない。また、モデルの結果は、明示的にチューニングされていない観測データを用いて評価される必要がある。

 

 パラメタリゼーションとチューニングの考え方

2024/07/03

米国で活躍した日本の気候モデル研究者

前回、気象学などのモデルが、電子コンピュータといかに密接な関係があったかを述べた。この本では、以下で紹介する3名の日本出身で米国で活躍した大循環モデルの作成者(モデラー)が登場する。

 1960年前後の当時、大規模な大循環モデル(後に気候モデルに発展)を作成して、気候科学に貢献できたのは、実質的に米国の彼らが属していた3つの機関に限られていた。それらそれぞれの機関での大循環モデルの開発を、日本人が主導したというのは興味深い。彼らは協力しながらもそれぞれの機関で独自に活躍した。

真鍋淑郎

2021年にノーベル物理学賞を受賞した真鍋淑郎は、米国に渡る前に、東京大学で計算機を用いた降雨予測を行っていた。この成果に地球物理学流体力学研究所(GFDL)のスマゴリンスキー博士が目を止めて、1958年に米国のGFDLへ招聘した。

 

真鍋淑郎博士
https://commons.wikimedia.org/wiki/File:Crafoord_Prize_EM1B0732_(42329290061).jpg

電子コンピュータと気象学」で述べたように、当時のモデルを用いた気象学者たちは、ある意味で今日でいう先端のIT技術者でもあった。真鍋淑郎は、当初は機械語を使ってプログラムするために壁にメモリマップを貼って、どのレジスタに何を格納したのかなどをわかるようにして苦労したと述べている。その後機械語はアセンブリ言語に置き換わったが、それでも今日から見るとプログラムはアルファベットと数字による暗号のような記述である。その後、高級言語FORTRANの出現とGFDLでのプログラマーの雇用によって、真鍋淑郎はプログラミングからは解放されたようである。

その後、彼は大循環モデルで気候をシミュレーションするようになったが、その際に二酸化炭素が気候に大きな影響を与えることに気づいた。それまでの温室効果の議論は、大気全体の放射効果だけを考慮したものだった。しかし、実際の温室効果ガスは各高度の大気層毎に放射と吸収を繰り返す。これを考慮しなければ、正確な温室効果を計算することが出来ない。そのため、これを考慮した放射伝達モデルを初めて作成して大循環モデルに組み込んだ。これによって温室効果ガスによる影響である「放射強制力」がより適切に評価できるようになった。大循環モデルに放射伝達モデルを組み込んだことが、後のノーベル賞受賞のきっかけの一つとなった。

真鍋らのグループは大循環モデル を使用して、初めて二酸化炭素が産業革命時より倍増した場合の気温上昇を計算した。その後、この二酸化炭素倍増実験は、「気候感度」として、地球温暖化予測における世界標準の一つとなっていった。ただし、これは一つの指標であって、これが将来の予測気温というわけではない。

また、海洋は気候に重大な影響を与える。そのため大気のシミュレーションの際には、海洋の影響を加味する必要があった。彼は1969年に海洋学者ブライアンと協力して、初めて大気モデルと海洋モデルを結合した「大気海洋結合モデル」を作った。その際には、比熱や挙動が全く異なるこれらを一つのモデルに組み込むために多大な苦労があった。この結合の成功は、後に大気海洋結合モデルが発展していくきっかけとなった。

GFDLでの大循環モデルのリーダーはスマゴリンスキーだったが、彼は全球大気研究プログラム(GARPの運営や管理に時間が取られて余裕が全くなかった。そのため、GFDLでの大循環モデル開発の実質的なリーダーは真鍋だった。彼の研究スタイルは常に仲間との緊密な協働という形をとった。他の日本人研究者がいる研究室でも、このような順応性や勤勉性、協調性といった姿勢は見られたが、このような研究スタイルは、個人主義、成果主義の米国では特殊だったようである。アメリカの気象学者ジョン・ルイスは、自分が所属したグループの中で、日本人研究者がいたグループでは仲裁が必要な深刻な対立は起こらなかったと述べている[1]。

荒川昭夫

二人目の荒川昭夫は、1950年に東京大学を卒業後、気象庁に入って観測船に乗っていた。その後気象庁の気象研究所で米国の文献に基づいて数値予報の研究を行ったが、当時使えたのは手回しの計算機だった。気象研究所では、彼は当時開発されつつあった電子コンピュータを用いるために、機械語から始めて後にFORTRAN言語を学んだが、当時日本にはFORTRANで動くマシンがなかった。彼は実機なしに作成したFORTRANプログラムを、米国に送ってそこのIBM機で走らせてもらったと述べている。驚くべきことにこれはいきなりノーエラーで動作した。しかし、米国での大循環を模した回転水層実験などの結果を知り、彼は大気大循環に関心を向けた。

        荒川昭夫(コロラド州立大学 David  A. Randall 教授提供)

カリフォルニア大学ロサンゼルス校(UCLA)のイェール・ミンツ博士が日本人気象学者を探していた際に、東京大学の気象学教室の正野重方教授が荒川昭夫を推薦したようである。彼は1961年に一時的にUCLAに渡った。2 層の全球プリミティブモデルによる大循環モデルを完成させた後、荒川は日本へ戻った。しかし、荒川の素晴らしい能力に気づいたミンツは、彼を説得した結果、荒川は1965年にUCLAへ戻った。

当時、大循環モデルは途中で計算不安定を引き起こすため、約1か月以上先の計算を行うことができなかった。荒川昭夫は、1966年にモデル格子に数学的な工夫を凝らすことによって、世界で初めて大循環モデルの長期計算を可能にした。彼は米国で計算機の魔術師と呼ばれた。彼が編み出したモデル手法は「荒川スキーム」と呼ばれて、彼の論文は気象学だけでなく、流体力学や宇宙物理学の論文でも引用されている。また荒川は、1974年に同僚のシューバートと二人で積雲のパラメタリゼーションに画期的な手法を考案し、これも代表的な手法として世界中で使われている。

真鍋淑郎と荒川昭夫は同じ東京大学出身である。UCLAの荒川はGFDLの真鍋より4歳年上であるが、荒川は大学院へは行っていないので、学生時代に接触はなかったと思われる。しかし、米国に渡ってから両者は同じ気候モデル分野ということで頻繁に交流があり、研究仲間でありかつライバルとなった。公開されているエドワーズとのインタビューで、真鍋は荒川のことを「物理学的洞察力と数学のバランスが良い稀有な人物」と評している。荒川は真鍋の研究を互いに補完的なものだったと評している。もちろん互いがそれぞれの成果を取り込んで、さらに気候モデルの分野は発展した。

笠原彰

3人目の気候モデラーである笠原彰は、1954年に東大地球物理学教室からテキサスA&M大学などを経て、1963年にアメリカの気象学者フィリップ・トンプソンの招聘で国立大気研究センター(NCAR)へ移った。NCARは大循環モデル開発では後発組であり、むしろ大学連合(UCAR)が母体であったNCARの特色を活かして、彼は同僚らと一緒に開発した大循環モデルプログラムを公開化したコミュニティモデルの開発を進めた。

 

笠原彰。笠原彰とウォーレン・ワシントンは、1960年代から70年代にかけて開発されたNCAR大循環モデルの実行に、NDC6600スーパーコンピュータを利用していた。GCMの実行結果は、写真のIBMの9トラック磁気テープに保存されていた。(UCAR提供, ©2024 UCAR)


 笠原彰とウォーレン・ワシントン。
2016年NCARのメサラボで。(UCAR提供, ©2024 UCAR)

モデルプログラムが公開されても、それを他のコンピュータに移植して走らせる場合、同じプログラムコードで走るとは限らず、そのコンピュータに合わせたコードの修正が必要になることが多い。また、研究者自身がそのモデルコードをベースに、さまざまな修正や改良を行うこともある。そのため、それを行いやすいように、笠原らは開発したコミュニティモデルの徹底した文書化とモジュール化を進めた。このモデルは、いわゆるプログラムのオープンソース化の先駆けとなった。そのため、NCARのモデルは世界中の多くのモデル研究者たちに使われた。

私は1992年に大気化学のコロキウムのためNCARのメサラボに2週間ほど滞在した。 その時、屋外のカフェテリアに一人の日本人が座っているのを時々目撃していた。おそらく彼が笠原博士だったのだろう(彼と私以外に日本人はいなかった)。当時、私には気候モデルに関する知識がなく、彼と話をしなかったのが、今となっては残念に思っている。


米国での大循環モデルの開発(成果の一部は直ちに他のモデルでも採用された)

なお気象学分野では、この3名以外にも、多くの日本人研究者たちが、主に米国と日本でめざましい活躍をした。米国で活躍した彼らは頭脳流出組と呼ばれることもあった。この時代活躍した日本人研究者たちのうち、東京大学の正野重方教授の気象学教室出身者たちを、この3名を含めて正野スクール(正野学派)と呼ぶことがある。

参照文献

[1] John M. Lewis, Meteorologists from the University of Tokyo: Their Exodus to the United States Following World War II, Bulletin of the American Meteorological Society, Vol. 74, No. 7, 1993.

2024/07/01

電子コンピュータと気象学

 気象学者と電子コンピュータ

コンピュータというと今では電子式が当たり前であるが、昔は計算機としては機械式計算機 や計算尺なども一般的に含まれていた。ここでは、それらと区別するために、電子コンピュータという言葉を使用する。

数値予報モデルや大循環モデルなどの気象学におけるモデルの発達は、電子コンピュータの発達と密接に関連している。電子コンピュータが登場するまで、気象学はそのほとんどが理論による思考かデータ解析であり、必要な道具は、ペンと紙か機械式計算機で作業する研究だった。もちろん1950年頃の気象学者たちは、電子回路やそれへの命令を行うソフトウェアに関する知識をほとんど持っていなかった。

ちょうどその頃から、電子コンピュータを用いた気象予報モデルの研究が盛んになった。ところが、電子コンピュータの技術者は少なく、しかも彼らは気象学のことは全くわからなかった。そのため、電子計算機を使った数値予報や大循環モデルなどの新たな気象学を目指す研究者たちは、気象学だけでなく、当時異分野の新技術だった電子コンピュータの動作原理とそれを制御するソフトウェアにも詳しくなければならなかった。

その橋渡しをしたのは米国で活躍した科学者フォン・ノイマンである。数値予報を含めて彼の活躍した分野の紹介は「フォン・ノイマンについて(1)~(12)」に譲るが、彼の専門の一つは流体力学であり、彼は開発中の電子コンピュータの利用目的の一つとして、数値予報に目を付けた。

気象予報(数値予報)は流体力学の計算の応用にまさに好適だった。そして電子コンピュータを用いた数値予報の開発グループを組織し、資金を調達した。ただし多忙なため、彼がそれに直接関わることは少なかった。そして、電子コンピュータ「エニアック」を用いた最初の数値予報実験の際には、自らそのためにエニアックを改良し、そのためのプログラム作成も支援した。

紆余曲折はあったが、計算機による予報実験の成功を受けて、数値予報モデルの本格的な開発が始まった。数値予報モデル(方程式群)をプログラムにして、それを電子コンピュータ上で動かすという科学は、それまでの伝統的な紙とペンを使った科学的手法とは全く異なっていた、それは気象学の研究者たちに新しい世代が出てきたからこそ可能なことだった。

 


電子コンピュータと気象学との関係

しかも当初の電子コンピュータは、現在と異なって、中央演算装置(CPU)やレジスタ(格納装置)に、難解な低水準のプログラム言語を使って、どのレジスタの番地の値を使った計算結果をどのレジスタの番地に格納するかなどを直接指示しなければならなかった。なお、低水準プログラム言語とは、機械語やアセンブリ言語などのようにハードウェアに近い部分を直接制御するプログラムコードを指しており、高水準プログラム言語とは、人間がより直感的に理解しやすいプログラム言語(FORTRANPythonなど)を指している。

著者のエドワーズによると、気象のモデルの開発に最も成功した機関は、予報理論の研究者とプログラム作成の魔術師(wizard)を組み合わせたところだった。そしてその魔術師の多くは、自分のプログラム作成の才能を発見した研究者自身だった。そのため、モデルを用いた気象学者たちは、ある意味で今日でいう先端のIT技術者でもあった。

プログラミングと気象学

それでも気象や気候のモデル のプログラムコードを作成するには、予報理論のモデルを構成する複雑な数学だけでなく、計算機独特の数値手法をプログラム化するための優れた技法も必要だった。したがってモデル開発の研究者チームは、数値解析や非線形計算の安定性などを専門とする数学者や技術者にその手法を相談することが多くなり、そのための専門のプログラマーを雇うようになった。

そのうちに、いくつかの研究者チームは主なプログラマーを論文の共著者として記載するようになり、彼らの技術的貢献に対する科学的重要性を認めた。これはそれまでの科学論文としては極めて異例なものだったが、それだけプログラム作成技術と科学的成果とが密接に関係していたということでもあった。

気象学による電子コンピュータへの影響

逆に、大量の計算を必要とする数値予報モデルや大循環モデルは、電子コンピュータの発達を促した面もあった。当時、気象学以上の計算を必要とする分野は、核兵器の設計しかなかった。気候および気象モデルのセンターは、常に最先端のスーパーコンピュータ設備を維持して、スーパーコンピュータ産業の発展に大きな影響を与えた。たとえば、米国の国立大気研究センター(NCAR)が1977 年にクレイ・リサーチ社から購入した最初の量産スーパーコンピュータCray1-A は製造番号3だった。ちなみに製造番号1 のテストモデルは、前年にロスアラモスの核兵器研究所に納入されたものだった。

現代からは想像も出来ないが、1970年代の終わりまで、コンピュータメーカーが納入するのはハードウェアだけで、オペレーティングシステム(OS)、コンパイラ、そのほかの基本的なソフトウェアは、コンピュータが納入された研究所が自前で作成していた。この慣習を変えたのはNCARだった。コンピュータメーカーのクレイ・リサーチ社は、NCARからの要望によって、自社コンピュータ用のシステムソフトウェアを提供するようになった。これで研究者たちは、モデルなどのアプリケーションの開発に専念できるようになった。

今ではOSなどの基本ソフトウェアは、コンピュータとパッケージになっていることが当たり前になっている(オープンソースのものもある)。しかし気象学では、特に気候モデル作成の分野では、今日でもユーティリティなどのソフトウェアを、研究者が開発して共有するという伝統が一部で残っている。

気候モデルと貿易摩擦

そして、「気候学の歴史(9): 気候モデルとコンピュータ」にあるように、気候モデル用のスーパーコンピュータは、日米貿易摩擦を引き起こした。

1994 年から1996 年にかけて、NCAR は老朽化したクレイ社のスーパーコンピュータを新しいものに更新する入札を行った。そして、このスーパーコンピュータの落札者が、歴史上初めて米国以外の企業となった。NEC SX-4 は、NCAR がこれまでに評価したコンピュータの中で最高のパフォーマンスを記録していた。

 NEC スーパーコンピュータ SX-4(NEC提供)

クレイ社は、入札の際にNEC がマシンの価格を「ダンピング(違法値引き)」したと米国商務省に異議を唱えた。商務省はクレイ社を支持する判断を下し、NEC 454%の関税を課した。これは訴訟にまで発展した。この訴訟は、最終的に連邦最高裁判所に持ち込まれたが、同裁判所は1999 年に商務省の決定を支持した。NCAR は「私たちは世界で最も強力なベクトルコンピュータシステムの入手を拒否されている」と述べてこの決定に不満を唱えたが、どうしようもなかった。

2024/06/26

気候モデル(地球システムモデル)の発達

データのグローバル化 」の所で、カナダの哲学者マーガレット・モリソンとイギリスの哲学者マリー・モーガンは、「モデルは知識への手段であり、知識の源でもある。」と論じている、と述べた。同様に気候モデル(地球システムモデル)は、気候変動に関する知の源の役割を果たしている。そのため、気候モデル(地球システムモデル)を概説しておく。

 気候システムとは

地球は、太陽から放射エネルギー(熱)を受けている。地球全体で見ると年平均気温はほとんど変わらないので、物理学の法則からみると、これはこの惑星が熱平衡状態であることを意味している。言い換えると、最終的に地球が太陽から受け取る熱と同量の熱を宇宙へ放射している。これは地球が熱平衡状態にある限り、たとえ地球温暖化が起こっても変わらない。

それゆえ、地球の平均的な気温は基本的にこの地球の「エネルギー収支」で決まっているので、気候を何らかモデル化することは、地球の「エネルギー収支」を組み込むことから始まる。地球の地表が太陽から受け取る放射エネルギー(熱)は、熱帯や極域など地域によって異なっている。熱帯では宇宙に放射するより多くの熱を太陽から受けて、極域では太陽から受け取るより多くの熱を放射している。したがって地球の気候は、熱帯で受け取った余剰熱を、何らかの手段で極域へ運搬する熱力学エンジンとしてのシステムで決まっている。

このエネルギー収支から地球気温を計算するためには、太陽から放射量、それを反射する地表アルベド(反射率)、大気によるそれの吸収と放射のような要素を考慮する必要がある。実際にはこれらの要素は地域毎に異なるので、気温分布を調べようとすると、地域によるそれらの違いと、大気や海の流れなどによるシステムとしての熱輸送を動的に考慮する必要がある。

オーストリアの気象学者ユリウス・フォン・ハンが1883年に出版した有名な「気候学ハンドブック」は、地球の「エネルギー収支」という概念を取り入れた最初のものだった。この本は、それ以来50年間以上にわたって、気候学の標準的な教科書となったが、この本の大部分は、気候をまだ統計的な問題として扱ったものだった。

回転水槽実験

地球の気候を決める熱輸送を研究するために、地球上の大気循環をアナログモデルで再現しようとしたものが、回転水槽実験である。これは第二次世界大戦後にアメリカとイギリスで始まった。アメリカのシカゴ大学では、この実験に当初食器洗い用の桶を使ったことから、「洗い桶(dishpan)」実験とも呼ばれている。この実験は、地球に見立てた流体を満たした2次元の水槽(桶)を用いて、ある場所を熱しながら(これが太陽熱に相当する)それを水平に回転させたものである。そうすると回転速度と温度勾配の条件(つまり熱輸送の状況)によっては、地球の高・低気圧と関連するプラネタリー波に似た流れの蛇行が水槽内に形成される[1]。

 回転水槽の実験模式図
内側(高緯度に相当)を冷やして外側(低緯度に相当)を暖めて、回転させた水槽にできる定常的な流線(破線)の模式的な例

この実験から、地球上の大規模な大気の流れは、地球独特のものではなく、力学と熱力学の法則に従った普遍的な現象であることが明確になった。これは物理学を使った気候学へのアプローチが可能、つまり数値モデルを用いた気候研究が可能であることを示した。そして、コンピュータと数値モデルの出現がこの研究をさらに推し進めることとなった。

大循環モデル出現

1950年頃から、コンピュータを用いた数値予報モデルの開発が盛んに行われるようになった。この頃、米国の気象学者ノーマン・フィリプスは、数値予報のための準地衡風モデル[2]を、数日先の気象予測に用いるのではなく、長期間先まで計算させることで、地球の平均的な大気循環を再現できるのではないかと考えた。そして1956年に、実際にこのモデルを約20 日先まで計算することで、地球規模の大気循環に関するいくつかの基本的な特徴の再現に成功した。これは「大循環モデル」と呼ばれて実質的に気候モデルの先駆けとなった。

その将来性に気付いた一人は、フォン・ノイマンである。彼は、早速大循環モデルの発展のために「数値積分技術の大循環問題への応用」と題する会議のお膳立てをした。しかし、がんが進行していたフォン・ノイマンは、1957年に亡くなってしまう(気象学と気象予報の発達史「気候学の歴史(7):気候モデルの登場」を参照)。

この会議などによる大循環モデルの意義の広まりによって、米国では大循環モデルの開発のために4 つのグループが設立された。そのうち実質的に大気科学に貢献したのは、真鍋淑郎がいた「地球物理学流体力学研究所(GFDL)」、荒川昭夫がいた「カリフォルニア大学ロサンゼルス校(UCLA)」、そして笠原彰がいた「国立大気研究センター(NCAR)」の3 つである。現在は、これらの大循環モデルをベースにした数多くの気候モデル、あるいは地球システムモデルが世界各地で開発されて使われている。

大循環モデルとは

元来、大気の大循環とは、ハレーやハドレーによる赤道域の大気循環の推定から出発している。19世紀になるとモーリーやフェレルによる全球規模の風の循環の推定が行われた。しかし、当時は上空の観測手段がなく、地上はともかく、上空の大気循環は力学に基づく全くの推測だった。 

1930年代以降になると、上空を観測するラジオゾンデにより、ロスビー波などの実際の上空の大気の流れがわかってきた。しかし、それらは地域や時期を特定した断片的なものだった。地球温暖化などの気候変動が提唱されても、それがエネルギー収支に関連した問題なのか、単に大気循環が変わったためなのかはわからなかった。その地球規模の大気循環を、力学理論とコンピュータを用いてモデルシミュレーションするのが、(大気)大循環モデルである。

大循環モデルは、数値予報モデルのように観測値を初期値として使用しない。大循環モデルを用いた数値実験は、スピンアップと呼ばれるある一定時間計算して到達した平衡に近い状態を実現した後に、開始される。しかし、モデルを使った実験結果は、現実とどの程度合うのかを検証しなければならない。そのため、結果の検証のために比較する全球規模の観測値を必要とする。

大循環モデルが登場した頃は、モデルが出力する全球規模を持つ気象要素と直接比較できる観測結果は多くなく、特に上層の観測値はきわめて少なかった。そのため、検証のために異質な観測を無理やり組み合わせるなど、大循環モデルの評価には大きな困難があった。現在では、この比較にはデータ解析モデルで作成したグローバルデータが使われている。

地球システムモデル

大循環モデルは、当初大気力学を主体にモデル化された。大循環モデルが科学的に確立されてくると、それを物理学的に、あるいは生物学的、大気化学的に拡張する試みが行われるようになった。つまり、大気循環に大きな影響を及ぼす海洋を結合させたり、温室効果ガスやエアアロゾル、オゾンなどの放射の吸収・射出物質を加えたり、温室効果ガスを吸収・放出する植生を入れたりして、なるべく地球そのものの再現に近づけるようになった。それらを「気候モデル」、あるいはさらに発展させたものを「地球システムモデル」と呼んでいる。特に気候の将来予測を行うモデルは、基本的に地球システムモデルであることが多い。

 

地球システムモデルの概念図
(代表的な要素やプロセスのみを記している)

そして、地球システムモデルをはじめとするシミュレーションモデルは、モデルに組み込まれたパラメタリゼーションなどの物理過程や計算手法が、モデル毎に異なる。それらのモデルが現在の気候を再現しているかどうかについては、観測値を使って検証することが出来る。しかし、気候の将来予測については、結果が正しいかどうかを検証することはできない。このため、個々のモデルによる予測の違いの幅を知るために、モデル相互比較が行われている。  



[1]堤 之智、気象学と気象予報の発達史、丸善出版、2018.
[2] 当時は2層モデルであったが、地域による上空の気温の違いを表現でき、それに伴う傾圧的な循環なども原理的には表現できた。

2024/06/22

データ解析モデル

この本では「データ解析モデル」という用語が頻繁に出てくる。原著ではdata modelsと書かれているが、訳では下記の理由でデータ解析モデルで統一している。

著者のエドワーズによると、元来「データモデル(data models)」という用語は、コンピュータサイエンスでは技術的な意味を持ち、特定のアプリケーションまたはワークフロー内でのデータ要素、構造、表現、相互関係の抽象的な概念を指している。なお、科学に関する哲学者は「データのモデル(models of data)」という語句を使用していると述べている。

しかし、著者はデータモデルを、数学的手法、アルゴリズム、および測定器の読み取り値から経験的に導き出された調整法の集まりとし、それらを「data analysis modelsまたは略してdata modelsと呼ぶ」とし、その後はdata model(s) という言葉で統一している。少なくとも日本語では、データモデルという言葉は抽象的かつ概念的であると私は思っている。しかしこの本では、data model(s) はほとんどが上記の処理のためのモデルプログラムを指しているため、その訳を「データ解析モデル」で統一した。

この本では、データ解析モデルの役割は大きく見て、以下の6つに分けられている。

  1. 生の信号データの気象要素の値への変換。これは、通常センサーからの出力信号そのものは気象要素ではなく、当然気象データとは呼べない。この信号に何らかの処理を施して気象要素のデータに変換する。
  2. 観測所データの平均や補間。かつての観測所での観測は1時間、あるいは数時間に1回程度だった。これを気候データとして用いるために、日平均値、月平均値、年平均値、地域平均値などを算出する。また観測所のない必要な地点での値に補間することもある。
  3. さまざまな観測所のデータの統合。かつては各気象観測所は、それが属している組織固有の観測手法で観測し、固有の様式でそれを保存していた(今でも分野によってはそれが残っている)。過去データを含めて異なる観測所のデータをまとめて使えるようにするため、それらを均質で統一的な様式を持つ単一のデータセットへと変換する。その際にはインフラストラクチャの遡及のために、メタデータが必要になる場合がある。
  4. 異なる観測期間を持つデータの統合。かつて観測を行っている全ての地点が今でも観測を行っているとは限らない。さまざまな状況や制約で観測を止めた観測地点もある。そういうある一時期の観測値を現在まで続く長期データセットに融合させることが望ましい。そのために、その地域の重みやトレンドを考慮した補正を行って融合させることがある。インフラストラクチャの遡及が必要になる場合もある。
  5. 衛星搭載観測装置からの信号処理。衛星に搭載された観測装置はリモートセンシングで大気を通した信号を観測する。能動的センサーの場合は、信号を受信するまでの時間を用いて高度に応じた解析によって気象要素等への変換を行う。受動的なセンサーの場合は直下の大気全体からの信号を使っているので、大気の鉛直分布を考慮した解析による気象要素等への変換が必要になることが多い。これらの解析を行って大気中の対象要素を測定する。
  6. データ同化。これは「データのグローバル化 」のところで述べたデータ同化を行う。

データ解析モデルによる処理の概念図

1.の例はサーミスタで、これは検出器内部で接合された2種の金属から発生する電流で周囲の温度を測定する。この電流を温度に変換するためには、それぞれの金属の透磁率のパラメータを含んだ数学モデルによる処理が必要である。哲学者スティーブン・ノートンとフレデリック・サッピは、センサーからの測定温度は、物理学的に示された数学モデル(データ解析モデル)の出力として理解されなければならないと主張している。

上記に示したように、観測データといえども、ほとんどは何らかの形でデータ解析モデルで処理されていることになる。その結果、同化モデルによって全球のデータイメージは「データに縛られている」一方で、観測データもデータ解析モデルによって「理論に縛られている」。そのため、著者エドワーズは、気候科学においては、純粋なデータも純粋なモデルも存在しないと主張している。

モデルとデータとの共生

このように、気象学における理論とモデルとデータの関係は非常に複雑である。モデルにはパラメタリゼーションと呼ばれる「半経験的」なパラメータという発見的な原理が含まれている。これはモデルはデータに縛られたもの(data-laden)であることを示している。一方、モデルによって作成された全球データは、観測データによる拘束を受けるが、それによって直接決定されることはない。

著者のエドワーズは、この関係を「モデルとデータとの共生」、つまり相互に依存しながら相互に有益となる関係と説明している。これは、現実世界と観測と理論の間の空間で機能する科学の例である。これによって、カナダの哲学者マーガレット・モリソンとイギリスの哲学者マリー・モーガンは、「モデルは知識への手段であり、知識の源でもある。」と論じている。

我々は知識の多くを観測や測定から得ているように思っているかもしれないが、上記のサーミスタの例のように、多くの測定データは、センサーからの信号を測定要素に変換する際に、ある種のデータ解析モデルを介している。同様に観測データをある地域や全球規模に平均する際にも、データ解析モデルによる何らかの解析的処理が必要になる(観測値を足して地点数で割っているわけではない)。これは、観測もある種のモデルに依存していることを示している。結局、観測結果の多くはモデルへと帰結しているのである。

例として、予報精度の基本的な尺度として使われているS1スキルスコアを挙げる。これは500hPa高度の予報を観測と比較したものである。しかし、この本では観測としている500hPaの格子点データ自体が、実際の観測結果を解析モデルで処理して得られたものであることを指摘している。

S1スキルスコアの例
気象庁ホームページより(https://www.jma.go.jp/jma/kishou/books/hakusho/2015/01-2.html
)

これは、あるモデルの結果の現実世界との合致性、整合性を調べようとして、観測データではなく、別のモデル、つまりデータのモデルと比較していることになる。これが「データのグローバル化 」で述べたような、計算科学の特徴である。著者のエドワーズによると、この情報技術をそれ自身の設計に再帰的に適用することは、気象学だけではなくあらゆる種類のITベースのインフラストラクチャに特有の特徴になっている。

全球規模の気象・気候科学(そしておそらくすべてのモデルベースの科学)では、純粋なデータも純粋なモデルも存在しない。同化モデルは「データに縛られている」が、それだけでなくデータも「理論に縛られている」のである。これが「モデルとデータとの共生」である。

これは、アメリカで議論が起こった「健全な科学」とは何か?という議論とも関連する考えとなる。



2024/06/19

インフラストラクチャとしての気候知識(4)

 インフラストラクチャの遡及

このブログの 「データのグローバル化」のところで述べたように、現在は過去の気象データを同化モデルで処理することにより、過去の気象を全球3次元格子のデータイメージとしてほぼ再現することが可能となっている。しかし記録に残されている過去の気象データが、データイメージ用の処理データとしてそのまま無条件で使えるとは限らない。再解析に用いるデータは、一貫した品質で気象を正確に反映したものでなければならない。ところが、実際の観測データにはそうでないものが含まれている場合がある。

実際の気象でないもの、一貫していない品質のものが含まれる原因には、例えば測定器の更新や観測基準の変更、観測手順の変更などによって起こる偏差、観測所の観測環境の経時的あるいは移転による変化、平均手法の変更による変化、値の誤記、通信時の文字化け、などがある。

気象予報の場合は、単一の観測点のそういった誤差は予報にほとんど影響しないし、目で見て影響が大きそうな場合には、予報者が単に使わなければ良かった。しかし、そのようなデータを気候データとして使うと、実際とは異なる気候状況を示すことになり、結果に大きな影響を与える。

データのグローバル化を行う前には、過去データについて、それらによる変化の有無やデータの振る舞いがおかしくないかどうかの確認を行う必要がある。これが「インフラストラクチャの遡及」である。ここでのインフラストラクチャとは、全球の気象データを生み出す気象観測所や船、航空機、衛星などの移動体プラットフォームからなる気象観測ネットワーク全体とそこでの日々の観測作業を指している

その確認は観測データだけ見てもわからないことが多い。観測手順書や観測所の履歴などの観測に関するメタデータ(観測手法や状況の記録)と、収集された観測データや観測原簿を突き合わせた確認が必要となる。

 インフラストラクチャの遡及の概念図 (観測データの場合)

メタデータは、観測データと一緒にきちんと整理・保存されているとは限らない。しかも、過去の観測手順や手法を記したマニュアルが廃棄されていたり、何千という観測所の現地にしか観測状況に関する記録がなかったりする場合もある。この過去の観測状況に関するメタデータの有無やありかを調べる作業を、「メタデータの発掘」と呼んでいる。そして、その発掘したメタデータの前後関係から、データの精度を復元するという作業の困難さを、著者のエドワーズは「メタデータ摩擦」とも呼んでいる。

このようにしてわかったメタデータを用いて、その観測所での観測の歴史を復元し、各観測所の記録を照合する。この「インフラストラクチャの遡及」によって、メタデータを発掘し、データを確認し、データに何らかの偏差や誤りを発見した場合には、データ解析モデルを作成して、対象となる期間について数学的補正を行う。あるいは、異常なデータを誤りとして除外する作業も含まれる。

 このインフラストラクチャを遡及させて初めて、これまで収集された気象データは、気候用途に使えるものとなりグローバルなデータイメージを作ることが出来るようになる。

知識生産プロセスとしてのインフラストラクチャの遡及

この考えを拡張すると、「インフラストラクチャの遡及」とは、新しいメタデータに応じて インフラストラクチャに関する歴史的証拠や過去に行った観測・解析作業を再検討して、それらを適切に修正することによって、より正しい情報を得ることである。著者のエドワーズは、知識生産プロセスはインフラストラクチャの遡及を通じて機能する」と述べている。

新たなメタデータが出てきた場合や、より適切な修正方法に変更するたびに、この遡及を繰り返す。これはそれによって得られた知識がその都度結果が変わる可能性を示しており、継続的な知識生産プロセスでは、単一の普遍的なデータイメージや統一的に合意された単一の結果を得ることはできない。

インフラストラクチャの遡及は全ての気象データを扱うため、メタデータの発掘とこれによる検討・確認は、気象のあらゆる過去データに当てはまる。これは地道で膨大な作業である。しかし、この作業がグローバルな気候知識を支えている。例えば、この本に示されている個々の観測地点での雨量計の変更による過去のバイアスの例は、このようにして調べられたものである。

上記のように、過去のメタデータが新たな発掘やモデルの更新によって、このインフラストラクチャの遡及作業も終わりのないものとなっている。歴史分野では、新しい資料の発見に伴って過去の歴史が書き換わることがあるように、今後も新しいメタデータの発見によって、過去の気候が変わることがあり得る。

市民科学(シチズン・サイエンス)

気象学・気候科学では、長年続いているデータのグローバル主義(「情報のグローバル化」参照)という文化によって、観測データや解析データが共有、公開されていることが多い。

気象学におけるデータのグローバル主義は、インターネットの発達により、この分野を誰もが参加できるオープンな市民科学(シチズン・サイエンス)にしている。現在は一般市民を含む誰でも、インターネットを通じて公開されている過去データを用いて、気象観測の誤差の調査や気候データの「監査」などを行える。このブログの「情報のグローバル化 」で述べた、過去データやその解析手法を問うたIPCCでの「ホッケースティック論争」は有名である。本書は、この論争を詳しく解説しているだけでなく、結果の科学的な透明性の確認のため、データの処理に用いた解析手法やモデルのプログラム公開を求めた例も解説されている。

著者によると、この新たな市民科学は、気候変動の科学と政治に新しい段階を告げるものであり、長期的に大きな影響を与えることは確実である。本書では、そういう活動を行っているグループの例として、クライメイト・オーディット(Climate Audit)、SurfaceStations.org、クリア・クライメイド・コード(Clear Climate Codeを取り上げている。

これらの市民科学のほとんどは、科学的プロセスに参加しようとする非専門家による比較的責任ある取り組みである。これは、気候に関する知識の透明性を高めるように見え、表面上は「インフラストラクチャの遡及」の別なやり方と言えるかもしれない。これらはたしかに知識生産プロセスの関係者を拡大することに貢献し、合意を広げる。中にはメタデータや解析モデルについての新しい知見を提供し、その遡及によって科学的インフラストラクチャの改善に貢献したものもあり、本書ではその例も挙げられている。

しかし、気候変動に関するブログや市民科学プロジェクトの中には、誤った情報に基づく善意の意見から、暴言や宗教的な主張や意図的な偽情報などまで、ひどい意見を示しているものもある。これらが混乱や疑念、誤った情報、受け売りの考えを助長している場合がある。著者のエドワーズは、 透明性の向上は知識生産の質を高めるかもしれないが、疑惑や混乱、摩擦を増大させることで安定した気候変動に関する知識の生産を遅らせ、その信頼性を損なう可能性があるとも述べている。その将来はまだ予断を許さない。

2024/06/15

インフラストラクチャとしての気候知識(3)

  気候の知識を生み出すインフラストラクチャ

現代の気候科学は、グローバルな気候に関する知識インフラストラクチャから生み出されているが、それは気象のインフラストラクチャがベースとなっている。

気象のグローバルなインフラストラクチャを、再度要約すると次のようになる。まず気象に関する「グローバルデータの収集」を行わなければならない。次に、集めたデータを時間的にも空間的に一貫性のある正確な格子点データに変換するために、「データのグローバル化」を行う必要がある(この2つには主として「データ摩擦」と「計算摩擦」が作用する)。

気象のインフラストラクチャの最重要点の一つは、時間だった。発表時刻に間に合わなかった予報は、情報としての意味がない。しかし、気候科学はそれとは異なり、じっくりとデータを吟味して使うことが出来た。ただし、気候のインフラストラクチャとなるためには、データが時間・空間において一貫して均質でなければならない。

全球の気候データをインフラストラクチャ化するためには、世界中の観測地点において、過去のメタデータ(観測状況に関する記録)を入手して、「インフラストラクチャを遡及」を行う。つまりメタデータに基づいて過去データの補正を行う必要がある。その際にはメタデータを捜索して入手するという「メタデータ摩擦」に直面することもある。

そうやって補正されたデータを用いて、コンピュータによるデータ解析モデル(「データのグローバル化」の中の「モデルとデータとの関係」を参照)によって、時間的にも空間的に一貫性のあるグローバルなデータイメージ(データのグローバル化」を参照)が作成される。

  全球3次元での一貫した時空間的にシームレスな全球初期値・データイメージ(再解析データ)
気象と気候から見たデータのグローバル化の概念図。

そうやって作られた過去のグローバルなデータイメージが、現在の気候のインフラストラクチャの一部を構成している。なお、こうやって作られたデータイメージは、一つの決定的なグローバルなデータセットとは限らない。例えば、異なるデータ解析モデルによって、異なるデータイメージが作成される。 

このデータイメージは、地球物理学だけでなく生物科学、地球化学などのさまざまな分野の知識を結合するゲートウェイによって拡張されてきている。ゲートウェイとは、異質な分野のものを同じ土俵で扱えるように変換する装置のようなものである。分野が異なれば、その知識ベースや知識の様式が異なる。ゲートウェイはそれらを分野にかかわらず同等に扱えるようにする。コンピュータモデルは、その最も重要な技術的ゲートウェイとなっている。例えば地球システムモデルには、大気力学だけでなく、海洋学や植生に関する生物学、地球化学などの知識が結合されて含まれている。

地球システムの構成要素とさまざまな相互作用
(https://www.mri-jma.go.jp/Research/project/M/M_2019-2023_2.html)

著者のエドワーズによると、ゲートウェイとして結合が進みつつあるコンピュータモデル(例えば地球システムモデル(ESM)や統合評価モデル(IAM))は、現在の大規模かつ拡大する認識論的共同体において、中心的な組織化機能を担っている。

現代では、過去のあらゆる地点での気象を再現した再解析データや気候の将来予測は、グローバルな知識インフラストラクチャになっており、コンピュータモデルはその中心的な役割を演じている。また再現主義(「データのグローバル化 」参照)は、実現不可能な地球規模での実験の代用として、コンピュータモデルを用いたシミュレーションを受け入れている。例えば、このシミュレーションには、温暖化の影響評価を行うイベントアトリビューションなどがある。

コンピュータモデルだけでなく、1980 年代後半以降、気候変動に関する政府間パネル(IPCC)は、制度的ゲートウェイとして気候に関するさまざまな分野の要素を結合している。これによる定期的な比較と評価と統合化のサイクルは、知識プロジェクトの中の多数の科学分野を結び付けている。著者のエドワーズによると、このサイクルプロセスは「ある共同体内で高い信頼性を持ち、標準化されて広く利用できる基礎的なシステムとサービス」であり、IPCCを権威ある気候の「知識インフラストラクチャ」にしている。

IPCCのロゴ

このIPCC で行われる評価の審査は、科学界の枠を大きく超えている。専門家の意見のみが募集される論文誌の査読とは異なり、ここでは派閥的でかつ非専門家による見解が意図的に募集され、彼らの懸念への対処が、科学的枠組みが許す範囲で行われる。著者のエドワーズによると、IPCCの徹底的で多層的で透明性の高い審査プロセスは、たとえ不完全であっても気候変動に関する知識を評価するための最善の方法となっている

この特別な審査プロセスは気候科学を他の科学分野と峻別しており、IPCCは気候の「知識インフラストラクチャ」である、という著者の概念を正当化するものとなっている。そして、地球温暖化は、この気候の「知識インフラストラクチャ」を通して多くの人々に明確に支持されている。