2024/06/26

気候モデル(地球システムモデル)の発達

データのグローバル化 」の所で、カナダの哲学者マーガレット・モリソンとイギリスの哲学者マリー・モーガンは、「モデルは知識への手段であり、知識の源でもある。」と論じている、と述べた。同様に気候モデル(地球システムモデル)は、気候変動に関する知の源の役割を果たしている。そのため、気候モデル(地球システムモデル)を概説しておく。

 気候システムとは

地球は、太陽から放射エネルギー(熱)を受けている。地球全体で見ると年平均気温はほとんど変わらないので、物理学の法則からみると、これはこの惑星が熱平衡状態であることを意味している。言い換えると、最終的に地球が太陽から受け取る熱と同量の熱を宇宙へ放射している。これは地球が熱平衡状態にある限り、たとえ地球温暖化が起こっても変わらない。

それゆえ、地球の平均的な気温は基本的にこの地球の「エネルギー収支」で決まっているので、気候を何らかモデル化することは、地球の「エネルギー収支」を組み込むことから始まる。地球の地表が太陽から受け取る放射エネルギー(熱)は、熱帯や極域など地域によって異なっている。熱帯では宇宙に放射するより多くの熱を太陽から受けて、極域では太陽から受け取るより多くの熱を放射している。したがって地球の気候は、熱帯で受け取った余剰熱を、何らかの手段で極域へ運搬する熱力学エンジンとしてのシステムで決まっている。

このエネルギー収支から地球気温を計算するためには、太陽から放射量、それを反射する地表アルベド(反射率)、大気によるそれの吸収と放射のような要素を考慮する必要がある。実際にはこれらの要素は地域毎に異なるので、気温分布を調べようとすると、地域によるそれらの違いと、大気や海の流れなどによるシステムとしての熱輸送を動的に考慮する必要がある。

オーストリアの気象学者ユリウス・フォン・ハンが1883年に出版した有名な「気候学ハンドブック」は、地球の「エネルギー収支」という概念を取り入れた最初のものだった。この本は、それ以来50年間以上にわたって、気候学の標準的な教科書となったが、この本の大部分は、気候をまだ統計的な問題として扱ったものだった。

回転水槽実験

地球の気候を決める熱輸送を研究するために、地球上の大気循環をアナログモデルで再現しようとしたものが、回転水槽実験である。これは第二次世界大戦後にアメリカとイギリスで始まった。アメリカのシカゴ大学では、この実験に当初食器洗い用の桶を使ったことから、「洗い桶(dishpan)」実験とも呼ばれている。この実験は、地球に見立てた流体を満たした2次元の水槽(桶)を用いて、ある場所を熱しながら(これが太陽熱に相当する)それを水平に回転させたものである。そうすると回転速度と温度勾配の条件(つまり熱輸送の状況)によっては、地球の高・低気圧と関連するプラネタリー波に似た流れの蛇行が水槽内に形成される[1]。

 回転水槽の実験模式図
内側(高緯度に相当)を冷やして外側(低緯度に相当)を暖めて、回転させた水槽にできる定常的な流線(破線)の模式的な例

この実験から、地球上の大規模な大気の流れは、地球独特のものではなく、力学と熱力学の法則に従った普遍的な現象であることが明確になった。これは物理学を使った気候学へのアプローチが可能、つまり数値モデルを用いた気候研究が可能であることを示した。そして、コンピュータと数値モデルの出現がこの研究をさらに推し進めることとなった。

大循環モデル出現

1950年頃から、コンピュータを用いた数値予報モデルの開発が盛んに行われるようになった。この頃、米国の気象学者ノーマン・フィリプスは、数値予報のための準地衡風モデル[2]を、数日先の気象予測に用いるのではなく、長期間先まで計算させることで、地球の平均的な大気循環を再現できるのではないかと考えた。そして1956年に、実際にこのモデルを約20 日先まで計算することで、地球規模の大気循環に関するいくつかの基本的な特徴の再現に成功した。これは「大循環モデル」と呼ばれて実質的に気候モデルの先駆けとなった。

その将来性に気付いた一人は、フォン・ノイマンである。彼は、早速大循環モデルの発展のために「数値積分技術の大循環問題への応用」と題する会議のお膳立てをした。しかし、がんが進行していたフォン・ノイマンは、1957年に亡くなってしまう(気象学と気象予報の発達史「気候学の歴史(7):気候モデルの登場」を参照)。

この会議などによる大循環モデルの意義の広まりによって、米国では大循環モデルの開発のために4 つのグループが設立された。そのうち実質的に大気科学に貢献したのは、真鍋淑郎がいた「地球物理学流体力学研究所(GFDL)」、荒川昭夫がいた「カリフォルニア大学ロサンゼルス校(UCLA)」、そして笠原彰がいた「国立大気研究センター(NCAR)」の3 つである。現在は、これらの大循環モデルをベースにした数多くの気候モデル、あるいは地球システムモデルが世界各地で開発されて使われている。

大循環モデルとは

元来、大気の大循環とは、ハレーやハドレーによる赤道域の大気循環の推定から出発している。19世紀になるとモーリーやフェレルによる全球規模の風の循環の推定が行われた。しかし、当時は上空の観測手段がなく、地上はともかく、上空の大気循環は力学に基づく全くの推測だった。 

1930年代以降になると、上空を観測するラジオゾンデにより、ロスビー波などの実際の上空の大気の流れがわかってきた。しかし、それらは地域や時期を特定した断片的なものだった。地球温暖化などの気候変動が提唱されても、それがエネルギー収支に関連した問題なのか、単に大気循環が変わったためなのかはわからなかった。その地球規模の大気循環を、力学理論とコンピュータを用いてモデルシミュレーションするのが、(大気)大循環モデルである。

大循環モデルは、数値予報モデルのように観測値を初期値として使用しない。大循環モデルを用いた数値実験は、スピンアップと呼ばれるある一定時間計算して到達した平衡に近い状態を実現した後に、開始される。しかし、モデルを使った実験結果は、現実とどの程度合うのかを検証しなければならない。そのため、結果の検証のために比較する全球規模の観測値を必要とする。

大循環モデルが登場した頃は、モデルが出力する全球規模を持つ気象要素と直接比較できる観測結果は多くなく、特に上層の観測値はきわめて少なかった。そのため、検証のために異質な観測を無理やり組み合わせるなど、大循環モデルの評価には大きな困難があった。現在では、この比較にはデータ解析モデルで作成したグローバルデータが使われている。

地球システムモデル

大循環モデルは、当初大気力学を主体にモデル化された。大循環モデルが科学的に確立されてくると、それを物理学的に、あるいは生物学的、大気化学的に拡張する試みが行われるようになった。つまり、大気循環に大きな影響を及ぼす海洋を結合させたり、温室効果ガスやエアアロゾル、オゾンなどの放射の吸収・射出物質を加えたり、温室効果ガスを吸収・放出する植生を入れたりして、なるべく地球そのものの再現に近づけるようになった。それらを「気候モデル」、あるいはさらに発展させたものを「地球システムモデル」と呼んでいる。特に気候の将来予測を行うモデルは、基本的に地球システムモデルであることが多い。

 

地球システムモデルの概念図
(代表的な要素やプロセスのみを記している)

そして、地球システムモデルをはじめとするシミュレーションモデルは、モデルに組み込まれたパラメタリゼーションなどの物理過程や計算手法が、モデル毎に異なる。それらのモデルが現在の気候を再現しているかどうかについては、観測値を使って検証することが出来る。しかし、気候の将来予測については、結果が正しいかどうかを検証することはできない。このため、個々のモデルによる予測の違いの幅を知るために、モデル相互比較が行われている。  



[1]堤 之智、気象学と気象予報の発達史、丸善出版、2018.
[2] 当時は2層モデルであったが、地域による上空の気温の違いを表現でき、それに伴う傾圧的な循環なども原理的には表現できた。

2024/06/22

データ解析モデル

この本では「データ解析モデル」という用語が頻繁に出てくる。原著ではdata modelsと書かれているが、訳では下記の理由でデータ解析モデルで統一している。

著者のエドワーズによると、元来「データモデル(data models)」という用語は、コンピュータサイエンスでは技術的な意味を持ち、特定のアプリケーションまたはワークフロー内でのデータ要素、構造、表現、相互関係の抽象的な概念を指している。なお、科学に関する哲学者は「データのモデル(models of data)」という語句を使用していると述べている。

しかし、著者はデータモデルを、数学的手法、アルゴリズム、および測定器の読み取り値から経験的に導き出された調整法の集まりとし、それらを「data analysis modelsまたは略してdata modelsと呼ぶ」とし、その後はdata model(s) という言葉で統一している。少なくとも日本語では、データモデルという言葉は抽象的かつ概念的であると私は思っている。しかしこの本では、data model(s) はほとんどが上記の処理のためのモデルプログラムを指しているため、その訳を「データ解析モデル」で統一した。

この本では、データ解析モデルの役割は大きく見て、以下の6つに分けられている。

  1. 生の信号データの気象要素の値への変換。これは、通常センサーからの出力信号そのものは気象要素ではなく、当然気象データとは呼べない。この信号に何らかの処理を施して気象要素のデータに変換する。
  2. 観測所データの平均や補間。かつての観測所での観測は1時間、あるいは数時間に1回程度だった。これを気候データとして用いるために、日平均値、月平均値、年平均値、地域平均値などを算出する。また観測所のない必要な地点での値に補間することもある。
  3. さまざまな観測所のデータの統合。かつては各気象観測所は、それが属している組織固有の観測手法で観測し、固有の様式でそれを保存していた(今でも分野によってはそれが残っている)。過去データを含めて異なる観測所のデータをまとめて使えるようにするため、それらを均質で統一的な様式を持つ単一のデータセットへと変換する。その際にはインフラストラクチャの遡及のために、メタデータが必要になる場合がある。
  4. 異なる観測期間を持つデータの統合。かつて観測を行っている全ての地点が今でも観測を行っているとは限らない。さまざまな状況や制約で観測を止めた観測地点もある。そういうある一時期の観測値を現在まで続く長期データセットに融合させることが望ましい。そのために、その地域の重みやトレンドを考慮した補正を行って融合させることがある。インフラストラクチャの遡及が必要になる場合もある。
  5. 衛星搭載観測装置からの信号処理。衛星に搭載された観測装置はリモートセンシングで大気を通した信号を観測する。能動的センサーの場合は、信号を受信するまでの時間を用いて高度に応じた解析によって気象要素等への変換を行う。受動的なセンサーの場合は直下の大気全体からの信号を使っているので、大気の鉛直分布を考慮した解析による気象要素等への変換が必要になることが多い。これらの解析を行って大気中の対象要素を測定する。
  6. データ同化。これは「データのグローバル化 」のところで述べたデータ同化を行う。

データ解析モデルによる処理の概念図

1.の例はサーミスタで、これは検出器内部で接合された2種の金属から発生する電流で周囲の温度を測定する。この電流を温度に変換するためには、それぞれの金属の透磁率のパラメータを含んだ数学モデルによる処理が必要である。哲学者スティーブン・ノートンとフレデリック・サッピは、センサーからの測定温度は、物理学的に示された数学モデル(データ解析モデル)の出力として理解されなければならないと主張している。

上記に示したように、観測データといえども、ほとんどは何らかの形でデータ解析モデルで処理されていることになる。その結果、同化モデルによって全球のデータイメージは「データに縛られている」一方で、観測データもデータ解析モデルによって「理論に縛られている」。そのため、著者エドワーズは、気候科学においては、純粋なデータも純粋なモデルも存在しないと主張している。

モデルとデータとの共生

このように、気象学における理論とモデルとデータの関係は非常に複雑である。モデルにはパラメタリゼーションと呼ばれる「半経験的」なパラメータという発見的な原理が含まれている。これはモデルはデータに縛られたもの(data-laden)であることを示している。一方、モデルによって作成された全球データは、観測データによる拘束を受けるが、それによって直接決定されることはない。

著者のエドワーズは、この関係を「モデルとデータとの共生」、つまり相互に依存しながら相互に有益となる関係と説明している。これは、現実世界と観測と理論の間の空間で機能する科学の例である。これによって、カナダの哲学者マーガレット・モリソンとイギリスの哲学者マリー・モーガンは、「モデルは知識への手段であり、知識の源でもある。」と論じている。

我々は知識の多くを観測や測定から得ているように思っているかもしれないが、上記のサーミスタの例のように、多くの測定データは、センサーからの信号を測定要素に変換する際に、ある種のデータ解析モデルを介している。同様に観測データをある地域や全球規模に平均する際にも、データ解析モデルによる何らかの解析的処理が必要になる(観測値を足して地点数で割っているわけではない)。これは、観測もある種のモデルに依存していることを示している。結局、観測結果の多くはモデルへと帰結しているのである。

例として、予報精度の基本的な尺度として使われているS1スキルスコアを挙げる。これは500hPa高度の予報を観測と比較したものである。しかし、この本では観測としている500hPaの格子点データ自体が、実際の観測結果を解析モデルで処理して得られたものであることを指摘している。

S1スキルスコアの例
気象庁ホームページより(https://www.jma.go.jp/jma/kishou/books/hakusho/2015/01-2.html
)

これは、あるモデルの結果の現実世界との合致性、整合性を調べようとして、観測データではなく、別のモデル、つまりデータのモデルと比較していることになる。これが「データのグローバル化 」で述べたような、計算科学の特徴である。著者のエドワーズによると、この情報技術をそれ自身の設計に再帰的に適用することは、気象学だけではなくあらゆる種類のITベースのインフラストラクチャに特有の特徴になっている。

全球規模の気象・気候科学(そしておそらくすべてのモデルベースの科学)では、純粋なデータも純粋なモデルも存在しない。同化モデルは「データに縛られている」が、それだけでなくデータも「理論に縛られている」のである。これが「モデルとデータとの共生」である。

これは、アメリカで議論が起こった「健全な科学」とは何か?という議論とも関連する考えとなる。



2024/06/19

インフラストラクチャとしての気候知識(4)

 インフラストラクチャの遡及

このブログの 「データのグローバル化」のところで述べたように、現在は過去の気象データを同化モデルで処理することにより、過去の気象を全球3次元格子のデータイメージとしてほぼ再現することが可能となっている。しかし記録に残されている過去の気象データが、データイメージ用の処理データとしてそのまま無条件で使えるとは限らない。再解析に用いるデータは、一貫した品質で気象を正確に反映したものでなければならない。ところが、実際の観測データにはそうでないものが含まれている場合がある。

実際の気象でないもの、一貫していない品質のものが含まれる原因には、例えば測定器の更新や観測基準の変更、観測手順の変更などによって起こる偏差、観測所の観測環境の経時的あるいは移転による変化、平均手法の変更による変化、値の誤記、通信時の文字化け、などがある。

気象予報の場合は、単一の観測点のそういった誤差は予報にほとんど影響しないし、目で見て影響が大きそうな場合には、予報者が単に使わなければ良かった。しかし、そのようなデータを気候データとして使うと、実際とは異なる気候状況を示すことになり、結果に大きな影響を与える。

データのグローバル化を行う前には、過去データについて、それらによる変化の有無やデータの振る舞いがおかしくないかどうかの確認を行う必要がある。これが「インフラストラクチャの遡及」である。ここでのインフラストラクチャとは、全球の気象データを生み出す気象観測所や船、航空機、衛星などの移動体プラットフォームからなる気象観測ネットワーク全体とそこでの日々の観測作業を指している

その確認は観測データだけ見てもわからないことが多い。観測手順書や観測所の履歴などの観測に関するメタデータ(観測手法や状況の記録)と、収集された観測データや観測原簿を突き合わせた確認が必要となる。

 インフラストラクチャの遡及の概念図 (観測データの場合)

メタデータは、観測データと一緒にきちんと整理・保存されているとは限らない。しかも、過去の観測手順や手法を記したマニュアルが廃棄されていたり、何千という観測所の現地にしか観測状況に関する記録がなかったりする場合もある。この過去の観測状況に関するメタデータの有無やありかを調べる作業を、「メタデータの発掘」と呼んでいる。そして、その発掘したメタデータの前後関係から、データの精度を復元するという作業の困難さを、著者のエドワーズは「メタデータ摩擦」とも呼んでいる。

このようにしてわかったメタデータを用いて、その観測所での観測の歴史を復元し、各観測所の記録を照合する。この「インフラストラクチャの遡及」によって、メタデータを発掘し、データを確認し、データに何らかの偏差や誤りを発見した場合には、データ解析モデルを作成して、対象となる期間について数学的補正を行う。あるいは、異常なデータを誤りとして除外する作業も含まれる。

 このインフラストラクチャを遡及させて初めて、これまで収集された気象データは、気候用途に使えるものとなりグローバルなデータイメージを作ることが出来るようになる。

知識生産プロセスとしてのインフラストラクチャの遡及

この考えを拡張すると、「インフラストラクチャの遡及」とは、新しいメタデータに応じて インフラストラクチャに関する歴史的証拠や過去に行った観測・解析作業を再検討して、それらを適切に修正することによって、より正しい情報を得ることである。著者のエドワーズは、知識生産プロセスはインフラストラクチャの遡及を通じて機能する」と述べている。

新たなメタデータが出てきた場合や、より適切な修正方法に変更するたびに、この遡及を繰り返す。これはそれによって得られた知識がその都度結果が変わる可能性を示しており、継続的な知識生産プロセスでは、単一の普遍的なデータイメージや統一的に合意された単一の結果を得ることはできない。

インフラストラクチャの遡及は全ての気象データを扱うため、メタデータの発掘とこれによる検討・確認は、気象のあらゆる過去データに当てはまる。これは地道で膨大な作業である。しかし、この作業がグローバルな気候知識を支えている。例えば、この本に示されている個々の観測地点での雨量計の変更による過去のバイアスの例は、このようにして調べられたものである。

上記のように、過去のメタデータが新たな発掘やモデルの更新によって、このインフラストラクチャの遡及作業も終わりのないものとなっている。歴史分野では、新しい資料の発見に伴って過去の歴史が書き換わることがあるように、今後も新しいメタデータの発見によって、過去の気候が変わることがあり得る。

市民科学(シチズン・サイエンス)

気象学・気候科学では、長年続いているデータのグローバル主義(「情報のグローバル化」参照)という文化によって、観測データや解析データが共有、公開されていることが多い。

気象学におけるデータのグローバル主義は、インターネットの発達により、この分野を誰もが参加できるオープンな市民科学(シチズン・サイエンス)にしている。現在は一般市民を含む誰でも、インターネットを通じて公開されている過去データを用いて、気象観測の誤差の調査や気候データの「監査」などを行える。このブログの「情報のグローバル化 」で述べた、過去データやその解析手法を問うたIPCCでの「ホッケースティック論争」は有名である。本書は、この論争を詳しく解説しているだけでなく、結果の科学的な透明性の確認のため、データの処理に用いた解析手法やモデルのプログラム公開を求めた例も解説されている。

著者によると、この新たな市民科学は、気候変動の科学と政治に新しい段階を告げるものであり、長期的に大きな影響を与えることは確実である。本書では、そういう活動を行っているグループの例として、クライメイト・オーディット(Climate Audit)、SurfaceStations.org、クリア・クライメイド・コード(Clear Climate Codeを取り上げている。

これらの市民科学のほとんどは、科学的プロセスに参加しようとする非専門家による比較的責任ある取り組みである。これは、気候に関する知識の透明性を高めるように見え、表面上は「インフラストラクチャの遡及」の別なやり方と言えるかもしれない。これらはたしかに知識生産プロセスの関係者を拡大することに貢献し、合意を広げる。中にはメタデータや解析モデルについての新しい知見を提供し、その遡及によって科学的インフラストラクチャの改善に貢献したものもあり、本書ではその例も挙げられている。

しかし、気候変動に関するブログや市民科学プロジェクトの中には、誤った情報に基づく善意の意見から、暴言や宗教的な主張や意図的な偽情報などまで、ひどい意見を示しているものもある。これらが混乱や疑念、誤った情報、受け売りの考えを助長している場合がある。著者のエドワーズは、 透明性の向上は知識生産の質を高めるかもしれないが、疑惑や混乱、摩擦を増大させることで安定した気候変動に関する知識の生産を遅らせ、その信頼性を損なう可能性があるとも述べている。その将来はまだ予断を許さない。

2024/06/15

インフラストラクチャとしての気候知識(3)

  気候の知識を生み出すインフラストラクチャ

現代の気候科学は、グローバルな気候に関する知識インフラストラクチャから生み出されているが、それは気象のインフラストラクチャがベースとなっている。

気象のグローバルなインフラストラクチャを、再度要約すると次のようになる。まず気象に関する「グローバルデータの収集」を行わなければならない。次に、集めたデータを時間的にも空間的に一貫性のある正確な格子点データに変換するために、「データのグローバル化」を行う必要がある(この2つには主として「データ摩擦」と「計算摩擦」が作用する)。

気象のインフラストラクチャの最重要点の一つは、時間だった。発表時刻に間に合わなかった予報は、情報としての意味がない。しかし、気候科学はそれとは異なり、じっくりとデータを吟味して使うことが出来た。ただし、気候のインフラストラクチャとなるためには、データが時間・空間において一貫して均質でなければならない。

全球の気候データをインフラストラクチャ化するためには、世界中の観測地点において、過去のメタデータ(観測状況に関する記録)を入手して、「インフラストラクチャを遡及」を行う。つまりメタデータに基づいて過去データの補正を行う必要がある。その際にはメタデータを捜索して入手するという「メタデータ摩擦」に直面することもある。

そうやって補正されたデータを用いて、コンピュータによるデータ解析モデル(「データのグローバル化」の中の「モデルとデータとの関係」を参照)によって、時間的にも空間的に一貫性のあるグローバルなデータイメージ(データのグローバル化」を参照)が作成される。

  全球3次元での一貫した時空間的にシームレスな全球初期値・データイメージ(再解析データ)
気象と気候から見たデータのグローバル化の概念図。

そうやって作られた過去のグローバルなデータイメージが、現在の気候のインフラストラクチャの一部を構成している。なお、こうやって作られたデータイメージは、一つの決定的なグローバルなデータセットとは限らない。例えば、異なるデータ解析モデルによって、異なるデータイメージが作成される。 

このデータイメージは、地球物理学だけでなく生物科学、地球化学などのさまざまな分野の知識を結合するゲートウェイによって拡張されてきている。ゲートウェイとは、異質な分野のものを同じ土俵で扱えるように変換する装置のようなものである。分野が異なれば、その知識ベースや知識の様式が異なる。ゲートウェイはそれらを分野にかかわらず同等に扱えるようにする。コンピュータモデルは、その最も重要な技術的ゲートウェイとなっている。例えば地球システムモデルには、大気力学だけでなく、海洋学や植生に関する生物学、地球化学などの知識が結合されて含まれている。

地球システムの構成要素とさまざまな相互作用
(https://www.mri-jma.go.jp/Research/project/M/M_2019-2023_2.html)

著者のエドワーズによると、ゲートウェイとして結合が進みつつあるコンピュータモデル(例えば地球システムモデル(ESM)や統合評価モデル(IAM))は、現在の大規模かつ拡大する認識論的共同体において、中心的な組織化機能を担っている。

現代では、過去のあらゆる地点での気象を再現した再解析データや気候の将来予測は、グローバルな知識インフラストラクチャになっており、コンピュータモデルはその中心的な役割を演じている。また再現主義(「データのグローバル化 」参照)は、実現不可能な地球規模での実験の代用として、コンピュータモデルを用いたシミュレーションを受け入れている。例えば、このシミュレーションには、温暖化の影響評価を行うイベントアトリビューションなどがある。

コンピュータモデルだけでなく、1980 年代後半以降、気候変動に関する政府間パネル(IPCC)は、制度的ゲートウェイとして気候に関するさまざまな分野の要素を結合している。これによる定期的な比較と評価と統合化のサイクルは、知識プロジェクトの中の多数の科学分野を結び付けている。著者のエドワーズによると、このサイクルプロセスは「ある共同体内で高い信頼性を持ち、標準化されて広く利用できる基礎的なシステムとサービス」であり、IPCCを権威ある気候の「知識インフラストラクチャ」にしている。

IPCCのロゴ

このIPCC で行われる評価の審査は、科学界の枠を大きく超えている。専門家の意見のみが募集される論文誌の査読とは異なり、ここでは派閥的でかつ非専門家による見解が意図的に募集され、彼らの懸念への対処が、科学的枠組みが許す範囲で行われる。著者のエドワーズによると、IPCCの徹底的で多層的で透明性の高い審査プロセスは、たとえ不完全であっても気候変動に関する知識を評価するための最善の方法となっている

この特別な審査プロセスは気候科学を他の科学分野と峻別しており、IPCCは気候の「知識インフラストラクチャ」である、という著者の概念を正当化するものとなっている。そして、地球温暖化は、この気候の「知識インフラストラクチャ」を通して多くの人々に明確に支持されている。

2024/06/12

インフラストラクチャとしての気候知識(2)

「インフラストラクチャのグローバル化」とは

著者のエドワーズによると、持続性があり信頼性の高いグローバルな社会技術システムは、それが生成するグローバルな情報について、科学的で社会的で政治的な正当性を作り上げる。つまり、それはグローバルな「知」を生み出すことになる。このようなグローバルな社会技術システムを作り上げることがインフラストラクチャのグローバル化である。

「インフラストラクチャのグローバル化」に至る過程

これまで述べてきたように、気象学者たちは、何十年間にもわたって「情報のグローバル化(全世界からの標準化されたデータを定期的に収集して共有するという原則)」を受け入れてきた。そして、19世紀から20世紀初頭にかけて、気象学の先見者たちは国別の観測ではなく、気象データや気象予報、通信のための「継続的で統一された全球の制度的技術ネットワーク」の構築を提唱していた。これは気象に関する「インフラストラクチャのグローバル化」だった。しかし、これは政治家と気象関係者のそれぞれの思惑によって、第二次世界大戦が終わるまでは、ゆっくりとしか進まなかった。

この「継続的で統一された全球の制度的技術ネットワーク」の理念を実現するために、第二次世界大戦後に国連の専門機関としてWMOが設立された。世界気象機関条約の冒頭で説明されているように、世界気象機関(WMO)の最も基本的で明確な目的は、「標準化されたネットワークというインフラストラクチャを構築して、情報のグローバル化を促進すること」である。しかしながら、政府間機関となったWMOでも「国際政治とグローバルな気象観測網 」で述べたように、主権国家という枠組みを超えたグローバル化は容易ではなかった。

「インフラストラクチャのグローバル化」と東西冷戦

しかし著者のエドワーズによると、東西冷戦がこの気象の「インフラストラクチャのグローバル化」を後押しした。冷戦はこのグローバル化を緊張を緩和するプロジェクトとすることによって、超大国同士を結び付けた。そして超大国にとって、このプロジェクトは同盟国を巻き込むことによって、公共性のある世界中の気象データの収集という平和的な建前とそれによる軍事を含めた現実的な利益の、両方を生み出すための効果的で重要な戦略となった。

米国の大統領ケネディは、1961 9 25 日の国連総会において、大気圏と宇宙空間を用いた気象の技術システムを政治的合意に結びつける演説を行った。これは、気象に関する「インフラストラクチャのグローバル化」だったが、背後に軍事偵察衛星となる人工衛星の開発競争などの東西冷戦の影響があったことは見逃せない。

この演説に基づいた国連総会での決定によって、世界気象機関(WMO)は世界気象監視(WWW)の設立を決定した。これは、それ以前の調整されていない多様なネットワークシステムが乱立した状態から、データと通信およびコンピュータが統合された単一の社会技術システムとして、グローバルなインフラストラクチャを構築するものだった。この構築のための困難さは、技術的なものというよりは、むしろ制度的および政治的なものだった。

 世界気象監視(WWW)によるインフラストラクチャのグローバル化

著者のエドワーズによると、この「インフラストラクチャのグローバル化」は、冷戦下の地政学と脱植民地化によって、技術政治的に促進された。まず、超大国は気象や気候などを含む多くの分野で、他国に依存することなくグローバルな情報を収集する仕組みの探求を推進した。次に、冷戦の中心的技術の2つであるコンピュータと衛星は、気象学の最も重要なツールでもあり、気象学の急速な発展に多大な相乗効果をもたらした。さらに、脱植民地化は、気象技術を広めるためのWMOの自主支援プログラム(VAP)の取り組みを刺激した(「WMOによる世界気象監視(WWW)プログラムの構築 」を参照)。最後に、公共性のある気象学への協力は、冷戦下で国が公益に向けて協力する意欲を示すための理想的な宣伝の場となった。

世界気象監視(WWW)のスタートは「技術主導」だったが、その設計には「技術政治」的な戦略が支配していた(技術政治については「WMOによる世界気象監視(WWW)プログラムの構築 」を参照)。気象に関する「インフラストラクチャのグローバル化」が進んだ結果、世界気象監視(WWW)は、人工衛星、コンピュータモデル、通信ネットワークに基づいた「社会技術システム」からなる、全世界における気象の新しい知識を生み出すためのインフラストラクチャとなった。

世界気象監視(WWW)以外でも、例えば大気圏内核実験による危機感は、「インフラストラクチャのグローバル化」を進める複数のプロジェクトを生み出し、最先端の地球物理学を地球統治と結びつけた。現在各国が合意している「部分的核実験禁止条約」は、大気圏中の核実験がどこで行われても探知できるようにするなど、「インフラストラクチャのグローバル化」を前提としている部分がある。

東西冷戦の気象学における功罪

1980年代以降、この「インフラストラクチャのグローバル化」によって、全球的な気象学や気候科学が大きく進展していく。上述したように、これには東西冷戦が気象の「インフラストラクチャのグローバル化」を強力に後押しした面がある。反面、WMOが国連システムの中に設立されたことは、東西冷戦によって「情報のグローバル化」を阻害し(当初観測データを共有しない国があった)、また超大国と密接に関連した一部の国々は、WMOへの平等な加盟を妨げられた(一部の国々はオブザーバーという立場だった)。WMO は好ましくない形で冷戦政治に巻き込まれた面もあった。

このように、 気象の「インフラストラクチャのグローバル化」の進展には、国際政治が大きく関与した面があった。そしてその気象の「インフラストラクチャのグローバル化」の上に、気候の「インフラストラクチャのグローバル化」が構築されていくことになる。

2024/06/08

インフラストラクチャとしての気候知識(1)

インフラストラクチャとは?

本書においては、インフラストラクチャという用語が多用されている。デジタル大辞泉によると、インフラストラクチャとは、「社会的経済基盤と社会的生産基盤とを形成するものの総称。道路・港湾・河川・鉄道・通信情報施設・下水道・学校・病院・公園・公営住宅などが含まれる」となっている。

著者のエドワーズによると、インフラストラクチャとは「ある共同体内で高い信頼性を持ち、標準化されて広く利用できる基礎的なシステムとサービス」と定義している。このサービスがもたらす広く利用できる信頼性のある情報を含む、といってよいかもしれない。インフラストラクチャは、私たちにとって木々、日光、土などと同じように普通で目立たない、同化した背景として備わっている。

現代文明は基本的に数多くのインフラストラクチャに依存しており、彼はその例として、鉄道や電力網、高速道路、電話システムを挙げている。さらに上下水道やガス、ゴミの収集・処理なども含まれるだろう。そしてインフラストラクチャが失われたときに、それらにいかに依存していたかに気づく。インフラストラクチャは、普段はニュースに上ることは少ないが、災害などで利用できなくなると大きくクローズアップされる。

著者のエドワーズによれば、このようなインフラストラクチャは、多くの関連する目的に対してあたかも単一の統合システムであるかのように振る舞う「複数のネットワーク」からなっている。これらのネットワークの発展には、技術だけでなく、人間を介した法律、標準化、手続きなどの社会的制度も整える必要性がある。そのため、多くのインフラストラクチャは、「社会技術システム」となる*。

 インフラストラクチャの概念図。
ここでは、システムやネットワークから成っており利用者側から見て幅広い情報やサービスをもたらすものを、インフラストラクチャとしている。技術的なものだけでなく、幅広い制度や仕組みなどまで、概念が拡張されている。

  インフラストラクチャの発展に、社会制度も含めている観点は重要である。例えば今話題となっているGAFA(グーグル、アップル、フェイスブック、アマゾン)は、IT技術を駆使したサービスインフラストラクチャといえるだろうが、技術の確立だけでなく、変動する社会へ対応するための制度の確立にも現在迫られている。

著者は、新たな知識を生み出すメカニズムは、通信網や輸送網やエネルギー網などのほかのインフラストラクチャの概念と類似していると述べている。そのため、「知識の対象を共同体が歴史的に生み出したものと見なすと、このインフラストラクチャの概念を簡単に拡張できる」として、インフラストラクチャの概念を、知識を生み出すメカニズムへと拡張している。そして、新たな気候知識を生み出しているものを、インフラストラクチャの概念を適用して、「気候の知識インフラストラクチャ」として説明している。

そのため、この本を一言でいうと、グローバルな知識インフラストラクチャという視点から見た、気候科学の歴史的な解説となっている。

2024/06/01

再解析データ

 再解析データとは?

データのグローバル化」のところで述べたデータ同化という手法は、気候科学を変えた。現在は、世界の固定もしくは移動観測点で観測された過去の「気象データ」に、この手法を適用して、全球数百万点の3次元格子での物理学的に一貫したデータが、過去数十年にわたって作成されている。これが「再解析データ」である。この再解析データは、それまでの定性的な説明が主だった気候学を、定量的な解析が出来る気候科学へと変えた。このデータは、気候の様々な研究に現在利用されている。

そもそもの始まりは、数値予報の初期値作成のための客観解析だった。これからデータ同化に至る経緯は、「データのグローバル化 」のところで述べた。このデータ同化によって、物理的に一貫性のある全世界の3次元格子点値が、数値予報のための初期値として作成できるようになった。

ところが、さらにコンピュータの能力が向上するにつれて、新しいアイデアが生まれてきた。それは過去の3次元格子点値を、このデータ同化手法を用いて全て作り直してはどうか?ということだった。つまり、過去を含むあらゆる気象データを4次元同化モデルに取り込んで、時々刻々の値を計算できたら、気象観測データがある期間について、地球上のあらゆる格子点での気象を再現することができる。そうすれば、そこから気候を解析できるようになる。

しかし、数値予報のために作成した3次元格子点での初期値は気候統計のためには使えない。なぜなら、観測装置と同様に、データ同化のための解析モデルが随時更新されるからである。更新された後では予報精度は向上するかもしれないが、モデル更新の前後で3次元格子点値の時間的一貫性は失われてしまう。

再解析の経緯

この過去の全球格子点値を再計算するという発想は、世界気象監視(WWW)を研究面から支援する「全球大気研究プログラム(GARP)」の「全球気象観測実験(FGGE)」から生まれた。この「全球気象観測実験」は、しばしば「史上最大の科学観測実験」と呼ばれている。

 

GARPのロゴ

このFGGE観測実験が行われた1978年から79年の期間中、WWWの基本観測システムに加えて、368個の漂流ブイ、80機の航空機、実験衛星ニンバス-7からなる「特別観測システム」が追加され、静止衛星を介して航空機からの観測データをリアルタイムで報告する中継も行われた。また60日間の特別観測期間には、熱帯で最大で43隻の船と313個の定高度気球、さらに一部の期間には航空機からの気象ゾンデの投下が行われた。

FGGEの観測実験は、予報の精度向上を目的とする世界気象監視(WWW)のための研究観測であったが、これらの膨大なデータの一部は、予報のためのリアルタイムでの処理が出来なかった。しかししばらくした後で、この予報に使えなかったデータを含めて、格子点化された1年分の全球解析データが作られた。

これはGARPにおいて、大気大循環と気候の理解を深めるという目的に使われた。この全球解析データは、全球大気循環の最も詳細なデータイメージの出発点となるものだった。モデラーたちは定期的に会合を開き、これを用いて互いの大循環モデルの比較を行った。しかし、1年分の全球解析データでは、期間が短すぎて気候研究には使えなかった。

1980年代に、欧州中期予報センター長官のベングトソンは、単一の「固定された(frozen)」データ同化システムで観測データを処理して、10 年分の全球解析データを作成するという、再解析プロジェクトを初めて構想した(データ同化については、「データのグローバル化」を参照)。単一のシステムを使えば、期間内のデータの一貫性を保つことが出来る。

この構想を発展させて、NASA のゴダード大気研究所内のデータ同化室(DAO)は、GEOS-1 再解析(1994~1999年)を行った。欧州中期予報センターは、ERA-15(1979 年~1994年)と名付けた再解析を実施した。米国の国立環境予報センター(NCEP)とNCARは、35 年間(1958 年~1992 年)の再解析プロジェクトを実施した。これらが再解析の始まりである。

これらは第一世代の再解析と呼ばれ、現在では第二世代、第三世代の再解析プロダクトが発表されている。日本の気象庁もJRA-55やJRA-3Qという独自の再解析プロダクトを発表している。

 気象庁の再解析 (https://www.data.jma.go.jp/suishin/cgi-bin/catalogue/make_product_page.cgi?id=JRA)

 この再解析のために用いられているデータは、いわゆる「気候データ」ではない。数値予報の初期値作成に間に合わなかった観測も含めて、地上気象、ラジオゾンデ、船、ブイ、航空機からなどのあらゆる「気象データ」が用いられている。

再解析の気候科学における意義

現在の再解析などの状況を鑑みると、1839年に英国の評論家ラスキンが述べた、本の原題ともなっている『A Vast Machine』という発想は示唆的である。ラスキンが200年近く前に理想としていた「地上におけるあらゆる瞬間のあらゆる地点での大気状態を知ることができるようになる」ことが、現代では実現している。

このブログの「わかるとは? 」のところで「気候変動をわかろうとする場合には、その前の気候がどうであったを知って、それと現在とを比較しなければならない」と述べた。現在が異常かどうかを判別するには、過去の標準的な状態と比較するしかない。気候の場合は、この標準的な状態を算出するものとして、再解析データが使われることが多い。また、過去の特定の時期の特定の場所の気象状況がどうであったかを知ることも出来る。

これは解析データであり、個々の地点で観測した気候データと直接置き換えることができるわけではない。しかし、観測データは要素毎に独立して観測されており、また誤差や誤りが入り込む余地があるため、観測データを物理学方程式に代入しても、その方程式が成り立つとは限らない。しかし再解析データは、データを方程式に代入すると、いつでもどこでもおおむねその方程式は成り立つ(逆にそうなるように作成されている)。

この物理学的一貫性により、再解析データを用いれば、さまざまな場所や日時や要素について、過去と現在の気象や気候の比較が可能になる。そのため、地球温暖化などの気候変動や異常気象に関する議論の基礎データとなっている。つまり再解析データは、気候に関する「知のインフラストラクチャ」の一部となっている。

再解析データとグローバル化の歴史

グローバル化が進んだ現代では、「歴史的な不況」など、グローバルな経済状況に「歴史的」という枕詞をつけて報道されることがあるが、その統計の期間は意外に短い。例えば、経済で真のグルーバル化が進んだのは冷戦終結後からである。それまで多くの国家が独自の手法で経済統計を行ってきたため、それ以前に遡って長い一貫したグローバルな経済統計の指標を見つけること、あるいは補正して作ることは容易ではない。2010年頃唱えられた「100年に1度の世界的な経済危機」は、果たして学術的な統計上でも、本当にグローバルな観点で100年に1度だったのだろうか?

現在、再解析データは過去100年以上前の全世界の気象にまで遡ろうとしている。これは驚くべきことである。著者であるエドワーズは、グローバルという観点から見た場合、気象学の分野ほど一貫した品質を持った長期間のデータが整った分野は他にないだろうと述べている。そして、それが世界中の人々が懸念している地球温暖化と異常気象に関する議論を可能にしている。つまり、再解析データは気候に関する知のインフラストラクチャとなっている、ということができる。