2024/06/01

再解析データ

 再解析データとは?

データのグローバル化」のところで述べたデータ同化という手法は、気候科学を変えた。現在は、世界の固定もしくは移動観測点で観測された過去の「気象データ」に、この手法を適用して、全球数百万点の3次元格子での物理学的に一貫したデータが、過去数十年にわたって作成されている。これが「再解析データ」である。この再解析データは、それまでの定性的な説明が主だった気候学を、定量的な解析が出来る気候科学へと変えた。このデータは、気候の様々な研究に現在利用されている。

そもそもの始まりは、数値予報の初期値作成のための客観解析だった。これからデータ同化に至る経緯は、「データのグローバル化 」のところで述べた。このデータ同化によって、物理的に一貫性のある全世界の3次元格子点値が、数値予報のための初期値として作成できるようになった。

ところが、さらにコンピュータの能力が向上するにつれて、新しいアイデアが生まれてきた。それは過去の3次元格子点値を、このデータ同化手法を用いて全て作り直してはどうか?ということだった。つまり、過去を含むあらゆる気象データを4次元同化モデルに取り込んで、時々刻々の値を計算できたら、気象観測データがある期間について、地球上のあらゆる格子点での気象を再現することができる。そうすれば、そこから気候を解析できるようになる。

しかし、数値予報のために作成した3次元格子点での初期値は気候統計のためには使えない。なぜなら、観測装置と同様に、データ同化のための解析モデルが随時更新されるからである。更新された後では予報精度は向上するかもしれないが、モデル更新の前後で3次元格子点値の時間的一貫性は失われてしまう。

再解析の経緯

この過去の全球格子点値を再計算するという発想は、世界気象監視(WWW)を研究面から支援する「全球大気研究プログラム(GARP)」の「全球気象観測実験(FGGE)」から生まれた。この「全球気象観測実験」は、しばしば「史上最大の科学観測実験」と呼ばれている。

 

GARPのロゴ

このFGGE観測実験が行われた1978年から79年の期間中、WWWの基本観測システムに加えて、368個の漂流ブイ、80機の航空機、実験衛星ニンバス-7からなる「特別観測システム」が追加され、静止衛星を介して航空機からの観測データをリアルタイムで報告する中継も行われた。また60日間の特別観測期間には、熱帯で最大で43隻の船と313個の定高度気球、さらに一部の期間には航空機からの気象ゾンデの投下が行われた。

FGGEの観測実験は、予報の精度向上を目的とする世界気象監視(WWW)のための研究観測であったが、これらの膨大なデータの一部は、予報のためのリアルタイムでの処理が出来なかった。しかししばらくした後で、この予報に使えなかったデータを含めて、格子点化された1年分の全球解析データが作られた。

これはGARPにおいて、大気大循環と気候の理解を深めるという目的に使われた。この全球解析データは、全球大気循環の最も詳細なデータイメージの出発点となるものだった。モデラーたちは定期的に会合を開き、これを用いて互いの大循環モデルの比較を行った。しかし、1年分の全球解析データでは、期間が短すぎて気候研究には使えなかった。

1980年代に、欧州中期予報センター長官のベングトソンは、単一の「固定された(frozen)」データ同化システムで観測データを処理して、10 年分の全球解析データを作成するという、再解析プロジェクトを初めて構想した(データ同化については、「データのグローバル化」を参照)。単一のシステムを使えば、期間内のデータの一貫性を保つことが出来る。

この構想を発展させて、NASA のゴダード大気研究所内のデータ同化室(DAO)は、GEOS-1 再解析(1994~1999年)を行った。欧州中期予報センターは、ERA-15(1979 年~1994年)と名付けた再解析を実施した。米国の国立環境予報センター(NCEP)とNCARは、35 年間(1958 年~1992 年)の再解析プロジェクトを実施した。これらが再解析の始まりである。

これらは第一世代の再解析と呼ばれ、現在では第二世代、第三世代の再解析プロダクトが発表されている。日本の気象庁もJRA-55やJRA-3Qという独自の再解析プロダクトを発表している。

 気象庁の再解析 (https://www.data.jma.go.jp/suishin/cgi-bin/catalogue/make_product_page.cgi?id=JRA)

 この再解析のために用いられているデータは、いわゆる「気候データ」ではない。数値予報の初期値作成に間に合わなかった観測も含めて、地上気象、ラジオゾンデ、船、ブイ、航空機からなどのあらゆる「気象データ」が用いられている。

再解析の気候科学における意義

現在の再解析などの状況を鑑みると、1839年に英国の評論家ラスキンが述べた、本の原題ともなっている『A Vast Machine』という発想は示唆的である。ラスキンが200年近く前に理想としていた「地上におけるあらゆる瞬間のあらゆる地点での大気状態を知ることができるようになる」ことが、現代では実現している。

このブログの「わかるとは? 」のところで「気候変動をわかろうとする場合には、その前の気候がどうであったを知って、それと現在とを比較しなければならない」と述べた。現在が異常かどうかを判別するには、過去の標準的な状態と比較するしかない。気候の場合は、この標準的な状態を算出するものとして、再解析データが使われることが多い。また、過去の特定の時期の特定の場所の気象状況がどうであったかを知ることも出来る。

これは解析データであり、個々の地点で観測した気候データと直接置き換えることができるわけではない。しかし、観測データは要素毎に独立して観測されており、また誤差や誤りが入り込む余地があるため、観測データを物理学方程式に代入しても、その方程式が成り立つとは限らない。しかし再解析データは、データを方程式に代入すると、いつでもどこでもおおむねその方程式は成り立つ(逆にそうなるように作成されている)。

この物理学的一貫性により、再解析データを用いれば、さまざまな場所や日時や要素について、過去と現在の気象や気候の比較が可能になる。そのため、地球温暖化などの気候変動や異常気象に関する議論の基礎データとなっている。つまり再解析データは、気候に関する「知のインフラストラクチャ」の一部となっている。

再解析データとグローバル化の歴史

グローバル化が進んだ現代では、「歴史的な不況」など、グローバルな経済状況に「歴史的」という枕詞をつけて報道されることがあるが、その統計の期間は意外に短い。例えば、経済で真のグルーバル化が進んだのは冷戦終結後からである。それまで多くの国家が独自の手法で経済統計を行ってきたため、それ以前に遡って長い一貫したグローバルな経済統計の指標を見つけること、あるいは補正して作ることは容易ではない。2010年頃唱えられた「100年に1度の世界的な経済危機」は、果たして学術的な統計上でも、本当にグローバルな観点で100年に1度だったのだろうか?

現在、再解析データは過去100年以上前の全世界の気象にまで遡ろうとしている。これは驚くべきことである。著者であるエドワーズは、グローバルという観点から見た場合、気象学の分野ほど一貫した品質を持った長期間のデータが整った分野は他にないだろうと述べている。そして、それが世界中の人々が懸念している地球温暖化と異常気象に関する議論を可能にしている。つまり、再解析データは気候に関する知のインフラストラクチャとなっている、ということができる。

 

2024/05/29

データを巡る戦争

ここでは、気象データと気候データの違いに触れる。気候は基本的には気象の歴史であり、それが時間によって平均化されたものである。そのため、数学的に見ると、気候データは気象データを単に時間や空間で平均したものだと考えてよい。しかし、その間に「人間」が入ると、話はそう単純ではない。

著者のエドワーズは、気象データと気候データを巡って起こった戦争について述べている。もちろん戦争というのは比喩であるが、気象予報と気候学との間で、長年にわたったデータを巡る軋轢があった。彼はこう述べている。「気象学者たちは、おそらくあなたがこれまでに出会った中で最も上品な人たちである。彼らは静かにそして丁重に戦う。」と。

ここでいう「気象データ」とは気象予報に用いられる情報を意味する。気象データは、予報に間に合わせるための収集の迅速性と予報精度の向上が必要だった。予報者たちは、新しい観測装置や新しい数学的手法、新しいコンピュータモデル、解析モデルについて、優れたものが出ると、率先して観測・解析・予測システムに導入した。そして、予報のための天気図を作成すると、オリジナルの観測値に関心を払うことはほとんどなかった。

一方で「気候データ」では迅速性よりも一貫した精度が必要となる。例えばアメリカの「歴史気候ネットワーク(HCN)」は、安定した環境で少なくとも80 年間の高品質データがある観測所で構成されている。この基準を満たす観測所は、米国の気象観測所のほんの一部に過ぎない。気候データには、環境維持やデータの確認などの多大な作業が求められる。そして保存されたデータは将来にわたって使われることが多い。

電信を用いた予報が始まると、データは、より新しい装置を用いた迅速だが使いっぱなしの気象データと、予報には間に合わないが手間暇をかけて確認された気候データに2分されるようになった。

ある気象要素を観測しようとしても、使える費用や手間などの資源は限られている。そのため、多くの場合データをどちらかでしか使えないという形で観測することが長年続いた。そして、気候変動が問題視されるようになるまでは、気象予報や防災に直接使われる気象データの方が優先されることが多かった。つまり、観測装置の高精度化や省力化を含めた高性能化の方が、データの安定性や連続性より優先されることが多かった。

装置更新の際の比較観測や観測環境が変化した際の報告を残していないと、それ以前のデータとの整合性がとれなったり、補正が出来なくなる。気候データは、それらの報告に基づいて、後年に気象データに補正を加えたものが多い(これはインフラストラクチャの遡及でもある)。

本書では、いくつかの国での雨量計の更新によるバイアス(偏差)の長期の経時変化の例を示している。雨量計という単純そうな装置でも、装置形状(風よけの有無)や設置場所の変化により、同じ観測所でも観測結果にバイアスが生じることがある。他の気象要素も同様である。これらのバイアスは、気象予報にはほとんど影響しないが、気候の解析には大きな影響を与える。

気象庁が公開している過去の気象データセットでは、同じ地点のデータでも、そのように整合性が取れなくなった場合は、その時点で赤線を引いて、その前後の期間でデータが均質でないことを示している。また、均質とされる期間内でも、要素ごとに時期ごとに観測法の変更についての細かな補足説明がなされている。

一昔前までは、目の前に膨大な気象データがあっても、気候学者は上述のHCNのように、特別に品質が管理された一握りの気候データセットしか使えなかった。気候データとしての質を気象データに求めても、無視されることが多かった。このことは、予報者と気候学者間に静かな軋轢を生んだ。これをこの本では「データを巡る戦争」と呼んでいる。

コンピュータを用いた数値予報モデルと同化技術の発達は、気象データと気候データ間の溝を埋めつつある。現在では、データ同化技術の発達により、インフラストラクチャの遡及を行えば、一部の厳格な用途に用いる気候データセットを除いて、あらゆる気象データを再解析を通して気候科学で利用できるようになっている。

しかし、このデータを巡る戦争は、まだ完全には終わっていないようである。気象データを気候データに統合することは可能になってきたが、温室効果ガスなどの気候専門要素の観測も行われている。気象と気候に投じることができる資源が一定である限り、気象予報と気候変動のどちらか片方に注目が行くと、必ずもう片方にしわ寄せが行く。

現状の気候監視は今しかできず、観測のない過去のデータは永久に得られない。気象観測のコストカットによる資源の最適化の結果はすぐに出る。しかし気候観測は、まず観測の長期安定性が重要であり、その価値はかなり後になってからわかることも多い。例えば、オゾンホール発見のきっかけは、長期にわたって地道に続けていた日本の南極昭和基地での、オゾン観測における異常に低い値だった。発見が数年遅れていれば、オゾン層破壊のストップは10年以上遅れていたかもしれない。気象と気候のデータを巡る戦争は、社会全体の中でデータが持つ重要性の問題として捉える必要がある。 

この本で著者のエドワーズが述べているように、将来予測を含む気候に対する知は、現在わかっている歴史的な経験に基づいている。我々は残された記録に基づいたこと以上に、将来についての正確な気候予測を得ることはできない。

2024/05/25

データのグローバル化

 データのグローバル化

この本において「データのグローバル化」とは、偏在している観測地点での気象データを、全世界の規則正しい3次元格子点での値へ変換することを指している。この変換のやり方は、現在では単なる内挿や推定とは全く異なる手法へと発展している。これは、これは単なる技術の問題だけではなく、科学として「データとは何か」という考えにも影響を与えた。ここは、本書の核となる部分の一つであろう。

気象の数値予報モデルには、計算を開始する際に格子点での初期値が必要となる。ところが、現実の気象観測地点の配置は格子状になっておらず、広大な観測空白域があるところもある。数値予報モデルは、世界気象監視(WWW)によって集められたバラバラの地点での地上気象、高層気象、衛星による観測データそのもの(これは「グローバルデータの収集」である)では動作しない。そのため数値予報の場合、グローバルな格子点の初期値を、どうやって適切に作るかが大きな課題となった。これは予報では「解析」と呼ばれる部分に該当する。

当初は、人間が天気図のような等値線から、格子点値を目分量で内挿して読み取ることが行われたが、人間が読み取れるのはせいぜい1次微分を考慮した値までだった。数値予報の計算式には2次微分、3次微分が含まれる。人間が読み取った値は、そこで大きな誤差が発生することがあった。しかも観測値そのものにも必ず誤差が含まれる。最初に設定した初期値が適切でないと、モデルが計算を進めるうちに、現実の大気の振る舞いとのずれ(誤差)が発達するだけでなく、現実とはまったく異なる結果を予測する場合もある。

また観測の空白域が広いと、そこにある格子点値をどうするかも問題となった。ロスビーが率いるストックホルムの国際数値予報グループは、各格子点での前回の予報値を「第一推定値」とした。このような「先験情報」を使うことは、全く白紙の大気状態から何らかの初期値を推定して予報を行うよりも理にかなっていた。このように、内挿法と推定法を組み合わせて、数値予報モデル用の3次元格子の初期値を作成するようになった。これは人間の主観を排した「客観解析」と呼ばれた。

データ同化とは?

現在では、数値予報モデルの計算の際には、変分法を用いたデータ解析モデル(同化モデル)によって、観測データと前回予報値を用いて時空間から見て物理学的に一貫した最適な値になるように、初期値データを生成している。これがデータ同化である。同化データは、空間的だけでなく、時間的に見ても最適な値になるように調整されている。そのため、この手法は、時間軸を加えて4次元同化と呼ばれている(ただし数値予報の場合は、観測時点以降のデータはないので、3.5次元同化と呼ばれることがある)。

変分法によるデータ同化(気象庁・令和5年度数値予報解説資料集より)

このデータ同化によって、物理学的に最適な一貫した3次元格子点での初期値が、全世界くまなく作成されている。これは内挿法と推定法を組み合わせた客観解析とは全く異なる。データ同化によって物理学的に一貫したデータをグローバルな3次元格子点で作成することを、著者であるエドワーズは、「データのグローバル化(making data global)」と呼んでいる。

その結果、データ同化を用いて、わずか数万個の観測値を用いて数百万個の格子点値が創作されている。創作ではあるが、この格子点値は時空間的に見て物理学的な矛盾が極めて小さいものとなる。この手法で創作されたデータは、観測に基づいたものとは簡単に言えない(むしろこの同化したデータから観測の誤りがわかることもある)。データ同化は、予報解析を「計算科学」と呼ばれる新しい領域に移行させたといえる。

このデータ同化によって、過去の全球格子点値を時空間的に作成したものが「再解析データ」である。

同化されたデータの意義

同化モデルは、物理学的に矛盾のない全球のデータを、現実とは無関係に日々生成し続けることも可能である。観測データは、この同化データに拘束(観測に近づける何らかの制限)を与えるが、作成された同化データは、通常の「決定」という意味とは異なる(別な観測データが加わると、結果が微妙に変わることがあり得る)。

伝統的な科学を見ると、科学者も哲学者も、ある理論を検証するためにモデルを作ってきた。例えば、それはアリストテレスの宇宙モデルからプトレマイオスの宇宙モデル、コペルニクスの宇宙モデルへの発達を見ればわかる。

 これまでの科学哲学におけるモデルの役割の概念図

しかし気象予報の観点からは、同化モデルを用いた気象解析の主目的は、理論を検証して気象を説明することではなく、気象を再現することにある。これをエドワーズはそれまでの科学の還元主義に対比させて、再現主義(reproductionism)と呼んでいる。

同化によって、全球シミュレーションと観測が同時に行われ、シミュレーション結果と観測値は互いに確認され調整される。哲学者のエリック・ヴィンズバーグは、「モデルは理論を検証するのではなく、理論の適用を実践している」と主張している。このようなやり方は、他の科学ではほとんど馴染みがない。

このように同化によって作成された格子点値は、アメリカの科学哲学者パトリック・サップスによれば、データのモデル(models of data)となる。これは数学的構造が内部に組み込まれたデータである。データ同化技術は、大気科学における「データ」という言葉の意味を、観測値から解析を含んだ値へと変えてしまった。

同化モデルは、データと理論を融合させ、滑らかで一貫性のある、連続的で均質な格子点値を作成する。エドワーズは、これによって作成された全球3次元の数時間毎のデータを、動画のような「データイメージ」と呼んでいる(実際にデータを連続再生すると滑らかな動画のように見える)。そして、実際に客観解析より数値予報の精度が上がったように、グローバルに見ると、同化データの方が個々の観測値よりも正確であることが証明されるようになっている。

(当初ここに入れたモデルとデータとの共生は、「データ解析モデル」へと移した)


2024/05/22

情報のグローバル化

メディア論を展開したイギリスの批評家マーシャル・マクルーハンによれば、近年の電子媒体(テレビやインターネット)の発達によって、それまで人々がコミュニケーションをおこなう障壁になっていた時間と空間の限界が縮小し、地球全土がひとつの村(グローバル・ヴィレッジ)のように変貌した。これは、マーティン・ヒューソンが提案する「情報のグローバル化」でもある。

気象学分野がほかの科学分野に比べて異なっている大きな特徴は、この情報を「グローバル化」したものの「データの公開性」である。気象学者たちは、19世紀から長年にわたって、データの公開性という「全世界からの標準化されたデータを定期的に収集して共有する」原則を受け入れてきた。現代では多くの気象データが、品質管理された上で各国の気象機関や研究機関からインターネットを通じて無償で公開されている(後述するようにそれを用いた出版などには別途手続きが必要となるものがある)。

これには歴史的な経緯がある。もともと18 世紀から各地で観測された気候データは、伝統的に出版物によって公開されていた。これにかかる費用は編集と製本代だけで、出版物を購入さえすれば誰でもデータを使えた。

各国が電信による気象観測網を整備して警報体制を確立した際に、気象データを相互に交換・共有して、より広域のデータを利用した方が警報などに有利なことがわかった。1873 年の第1 回国際気象会議以来、各国間で気象データをどうやって交換して共有していくかが大きな課題となった。その課題とは、観測手法やデータ様式の統一であって、データそのものは無償だった。

そしてこれ以降、この全世界からの気象データを標準化して共有することは、長年にわたって気象学における標準的な文化となっていった。著者はこれをデータの「グローバル主義」とも呼んでいる。この無償での世界規模でのデータ交換・共有の文化が、現在の世界気象監視(World Weather Watch: WWW)を支えている面がある。

現在WWW において、WMO Information System(WIS)という通信網(本ではGTS という当時の名称が使われている)を通して報告することにより、気象の観測データは他の加盟国と共有されている。ところが、この気象データのグローバル主義は紳士協定であったため、1980 年代に問題が起こるようになった。一部の民間気象会社とそれに依存する国家気象機関が、そのデータを利用者に売って収益を上げる動きが出てきたのである。他の加盟国は、これを気象データの無償での国際交換の原則を脅かすものとして問題視した。そのため、1995 年の第12 回世界気象会議において、気象データの無償での国際交換を定めた規定が明文化された。

そして気象データのグローバル主義は、現在でも世界で引き継がれている。きわめて膨大な観測データやモデル解析データが、各国の気象機関や研究機関などから無償で公開されており、インターネットを使って机上からアクセスできる。気象学や気候科学の分野では、そういったデータをどう用いて新しい発見を引き出すか、という発想さえあれば、研究者は必ずしもお金をかけて観測を行わなくても、研究が可能になっている(データを用いた成果発表には、データ所有機関の許諾が必要となるが、ほとんどは出版時の共著か謝辞で済むことが多い)。

さらに、このグローバル主義によるデータの公開性は、この分野を研究者以外の誰でも参加できる市民科学(シチズン・サイエンス)にもした。現在では、この本に例が挙げられているように、一般市民がインターネットを通じて気象観測の誤差の調査や気候データとモデルの「監査」などを行っている。こういった意識の高まりがあったためか、日本でもアメダスの観測環境が一般市民によって問題視されたことがあった。

こうした市民を巻き込んだデータやその処理の透明性が、科学の信頼性を高めている場合がある。この本では、その例として2000 年頃から問題となった、IPCCでのホッケースティック論争などを挙げている。この論争では、そのデータや解析手法について、多くの機関や個人を巻き込んだ長く激しい論争に発展した。

 
ホッケースティック論争の一因となったIPCCの図の例。過去の気温の変化を示すために、温度計からのデータと木の年輪、氷床コア、サンゴ、歴史的記録からの気温の代替指標を組み合わせたもの。Figure SPM.1 AR4 Climate Change 2007: The Physical Science Basisより
 


2024/05/18

WMOによる世界気象監視(WWW)プログラムの構築

まずここでは、このブログの「国際政治とグローバルな気象観測網」や「グローバルデータの収集」と内容が一部重複することをお断りしておく。

第二次世界大戦以前は、各国が自国の気象観測網を構築して、その観測網間でデータ交換が行われていた。しかし、技術的に通信が行えても、手法や様式が異なるため、他国の観測データを使うことは容易ではなかった。これはデータ摩擦の一つとなった。

観測手法やデータ様式の調整に当たった国際気象機関(IMO)は、政府間組織ではなかった。そのため、決定に拘束力を持っておらず、その決定事項は各国気象機関によってしばしば無視された。その結果、観測手法は国によってまちまちであり、観測データは統一的な様式となっていなかった。そのデータ摩擦のため、観測データの交換・利用は一部に止まった。つまり、各国気象局はデータ共有による利益よりも、政府からの科学的な独立性の方を重視していた。

しかし20世紀半ばから、気象予報技術の発達、通信技術の発達、国際協力の重要性の高まりによって、データ交換のための観測手法や様式の統一は各国気象機関の悲願となっていった。第二次世界大戦が終了すると、気象観測所の拡大や国際的な気象データ交換の円滑化を図るため、各国間で世界気象機関条約が結ばれた。そして、1951年にIMOは、政府間組織で国際連合の専門機関の一つである世界気象機関(WMO)へと変わった。

既述の「データ摩擦」の状況が大きく変わり始めたのは、このWMOが設立されて国際調整が行われるようになってからである。4年に1度開催される世界気象会議で決議された内容には、ほかの国連決議と同様に拘束力が発生する。冷戦のために多少の混乱はあったが、現在ではその決定に基づいて、世界中で同じ手順で一斉に観測が行われ、その結果はデータの交換が可能な形で各国で共有されている。

高空を利用した政治

戦後発展した技術に人工衛星があった。人工衛星は冷戦において軍事的な偵察に大きな可能性を持っていたため、特に米国とソビエト連邦で開発が推進された。しかし一方で、人工衛星には単一の測定器で世界中の気象を観測でき、また衛星を中継に利用して世界規模で通信を行える能力があった。そのため、世界中の地上の気象観測結果を中継して、衛星自身による観測と組み合わせることによって、人工衛星は予報精度を向上させる大きな可能性を持っていた。

1961年9月に、米国のケネディ大統領は国際連合の総会で演説を行い、世界を結ぶ通信と人工衛星を用いた気象予測(と気象改変への探求)を提案した。この提案は満場一致で採択された。これは冷戦の高まりを受けて、気象予報という平和利用を名目とした宇宙利用を訴えたものだった。1962年にケネディとフルシチョフは、衛星を用いたグローバルな気象学の価値とそのための協力に合意した。しかし、残念ながら1962年10月のキューバ危機で、この合意は白紙に戻った。

世界気象機関(WMO)は国連総会での決議を受けて、既存のさまざまな気象観測ネットワークと、新しい宇宙からの観測システムを国際的な通信ネットワークで結びつけて、世界各地からの観測データを共有して処理する、という新しいプログラムを設立した。それが「世界気象監視(World Weather Watch: WWW)」である。この骨子は次の2つである。

(a)気候に影響を与える基本的な物理力と大規模な気象改変の可能性についての知識を深めるために、大気についての科学と技術の状態を向上させること。

(b)既存の気象予報能力を発展させ、加盟国が地域気象センターを通じてその能力を有効に活用できるようにすること」

この実現のためには、まず観測の手法の統一、観測結果の報告様式の共通化が必要だった。また、コンピュータモデルと自動化されたデータ処理システムに焦点を当て、数値予報のために世界中の観測データを瞬時に収集して共有するために、既存のアナログとデジタルからなる多くの異質なネットワークをつなぐ必要があった。このWWWプログラムによって、各国の気象観測網の結果を集めて、3つの予報センターで処理し、計算した予報結果を各国へ送付するという一貫した流れが確立された。

各国の気象機関は、これに基づいて独自の解釈や情報を付加して、気象予報を自国民に提供できるようになった。また、数値予報を行う能力を持ついくつかの国は、WWWによって世界中から集まったデータを用いて、独自に予報することが可能になった。そしてこのシステムは、世界規模のインフラストラクチャとして機能することになった(これは「インフラストラクチャのグローバル化」でもあった)。

 

WWWの通信システム(Global Telecommunication System)  。
「気象業務はいま2022」(気象庁)より

世界気象監視(WWW)が成功した原因

このWWWにおけるインフラストラクチャのグローバル化に成功したのは、技術面から見ると既存の多様なネットワークをつなぐという「インター・ネットワーク」戦略を採用したためと著者のエドワーズは主張している。

WWWを、「既存の標準や慣行を含む既に基盤化されたものの上に構築する」という戦略がその成功に直接つながった。WWW設立時に、WMOの標準と技術指針が既に機能していたため、WWWの構成システム同士の結合の際に、関係者はそれを直ちに円滑に進めることができた。エドワーズはこれらの標準と技術指針が、既存のシステム間のゲートウェイ(様式が異なるものをつなぐ変換器具のようなもの)として機能したと述べている。

ゲートウェイのイメージ。ゲートウェイとは、異質なものを統一的に扱えるように変換する装置や仕組みのようなもの。ただし、ハードウェアとは限らず、標準化や技術指針などの社会制度もそのような機能を持ったものの一つである。

技術以外の問題もあった。多くの発展途上国は、気象の監視や予測を一部の先進国が独占することを危惧した。WWWの計画者たちは、WMOの自主的支援プログラム(VAP)をWWWの実現と直接結びつけた。WWWは、VAPによる各国職員の研修や技術支援の提供を通して、WWWの利用を途上国に推進してこの危惧に対処した。これはWMOの標準と技術指針の世界的普及にも貢献した。最終的には、多くの途上国がWMOの会議で謝意を表した。

これを国際政治の面から見ると、WWWの実現は、気象観測に関する標準の調整と決定の権限を、各国の主権からWMOに一定程度移すことに成功したといえる。これは、WMOが政府間機関として各国を説得する中立性と正統性を保持していたためである。

しかしエドワーズは、それ以外の成功要因として、WWWが「インフラストラクチャのグローバル化」という技術政治的な姿勢を取ったことも挙げている。技術政治とは、政治目標を達成するために技術を戦略的に計画あるいは利用することを意味する。また反対に、技術的あるいは科学的目標を達成するために、政治権力を戦略的に用いることも意味している。

技術政治は、政治と科学に対して相互指向(mutual orientation)的に作用した。これによって、冷戦における政治目的を達成するために、米国とヨーロッパとソビエト連邦の政府は、このシステムの大部分の費用と技術的な負担を受容した。一方で、WWWは超大国を科学に協力させるとともに、超大国同士の冷戦という政治に科学者と予報者たちを巻き込むことにもなった。

WWWの運用

エドワーズは、WWW の計画と実施の戦略は、「分散化された設計とテストとその実施を、中央での軽微な調整と組み合わせたもの」としている。つまりWMOが調整した中身については、各国家気象局が分担して実施している。WMO は、比較的中立的な傘とプロジェクトの討議場とその決定事項の普及の場としてのみ機能した。この事業の実践のために必要な事実上のすべての装置、資金、施設、および職員は、国家気象局によって提供された。

一例を示そう。WWWの大気化学版である全球大気監視(Global Atmosphere Watch)プログラムにおいて、日本の気象庁はその機能の一つである「WMO温室効果ガス世界資料センター」を運営している。このセンターで全球大気監視に参加している全世界の温室効果ガス観測の結果が、収集・保存・公開されている。同センターはWMOの方針に沿って運営されているが、その人員、場所、運営費用は、原則として全て日本の気象庁が提供している。同様にWWWの具体的な実践は、WMOの決定や指針に従って各国の気象機関が行っている。

グローバルなインフラストラクチャとしてのWWW

WWWは、真にグローバルなインフラストラクチャであり、真にグローバルな情報を生成する。事実上、ほとんどの国がデータを提供して、またWWW のデータプロダクトを受け取っている。これによって、まさに「グローバルデータの収集」が実現した。

このWWWの計画を記した報告書が、初めて発行されたのは1962年だった。現在のインターネットの原型となったARPAネットワークの通信が成功したのは1969年である。米国科学アカデミーは、WMOによるWWWを、世界において「正式に組織化された最も国際的でグローバルな観測と通信、処理、保管のシステム」と呼んでいる。

このWWWは、今日のインターネットによるワールド・ワイド・ウェブ(World Wide Web)を先導するものとされている。著者のエドワーズはこの世界気象監視(WWW)を、現在のワールド・ワイド・ウェブと対比させて「最初のWWW」と呼んでいる。

まとめ

これが、「国際政治とグローバルな気象観測網」のところで述べた、各国が共通の「決められた手順」で観測を行い、その結果は「決まった形式」で世界規模の通信網を使って報告されて、各国で「共有」されている理由の一つである。

なお人工衛星は、当初はWWWにおいて1つの観測機器で地球全体の大気をまとめて観測することができると期待されたが、観測を気象要素の格子点値に変換するのは容易ではないことがわかった。WWW開始後、データ同化技術が開発されるまで、10年間は衛星は実質的に数値予報には貢献しなかった。

しかし、宇宙から雲を見るわかりやすい衛星画像は、当時から天気予報番組などでは盛んに使われた。現在は衛星観測による放射量などは、気象要素に変換せずに、直接物理量として同化モデルに取り込まれ、数値予報などに重要な役割を果たしている。

2024/05/13

計算摩擦

データを情報や知識に変換するには、何らかの計算を伴った数値処理を行うことが多い。そして、あらゆる計算には、時間とエネルギーと人間の関与を必要とする。著者のエドワーズはこれを「計算摩擦」と呼んでいる。データの収集や確認、保存、移動、利用に必要な時間、エネルギー、処理のコストを「データ摩擦」としたが、その中には計算摩擦が含まれることも多く、計算摩擦とデータ摩擦は、相互に関連することが多い。

計算摩擦の例として気候値の作成を挙げる。気象観測値を気候値として使うためには、膨大な量の観測値を日、月、年の平均値や最大最小値などの統計値に変換する必要がある。

気象観測が始まった当初は、その作業は各観測所で行われ、その統計値だけが中央に報告された。それでも各観測所で算出された日平均値などを一か所に集め始めると、その値をさらに地域毎に平均して保管するなどの処理が必要となり、それは継続する大変な作業となった。

19 世紀末に米国で国勢調査のために使われるようになったパンチカードは、1920 年代に入ると気象データの処理に各国で使われるようになった。パンチカードとは、縦横10cm×20cm程度の厚紙に、タイプライターのような穿孔機で数mmの孔を穿孔して、その位置によって値やアルファベットを記録する媒体のことである。1枚に80文字程度記録できた。1929 年に大恐慌が起こると、米国では不況対策の一つとして、大勢の失業者を雇って過去の気象データをパンチカードに打ち込む作業が進められた。

パンチカード(https://ja.wikipedia.org/wiki/%E3%83%91%E3%83%B3%E3%83%81%E3%82%AB%E3%83%BC%E3%83%89#/media/%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB:Blue-punch-card-front-horiz.png)

パンチカードリーダーは、カードの孔の位置を瞬時に読み取って、数値やアルファベットを装置内に格納した。それだけでなく、その際に簡単な演算も行えたため、気候の統計作業における計算摩擦の軽減に威力を発揮した。

パンチカードは第二次世界大戦後の電子コンピュータが発達すると、それへの数値の入力手段に使われるようになった。日本でも1980年代半ばまで、コンピュータへの入力媒体として使われた。

気候統計は単純な算術計算だけでは済まない場合がある。例えば気候データとしてよく使われる全球平均気温は、全観測地点の観測値を足して地点数で割っても正確な値にはならない。観測地点がその地域の気候をどの程度代表しているのかを判断して、計算時にそれに応じた重みを加えなければならない。これには人間の判断が必要で、観測地点を用いた気候値がばらつく原因の一つとなっている。

また最も困難な問題は、全世界中に一様な間隔で観測地点があるわけではないことと、海洋上などに広大な観測空白域が存在することである。全球平均値などは、それらを考慮しながら処理する必要がある。これらも一種の計算摩擦となった。

これは当初数値予報の初期値決定の際に大きな課題となった。この予報初期値の問題の解決は、種々の統計・補間法を用いた客観解析から始まって、その後4次元同化へと発展した(ブログ「気象学と気象予報の発達史」の「データ同化に革新を引き起こした佐々木嘉和」を参照)。現在では、高度な数学と最新鋭のコンピュータを用いて、この手法を用いていわゆる「再解析」が行われて、全世界の過去の気象値の再現が行われている。

現代では、コンピュータによって、計算摩擦による影響は極めて小さくなったといえる。

2024/05/03

データ摩擦

前回の「グローバルデータの収集」で述べたように、19世紀に各国での気象観測が広がっていったが、気象観測の測定法や様式の統一が進まなかったため、当時の気象観測は国ごとに測定単位や観測時刻、観測手法が異なった。

そのため、他国と観測データを交換して利用しようとすると、通信網の接続や通信方法の調整だけでは済まなかった。自国の観測データと合わせて使うためには、観測データの形式や単位を変換して統一し、観測手法による違いを補正しなければならなかった。データは毎時、毎日各地から送られて増え続ける。当時、その変換や補正作業のための手間は膨大だったため、他国のデータ利用はあまり進まなかった。

気象予報ならば、1地点の観測の違いや誤差の影響は小さく、あっても一時的である(そのため、それらは通常無視された)。しかし、気候目的として使おうとすれば、それは偏差として蓄積されるため、誤差の補正が必須となる。これはエドワーズのいう「計算摩擦」だった。そして、そのための作業は、計算だけではなかった。測定器の変更や観測手法の変更、観測所の移転などがあれば、データの利用者はそれらによる影響を調べてから、値の補正を行わなければならなかった。

他国を含めた広域の観測データを利用可能にするための作業、移動と補正の困難さを、エドワーズは「データ摩擦」と呼んでいる。「グローバルデータの収集」のところで述べたレゾー・モンディアルのとりまとめを担った英国気象局長官ショー卿の嘆きの原因も、このデータ摩擦にあった。しかし、政府間組織でないIMO では、観測の手法や報告様式の国際的な統一は、なかなか進まなかった。取り決めをしても、無視する国も多かった。そのため、各地の観測データは残されたものの、ごく一部のとりまとめられたデータを除いて、その利用には大きな壁が残った。

国同士でのデータ交換時のデータ摩擦の概念図。なおデータ摩擦は、かつてはデータの変換・交換のあらゆる部分で必ず生じた。

20世紀になってパンチカードが出てくると、気象データはパンチカードに打ち込まれて、気候のとりまとめのための簡単な演算処理が行われるようになった。 ただし、日本では軍の一部を除いて、中央気象台(気象庁の前身)では費用の面からパンチカードは使われなかった。

さらに、観測所が増えてデータの観測期間が長くなってくると、その保管や移送が大きなデータ摩擦となった。今と異なってデータは電子化されておらず、ほとんどのデータは紙媒体やパンチカードだった。例えば、第二次世界大戦後、米国陸軍航空隊の気候学プログラムは、戦時中にドイツ領で観測された気象データを移送しようとしたが、そのパンチカードは700万枚からなり、重量が21トンもあった。

1960 年には、米国の国立気象記録センター(National Weather Records Center: NWRC)が保管した世界中の気象データのパンチカードは4億枚以上になり、年間4000万枚の割合で増えた。センターは、このままだと建物がデータの重量で倒壊することを懸念した。また毎時の定常的な観測に関するデータの収集や確認、保存などに必要な多大な手間やエネルギー、処理のコストも無視できなかった。これも一種のデータ摩擦である。

しかし、これらのパンチカードで保管されていたデータは、磁気テープが出てくるとそれに代替され、今ではそれらのデータはハードディスクや高密度の磁気テープに電子化されて収納されている。

また、コンピュータの出現は、データの変換や補正の作業によるデータ摩擦を大きく軽減した。しかし長い間、観測された値が報告されて最終的に保管されるまでのどこかで、人間の手で打ち込む作業が残っていた。人間が間に入る限り、手間やミスなどの「データ摩擦」は残った。観測装置から通信・保管まで全て電子化されるようになったのは近年になってからである。しかし、過去の観測データの電子化には、当時の観測状況の確認が必要になる。これはエドワーズのいう「インフラストラクチャの遡及」という作業である。

これらの膨大な手間をかけて、長年観測・収集されて電子化されてきたデータは、現在では過去の全球の気象データを物理法則に従って復元する「再解析」に、利用されている。これによって、過去100年程度のグローバルなさまざまな要素の気象データが格子点値として再現されている。

それは気候変動の監視にも利用されている。「わかるとは?」のところで、「気候変動をわかろうとする場合には、その前の気候がどうであったを知って、それと現在とを比較することが必要となる。」と述べた。多大な手間と費用をかけてデータ摩擦を乗り越えた、100年以上前から保管されてきた過去の気象データは、現在のグローバルな気候を監視する気候科学の重要な財産となっている。