直接観測することのできない、最も重要な経済変数
潜在産出量と景気循環変動を推計するための技術的アプローチ
金融政策立案において最も重要な数値のひとつは、直接観測することができないものです。需給ギャップ――経済が実際に生産しているものと、持続的に生産可能なものとの差――は、インフレ率予測を左右し、中央銀行の意思決定を形成し、数千億ドルの市場ポジションに影響を与えます。しかしエコノミストたちは、その値について2〜3パーセントポイントもの差をもって意見が一致せず、真の数値は、データ改訂が行われる数年後になって初めて明らかになることが少なくありません。
現実の問題を考えてみましょう。2016年、米国経済は成長余地を残した低稼働状態にあったのか、それともさらなる景気刺激策がインフレを引き起こす完全稼働状態にあったのか。当時の推計値は−2%(大きな経済的スラック)から+1%(既に過熱状態)まで幅がありました。この乖離は分析の粗さを反映するものではなく、「どれだけの人々が労働意欲と能力を持っているか」「工場はフル稼働でどこまで生産できるか」「労働力全体のスキルはどのくらいの速度で向上しているか」といった問いに対して明快に答えることの困難さを映し出しています。これらのいずれも、クリーンな測定を許しません。
なぜこれほど重要なのか? 需給ギャップは、中央銀行が金利を調整するために用いるベンチマーク公式であるテイラー・ルールに直接入力されるからです。ギャップが大きくマイナスの場合(経済的スラックが大きい)、テイラー・ルールは成長を刺激するための低金利を求めます。ギャップがプラスの場合(経済が「過熱」している)、同ルールはインフレを抑制するための高金利を求めます。2021〜2022年のインフレ急騰時、これは学術的な問題ではありませんでした。一部のエコノミストは、需給ギャップがプラスに転じていたとして連邦準備制度理事会の対応が遅れていると主張し、一方で依然としてスラックが存在しインフレは一時的なものであると主張する声もありました。どちらの見方が正しいかによって、政策対応の内容が左右されたのです。
需給ギャップ――実際の産出量と潜在産出量との乖離――は、金融政策立案において最も重要な観測不能変数です。インフレ率や失業率とは異なり、統計的ノイズはあるものの直接測定が可能なこれらの変数と違って、潜在産出量は技術、要素利用率、均衡雇用に関する前提から導出される理論的構成概念としてのみ存在します。これにより根本的な不確実性が生じます。リアルタイムの推計値は手法によって2〜3パーセントポイントも異なることが多く、その後のデータ改訂により同時点の推計値の符号が逆転することさえあります。ギャップはテイラー・ルールとその派生モデルに直接入力されるため、ギャップ測定の誤差は政策の誤調整を引き起こす主要因となります。
2008〜2010年の時期はそのリスクを端的に示しています。議会予算局(CBO)によるリアルタイム推計は、需給ギャップがほぼ−7%に達していることを示唆し、大規模なデフレ圧力の存在を示して異例の金融緩和措置を正当化しました。その後の改訂では、潜在産出量への構造的ダメージの評価が更新され、推計値は−4%〜−5%へと修正されました。この2〜3パーセントポイントの改訂は、金融危機が生産能力を永続的に毀損したのか、単に循環的なスラックを生じさせたにすぎないのかという真の不確実性を反映したものです。潜在産出量が当初の認識以上に低下していたとすれば、金融政策は意図した以上に緩和的であったことになり、その後に顕在化したインフレの一因となった可能性があります。
この意味:
正の値 = 経済が「過熱」(インフレリスク)
負の値 = 経済的スラック(成長余地あり)
ゼロ = 経済が持続可能な完全稼働状態
この概念は1960年代の実践的な問いから生まれました。政府はいつ景気刺激策を打つべきか、いつ手を引くべきか、という問いです。ケネディ政権の顧問を務めたアーサー・オークンは、失業率とGDP成長率の間に信頼性の高い関係を見出しました。失業率が1パーセントポイント低下するたびに、GDPはトレンドより約3%速く成長するというものです。これにより政策立案者は、経済にどの程度の拡大余地があるかについての第一次近似を得ることができました。(オークンの法則として知られるこの関係は、このページに掲載されているテイラー・ルールと需給ギャップ推計の中核的インプットとして今日も使われています。)
1970年代には、このフレームワークが崩壊しました。失業率とインフレ率が同時に上昇するスタグフレーションが発生し、単純な需給ギャップモデルとは矛盾する事態となりました。エコノミストたちは、潜在産出量それ自体が変化しうるという事実を認識せざるを得ませんでした。相次ぐ石油ショックと生産性の伸び悩みにより経済の供給能力は低下しましたが、時代遅れの潜在産出量推計に依拠した政策立案者は刺激策を継続し、成長ではなくインフレを生み出す結果となりました。
現代の需給ギャップ推計は、こうした誤りを避けるべく、潜在産出量を人口動態・技術・資本投資・制度的要因とともに変化する動的な目標として扱います。しかし、これにより測定はより困難なものとなっています。
FOМCの全会合において、連邦準備制度理事会のスタッフは需給ギャップの推計値を提示します。これは経済見通し資料に掲載され、将来の金利見通しを示すドット・プロットにも影響を与えます。連邦準備制度理事会の当局者が「データ依存」という表現を用いる際、その一部には、生産性・労働参加率・設備稼働率に関する入手可能な情報をもとに潜在産出量の見方を継続的に更新しているという意味が含まれています。
市場関係者も注意深く注視しています。雇用の伸びが強くてもインフレを引き起こさない場合、トレーダーは潜在産出量の推計を上方修正し、連邦準備制度理事会が金利を低位に維持できる余地がより大きいと判断します。生産性が予想外に加速する場合(1990年代後半のインターネット技術普及期など)には、潜在産出量の推計が変化し、それに伴い期待される金利経路全体も変わります。2010年代には、金融危機を受けて潜在産出量が大幅に下方修正され、かつての前提では慎重さを欠くとみられたであろう数年間にわたるほぼゼロ金利政策が正当化されました。
ここで $Y_t$ は実際の産出量、$Y_t^*$ は潜在産出量を示します。このギャップはニュー・ケインジアン・フィリップス曲線に入力されます:
$$\pi_t - \pi^* = \alpha \cdot \text{Gap}_t + \varepsilon_t$$係数 $\alpha$(通常0.1〜0.5)は、景気循環変動に対するインフレ率の感応度を決定します。ギャップの測定誤差は、インフレ率予測および政策勧告に直接影響します。
初期のアプローチ(1960〜1970年代)は単純なトレンド除去に依拠していました。GDPに線形または二次のトレンドを当てはめ、その乖離を景気循環成分とみなす手法です。オークンの法則は最初の構造的なアンカーを提供し、失業ギャップと需給ギャップを推定係数で結びつけました。1970年代のスタグフレーションは致命的な欠陥を露呈しました。供給ショックにより潜在産出量が変化しましたが、トレンドに基づく手法では供給変動と需要変動を区別することができなかったのです。
1980年代には生産関数アプローチが登場し、潜在産出量を資本・労働・全要素生産性の各成分に分解するようになりました。これにより構造的情報(人口動態・投資・技術変化)を組み込むことが可能となりましたが、新たな測定上の課題も生じました。NAIRU、設備稼働率、トレンド生産性の推計には、それぞれ固有の不確実性が伴います。
現在の中央銀行の実務では、多変量フィルター(フィリップス曲線とオークンの関係式を組み込んだKalmanフィルター)と、潜在産出量を価格伸縮的均衡産出量として定義するDSGEモデルが重視されています。これらのアプローチは経済理論と統計的推論を統合しますが、モデルの特定化に対する感応度は依然として高くなっています。2008年の金融危機はレジーム不確実性を浮き彫りにしました。危機は大規模な需要ショック(大幅なマイナスのギャップ)を意味したのか、それとも生産能力の永続的な破壊(より小さなギャップ)を意味したのかという問題です。
最近の研究では機械学習手法や高頻度指標の活用が模索されていますが、識別に関わる根本的な問題は依然として残っています。ギャップは本質的に観測不能であるため、検証が困難であり、意見の相違は避けられません。
強化型多変量手法と従来のオークンの法則アプローチとを比較した現在の推計値です。
各成分ギャップの計算方法:
オークン・ギャップ:$-\beta \times (u_t - u_t^*)$、修正後 $\beta = 2.5$(米国)、$2.0$(EU)、$2.3$(英国)
稼働率ギャップ:$(Capacity_t - 82\%) \times 0.5$
信頼感ギャップ:中立水準からの乖離
需給ギャップは、実物変数と名目変数を結びつける複数の経済的関係に基づいています:
各変数の説明:
$\pi_t$ = 現在のインフレ率
$\pi_t^e$ = 期待インフレ率
$\alpha$ = フィリップス曲線の傾き(通常0.1〜0.5)
$\varepsilon_t$ = 供給ショック(原油価格など)
この方程式は、中央銀行が需給ギャップに着目する理由を端的に示しています。経済が潜在産出量を上回って稼働している場合(正のギャップ)、インフレ率は予想を超えて上昇する傾向があります。逆に潜在産出量を下回っている場合(負のギャップ)、インフレ率は低下する傾向があります。したがって、テイラー・ルールフレームワークを通じて金利を適切に調整するためには、需給ギャップの正確な推計が不可欠です。
各変数の説明:
$\beta$ = オークン係数(米国では通常2〜3)
NAIRU = 非加速インフレ失業率
エコノミストは実際のGDPをトレンド成分と循環成分に分解します:
各変数の説明:
$Y_t$ = 実際の実質GDP
$Y_t^*$ = 潜在(トレンド)GDP
$\text{Gap}_t$ = 循環成分(対数表示の需給ギャップ)
実際のGDPは経済分析局(BEA)が四半期ごとに公表しています。改訂・季節調整・測定上の問題はありますが、観測可能なデータです。一方、潜在GDPは理論的構成概念です。すべての資源が持続可能な水準で完全かつ効率的に活用された場合に経済が達成する産出水準を意味します。「完全に」「効率的に」「持続可能な水準で」という各修飾語には、判断が伴います。
労働の成分を考えてみましょう。潜在雇用とは労働力人口の95%なのか、96%なのか。人々が職を変える際には常にある程度の摩擦的失業が存在します。しかし、どの程度なのか。就職活動のテクノロジーが向上するにつれて変化するのか。景気後退期に労働市場から退出した人々については、潜在産出量の一部として算入すべきか否か。この答えは重要です。失業率の成分に0.5パーセントポイントの誤差が生じれば、需給ギャップにほぼ1パーセントポイントの誤差が生じ、それが金利に関するテイラー・ルールの勧告を変化させます。
資本と生産性についても同様の問いが生じます。新型コロナウイルス感染症のパンデミック時、一部の事業者が永続的に閉鎖しました。これは潜在産出量を低下させたのか、それともより効率的な使途に資源を解放することで実際には潜在産出量を高めたのか。異なるモデルと前提を用いた異なるエコノミストは、異なる結論に達しました。これは分析上の失敗ではなく、問いそのものが本質的に曖昧であるということです。
潜在産出量は反実仮想的なものです。現行の技術水準において完全な要素雇用が達成された場合に実現可能な生産水準を意味します。統計的ノイズはあるものの観測可能な実際の産出量とは異なり、潜在産出量はモデルのフレームワーク内においてのみ存在します。これにより識別問題が生じます。生産技術・要素市場均衡・確率過程に関する異なる前提を体現した異なるモデルは、同一の実際のデータから異なる潜在産出量の系列を生成します。
リアルタイムでの推計はこの困難をさらに増幅させます。Orphanides and van Norden(2002)は、需給ギャップ推計が期末における大きな不確実性を示し、新たなデータが入手されるにつれて大幅に改訂されることを示しています。米国では、リアルタイムと最終的なギャップ推計値が2〜3パーセントポイント異なることも多く、符号が逆転することさえあります。この改訂に起因する不確実性は、ギャップ推計に基づく政策を損ないます。政策立案者は経済の循環的な位置について広範な不確実性に直面した状態で行動しているからです。
| 手法 | 種類 | データ要件 | リアルタイム実績 | 改訂の安定性 | 中央銀行での利用 |
|---|---|---|---|---|---|
| Hodrick-Prescott フィルター | 統計的 | GDPのみ | 不良 | 大幅な改訂あり | ベンチマーク・クロスチェック |
| 生産関数 | 構造的 | 労働・資本・生産性 | 良好 | 中程度の改訂 | 主要手法 |
| 多変量フィルター | ハイブリッド | GDP・インフレ率・失業率 | 良好 | 改訂は小さい | 普及が進んでいる |
| DSGE モデル | 構造的 | 複数のマクロ系列 | 普通 | モデル依存 | 研究・検証目的 |
Hodrick-Prescott フィルターは、その限界がよく知られているにもかかわらず、需給ギャップを推計するための最も広く使われている手法です。完全に機械的なものです。GDPデータを入力し、平滑化パラメータ(ラムダ)を設定すれば、滑らかなトレンドラインが出力されます。実際のGDPとそのトレンドとの差が需給ギャップ推計値となります。経済理論は不要であり、労働市場や生産性に関する判断も必要ありません。統計的最適化のみで完結します。
このシンプルさは強みでもあり弱みでもあります。プラス面としては、計算が速く、手法が透明であり、手法が同一であるため国際比較や時系列比較が容易であることが挙げられます。弱点としては、フィルターが経済の実態について何ら情報を持っていないことです。単にデータに対して滑らかな曲線を当てはめるだけです。資本ストックの半分を破壊した災害によりGDPが30%低下したとしても、HP フィルターは機械的にその低下の一部をマイナスの需給ギャップに、残りを潜在産出量の減少に帰属させます。たとえそれが明らかに一時的な供給ショックであっても同様です。
Hodrick-Prescott フィルターは、純粋に統計的な最適化問題を解きます。二乗偏差のペナルティ付き和を最小化することで、時系列をトレンド成分とサイクル成分に分解します。この手法は経済的な構造を必要とせず、GDP系列のみで適用可能であるため、計算上は非常に簡単で幅広く利用できます。その普及は、十分に文書化された欠点があるにもかかわらず、このシンプルさに起因しています。
Hamilton(2018)は強力な批判を提示しています。HP フィルターは和分過程を持つ系列に見せかけの循環変動を生成し、深刻な期末バイアスを抱え(リアルタイム推計を信頼性の低いものにする)、経済的な解釈を欠くというものです。Ravn and Uhlig(2002)は、標準的な平滑化パラメータ(四半期データでλ=1600)が恣意的に選ばれており、頻度や国をまたいで一般化できない可能性があると主張しています。それでも中央銀行は、限界を認識しながら手法の透明性を評価し、HP フィルターをロバストネスチェックとして使い続けています。
各変数の説明:
$y_t$ = 実際のGDPの対数値
$\tau_t$ = トレンド(潜在)GDPの対数値
$\lambda$ = 平滑化パラメータ(四半期データでは1600)
この方程式は単純なバランシング問題を解きます。ふたつの競合する目標を達成するトレンドラインを見つけることです。第1項は、実際のGDPから乖離するトレンドにペナルティを課します。トレンドはデータに近く追従することを求めます。第2項は、方向を頻繁に変えるトレンドにペナルティを課します。平滑さを求めます。パラメータλ(ラムダ)は、これらふたつの目標の相対的な重みを決定します。
四半期データの標準値はλ=1600で、米国の景気循環の特性に基づいてHodrickとPrescottが提案したものです。この選択にはやや恣意的な面がありました。λ=800に設定すると、GDP の変動をより密接に追う反応速度の高いトレンドが得られます。λ=6400に設定すると、短期的な動きにほとんど反応しない非常に滑らかなトレンドが得られます。中央銀行によって使用する値は異なり、その選択は得られる需給ギャップ推計値に大きく影響します。λの値に定まった正解はありません。
第1項は実際のデータからの乖離にペナルティを課し、第2項はトレンドの成長率の変化(2階差分)にペナルティを課します。パラメータ $\lambda$ は、循環成分とトレンド成分の分散比を制御します。標準的なキャリブレーションでは四半期データにλ=1600を使用しますが、これには理論的根拠がありません。
Hodrick and Prescott(1997)は、戦後米国データで観察された景気循環の頻度、具体的には6〜8年のサイクルを目標としてλ=1600を選択しました。このキャリブレーション戦略には一般性がありません。最適なλはデータ生成過程に応じて異なるべきですが、実務家は国や時代を問わず1600を機械的に適用しています。感応度分析によれば、λ∈[800,6400]の範囲で典型的な景気循環のギャップ推計値が2〜4パーセントポイント変動します。
さらに根本的な問題として、HP フィルターには深刻な期末バイアスがあります。フィルターは双方向であり、現在のトレンドを推計するために将来のデータを使用します。サンプルの末端では過去のデータしか存在しないため、推計された潜在産出量が実際の産出量を過度に追跡し、リアルタイムでのギャップが過小評価されます。リアルタイム推計と最終的な HP 推計を比較した研究は、系統的なバイアスを記録しています。リアルタイム推計は景気の転換点を見逃し、ギャップの変動を大幅に過小評価します。これにより、HP フィルターは迅速なギャップ評価が求められる政策分析において特に問題となります。
パーセント表示での解釈のためにGDPを自然対数に変換します
行列代数を用いて二次最適化問題を解きます
需給ギャップは実際のGDPとトレンドGDPとの差です
λ = 1600
λが大きいほど → トレンドが滑らかになる
λが小さいほど → データへの追従性が高まる
この手法は、生産理論を用いて潜在GDPをボトムアップで構築します。利用可能な投入要素――労働・資本・技術進歩――に基づいて経済の供給能力をモデル化します。
各変数の説明:
$Y_t^*$ = 潜在産出量
$A_t^*$ = トレンド全要素生産性
$K_t^*$ = 潜在資本ストック
$L_t^*$ = 潜在労働投入量
$\alpha$ = 資本の所得分配率(≈0.33)
人口動態の予測・推計 NAIRU・トレンド労働時間を使用します
減価償却率δとトレンド投資を用いたパーペチュアル・インベントリー法
HP フィルターまたは構造時系列モデルを用いて推計されることが多い
多変量フィルターは、統計的フィルターのシンプルさと経済的関係式を組み合わせます。複数の経済変数を同時に使用することで、改訂を受けにくいより頑健な推計値を得ます。
各変数の説明:
$y_t$ = 実質GDPの対数値
$\pi_t$ = インフレ率
$u_t$ = 失業率
アスタリスク(*)はトレンド成分を示します
GDP データを単独で検討するのではなく、多変量フィルターは既知の経済的関係を利用します。失業率の低下は正の需給ギャップを示すシグナルであり、インフレ率の上昇は経済が過熱している可能性を示唆します。テイラー・ルールの基盤でもあるフィリップス曲線とオークンの法則の関係式を含むすべての情報を同時に組み込むことで、この手法は改訂を受けにくくリアルタイムでより信頼性の高い推計値を生み出します。
需給ギャップはAR(1)過程、潜在産出量はドリフト付きランダムウォークに従います
フィリップス曲線とオークンの法則が観測可能変数と観測不能なギャップを結びつけます
観測可能変数(GDP・インフレ率・失業率)が与えられた状況で、Kalman フィルターを用いて観測不能な状態変数(ギャップ、潜在産出量)を推計します
DSGE モデルは、需給ギャップ推計において最も理論的整合性の高いアプローチを提供します。最適化する経済主体の均衡結果として経済全体をモデル化し、潜在産出量を価格伸縮的均衡として自然に定義します。
各変数の説明:
第1式:動的IS曲線
第2式:ニュー・ケインジアン・フィリップス曲線
$\sigma$ = 異時点間代替の弾力性
$\kappa$ = フィリップス曲線の傾き
DSGE モデルにおける需給ギャップは、実際の産出量と価格が完全に伸縮的な場合に実現するであろう水準との差として定義されます:
ここで $y_t^{flex}$ は反実仮想的な価格伸縮的産出量水準です。これにより、厚生および政策分析に直接関連する理論的に整合した指標が得られます。
単純法 vs. 強化型:
政策上の意義:より正確な需給ギャップにより、テイラー・ルールの勧告が適切なものとなり、より精度の高い金融政策の指針が得られます。
| 中央銀行 | 単純オークン法(%) | 強化型多変量(%) | 差異(パーセントポイント) | 信頼度水準 | データソース |
|---|---|---|---|---|---|
| 🇺🇸 連邦準備制度理事会 | -1.25 | -0.25 | +1.00 | 高 | 指標4つ |
| 🇪🇺 欧州中央銀行 | -1.4 | -0.8 | +0.60 | 中 | 指標3つ |
| 🇬🇧 イングランド銀行 | -0.46 | -0.46 | 0.00 | 中 | 指標1つ |
需給ギャップはテイラー・ルールフレームワークへの主要インプットです。上述の強化型多変量推計値は、単純なオークン法に基づく計算よりも精度の高いギャップ入力を金融政策分析に提供します。
ここで $\text{Gap}_{enhanced}$ は、単純なオークン推計値ではなく多変量計算を使用します。完全なフレームワークについてはテイラー・ルールの方法論ページをご覧ください。