需給ギャップの理解

直接観測することのできない、最も重要な経済変数

需給ギャップの方法論

潜在産出量と景気循環変動を推計するための技術的アプローチ

需給ギャップとは何か?

測定困難な極めて重要なインプット

金融政策立案において最も重要な数値のひとつは、直接観測することができないものです。需給ギャップ――経済が実際に生産しているものと、持続的に生産可能なものとの差――は、インフレ率予測を左右し、中央銀行の意思決定を形成し、数千億ドルの市場ポジションに影響を与えます。しかしエコノミストたちは、その値について2〜3パーセントポイントもの差をもって意見が一致せず、真の数値は、データ改訂が行われる数年後になって初めて明らかになることが少なくありません。

現実の問題を考えてみましょう。2016年、米国経済は成長余地を残した低稼働状態にあったのか、それともさらなる景気刺激策がインフレを引き起こす完全稼働状態にあったのか。当時の推計値は−2%(大きな経済的スラック)から+1%(既に過熱状態)まで幅がありました。この乖離は分析の粗さを反映するものではなく、「どれだけの人々が労働意欲と能力を持っているか」「工場はフル稼働でどこまで生産できるか」「労働力全体のスキルはどのくらいの速度で向上しているか」といった問いに対して明快に答えることの困難さを映し出しています。これらのいずれも、クリーンな測定を許しません。

なぜこれほど重要なのか? 需給ギャップは、中央銀行が金利を調整するために用いるベンチマーク公式であるテイラー・ルールに直接入力されるからです。ギャップが大きくマイナスの場合(経済的スラックが大きい)、テイラー・ルールは成長を刺激するための低金利を求めます。ギャップがプラスの場合(経済が「過熱」している)、同ルールはインフレを抑制するための高金利を求めます。2021〜2022年のインフレ急騰時、これは学術的な問題ではありませんでした。一部のエコノミストは、需給ギャップがプラスに転じていたとして連邦準備制度理事会の対応が遅れていると主張し、一方で依然としてスラックが存在しインフレは一時的なものであると主張する声もありました。どちらの見方が正しいかによって、政策対応の内容が左右されたのです。

需給ギャップの推計:理論と実践

金融政策分析における中心的課題

需給ギャップ――実際の産出量と潜在産出量との乖離――は、金融政策立案において最も重要な観測不能変数です。インフレ率や失業率とは異なり、統計的ノイズはあるものの直接測定が可能なこれらの変数と違って、潜在産出量は技術、要素利用率、均衡雇用に関する前提から導出される理論的構成概念としてのみ存在します。これにより根本的な不確実性が生じます。リアルタイムの推計値は手法によって2〜3パーセントポイントも異なることが多く、その後のデータ改訂により同時点の推計値の符号が逆転することさえあります。ギャップはテイラー・ルールとその派生モデルに直接入力されるため、ギャップ測定の誤差は政策の誤調整を引き起こす主要因となります。

2008〜2010年の時期はそのリスクを端的に示しています。議会予算局(CBO)によるリアルタイム推計は、需給ギャップがほぼ−7%に達していることを示唆し、大規模なデフレ圧力の存在を示して異例の金融緩和措置を正当化しました。その後の改訂では、潜在産出量への構造的ダメージの評価が更新され、推計値は−4%〜−5%へと修正されました。この2〜3パーセントポイントの改訂は、金融危機が生産能力を永続的に毀損したのか、単に循環的なスラックを生じさせたにすぎないのかという真の不確実性を反映したものです。潜在産出量が当初の認識以上に低下していたとすれば、金融政策は意図した以上に緩和的であったことになり、その後に顕在化したインフレの一因となった可能性があります。

基本公式
$$\text{需給ギャップ} = \frac{\text{実際のGDP} - \text{潜在GDP}}{\text{潜在GDP}} \times 100$$

この意味:
正の値 = 経済が「過熱」(インフレリスク)
負の値 = 経済的スラック(成長余地あり)
ゼロ = 経済が持続可能な完全稼働状態

概念の成り立ち
需給ギャップが政策の中心となった経緯

この概念は1960年代の実践的な問いから生まれました。政府はいつ景気刺激策を打つべきか、いつ手を引くべきか、という問いです。ケネディ政権の顧問を務めたアーサー・オークンは、失業率とGDP成長率の間に信頼性の高い関係を見出しました。失業率が1パーセントポイント低下するたびに、GDPはトレンドより約3%速く成長するというものです。これにより政策立案者は、経済にどの程度の拡大余地があるかについての第一次近似を得ることができました。(オークンの法則として知られるこの関係は、このページに掲載されているテイラー・ルールと需給ギャップ推計の中核的インプットとして今日も使われています。)

1970年代には、このフレームワークが崩壊しました。失業率とインフレ率が同時に上昇するスタグフレーションが発生し、単純な需給ギャップモデルとは矛盾する事態となりました。エコノミストたちは、潜在産出量それ自体が変化しうるという事実を認識せざるを得ませんでした。相次ぐ石油ショックと生産性の伸び悩みにより経済の供給能力は低下しましたが、時代遅れの潜在産出量推計に依拠した政策立案者は刺激策を継続し、成長ではなくインフレを生み出す結果となりました。

現代の需給ギャップ推計は、こうした誤りを避けるべく、潜在産出量を人口動態・技術・資本投資・制度的要因とともに変化する動的な目標として扱います。しかし、これにより測定はより困難なものとなっています。

需給ギャップが実務に登場する場面

FOМCの全会合において、連邦準備制度理事会のスタッフは需給ギャップの推計値を提示します。これは経済見通し資料に掲載され、将来の金利見通しを示すドット・プロットにも影響を与えます。連邦準備制度理事会の当局者が「データ依存」という表現を用いる際、その一部には、生産性・労働参加率・設備稼働率に関する入手可能な情報をもとに潜在産出量の見方を継続的に更新しているという意味が含まれています。

市場関係者も注意深く注視しています。雇用の伸びが強くてもインフレを引き起こさない場合、トレーダーは潜在産出量の推計を上方修正し、連邦準備制度理事会が金利を低位に維持できる余地がより大きいと判断します。生産性が予想外に加速する場合(1990年代後半のインターネット技術普及期など)には、潜在産出量の推計が変化し、それに伴い期待される金利経路全体も変わります。2010年代には、金融危機を受けて潜在産出量が大幅に下方修正され、かつての前提では慎重さを欠くとみられたであろう数年間にわたるほぼゼロ金利政策が正当化されました。

フォーマルな定義とフィリップス曲線との関係
$$\text{需給ギャップ}_t = \frac{Y_t - Y_t^*}{Y_t^*} \times 100$$

ここで $Y_t$ は実際の産出量、$Y_t^*$ は潜在産出量を示します。このギャップはニュー・ケインジアン・フィリップス曲線に入力されます:

$$\pi_t - \pi^* = \alpha \cdot \text{Gap}_t + \varepsilon_t$$

係数 $\alpha$(通常0.1〜0.5)は、景気循環変動に対するインフレ率の感応度を決定します。ギャップの測定誤差は、インフレ率予測および政策勧告に直接影響します。

推計アプローチの変遷
単純トレンドから構造モデルへ

初期のアプローチ(1960〜1970年代)は単純なトレンド除去に依拠していました。GDPに線形または二次のトレンドを当てはめ、その乖離を景気循環成分とみなす手法です。オークンの法則は最初の構造的なアンカーを提供し、失業ギャップと需給ギャップを推定係数で結びつけました。1970年代のスタグフレーションは致命的な欠陥を露呈しました。供給ショックにより潜在産出量が変化しましたが、トレンドに基づく手法では供給変動と需要変動を区別することができなかったのです。

1980年代には生産関数アプローチが登場し、潜在産出量を資本・労働・全要素生産性の各成分に分解するようになりました。これにより構造的情報(人口動態・投資・技術変化)を組み込むことが可能となりましたが、新たな測定上の課題も生じました。NAIRU、設備稼働率、トレンド生産性の推計には、それぞれ固有の不確実性が伴います。

現代の多変量フィルターとモデルに基づく手法

現在の中央銀行の実務では、多変量フィルター(フィリップス曲線とオークンの関係式を組み込んだKalmanフィルター)と、潜在産出量を価格伸縮的均衡産出量として定義するDSGEモデルが重視されています。これらのアプローチは経済理論と統計的推論を統合しますが、モデルの特定化に対する感応度は依然として高くなっています。2008年の金融危機はレジーム不確実性を浮き彫りにしました。危機は大規模な需要ショック(大幅なマイナスのギャップ)を意味したのか、それとも生産能力の永続的な破壊(より小さなギャップ)を意味したのかという問題です。

最近の研究では機械学習手法や高頻度指標の活用が模索されていますが、識別に関わる根本的な問題は依然として残っています。ギャップは本質的に観測不能であるため、検証が困難であり、意見の相違は避けられません。

需給ギャップの現在推計値

強化型多変量手法と従来のオークンの法則アプローチとを比較した現在の推計値です。

🇺🇸
連邦準備制度理事会
-0.25%
強化型ギャップ
-1.25%
単純オークン法
手法内訳
オークン・ギャップ: -1.25%
稼働率シグナル: +0.8%
信頼感シグナル: +0.2%

多変量: -0.25%
4.33%
失業率
79.2%
設備稼働率
82.1
消費者景況感
52.3
企業信頼感
高信頼度
🇪🇺
欧州中央銀行
-0.8%
強化型ギャップ
-1.4%
単純オークン法
手法内訳
オークン・ギャップ: -1.4%
稼働率シグナル: +0.5%
信頼感シグナル: +0.1%

多変量: -0.8%
6.7%
失業率
N/A
設備稼働率
-12.1
消費者信頼感
-5.2
企業信頼感
中信頼度
🇬🇧
イングランド銀行
-0.46%
強化型ギャップ
-0.46%
単純オークン法
手法内訳
オークン・ギャップ: -0.46%
稼働率シグナル: N/A
信頼感シグナル: N/A

主要指標: -0.46%
4.2%
失業率
N/A
設備稼働率
N/A
消費者信頼感
N/A
企業信頼感
中信頼度

強化型実装

単純なオークンの法則に対する改善点
🔧 修正内容
  • オークン係数の修正:5倍の過小推計を修正(米国:0.4 → 2.5)
  • データソースの拡充:設備稼働率・企業信頼感を追加
  • 多変量アプローチ:複数の経済指標を統合
  • FREDリアルタイム連携:連邦準備制度理事会の経済データからライブデータを取得
📊 新機能
  • 信頼度評価:データの一致度に基づく高・中・低の判定
  • 手法比較:全計算アプローチを並列表示
  • 拡張ストレージ:複数の需給ギャップ推計値をデータベースに保存
  • 中央銀行別パラメータ:中央銀行ごとにオークン係数を調整
失業率データ
(FRED: UNRATE)
設備稼働率
(FRED: TCU)
企業信頼感
(FRED: BSCICP03USM665S)
多変量
計算
強化型
需給ギャップ
強化型計算公式
多変量需給ギャップ
$$\text{Gap}_{enhanced} = 0.6 \times \text{Gap}_{Okun} + 0.2 \times \text{Gap}_{Capacity} + 0.1 \times \text{Gap}_{Business} + 0.1 \times \text{Gap}_{Consumer}$$

各成分ギャップの計算方法:
オークン・ギャップ:$-\beta \times (u_t - u_t^*)$、修正後 $\beta = 2.5$(米国)、$2.0$(EU)、$2.3$(英国)
稼働率ギャップ:$(Capacity_t - 82\%) \times 0.5$
信頼感ギャップ:中立水準からの乖離

数学的フレームワーク

基本的な経済的関係

需給ギャップは、実物変数と名目変数を結びつける複数の経済的関係に基づいています:

フィリップス曲線の関係式
$$\pi_t - \pi_t^e = \alpha \cdot \text{需給ギャップ}_t + \varepsilon_t$$

各変数の説明:
$\pi_t$ = 現在のインフレ率
$\pi_t^e$ = 期待インフレ率
$\alpha$ = フィリップス曲線の傾き(通常0.1〜0.5)
$\varepsilon_t$ = 供給ショック(原油価格など)

この関係式が重要な理由

この方程式は、中央銀行が需給ギャップに着目する理由を端的に示しています。経済が潜在産出量を上回って稼働している場合(正のギャップ)、インフレ率は予想を超えて上昇する傾向があります。逆に潜在産出量を下回っている場合(負のギャップ)、インフレ率は低下する傾向があります。したがって、テイラー・ルールフレームワークを通じて金利を適切に調整するためには、需給ギャップの正確な推計が不可欠です。

オークンの法則
$$\text{需給ギャップ}_t = -\beta \cdot (\text{失業率}_t - \text{NAIRU}_t)$$

各変数の説明:
$\beta$ = オークン係数(米国では通常2〜3)
NAIRU = 非加速インフレ失業率

分解アプローチ

エコノミストは実際のGDPをトレンド成分と循環成分に分解します:

トレンド・サイクル分解
$$\log(Y_t) = \log(Y_t^*) + \text{Gap}_t$$

各変数の説明:
$Y_t$ = 実際の実質GDP
$Y_t^*$ = 潜在(トレンド)GDP
$\text{Gap}_t$ = 循環成分(対数表示の需給ギャップ)

推計手法の概要

根本的な課題

実際のGDPは経済分析局(BEA)が四半期ごとに公表しています。改訂・季節調整・測定上の問題はありますが、観測可能なデータです。一方、潜在GDPは理論的構成概念です。すべての資源が持続可能な水準で完全かつ効率的に活用された場合に経済が達成する産出水準を意味します。「完全に」「効率的に」「持続可能な水準で」という各修飾語には、判断が伴います。

労働の成分を考えてみましょう。潜在雇用とは労働力人口の95%なのか、96%なのか。人々が職を変える際には常にある程度の摩擦的失業が存在します。しかし、どの程度なのか。就職活動のテクノロジーが向上するにつれて変化するのか。景気後退期に労働市場から退出した人々については、潜在産出量の一部として算入すべきか否か。この答えは重要です。失業率の成分に0.5パーセントポイントの誤差が生じれば、需給ギャップにほぼ1パーセントポイントの誤差が生じ、それが金利に関するテイラー・ルールの勧告を変化させます。

資本と生産性についても同様の問いが生じます。新型コロナウイルス感染症のパンデミック時、一部の事業者が永続的に閉鎖しました。これは潜在産出量を低下させたのか、それともより効率的な使途に資源を解放することで実際には潜在産出量を高めたのか。異なるモデルと前提を用いた異なるエコノミストは、異なる結論に達しました。これは分析上の失敗ではなく、問いそのものが本質的に曖昧であるということです。

手法の分類と実績

識別問題

潜在産出量は反実仮想的なものです。現行の技術水準において完全な要素雇用が達成された場合に実現可能な生産水準を意味します。統計的ノイズはあるものの観測可能な実際の産出量とは異なり、潜在産出量はモデルのフレームワーク内においてのみ存在します。これにより識別問題が生じます。生産技術・要素市場均衡・確率過程に関する異なる前提を体現した異なるモデルは、同一の実際のデータから異なる潜在産出量の系列を生成します。

リアルタイムでの推計はこの困難をさらに増幅させます。Orphanides and van Norden(2002)は、需給ギャップ推計が期末における大きな不確実性を示し、新たなデータが入手されるにつれて大幅に改訂されることを示しています。米国では、リアルタイムと最終的なギャップ推計値が2〜3パーセントポイント異なることも多く、符号が逆転することさえあります。この改訂に起因する不確実性は、ギャップ推計に基づく政策を損ないます。政策立案者は経済の循環的な位置について広範な不確実性に直面した状態で行動しているからです。

手法種類データ要件リアルタイム実績改訂の安定性中央銀行での利用
Hodrick-Prescott フィルター統計的GDPのみ不良大幅な改訂ありベンチマーク・クロスチェック
生産関数構造的労働・資本・生産性良好中程度の改訂主要手法
多変量フィルターハイブリッドGDP・インフレ率・失業率良好改訂は小さい普及が進んでいる
DSGE モデル構造的複数のマクロ系列普通モデル依存研究・検証目的

Hodrick-Prescott フィルター

最も単純なアプローチ(およびその既知の問題点)

Hodrick-Prescott フィルターは、その限界がよく知られているにもかかわらず、需給ギャップを推計するための最も広く使われている手法です。完全に機械的なものです。GDPデータを入力し、平滑化パラメータ(ラムダ)を設定すれば、滑らかなトレンドラインが出力されます。実際のGDPとそのトレンドとの差が需給ギャップ推計値となります。経済理論は不要であり、労働市場や生産性に関する判断も必要ありません。統計的最適化のみで完結します。

このシンプルさは強みでもあり弱みでもあります。プラス面としては、計算が速く、手法が透明であり、手法が同一であるため国際比較や時系列比較が容易であることが挙げられます。弱点としては、フィルターが経済の実態について何ら情報を持っていないことです。単にデータに対して滑らかな曲線を当てはめるだけです。資本ストックの半分を破壊した災害によりGDPが30%低下したとしても、HP フィルターは機械的にその低下の一部をマイナスの需給ギャップに、残りを潜在産出量の減少に帰属させます。たとえそれが明らかに一時的な供給ショックであっても同様です。

Hodrick-Prescott フィルター

理論を伴わない統計的トレンド除去

Hodrick-Prescott フィルターは、純粋に統計的な最適化問題を解きます。二乗偏差のペナルティ付き和を最小化することで、時系列をトレンド成分とサイクル成分に分解します。この手法は経済的な構造を必要とせず、GDP系列のみで適用可能であるため、計算上は非常に簡単で幅広く利用できます。その普及は、十分に文書化された欠点があるにもかかわらず、このシンプルさに起因しています。

Hamilton(2018)は強力な批判を提示しています。HP フィルターは和分過程を持つ系列に見せかけの循環変動を生成し、深刻な期末バイアスを抱え(リアルタイム推計を信頼性の低いものにする)、経済的な解釈を欠くというものです。Ravn and Uhlig(2002)は、標準的な平滑化パラメータ(四半期データでλ=1600)が恣意的に選ばれており、頻度や国をまたいで一般化できない可能性があると主張しています。それでも中央銀行は、限界を認識しながら手法の透明性を評価し、HP フィルターをロバストネスチェックとして使い続けています。

HP フィルターの最適化問題
$$\min_{\{\tau_t\}} \sum_{t=1}^T (y_t - \tau_t)^2 + \lambda \sum_{t=2}^{T-1} [(\tau_{t+1} - \tau_t) - (\tau_t - \tau_{t-1})]^2$$

各変数の説明:
$y_t$ = 実際のGDPの対数値
$\tau_t$ = トレンド(潜在)GDPの対数値
$\lambda$ = 平滑化パラメータ(四半期データでは1600)

この公式の意味

この方程式は単純なバランシング問題を解きます。ふたつの競合する目標を達成するトレンドラインを見つけることです。第1項は、実際のGDPから乖離するトレンドにペナルティを課します。トレンドはデータに近く追従することを求めます。第2項は、方向を頻繁に変えるトレンドにペナルティを課します。平滑さを求めます。パラメータλ(ラムダ)は、これらふたつの目標の相対的な重みを決定します。

四半期データの標準値はλ=1600で、米国の景気循環の特性に基づいてHodrickとPrescottが提案したものです。この選択にはやや恣意的な面がありました。λ=800に設定すると、GDP の変動をより密接に追う反応速度の高いトレンドが得られます。λ=6400に設定すると、短期的な動きにほとんど反応しない非常に滑らかなトレンドが得られます。中央銀行によって使用する値は異なり、その選択は得られる需給ギャップ推計値に大きく影響します。λの値に定まった正解はありません。

最小化問題
$$\min_{\{\tau_t\}_{t=1}^T} \left\{ \sum_{t=1}^T (y_t - \tau_t)^2 + \lambda \sum_{t=2}^{T-1} [(\tau_{t+1} - \tau_t) - (\tau_t - \tau_{t-1})]^2 \right\}$$

第1項は実際のデータからの乖離にペナルティを課し、第2項はトレンドの成長率の変化(2階差分)にペナルティを課します。パラメータ $\lambda$ は、循環成分とトレンド成分の分散比を制御します。標準的なキャリブレーションでは四半期データにλ=1600を使用しますが、これには理論的根拠がありません。

ラムダ問題と期末バイアス

Hodrick and Prescott(1997)は、戦後米国データで観察された景気循環の頻度、具体的には6〜8年のサイクルを目標としてλ=1600を選択しました。このキャリブレーション戦略には一般性がありません。最適なλはデータ生成過程に応じて異なるべきですが、実務家は国や時代を問わず1600を機械的に適用しています。感応度分析によれば、λ∈[800,6400]の範囲で典型的な景気循環のギャップ推計値が2〜4パーセントポイント変動します。

さらに根本的な問題として、HP フィルターには深刻な期末バイアスがあります。フィルターは双方向であり、現在のトレンドを推計するために将来のデータを使用します。サンプルの末端では過去のデータしか存在しないため、推計された潜在産出量が実際の産出量を過度に追跡し、リアルタイムでのギャップが過小評価されます。リアルタイム推計と最終的な HP 推計を比較した研究は、系統的なバイアスを記録しています。リアルタイム推計は景気の転換点を見逃し、ギャップの変動を大幅に過小評価します。これにより、HP フィルターは迅速なギャップ評価が求められる政策分析において特に問題となります。

技術的な実装
1 データ準備

パーセント表示での解釈のためにGDPを自然対数に変換します

y_t = ln(GDP_t)
2 フィルターの適用

行列代数を用いて二次最適化問題を解きます

τ = (I + λK'K)^(-1) y ここでKは2階差分行列
3 ギャップの計算

需給ギャップは実際のGDPとトレンドGDPとの差です

Gap_t = y_t - τ_t = ln(GDP_t) - ln(Potential_t)
長所
  • シンプルで透明性が高い
  • GDPデータのみで算出可能
  • 広く認知されたベンチマーク
  • 計算が速い
  • 経済的前提が不要
短所
  • 期末問題(直近の推計値が信頼性に欠ける)
  • 構造的断絶による見せかけの景気循環
  • 経済理論が組み込まれていない
  • 新たなデータが入ると大幅な改訂が生じる
  • λパラメータの選択が恣意的
HP フィルターのインタラクティブ・デモ
現在の設定

λ = 1600

λが大きいほど → トレンドが滑らかになる

λが小さいほど → データへの追従性が高まる

生産関数アプローチ

構造的な供給サイド・モデリング

この手法は、生産理論を用いて潜在GDPをボトムアップで構築します。利用可能な投入要素――労働・資本・技術進歩――に基づいて経済の供給能力をモデル化します。

Cobb-Douglas 生産関数
$$Y_t^* = A_t^* \cdot (K_t^*)^{\alpha} \cdot (L_t^*)^{1-\alpha}$$

各変数の説明:
$Y_t^*$ = 潜在産出量
$A_t^*$ = トレンド全要素生産性
$K_t^*$ = 潜在資本ストック
$L_t^*$ = 潜在労働投入量
$\alpha$ = 資本の所得分配率(≈0.33)

労働力人口
×
NAIRU 雇用率
潜在
雇用量
就業者1人当たり
トレンド労働時間
潜在
労働投入量
各成分の推計
1 潜在労働投入量(L*)
$$L_t^* = \text{労働力人口}_t \times (1 - \text{NAIRU}_t) \times \text{トレンド労働時間}_t$$

人口動態の予測・推計 NAIRU・トレンド労働時間を使用します

2 潜在資本ストック(K*)
$$K_t^* = K_{t-1}^* \times (1-\delta) + I_t^*$$

減価償却率δとトレンド投資を用いたパーペチュアル・インベントリー法

3 トレンド生産性(A*)
$$A_t^* = \frac{Y_t^*}{(K_t^*)^{\alpha} \cdot (L_t^*)^{1-\alpha}}$$

HP フィルターまたは構造時系列モデルを用いて推計されることが多い

長所
  • 経済理論に基づいている
  • 詳細な供給サイド情報を活用
  • 構造変化を組み込める
  • 各成分の解釈が明確
  • 政策分析に適している
短所
  • 広範なデータが必要
  • NAIRU 推計の不確実性
  • 資本の測定が困難
  • 生産性トレンドの推計が難しい
  • モデルの特定化に関する問題
中央銀行における実装
🇺🇸 連邦準備制度理事会
  • CBO の推計値をベースラインとして使用
  • リアルタイム情報に基づき調整
  • 金融政策報告書(MPR)で四半期更新
🇪🇺 欧州中央銀行
  • 資本推計に EU-KLEMS データベースを使用
  • 各国推計値を集計
  • 構造改革への着目
🇬🇧 イングランド銀行
  • 国家統計局(ONS)の生産関数モデル
  • Brexit の影響を調整
  • 供給サイドのシナリオ分析

多変量フィルター

統計的・経済的ハイブリッドアプローチ

多変量フィルターは、統計的フィルターのシンプルさと経済的関係式を組み合わせます。複数の経済変数を同時に使用することで、改訂を受けにくいより頑健な推計値を得ます。

状態空間表現
$$\begin{bmatrix} y_t \\ \pi_t \\ u_t \end{bmatrix} = \begin{bmatrix} 1 \\ \alpha \\ -\beta \end{bmatrix} \text{Gap}_t + \begin{bmatrix} y_t^* \\ \pi_t^* \\ u_t^* \end{bmatrix} + \begin{bmatrix} \varepsilon_{y,t} \\ \varepsilon_{\pi,t} \\ \varepsilon_{u,t} \end{bmatrix}$$

各変数の説明:
$y_t$ = 実質GDPの対数値
$\pi_t$ = インフレ率
$u_t$ = 失業率
アスタリスク(*)はトレンド成分を示します

このアプローチがより頑健な理由

GDP データを単独で検討するのではなく、多変量フィルターは既知の経済的関係を利用します。失業率の低下は正の需給ギャップを示すシグナルであり、インフレ率の上昇は経済が過熱している可能性を示唆します。テイラー・ルールの基盤でもあるフィリップス曲線とオークンの法則の関係式を含むすべての情報を同時に組み込むことで、この手法は改訂を受けにくくリアルタイムでより信頼性の高い推計値を生み出します。

Kalman フィルターによる実装
1 状態方程式
$$\begin{bmatrix} \text{Gap}_{t+1} \\ y_{t+1}^* \end{bmatrix} = \begin{bmatrix} \phi & 0 \\ 0 & 1 \end{bmatrix} \begin{bmatrix} \text{Gap}_t \\ y_t^* \end{bmatrix} + \begin{bmatrix} \eta_{gap,t+1} \\ \eta_{trend,t+1} \end{bmatrix}$$

需給ギャップはAR(1)過程、潜在産出量はドリフト付きランダムウォークに従います

2 観測方程式
$$\pi_t = \pi^* + \alpha \cdot \text{Gap}_t + \varepsilon_{\pi,t}$$ $$u_t = u^* - \beta \cdot \text{Gap}_t + \varepsilon_{u,t}$$

フィリップス曲線とオークンの法則が観測可能変数と観測不能なギャップを結びつけます

3 推計

観測可能変数(GDP・インフレ率・失業率)が与えられた状況で、Kalman フィルターを用いて観測不能な状態変数(ギャップ、潜在産出量)を推計します

# パラメータの最尤推定 # 次にKalmanフィルター/スムーザーで状態変数を推計
長所
  • 複数の情報源を活用
  • 経済的関係式を組み込んでいる
  • リアルタイムの実績が良好
  • HP フィルターよりも改訂が少ない
  • 不確実性の定量化が可能
短所
  • 実装が複雑
  • パラメータのキャリブレーションが必要
  • モデルの特定化に関する不確実性
  • フィリップス曲線の不安定性
  • 計算が複雑

動的確率的一般均衡(DSGE)モデル

完全な構造的経済モデル

DSGE モデルは、需給ギャップ推計において最も理論的整合性の高いアプローチを提供します。最適化する経済主体の均衡結果として経済全体をモデル化し、潜在産出量を価格伸縮的均衡として自然に定義します。

単純なニュー・ケインジアン・フレームワーク
$$\text{Gap}_t = E_t[\text{Gap}_{t+1}] - \frac{1}{\sigma}(r_t - E_t[\pi_{t+1}] - r_t^*)$$ $$\pi_t = \beta E_t[\pi_{t+1}] + \kappa \text{Gap}_t$$

各変数の説明:
第1式:動的IS曲線
第2式:ニュー・ケインジアン・フィリップス曲線
$\sigma$ = 異時点間代替の弾力性
$\kappa$ = フィリップス曲線の傾き

DSGE における需給ギャップの定義

DSGE モデルにおける需給ギャップは、実際の産出量と価格が完全に伸縮的な場合に実現するであろう水準との差として定義されます:

$$\text{Gap}_t = y_t - y_t^{flex}$$

ここで $y_t^{flex}$ は反実仮想的な価格伸縮的産出量水準です。これにより、厚生および政策分析に直接関連する理論的に整合した指標が得られます。

長所
  • 理論的整合性が高い
  • 厚生関連の指標
  • 政策の反実仮想分析が可能
  • 構造的な解釈ができる
  • 将来を見越した設計
短所
  • モデルの特定化に関する不確実性
  • パラメータの識別問題
  • 計算が複雑
  • 強い理論的前提が必要
  • 予測実績が低い

手法の実績比較

主なポイント
強化型手法の意義

単純法 vs. 強化型:

  • 連邦準備制度理事会:-1.25% → -0.25%(1.0パーセントポイント差)
  • 欧州中央銀行:-1.4% → -0.8%(0.6パーセントポイント差)
  • イングランド銀行:利用可能データが限定的

政策上の意義:より正確な需給ギャップにより、テイラー・ルールの勧告が適切なものとなり、より精度の高い金融政策の指針が得られます。

中央銀行単純オークン法(%)強化型多変量(%)差異(パーセントポイント)信頼度水準データソース
🇺🇸 連邦準備制度理事会-1.25-0.25+1.00指標4つ
🇪🇺 欧州中央銀行-1.4-0.8+0.60指標3つ
🇬🇧 イングランド銀行-0.46-0.460.00指標1つ

データソースと検証

FRED 経済データとの統合
連邦準備制度理事会のデータソース
  • 失業率:UNRATE(失業率)
  • 設備稼働率:TCU(総設備稼働率)
  • 企業信頼感:BSCICP03USM665S
  • 消費者景況感:UMCSENT(ミシガン大学)
  • 労働参加率:CIVPART
欧州中央銀行のデータソース
  • 失業率:LRHUTTTTEZM156S(ユーロ圏)
  • HICP インフレ率:CP0000EZCCM086NEST(年次換算)
  • 企業信頼感:EA19BSCICP03M665S
  • 消費者信頼感:CSCICP03EZM665S
  • GDP 成長率:CLVMEURSCAB1GQEA19(実質GDP、計算値)
検証と品質評価
データ品質チェック
  • 範囲の妥当性確認:各指標を合理的な範囲と照合
  • 相互相関:複数の指標が方向性において一致していることを確認
  • 時系列の整合性:説明のつかない急激な変化がないことを確認
  • ソースの信頼性:フォールバック機能を備えた FRED API
信頼度評価基準
指標4つ以上、範囲0.5パーセントポイント未満
指標2〜3つ、範囲1.0パーセントポイント未満
指標1つ、または範囲1.0パーセントポイント超

政策への応用と影響

テイラー・ルールとの統合

需給ギャップはテイラー・ルールフレームワークへの主要インプットです。上述の強化型多変量推計値は、単純なオークン法に基づく計算よりも精度の高いギャップ入力を金融政策分析に提供します。

強化型需給ギャップを用いたテイラー・ルール
$$r_t = r^* + \pi_t + \alpha(\pi_t - \pi^*) + \beta \times \text{Gap}_{enhanced}$$

ここで $\text{Gap}_{enhanced}$ は、単純なオークン推計値ではなく多変量計算を使用します。完全なフレームワークについてはテイラー・ルールの方法論ページをご覧ください。

現行の政策勧告への影響
  • 連邦準備制度理事会:強化型ギャップ-0.25% vs. -1.25%は、従来の推計よりも経済的スラックが小さいことを示唆
  • 欧州中央銀行:強化型ギャップ-0.8% vs. -1.4%は、大きなスラックではなく中程度のスラックを示す
  • 政策上の含意:より正確なギャップにより、より適切にキャリブレーションされた金融政策対応が可能となる
実務における活用
🏛️ 中央銀行での活用
  • ✓ 金利決定
  • ✓ インフレ率予測
  • ✓ フォワードガイダンス
  • ✓ 量的緩和プログラムの規模設定
📈 市場での活用
  • ✓ 政策金利の予測
  • ✓ 債券利回りの予測
  • ✓ 通貨ポジショニング
  • ✓ 景気後退確率の算出