Home
4797 words
24 minutes
『The Matrix Cookbook』Page 12完全解読:勾配・ヘッセ行列・トレース微分の基礎

last_modified: 2026-01-10

生成AIによる自動生成記事に関する免責事項: 本記事は、Petersen & Pedersen著 The Matrix Cookbook (Nov 15, 2012 edition) のPage 12の内容(公式92〜105)を骨子とし、数理的な証明と応用例を大幅に加筆して再構成した解説記事です。筆者の学習目的で生成したものです。正確な内容は必ず一次情報で確認してください。

1. 序論:最適化と線形代数の結合点#

Page 12は、行列微分の応用における重要な転換点です。 前半(Section 2.4の続き)では、複雑な分数形式(レイリー商など)の微分や、最適化の基礎となる**勾配(Gradient)ヘッセ行列(Hessian)**の関係を定義します。これにより、二次形式 xTAxx^T A x の極値問題を解くための道具が揃います。

後半(Section 2.5)からは、新たな章としてトレース(Trace)の微分が始まります。行列の内積構造 A,B=Tr(ATB)\langle A, B \rangle = \text{Tr}(A^T B) に直結するトレース微分は、ニューラルネットワークの誤差逆伝播法や行列分解において、最も基本的かつ強力な演算ツールです。


2. 複雑なスカラー形式の微分 (Eq. 92–95)#

高次の行列積や、分数形式(商の微分)を含む高度な公式です。

2.1 高次形式の微分 (Eq. 92)#

非常に長い式ですが、構造は「積の微分」です。

【公式】

XaT(Xn)TXnb=r=0n1[Xn1rabT(Xn)TXr+(Xr)TXnabT(Xn1r)T](92)\frac{\partial}{\partial X} \mathbf{a}^T (X^n)^T X^n \mathbf{b} = \sum_{r=0}^{n-1} \left[ X^{n-1-r} \mathbf{a} \mathbf{b}^T (X^n)^T X^r + (X^r)^T X^n \mathbf{a} \mathbf{b}^T (X^{n-1-r})^T \right] \tag{92}

【解説】 これは f(X)=(Xna)T(Xnb)f(X) = (X^n \mathbf{a})^T (X^n \mathbf{b}) という内積の微分です。 u=Xna,v=Xnbu = X^n \mathbf{a}, v = X^n \mathbf{b} と置けば f=uTvf = u^T v です。

df=(du)Tv+uT(dv)df = (du)^T v + u^T (dv)

ここで d(Xn)d(X^n) の展開式(Page 11 Eq. 90 参照)を du,dvdu, dv に適用し、各項を整理すると Eq. 92 が得られます。項が2つあるのは、左側の (Xn)T(X^n)^T と右側の XnX^n の両方に XX が含まれているためです。

2.2 ベクトル値関数の双一次形式 (Eq. 93)#

【公式】

xsTAr=[sx]TAr+[rx]TATs(93)\frac{\partial}{\partial x} \mathbf{s}^T A \mathbf{r} = \left[ \frac{\partial \mathbf{s}}{\partial x} \right]^T A \mathbf{r} + \left[ \frac{\partial \mathbf{r}}{\partial x} \right]^T A^T \mathbf{s} \tag{93}

ここで s=s(x),r=r(x)\mathbf{s} = \mathbf{s}(x), \mathbf{r} = \mathbf{r}(x) はベクトル値関数、xx はベクトル、AA は定数行列です。

【解説】 積の微分則(ライプニッツ則)そのものです。

d(sTAr)=(ds)TAr+sTA(dr)d(\mathbf{s}^T A \mathbf{r}) = (d\mathbf{s})^T A \mathbf{r} + \mathbf{s}^T A (d\mathbf{r})

第2項を転置して (dr)TATs(d\mathbf{r})^T A^T \mathbf{s} とすることで、微分 dxd\mathbf{x} を共通因数として括り出しやすい形(勾配形式)にしています。

2.3 一般化レイリー商の微分 (Eq. 94, 95)#

信号処理や振動解析における「一般化固有値問題」に直結する重要な公式です。

【公式】

x(Ax)T(Ax)(Bx)T(Bx)=2ATAxxTBTBx2xTATAxBTBx(xTBTBx)2(95)\frac{\partial}{\partial \mathbf{x}} \frac{(A\mathbf{x})^T (A\mathbf{x})}{(B\mathbf{x})^T (B\mathbf{x})} = \frac{2 A^T A \mathbf{x}}{\mathbf{x}^T B^T B \mathbf{x}} - \frac{2 \mathbf{x}^T A^T A \mathbf{x} \cdot B^T B \mathbf{x}}{(\mathbf{x}^T B^T B \mathbf{x})^2} \tag{95}

【導出:商の微分則】 スカラーの商の微分 (u/v)=(uvuv)/v2(u/v)' = (u'v - uv')/v^2 を適用します。

  • 分子 u=xTATAxu = \mathbf{x}^T A^T A \mathbf{x}     \implies 勾配 u=2ATAxu' = 2 A^T A \mathbf{x}
  • 分母 v=xTBTBxv = \mathbf{x}^T B^T B \mathbf{x}     \implies 勾配 v=2BTBxv' = 2 B^T B \mathbf{x} これらを代入するだけで Eq. 95 が得られます。

【応用】 この式を =0= 0 と置いて解くと、

(ATA)x=λ(BTB)x,ただし λ=uv(A^T A) \mathbf{x} = \lambda (B^T B) \mathbf{x}, \quad \text{ただし } \lambda = \frac{u}{v}

という一般化固有値問題 Kx=λMxK \mathbf{x} = \lambda M \mathbf{x} が現れます。これがフィルタ設計や主成分分析の基礎となります。


3. 勾配とヘッセ行列 (Gradient and Hessian)#

二次形式関数の最適化に必要な微分の定義です。

3.1 定義と公式 (Eq. 96–98)#

二次関数 f(x)=xTAx+bTxf(\mathbf{x}) = \mathbf{x}^T A \mathbf{x} + \mathbf{b}^T \mathbf{x} を考えます。

【勾配 (Gradient)】

xf=fx=(A+AT)x+b(97)\nabla_{\mathbf{x}} f = \frac{\partial f}{\partial \mathbf{x}} = (A + A^T) \mathbf{x} + \mathbf{b} \tag{97}

【ヘッセ行列 (Hessian)】

H=2fxxT=A+AT(98)H = \frac{\partial^2 f}{\partial \mathbf{x} \partial \mathbf{x}^T} = A + A^T \tag{98}

【解説】

  • 対称性の重要性: もし AA が対称行列 (A=ATA=A^T) ならば、勾配は 2Ax+b2A\mathbf{x} + \mathbf{b}、ヘッセ行列は 2A2A となります。
  • ニュートン法: 最適化において xnew=xoldH1(f)\mathbf{x}_{new} = \mathbf{x}_{old} - H^{-1} (\nabla f) という更新を行う際、この H=A+ATH = A+A^T が曲率(Curvature)情報として使われます。AA が正定値であれば HH も正定値となり、極小値の存在が保証されます。

4. トレースの微分 (Derivatives of Traces)#

ここから Section 2.5 に入ります。トレースの微分は、行列を行列で微分する際の最も基本的な操作です。

4.1 スカラー微分の拡張則 (Eq. 100 相当の記述)#

Page 12 には、非常に強力なメタ公式(定理)が記載されています。

【公式】

Tr(F(X))X=f(X)T\frac{\partial \text{Tr}(F(X))}{\partial X} = f(X)^T

ここで f()f(\cdot) は、スカラー関数 F()F(\cdot) の導関数です。

【解説】 これは、行列 XX の各成分に対して独立に作用する関数(Element-wise function)や、行列のべき乗関数(F(X)=XnF(X)=X^n)に対して成立します。 例:F(X)=X2F(X) = X^2 の場合、スカラー微分は f(x)=2xf(x)=2x なので、Tr(X2)/X=(2X)T=2XT\partial \text{Tr}(X^2)/\partial X = (2X)^T = 2X^T となります。これは便利ですが、行列積の順序が絡む複雑な関数には適用できない場合があるため注意が必要です。

4.2 一次形式のトレース微分 (Eq. 99–105)#

最も頻出する基本公式群です。

【公式一覧】

XTr(X)=I(99)\frac{\partial}{\partial X} \text{Tr}(X) = I \tag{99} XTr(XA)=AT(100)\frac{\partial}{\partial X} \text{Tr}(XA) = A^T \tag{100} XTr(AXB)=ATBT=(BA)T(101)\frac{\partial}{\partial X} \text{Tr}(AXB) = A^T B^T = (BA)^T \tag{101} XTr(AXTB)=BA(102)\frac{\partial}{\partial X} \text{Tr}(AX^T B) = BA \tag{102} XTr(XTA)=A(103)\frac{\partial}{\partial X} \text{Tr}(X^T A) = A \tag{103} XTr(AXT)=A(104)\frac{\partial}{\partial X} \text{Tr}(AX^T) = A \tag{104} XTr(AX)=Tr(A)I(105)\frac{\partial}{\partial X} \text{Tr}(A \otimes X) = \text{Tr}(A) I \tag{105}

【証明のテクニック:微分の定義】 全微分 df=Tr(GTdX)df = \text{Tr}(G^T dX) の形を作り、勾配 GG を読み取ります。

  • Eq. 101 の証明:

    d(Tr(AXB))=Tr(A(dX)B)=Tr(BAdX)(巡回性)d(\text{Tr}(AXB)) = \text{Tr}(A (dX) B) = \text{Tr}(B A dX) \quad (\text{巡回性})

    これを df=Tr((ATBT)TdX)df = \text{Tr}((A^T B^T)^T dX) と見なすと、勾配は ATBTA^T B^T です。

  • Eq. 102 の証明:

    d(Tr(AXTB))=Tr(A(dX)TB)=Tr(BA(dX)T)=Tr((BA(dX)T)T)=Tr((dX)ATBT)d(\text{Tr}(AX^T B)) = \text{Tr}(A (dX)^T B) = \text{Tr}(B A (dX)^T) = \text{Tr}((B A (dX)^T)^T) = \text{Tr}((dX) A^T B^T)

    df=Tr(ATBTdX)df = \text{Tr}(A^T B^T dX) なので、勾配は (ATBT)T=BA(A^T B^T)^T = B A です。

  • Eq. 105 の証明: Tr(AX)=Tr(A)Tr(X)\text{Tr}(A \otimes X) = \text{Tr}(A) \text{Tr}(X) というクロネッカー積の性質を使います。Tr(A)\text{Tr}(A) は定数なので、Eq. 99 より Tr(A)I\text{Tr}(A) I となります。


5. 結論#

Page 12 は、行列微分の基礎体力を養うためのページです。

  1. 商の微分則 (Eq. 95): 固有値問題への架け橋。
  2. ヘッセ行列 (Eq. 98): 最適化アルゴリズムの実装に必須。A+ATA+A^T を忘れるとアルゴリズムが収束しません。
  3. トレース微分 (Eq. 100-104): 「係数行列が転置されて出てくる」というルールは、行列微分の最も基本的な直感です。

これらの公式を使いこなすことで、複雑な損失関数の設計や解析が自由自在になります。

参考文献#

  1. Petersen, K. B., & Pedersen, M. S. (2012). The Matrix Cookbook. Technical University of Denmark. (Page 12, Eqs 92-105)
  2. Nocedal, J., & Wright, S. J. (2006). Numerical Optimization. Springer. (Gradient & Hessian)
  3. Goodfellow, I., et al. (2016). Deep Learning. MIT Press. (Trace derivatives in Backprop)

補足:Page 12 の公式を「スカラー(数値)」で直感的に理解する#

Page 12 には、複雑な商の微分や、トレース(Trace)の微分が登場します。これらも「行列を xx、定数行列を a,ba, b」と置くことで、高校数学の微分公式と驚くほど一致します。

1. 高次形式の微分 (Eq. 92)#

公式: XaT(Xn)TXnb\frac{\partial}{\partial X} \mathbf{a}^T (X^n)^T X^n \mathbf{b}

  • スカラー翻訳: axnxnba \cdot x^n \cdot x^n \cdot b の微分
    • 思考: y=abx2ny = ab x^{2n} です。
    • 微分: y=2nabx2n1y' = 2n ab x^{2n-1}
  • 行列の事情:
    • スカラーなら 2n2n という係数でまとまりますが、行列は非可換なので「積の微分」として展開されます。
    • 左の (Xn)T(X^n)^T を微分した項と、右の XnX^n を微分した項の2つが出てくる(和になる)構造は、スカラーの xnxnx^n \cdot x^n の微分 (xn)xn+xn(xn)(x^n)' x^n + x^n (x^n)' と同じです。

2. 商の微分(一般化レイリー商) (Eq. 95)#

公式: x(Ax)T(Ax)(Bx)T(Bx)\frac{\partial}{\partial \mathbf{x}} \frac{(A\mathbf{x})^T (A\mathbf{x})}{(B\mathbf{x})^T (B\mathbf{x})}

  • スカラー翻訳: (ax)2(bx)2\frac{(ax)^2}{(bx)^2} の微分
    • 思考: 商の微分公式 (uv)=uvuvv2\left( \frac{u}{v} \right)' = \frac{u'v - uv'}{v^2} を使います。
    • 分子: u=(ax)2u=2a2xu = (ax)^2 \to u' = 2 a^2 x
    • 分母: v=(bx)2v=2b2xv = (bx)^2 \to v' = 2 b^2 x
    • 結果: 2a2x(bx)2(ax)22b2x(bx)4\frac{2a^2 x \cdot (bx)^2 - (ax)^2 \cdot 2b^2 x}{(bx)^4}
  • 行列の事情:
    • 行列版も全く同じ「商の微分」の構造をしています。
    • 分子の微分 uu'2ATAx2 A^T A \mathbf{x}、分母の微分 vv'2BTBx2 B^T B \mathbf{x} に対応しています。
    • これらを公式に当てはめれば、Eq. 95 そのものになります。

3. 勾配とヘッセ行列 (Eq. 97, 98)#

公式: f(x)=xTAx+bTxf(\mathbf{x}) = \mathbf{x}^T A \mathbf{x} + \mathbf{b}^T \mathbf{x}

  • スカラー翻訳: ax2+bxa x^2 + bx の微分
    • 1階微分(勾配): 2ax+b2ax + b
    • 2階微分(ヘッセ行列): 2a2a
  • 行列の事情:
    • 勾配: (A+AT)x+b(A+A^T)\mathbf{x} + \mathbf{b}。もし AA が対称 (A=ATA=A^T) なら 2Ax+b2A\mathbf{x} + \mathbf{b} となり、スカラーと完全に一致します。
    • ヘッセ行列: A+ATA+A^T。対称なら 2A2A となり、これも一致します。
    • 「二次関数の2階微分は定数(係数の2倍)になる」という直感は行列でも通用します。

4. トレース微分の基本 (Eq. 99, 100)#

公式: XTr(X)=I,XTr(XA)=AT\frac{\partial}{\partial X} \text{Tr}(X) = I, \quad \frac{\partial}{\partial X} \text{Tr}(XA) = A^T

  • スカラー翻訳: xxxaxa の微分
    • 微分: x=1,(xa)=ax' = 1, \quad (xa)' = a
  • 行列の事情:
    • 1I1 \to I (単位行列)
    • aATa \to A^T (転置)
    • 重要ルール: トレース微分では、係数行列が**「転置して」**残ります。これは Tr(ATB)\text{Tr}(A^T B) が行列の内積(スカラー積)に対応しているためです。

5. トレース積の微分 (Eq. 101, 102)#

公式 (Eq. 101): XTr(AXB)=ATBT\frac{\partial}{\partial X} \text{Tr}(AXB) = A^T B^T

  • スカラー翻訳: axbaxb の微分
    • 微分: abab
  • 行列の事情:
    • 係数 AABB が残りますが、それぞれ転置されます (AT,BTA^T, B^T)。
    • (BA)T(BA)^T と書いても同じです。スカラーの abab に対応しています。

公式 (Eq. 102): XTr(AXTB)=BA\frac{\partial}{\partial X} \text{Tr}(AX^T B) = BA

  • スカラー翻訳: axbaxb の微分(ただし xx が転置されている)
    • 微分: abab
  • 行列の事情:
    • ここで XXXTX^T として入っています。
    • XX で微分すると、転置の影響で係数の「転置ルール」がキャンセルされ、そのままの形 (BAB A) で出てきます(あるいは AT,BTA^T, B^T の順序が入れ替わるなど)。
    • 覚え方としては、「XX がそのままなら係数は転置、XTX^T なら係数はそのまま(に近い形)」という傾向があります。

6. クロネッカー積のトレース (Eq. 105)#

公式: XTr(AX)=Tr(A)I\frac{\partial}{\partial X} \text{Tr}(A \otimes X) = \text{Tr}(A) I

  • スカラー翻訳: axax の微分(aaxx も行列のサイズ分だけ増殖しているイメージ)
    • 微分: aa
  • 行列の事情:
    • クロネッカー積の性質 Tr(AX)=Tr(A)Tr(X)\text{Tr}(A \otimes X) = \text{Tr}(A)\text{Tr}(X) を使えば、実質 cTr(X)c \cdot \text{Tr}(X)cc は定数)の微分です。
    • Eq. 99 より Tr(X)\text{Tr}(X) の微分は II なので、結果は Tr(A)I\text{Tr}(A) I となります。

まとめ:Page 12 の攻略法#

  1. 商の微分はそのまま使える: 高校数学の (u/v)(u/v)' の公式に、ベクトル微分のパーツを当てはめるだけです。
  2. 二次関数は 2ax+b2ax+b: A+ATA+A^T を「行列版の 2a2a」だと思えばOKです。
  3. トレースは転置に注意: 基本的に「係数が残る」のはスカラーと同じですが、Tr(XA)AT\text{Tr}(XA) \to A^T のように転置がつく点だけ気をつけてください。

発展的補足:3階以上の微分とテンソル解析#

行列微分(Matrix Calculus)の教科書では通常、2階微分(ヘッセ行列)までしか扱われません。これは、3階以上の微分が「行列(2次元の表)」という枠組みを超え、高階テンソル(Multidimensional Array) となるためです。

ここでは、その数理的構造と取り扱い方法について詳細に解説します。

1. 高階微分の定義#

スカラー関数 f(x)f(\mathbf{x})xRn\mathbf{x} \in \mathbb{R}^n)の微分は、階数が上がるごとに次元が1つ増えます。

  • 1階微分(勾配): nn 次元のベクトル (f)i=fxi(\nabla f)_i = \frac{\partial f}{\partial x_i}
  • 2階微分(ヘッセ行列): n×nn \times n の行列 (H)ij=2fxixj(H)_ {ij} = \frac{\partial^2 f}{\partial x_i \partial x_j}
  • 3階微分: n×n×nn \times n \times n の3階テンソル (T)ijk=3fxixjxk(\mathcal{T})_{ijk} = \frac{\partial^3 f}{\partial x_i \partial x_j \partial x_k}

この3階微分 T\mathcal{T} は、成分 (i,j,k)(i, j, k) を持つ立方体のようなデータ構造となります。

2. 表記法の限界と「アインシュタインの縮約記法」#

行列記法(Matrix Notation)は、ベクトル v\mathbf{v} と行列 MM の積 vTMv\mathbf{v}^T M \mathbf{v} のように、2次元までの操作を記述するのに特化しています。3階以上のテンソルが登場すると、標準的な行列積の記号では記述が困難になります。

そこで、物理学や連続体力学で用いられる アインシュタインの縮約記法(Einstein Summation Convention) が必須となります。

ルール: 「一つの項の中に同じ添字が2回現れたら、その添字について和をとる(\sum を省略する)」

例:テイラー展開の3次項 スカラー関数 f(x+δ)f(\mathbf{x} + \boldsymbol{\delta}) のテイラー展開を考えます。

  • 行列記法(2次まで): f(x+δ)f(x)+fTδ+12δTHδf(\mathbf{x} + \boldsymbol{\delta}) \approx f(\mathbf{x}) + \nabla f^T \boldsymbol{\delta} + \frac{1}{2} \boldsymbol{\delta}^T H \boldsymbol{\delta}
  • 縮約記法(3次項を含む): f(x+δ)f+fxiδi+122fxixjδiδj+163fxixjxkδiδjδk3次項f(\mathbf{x} + \boldsymbol{\delta}) \approx f + \frac{\partial f}{\partial x_i} \delta_i + \frac{1}{2} \frac{\partial^2 f}{\partial x_i \partial x_j} \delta_i \delta_j + \frac{1}{6} \underbrace{\frac{\partial^3 f}{\partial x_i \partial x_j \partial x_k} \delta_i \delta_j \delta_k}_{\text{3次項}}

ここで、3次項の 3fxixjxkδiδjδk\frac{\partial^3 f}{\partial x_i \partial x_j \partial x_k} \delta_i \delta_j \delta_k は、テンソル T\mathcal{T} とベクトル δ\boldsymbol{\delta} の「3重縮約(Triple Contraction)」を表しており、i,j,kTijkδiδjδk\sum_{i,j,k} \mathcal{T}_{ijk} \delta_i \delta_j \delta_k を意味します。

3. テンソル積のイメージ(クロネッカー積による表現)#

無理に行列記法で表現しようとする場合、クロネッカー積(Kronecker Product, \otimesベクトル化(vec) を用いる方法があります。

3階微分テンソル T\mathcal{T}n×n2n \times n^2 の横長行列 T[mat]T_{[mat]} に展開したとすると、3次項は以下のように書けます。

3rd Order Term=16δTT[mat](δδ)\text{3rd Order Term} = \frac{1}{6} \boldsymbol{\delta}^T T_{[mat]} (\boldsymbol{\delta} \otimes \boldsymbol{\delta})

しかし、この表記は δδ\boldsymbol{\delta} \otimes \boldsymbol{\delta} (サイズ n2n^2 のベクトル)を生成するため、直感的でなく計算効率も悪いため、理論解析以外ではあまり用いられません。

4. 具体例:3次関数の微分#

簡単な3次関数で、実際にテンソルが出てくる様子を見てみましょう。

関数:

f(x)=ixi3f(\mathbf{x}) = \sum_{i} x_i^3

(各成分の3乗和)

  1. 勾配(1階): fxi=3xi2    f=3xx(アダマール積)\frac{\partial f}{\partial x_i} = 3x_i^2 \implies \nabla f = 3 \mathbf{x} \circ \mathbf{x} \quad (\text{アダマール積})
  2. ヘッセ行列(2階): 2fxixj={6xi(i=j)0(ij)    H=6diag(x)\frac{\partial^2 f}{\partial x_i \partial x_j} = \begin{cases} 6x_i & (i=j) \\ 0 & (i \neq j) \end{cases} \implies H = 6 \cdot \text{diag}(\mathbf{x})
  3. 3階微分テンソル: 3fxixjxk={6(i=j=k)0(それ以外)\frac{\partial^3 f}{\partial x_i \partial x_j \partial x_k} = \begin{cases} 6 & (i=j=k) \\ 0 & (\text{それ以外}) \end{cases} これは、対角線 (i,i,i)(i,i,i) 上にのみ値 66 が並び、それ以外が 00 であるような「対角テンソル」となります。

5. 計算量とメモリの壁#

実務(特に機械学習)で3階微分が使われない最大の理由は 「次元の呪い」 です。

パラメータ数 n=1000n = 1000 のモデルを考えます。

  • 勾配: 10001000 要素 (44 KB)
  • ヘッセ行列: 1,000,0001,000,000 要素 (44 MB)
  • 3階テンソル: 1,000,000,0001,000,000,000 要素 (44 GB)

パラメータ数が 10,00010,000 になると、3階テンソルは 1,0001,000 億要素(44 TB)となり、メモリに格納することすら不可能になります。 そのため、準ニュートン法(BFGSなど)では、ヘッセ行列すら直接計算せず、勾配の履歴から近似する手法が取られます。ましてや3階微分をまともに扱うことは、計算資源的に極めて非効率なのです。

補足:4階微分と「4階テンソル」の世界#

3階微分(立方体)のさらに先、4階微分は 「4階テンソル(4th Order Tensor)」 と呼ばれます。 これは n×n×n×nn \times n \times n \times n の成分を持つ多次元配列であり、もはや3次元空間に図示することすら困難ですが、数理科学においては極めて重要な意味を持ちます。

1. 定義と表記#

スカラー関数 f(x)f(\mathbf{x}) の4階微分は、4つの添字 (i,j,k,l)(i, j, k, l) を持つテンソル Q\mathcal{Q} として定義されます。

(Q)ijkl=4fxixjxkxl(\mathcal{Q})_{ijkl} = \frac{\partial^4 f}{\partial x_i \partial x_j \partial x_k \partial x_l}

テイラー展開の4次項: アインシュタインの縮約記法を用いると、4次の項は以下のように書かれます。

4th Term=124Qijklδiδjδkδl\text{4th Term} = \frac{1}{24} \mathcal{Q}_{ijkl} \delta_i \delta_j \delta_k \delta_l

これは「4重縮約(Quadruple Contraction)」であり、成分 (i,j,k,l)(i,j,k,l) と微小変化 δ\delta の4つの積の総和をとることを意味します。

2. なぜ4階テンソルが必要なのか?(実用例)#

「こんな複雑なもの、どこで使うんだ?」と思われるかもしれませんが、実は身近な物理法則や統計解析の根幹を支えています。

応用例1:弾性体力学(フックの法則の一般化) バネのフックの法則 F=kxF=kx(力=バネ定数×伸び)を、3次元の物体に拡張することを考えます。

  • 応力(Stress, σij\sigma_{ij}: 物体内部にかかる力。2階テンソル(行列)。
  • ひずみ(Strain, ϵkl\epsilon_{kl}: 物体の変形。2階テンソル(行列)。 これらを結びつける「バネ定数」に相当するものが、弾性テンソル(Stiffness Tensor, CijklC_{ijkl} です。
σij=k,lCijklϵkl\sigma_{ij} = \sum_{k,l} C_{ijkl} \epsilon_{kl}

「行列」と「行列」を線形変換で結びつけるためには、どうしても4階テンソル(3×3×3×3=813 \times 3 \times 3 \times 3 = 81 成分)が必要になります。建物や自動車の強度計算(FEM解析)では、この4階テンソルが主役です。

応用例2:統計学(尖度・カートシス) データの分布形状を調べる際、平均(1次)、分散(2次・共分散行列)、歪度(3次)に続く4次モーメントが 尖度(Kurtosis) です。 多変量解析において、データが正規分布からどれだけ「尖っている」か、あるいは「裾が厚いか」を評価するには、4次のモーメントテンソル(4th Cumulant)を解析する必要があります。これは独立成分分析(ICA)などの信号処理で、「非ガウス性」を見つけるための鍵となります。

3. 具体例:4次関数の微分#

最もシンプルな4次関数で、実際に微分してみましょう。

関数:

f(x)=124ixi4f(\mathbf{x}) = \frac{1}{24} \sum_{i} x_i^4
  1. 1階微分(勾配ベクトル): fxi=16xi3\frac{\partial f}{\partial x_i} = \frac{1}{6} x_i^3
  2. 2階微分(ヘッセ行列): 2fxixj=12xi2δij(対角成分のみ)\frac{\partial^2 f}{\partial x_i \partial x_j} = \frac{1}{2} x_i^2 \delta_{ij} \quad (\text{対角成分のみ})
  3. 3階微分(3階テンソル): 3fxixjxk=xiδijδjk\frac{\partial^3 f}{\partial x_i \partial x_j \partial x_k} = x_i \delta_{ij} \delta_{jk}
  4. 4階微分(4階テンソル): 4fxixjxkxl=δijδjkδkl\frac{\partial^4 f}{\partial x_i \partial x_j \partial x_k \partial x_l} = \delta_{ij} \delta_{jk} \delta_{kl} これは、4つの添字がすべて等しい場合 (i=j=k=li=j=k=l) にのみ値 11 を持ち、それ以外は 00 となる特殊なテンソル(一般化された単位テンソル)です。

4. 結論#

4階微分は、単なる数学的な遊びではありません。

  • 物理: 「行列(応力)」を入力して「行列(ひずみ)」を出力する関数の微分(感度)として現れる。
  • 統計: 「分散(行列)」のさらに奥にある「分布の鋭さ」を見るために現れる。

私たちが普段扱っている「行列(2階)」の世界を一歩外に出ると、そこにはより豊かで、より精密な「テンソル(高階)」の世界が広がっています。ここまで理解できれば、機械学習の論文に出てくる「Tensor Contraction」などの記述も、恐れることなく読み解けるはずです。

『The Matrix Cookbook』Page 12完全解読:勾配・ヘッセ行列・トレース微分の基礎
https://ss0832.github.io/posts/20260110_the_matrix_cookbook_6/
Author
ss0832
Published at
2026-01-10
License
CC BY-NC-SA 4.0

Related Posts

『The Matrix Cookbook』Page 16完全解読:テープリッツ行列の微分と構造化行列の総括
2026-01-10
『The Matrix Cookbook』の最終ページ(Page 16)に記載されたテープリッツ行列の微分公式(Eq. 143-144)を完全網羅。対角成分が連動する特殊構造における微分の定義 α(A) と、対称テープリッツ行列への拡張、さらにシリーズ全体の総括を含めた包括的解説書。
『The Matrix Cookbook』Page 9完全解読:複合行列式の微分と逆行列の摂動論
2026-01-10
『The Matrix Cookbook』Page 9に記載された複合関数の行列式微分(二次形式、線形形式)および逆行列の汎用微分公式(Eq. 49-59)を完全網羅。ウィシャート分布の解析、ガウス過程回帰、準ニュートン法への応用を含め、数理的背景から実務実装までを体系的に論じる包括的解説書。
『The Matrix Cookbook』Page 10完全解読:逆行列の成分微分・固有値摂動論・基本形式
2026-01-10
『The Matrix Cookbook』Page 10に記載された逆行列の成分ごとの微分公式、対称行列における固有値・固有ベクトルの微分(摂動論)、および基本的なベクトル・スカラー形式の一次微分(Eq. 60-75)を完全網羅。レイリー商の微分や、構造解析・主成分分析(PCA)への応用を含め、数理的背景から実務実装までを体系的に論じる包括的解説書。
『The Matrix Cookbook』Page 11完全解読:二次形式・高次形式・最小二乗法の微分
2026-01-10
『The Matrix Cookbook』Page 11に記載された二次形式(ベクトル・行列)、最小二乗法関連の微分、複素LMSアルゴリズム、および行列のn乗(高次形式)の微分公式(Eq. 76-91)を完全網羅。統計的推定や制御理論、機械学習の損失関数設計への応用を含め、数理的背景から実務実装までを体系的に論じる包括的解説書。
『The Matrix Cookbook』Page 13完全解読:トレース微分の二次形式と高次形式
2026-01-10
『The Matrix Cookbook』Page 13に記載された二次形式のトレース微分(Eq. 106-120)および高次形式のトレース微分(Eq. 121-123)を完全網羅。フロベニウスノルムの最小化(Ridge回帰、行列分解)やニューラルネットワークの損失関数設計への応用を含め、数理的背景から実務実装までを体系的に論じる包括的解説書。
『The Matrix Cookbook』:表記法の定義と基礎演算の数理的性質(Pages 1-7)
2026-01-10
『The Matrix Cookbook』の冒頭(Pages 1-7)で定義されている行列・ベクトルの表記法を体系的に整理し、特にエルミート転置(A^H)の定義と物理的意味、およびトレース演算を用いた行列式の一次近似(微分)の構造について、数理的な背景を含めて詳細に解説する。