UMP, Langragian multiplier, KKT Conditions

Tags:
MaximizationConcavityHessian matrixBordered hessian matrix

미시경제 과목의 첫 3주 정도는 사실상 Optimization만 다뤄졌다. 전반적으로 처음 들어보는 내용은 아니었는데, 세세하게 보면 헷갈리는 지점들이 자주 생겨서 (다변수 함수의 chain rule도 그중 하나였고) 한 번에 정리했다.

(Local max / Local constrained max / Global max / Global constrained max가 혼재되니까 좀 힘들었다.)

Utility Maximization Problem (UMP)


일관성을 위해 모두 Maximization을 기준으로 살펴본다.

Necessary / Sufficient condition

일단 univariate 함수 f(x)f(x) 와 어떤 point x0x_0 에 대해

  • FOC f(x0)=0f'(x_0)=0 를 만족하는 것은,   x0x_0 가 local max가 되는 것의 Necessary condition이다.

    • 기울기가 0이어도 그게 local min일 수도 있다.
  • FOC와 SOC f(x0)<0f''(x_0)<0 까지 모두 만족하면 이것은,   x0x_0 가 local max가 되는 것의 Sufficient conditon이다.

Local / Global max

  • 최댓값이 나올 것 같은 어떤 point x0x_0 를 선택한 후 이 point가 FOC (f(x0)=0f'(x_0)=0), SOC (f(x0)<0f''(x_0)<0)을 잘 만족하면, 그건 일단 Local max 라고 한다.

    • x0x_0 주변 에 대하여 검증한 것이기 때문이다.
  • x0x_0Global max 가 되려면 일단 FOC f(x0)=0f'(x_0)=0 와 함께, f(x0)0 xf''(x_0) \leq 0 \quad \forall \ x 도 만족해야 한다.

    • 이 부등호는 strict 하지 않다.

    • 둘을 모두 만족하면 이건 Sufficient condition이다.

Strict max

  • Strict local max 여부는 그 최댓값의 uniqueness 에 따라 달라진다. 함수 f(x)f(x) 에 그 최댓값이 나타나는 지점이 오직 x=x0x=x_0 뿐이라면 Strict local max라고 할 수 있다.

Concavity of fucntion

Concavity에 대해 따지게 되는 대상이 세 가지가 나오는데 (function, set, preference) 그중 함수의 concavity에 대한 정의들이다.

Concave function

수업에서 사용한 정의는, C2C^2 인 함수 f:R2Rf:\mathbb{R}^2 \rightarrow \mathbb{R} 에 대해

f(x)f(x) 가 concave \Leftrightarrow Hessian matrix D2f(x)D^2 f(x) 가 모든 xXx \in X 에 대해 negative semi definite

이라는 것이다. 또한 후자는

det(f11(x))0x    det(f22(x))0x    det(D2f(x))0x\det\bigl(f_{11}(x)\bigr) \leq 0 \quad \forall x \;\land\; \det\bigl(f_{22}(x)\bigr) \leq 0 \quad \forall x \;\land\; \det\bigl(D^2 f(x)\bigr) \geq 0 \quad \forall x

와 동치이다.

그 외의 정의로는 f(tx+(1t)y)  tf(x)+(1t)f(y) for any t(0,1)f(tx + (1-t)y) \ \geq \ t f(x) + (1-t) f(y) \ \text{for any} \ t \in (0,1) 도 있다.

Strictly Concave function

위 정의에서 부등호에 등호를 제외하면 Strictly concave한 함수가 된다.

Quasi-concave function

수업에서는

f(x)f(x) 가 quasi-concave \Leftrightarrow {x:f(x)c}(upper contour set) is convex for all c\{x: f(x) \geq c\} \text{(upper contour set) is convex for all} \ c

로 정의했다.

이러면 이제 set SRnS \subseteq \mathbb{R}^n이 convex하다는 건 또 뭐냐:

임의의 두 point x,ySx, y \in S 와 임의이 λ[0,1]\lambda \in [0,1] 에 대해 λx+(1λ)yS\lambda x + (1-\lambda)y \in S 임을 말한다.

그 외의 정의로는 f(tx+(1t)y)  min{f(x),f(y)} for any t(0,1)f(tx + (1-t)y) \ \geq \ \text{min} \{ f(x), f(y) \} \ \text{for any} \ t \in (0,1) 도 있다.

이를 만족하는 효용함수로는 Leontief utility function u(x1,x2)=min{x1,x2}u(x_1, x_2) = \text{min}\{x_1, x_2\} 을 예로 들 수 있다.

Strictly Quasi-concave function

마찬가지로, 위 정의에 있는 부등호에서 등호를 제외하면 된다.

Unconstrained max

  • Strict local max
    • FOC: f(x0)=0\nabla f(x_0) = 0, SOC: hesisan is negative definite **at x0x_0 **
    • 이를 만족하는 x0x_0strict local max가 된다.
  • Global max (condition)
    • 주어진 함수가 concave function이면 FOC를 만족시키는 x0x_0global max임.

이걸 단계별로 살펴보면, (어떤 point x0x_0 에서 FOC는 만족한다 가정하고)

  1. Hesisan matrix가 x0x_0 에서
  • Negative semi definite: 이러면 딱히 확정되는 것이 없다. x0x_0 가 saddle point여도 D2f(x0)D^2f(x_0) 은 semi definite일 수 있다.
  • Negative definite: f(x0)f(x_0)Strict local max가 된다.
  1. Hesisan matrix가 모든 xx 에 대해
  • Negative semi definite: 이는 utility function이 concave라는 것을 의미하니 x0x_0Global max임을 알 수 있다.
  • Negative definite: 이제는 x0x_0Strict global max이 된다.

Constrained max

이제 constraint가 조건으로 붙기 시작한다.

Equality condition

maxx1,x2f(x1,x2)s.t.p1x1+p2x2=W\begin{aligned} \max_{\substack{x_1, x_2}} \quad & f(x_1, x_2) \\ \text{s.t.} \quad & p_1 x_1 + p_2 x_2 = W \\ \end{aligned}

와 같은 형태의 문제를 다룬다. 이를 푸는 Lagrangian multiplier를 학부 미적분학2 시간에 처음 배울 때,

문제를 푸는 직관은 특정 point에서 ffgg 의 gradient가 같은 방향 즉 상수배가 돼야 하니 이를 식으로 쓰면

f(x1,x2)=λg(x1,x2)\nabla f(x_1, x_2) = \lambda \nabla g(x_1, x_2)

이 된다고(minimization은 부호만 반대) 배웠던 기억이 난다. 여기에 GPT의 설명을 좀 더해서 항들을 좌변으로 몰아버린 후 gradient 연산자를 묶어버리면 fλgf - \lambda g 가 등장한다. 이는

L(x1,x2,λ)=f(x1,x2)λg(x1,x2)\mathcal{L}(x_1, x_2, \lambda) = f(x_1, x_2) - \lambda g(x_1, x_2)

Lagrangian function에 나타나는 fλgf - \lambda g 와 같은 형태이다. 이제 Lx1=0,Lx2=0,Lλ=0\frac{\partial \mathcal{L}}{\partial x_1}=0, \frac{\partial \mathcal{L}}{\partial x_2}=0, \frac{\partial \mathcal{L}}{\partial \lambda}=0 을 풀어주면 된다.

Lagrangian multiplier는 '2-variable, 1 constraint problem을 (λ\lambda 를 추가함으로써) 3-variable unconstrained problem으로 바꾸는 것'이라는 교수님의 설명이 기억에 남는다.


그리고 이런 equality constraint 문제는 Bordered hessian matrix 를 사용해서 풀 수도 있다.

xx^* 를 잘 찾아서 f(x)=λg(x), f(x)0\nabla f(x^*) = \lambda^* \nabla g(x^*), \ \nabla f(x^*) \ne 0 을 만족하고

Bordered hessian matrix에 대해

det(0f1(x)f2(x)f1(x)f11(x)f12(x)f2(x)f21(x)f22(x))>0det \begin{pmatrix} 0 & f_1(x^*) & f_2(x^*)\\ f_1(x^*) & f_{11}(x^*) & f_{12}(x^*)\\ f_2(x^*) & f_{21}(x^*) & f_{22}(x^*) \end{pmatrix}>0 이면, xx^*Strict local constrained max이다.

Inequality condition

maxx1,x2f(x1,x2)s.t.p1x1+p2x2Wx10, x20\begin{aligned} \max_{\substack{x_1, x_2}} \quad & f(x_1, x_2) \\ \text{s.t.} \quad & p_1 x_1 + p_2 x_2 \leq W \\ & x_1 \geq 0, \ x_2 \geq 0 \end{aligned}

이러한 부등식 제약식이 있는 문제의 경우 Khun-Tucker lagrangian multiplier 를 이용하여 해결한다.

일관성을 위해 모든 부등식은 g(x)0g(\mathbb{x}) \leq 0 형태로 나타내고, Lagrangian function을 다음과 같이 써낸다.

L(x1,x2,λ,μ1,μ2)=f(x1,x2)λg1(x1,x2)μ1g1(x1,x2)μ2g3(x1,x2)\mathcal{L}(x_1, x_2, \lambda, \mu_1, \mu_2) = f(x_1, x_2) - \lambda g_1(x_1, x_2) - \mu_1 g_1(x_1, x_2) - \mu_2 g_3(x_1, x_2)

위 예시에서는,  g1(x1,x2)=p1x1+p2x2W0,g2(x1,x2)=x10,g3(x1,x2)=x20\ g_1(x_1, x_2) = p_1 x_1 + p_2 x_2 - W \leq 0, \quad g_2(x_1, x_2) = -x_1 \leq 0, \quad g_3(x_1, x_2) = -x_2 \leq 0

그리고 주어진 조건들에 따라 함수의 domain (X1×X2X_1 \times X_2)을 여러 케이스로 잘 나눈 후, 그중 아래 4개의 Khun-Tucker Condition 을 만족하는 경우에서 이 최적화 조건의 해를 찾아내면 된다.

  1. Gradient condition: Lx1=0,Lx2=0\frac{\partial \mathcal{L}}{\partial x_1} = 0, \quad \frac{\partial \mathcal{L}}{\partial x_2} = 0

  2. Feasibility: p1x1+p2x2W,x10,x20p_1 x_1 + p_2 x_2 \leq W, \quad x_1 \geq 0, \quad x_2 \geq 0

  3. Non-negativity: λ,μ1,μ20\lambda, \mu_1, \mu_2 \geq 0

  4. Complementary Slackness Condition

  • λ(p1x1+p2x2W)=0\lambda(p_1 x_1 + p_2 x_2 - W )=0
  • μ1x1=0\mu_1 x_1=0
  • μ2x2=0\mu_2 x_2=0

다만 이러한 Khun-Tucker condition은 Necessary condition이므로 이걸 만족해도 그렇게 구한 (candidate) point들이 min / max / saddle point 중 무엇일지 알 수는 없고, 결국 또다시 Second Order Condition이 함께 충족되어야 Sufficient condition이 된다.

만약 함수 f(x1,x2)f(x_1, x_2) 가 quasi-concave하고, feasible set은 convex하면, 이를 만족하는 local constrained max는 global constrained max이다.



2026.03.25
2026.03.30

References


https://pasus.tistory.com/73