quot; - ์ฑ๊ณผ๋ฅผ "๋ฅ๋ ฅ"๊ณผ "๋ ธ๋ ฅ"์ผ๋ก ์ ํํ ๋ถํด - ๊ฒฐ๊ณผ: ๋ ์ ํํ ๋ฅ๋ ฅ ํ๊ฐ โ ์ฝํ ์๋ฌต์ ์ธ์ผํฐ๋ธ โ $b_1^* \uparrow$ **์ํ์ ํํ:** Private: $E[\eta | p_1]$ depends on $p_1$ without conditioning on $b_1$ Public: $E[\eta | p_1, b_1] = \varphi (p_1 - g \cdot a_1(b_1))$ **์ ์ฑ ์ ํจ์:** | ๊ณ์ฝ ์ ํ | ์์ฅ ์ถ๋ก | ์๋ฌต์ ์ธ์ผํฐ๋ธ | ๋ช ์์ ๋ณด์ | ์ฌํ์ ํจ์จ์ฑ | |----------|----------|----------------|------------|--------------| | ๋น๊ณต๊ฐ | ๋ถ์์ | ๊ฐํจ | ๋ฎ์ | ์๊ณก ๊ฐ๋ฅ | | ๊ณต๊ฐ | ์ ํ | ์ฝํจ | ๋์ | ํจ์จ์ | **์ค์ ์์:** - ์์ ๋ณด์ ๊ณต์ ์ ๋ (Executive compensation disclosure) - ํ๊ณ ์ฑ์ฉ์ ์ถ์ฒ์์ ์ญํ (hard evidence vs cheap talk) **English:** **Scenario Comparison:** **Private Contract:** - Market doesn't observe $b_1$ - Sees performance $p_1 = 10$ โ can't decompose "ability" vs "effort" - Over-attributes high $p_1$ to ability โ strong implicit incentive $\delta \varphi$ - Result: $b_1^* \downarrow$ (low explicit reward) **Public Contract:** - Market observes $b_1 = 0.3$ - "Oh, bonus was 0.3 โ expected effort = $\frac{0.3}{c} gquot; - Accurately decomposes performance into "ability" and "effort" - Result: More accurate ability assessment โ weak implicit incentive โ $b_1^* \uparrow$ **Mathematical Expression:** Private: $E[\eta | p_1]$ depends on $p_1$ without conditioning on $b_1$ Public: $E[\eta | p_1, b_1] = \varphi (p_1 - g \cdot a_1(b_1))$ **Policy Implications:** | Contract Type | Market Inference | Implicit Incentive | Explicit Reward | Social Efficiency | |--------------|------------------|-------------------|-----------------|-------------------| | Private | Imperfect | Strong | Low | Potentially distorted | | Public | Accurate | Weak | High | Efficient | **Real Examples:** - Executive compensation disclosure regulations - Recommendation letters in academic hiring (hard evidence vs cheap talk) --- ### ์ข ํฉ ์์ฝํ / Summary Table: Problem 1 | ๊ฐ๋ / Concept | ๋ฉ์ปค๋์ฆ / Mechanism | ํจ์ / Implication | |---------------|---------------------|-------------------| | $\cos(\theta)$ | ์ฑ๊ณผ์งํ-๊ฐ์น ์ ๋ ฌ / Metric-value alignment | ๋ฎ์ ์ ๋ ฌ โ ์ฝํ ์ธ์ผํฐ๋ธ / Low โ weak incentives | | $\varphi$ | ์ ํธ ์ ํ๋ / Signal precision | $\varphi \uparrow$ โ ์๋ฌต์ ๋ณด๋์ค $\delta \varphi \uparrow$ / โฯ โ implicit bonus โ | | $b_1$ vs $b_2$ | ๋ช ์์ vs ์๋ฌต์ / Explicit vs implicit | $b_1 = b_2 - \delta \varphi$ (๋์ฒด์ฌ / substitutes) | | ๊ณต๊ฐ ๊ณ์ฝ / Public contract | ๊ฒ์ฆ ๊ฐ๋ฅ ์ ํธ / Verifiable signal | ๊ฒฝ๋ ฅ ์๊ณก ๊ฐ์ / Reduces career distortion | --- ## ๐น ๋ฌธ์ 2: ํํ๊ณผ ์ ๋ณด ์ ๋ฌ / Problem 2: Reputation and Information Transmission ### ์ด๋ก ์ ๋ฐฐ๊ฒฝ / Theoretical Foundation **Model lineage:** - **Crawford & Sobel (1982)** cheap talk model (BGP ยง 4.1) - Extended with reputation motive $\lambda \times \phi(m)$ **Core theme:** Reputation concerns can **block** information transmission in strategic communication. --- ### Setup: ์กฐ์ธ์ ๋ชจํ / Advisor Model **Players:** - **Sender (Advisor):** Privately observes state $s \in \{0,1\}$, sends message $m \in \{0,1\}$ - **Receiver (Principal):** Updates belief $\phi(m) = Pr(\text{unbiased} | m)$, chooses decision $d$ **Sender Types:** - **Unbiased (u):** $U^u(d,s) = -(d-s)^2$ (aligned with principal) - **Biased (b):** $U^b(d,s) = -(d-1)^2$ (always prefers high $d$) - **Prior:** $Pr(\text{unbiased}) = q \in (0,1)$ **Reputation Motive:** All types value appearing unbiased: $+\lambda \phi(m)$ **Principal's Payoff:** $V(d,s) = -(d-s)^2$ --- ### ๋ฌธ์ 2(a): ์ ์์ ๋ถ๋ฆฌ ๊ท ํ์ด ๋ถ๊ฐ๋ฅํ๊ฐ? / Why No Full Separation? **ํ๊ธ:** **๋ชฉํ:** ์ ํ์ ๋ชจ๋ ์ง์ค์ ๋งํ๋ ๊ท ํ ์กด์ฌ ์ฌ๋ถ (truthful revelation: $m = s$) **๋ชจ์ ์ฆ๋ช (Proof by Contradiction):** **๊ฐ์ :** ๋ถ๋ฆฌ ๊ท ํ ์กด์ฌ, ์ฆ - Unbiased: $m^u(0) = 0, m^u(1) = 1$ - Biased: $m^b(0) = 0, m^b(1) = 1$ **์ฃผ์ฅ์ Principal ๋ฐ์:** - $m = 0 \Rightarrow d_0 = 0$ (๋ฏฟ๊ณ ๋ฎ์ ๊ฒฐ์ ) - $m = 1 \Rightarrow d_1 = 1$ (๋ฏฟ๊ณ ๋์ ๊ฒฐ์ ) **Biased type์ ์ดํ ์ ์ธ (Deviation Incentive):** ์ํ $s = 0$์ผ ๋ biased type์ ๊ณ ๋ ค: **์ง์ค (Truth-telling):** $ U^b(d_0=0, s=0) = -(0-1)^2 + \lambda \cdot 0.5 = -1 + 0.5\lambda $ (ํํ์ ์ค๋ฆฝ์ , Bayesian updating์ผ๋ก $\phi(0) = q = 0.5$ ๊ฐ์ ) **๊ฑฐ์ง๋ง (Lying to $m=1$):** $ U^b(d_1=1, s=0) = -(1-1)^2 + \lambda \cdot 0.5 = 0 + 0.5\lambda $ **๋น๊ต:** $ 0 + 0.5\lambda > -1 + 0.5\lambda \quad \Rightarrow \quad \text{Lying strictly dominates} $ **๊ฒฐ๋ก :** Biased type์ $s=0$์ผ ๋ $m=1$๋ก ์ดํ โ ๊ท ํ ๋ถ๊ดด **Crawford-Sobel ๋ถ๊ฐ๋ฅ์ฑ (BGP ยง 4.1.2):** - Cheap talk: ๊ฑฐ์ง๋ง ๋น์ฉ ์์ (no cost to lying) - Preference misalignment: Biased type์ ์ง์ค ๋งํ ์ ์ธ ์์ - ๊ฒฐ๊ณผ: ์์ ๋ถ๋ฆฌ ๋ถ๊ฐ๋ฅ (no full separation) **English:** **Goal:** Can both types truthfully reveal state? (i.e., $m = s$) **Proof by Contradiction:** **Assumption:** Separating equilibrium exists: - Unbiased: $m^u(0) = 0, m^u(1) = 1$ - Biased: $m^b(0) = 0, m^b(1) = 1$ **Principal's Belief-Based Response:** - $m = 0 \Rightarrow d_0 = 0$ (believes and makes low decision) - $m = 1 \Rightarrow d_1 = 1$ (believes and makes high decision) **Biased Type's Deviation Incentive:** Consider biased type when $s = 0$: **Truth-telling:** $ U^b(d_0=0, s=0) = -(0-1)^2 + \lambda \cdot 0.5 = -1 + 0.5\lambda $ **Lying to $m=1$:** $ U^b(d_1=1, s=0) = -(1-1)^2 + \lambda \cdot 0.5 = 0 + 0.5\lambda $ **Comparison:** $ 0 + 0.5\lambda > -1 + 0.5\lambda \quad \Rightarrow \quad \text{Lying strictly dominates} $ **Conclusion:** Biased type deviates to $m=1$ when $s=0$ โ equilibrium breaks **Crawford-Sobel Impossibility (BGP ยง 4.1.2):** - Cheap talk: no cost to lying - Preference misalignment: biased type has no incentive to tell truth - Result: no full separation possible --- ### ๋ฌธ์ 2(b-c): ๋ถ๋ถ ๋ถ๋ฆฌ ๊ท ํ๋ ๋ถ๊ฐ๋ฅ / No Partial Separation Either **ํ๊ธ:** **๋ถ๋ถ ๋ถ๋ฆฌ (Partial Separation)๋?** ์: "Unbiased๋ ๊ฐ๋ ์ง์ค, Biased๋ ํญ์ ํ๋ง" **์ ๋ถ๊ฐ๋ฅํ๊ฐ?** ํํ ์ธ์ผํฐ๋ธ $\lambda$๊ฐ ์กด์ฌํ๋ฉด: - ๋ชจ๋ ํ์ ์ด "์ข์ ํํ ๋ฐ๋ ๋ฉ์์ง"๋ก ์๋ ด - ์ด๋ค ๋ฉ์์ง๋ ํ์ชฝ์ด ๋ ๋์ ํํ์ ์ฃผ๋ฉด, ๋ชจ๋ ๊ทธ์ชฝ์ผ๋ก ์ด๋ - **๊ฒฐ๊ณผ:** ๋ค์ ํ๋ง์ผ๋ก ๋ถ๊ดด (collapse to pooling) **์ํ์ ์ง๊ด:** ๋ง์ฝ $\phi(m_1) > \phi(m_0)$์ด๋ฉด: - ๋ชจ๋ ํ์ ์ด $m_1$ ์ ํ โ ๋ถ๋ถ ๋ถ๋ฆฌ ๋ถ๊ฐ๋ฅ - ํํ ์ฐจ์ด๊ฐ ์ ๋ก์ฌ์ผ ๋ถ๋ถ ๋ถ๋ฆฌ ๊ฐ๋ฅ โ ํ์ง๋ง preference misalignment๋ก ๋ถ๊ฐ๋ฅ **English:** **What is Partial Separation?** E.g., "Unbiased sometimes tells truth, Biased always pools" **Why Impossible?** With reputation incentive $\lambda$: - All types converge to "good reputation message" - If any message gives higher reputation, everyone migrates there - **Result:** Collapses back to pooling **Mathematical Intuition:** If $\phi(m_1) > \phi(m_0)$: - All types choose $m_1$ โ partial separation impossible - Need zero reputation difference for partial separation โ but preference misalignment prevents this --- ### ๋ฌธ์ 2(d): ํ๋ง ๊ท ํ - ๋ชจ๋ "1" / Pooling Equilibrium: All Say "1" **ํ๊ธ:** **๊ท ํ ๊ตฌ์กฐ:** $ m^u(s) = m^b(s) = 1 \quad \forall s \in \{0,1\} $ **Principal์ ๋ฐ์:** - ๋ฉ์์ง๊ฐ ๋ฌด์ ๋ณด์ (uninformative) โ ์ฌ์ ๋ฏฟ์ ์ ์ง - $d^* = E[s] = 0.5$ (prior: $s=0$ ๋๋ $s=1$ ๊ฐ๊ฐ 50% ๊ฐ์ ) **๊ท ํ ์กฐ๊ฑด (Incentive Compatibility):** Unbiased type์ด $s=0$์ ๋ดค์ ๋ ์ $m=1$์ ์ ํํ๋? **์ง์ค ๋งํ๊ธฐ (Deviate to $m=0$):** - Principal์ด "์ด์ํ๋ค, biased๊ฒ ์ง"๋ผ๊ณ ์๊ฐ โ $\phi(0) = 0$ (off-equilibrium belief) - ํ์ง๋ง ์ ํํ ๊ฒฐ์ : $d_0 = 0$ - Payoff: $U^u = -(0-0)^2 + \lambda \cdot 0 = 0$ **๊ฑฐ์ง๋ง (Pool at $m=1$):** - ํํ ์ ์ง: $\phi(1) = q$ - ๋ถ์ ํํ ๊ฒฐ์ : $d_1 = 0.5$ - Payoff: $U^u = -(0.5-0)^2 + \lambda q = -0.25 + \lambda q$ **๊ท ํ ์กฐ๊ฑด:** $ -0.25 + \lambda q \geq 0 \quad \Rightarrow \quad \lambda q \geq 0.25 $ **๊ฒฝ์ ์ ํด์:** | ์กฐ๊ฑด | ์๋ฏธ | ๊ฒฐ๊ณผ | |------|------|------| | $\lambda$ ํผ | ํํ ๊ฐ์น ๋์ | Unbiased๋ ๊ฑฐ์ง๋ง | | $\lambda$ ์์ | ํํ ๊ฐ์น ๋ฎ์ | ์ง์ค ๋งํ ์ ์ธ (but ๊ท ํ ๊นจ์ง) | **์ค์ ์์:** - **ํฌ์์ํ ์ ๋๋ฆฌ์คํธ:** "๋งค๋" ์ถ์ฒ ๊ฑฐ์ ์ ํจ (ํํ ๋ฆฌ์คํฌ) - **์ ์น ์ปจ์คํดํธ:** "์ํํ ์ง์ค"๋ณด๋ค "์์ ํ ๊ฑฐ์ง" ์ ํธ **English:** **Equilibrium Structure:** $ m^u(s) = m^b(s) = 1 \quad \forall s \in \{0,1\} $ **Principal's Response:** - Message is uninformative โ maintains prior belief - $d^* = E[s] = 0.5$ (assuming prior: $s=0$ or $s=1$ each 50%) **Equilibrium Condition (Incentive Compatibility):** Why does unbiased type choose $m=1$ when seeing $s=0$? **Truth-telling (Deviate to $m=0$):** - Principal thinks "weird, must be biased" โ $\phi(0) = 0$ (off-equilibrium belief) - But accurate decision: $d_0 = 0$ - Payoff: $U^u = -(0-0)^2 + \lambda \cdot 0 = 0$ **Lying (Pool at $m=1$):** - Maintain reputation: $\phi(1) = q$ - Inaccurate decision: $d_1 = 0.5$ - Payoff: $U^u = -(0.5-0)^2 + \lambda q = -0.25 + \lambda q$ **Equilibrium Condition:** $ -0.25 + \lambda q \geq 0 \quad \Rightarrow \quad \lambda q \geq 0.25 $ **Economic Interpretation:** | Condition | Meaning | Result | |-----------|---------|--------| | Large $\lambda$ | High reputation value | Even unbiased lies | | Small $\lambda$ | Low reputation value | Incentive to tell truth (but equilibrium breaks) | **Real Examples:** - **Investment bank analysts:** Rarely issue "sell" recommendations (reputation risk) - **Political consultants:** Prefer "safe lies" over "dangerous truths" --- ### ๋ฌธ์ 2(e): ๋์นญ์ ํ๋ง - ๋ชจ๋ "0" / Symmetric Pooling: All Say "0" **ํ๊ธ:** **๊ท ํ ๊ตฌ์กฐ:** $ m^u(s) = m^b(s) = 0 \quad \forall s \in \{0,1\} $ **๊ท ํ ์กฐ๊ฑด:** (d)์ ๋์นญ์ ๋ ผ๋ฆฌ Unbiased type์ด $s=1$์ ๋ดค์ ๋ ์ $m=0$์ ์ ํํ๋? $ y(1-d_1^2) \leq \lambda[q - 0] $ where $d_1$ is off-equilibrium belief response to $m=1$. **๊ฒฝ์ ์ ์๋ฏธ:** - ์กฐ๊ฑด (d)๊ฐ ์ฑ๋ฆฝ ์ ํ๋ฉด ์ด์ชฝ ๊ท ํ ์กด์ฌ - ์ฌ์ ํ ๋ฌด์ ๋ณด์ (uninformative) - Principal์ ์๋ฌด๊ฒ๋ ๋ฐฐ์ฐ์ง ๋ชปํจ **ํต์ฌ ๊ตํ:** > **ํํ ๊ด๋ฆฌ๊ฐ ์ ๋ณด ์ ๋ฌ์ ํ๊ดดํฉ๋๋ค (Reputation destroys information transmission)** **English:** **Equilibrium Structure:** $ m^u(s) = m^b(s) = 0 \quad \forall s \in \{0,1\} $ **Equilibrium Condition:** Symmetric logic to (d) Why does unbiased type choose $m=0$ when seeing $s=1$? $ y(1-d_1^2) \leq \lambda[q - 0] $ where $d_1$ is off-equilibrium belief response to $m=1$. **Economic Meaning:** - When condition (d) fails, this equilibrium exists - Still uninformative - Principal learns nothing **Key Lesson:** > **Reputation concerns destroy information transmission** --- ### Hard Evidence์ ์ญํ / Role of Hard Evidence (BGP ยง 4.1.4) **ํ๊ธ:** **Hard Evidence vs Cheap Talk:** | ํน์ฑ | Cheap Talk | Hard Evidence | |------|-----------|---------------| | ๊ฑฐ์ง๋ง ๋น์ฉ | ์์ (costless) | ๋ถ๊ฐ๋ฅ (impossible) | | ๊ฐ๋ฅ ๋ฉ์์ง | ์ํ ๋ฌด๊ด | ์ํ ์์กด์ (state-dependent) | | ๊ท ํ | ํ๋ง (pooling) | ๋ถ๋ฆฌ (separating) | | ์ ๋ณด ์ ๋ฌ | ์คํจ | ์ฑ๊ณต | **Unraveling ๋ฉ์ปค๋์ฆ (Grossman-Milgrom 1981):** Hard evidence ํ๊ฒฝ์์: 1. ์ต๊ณ ํ์ ($s=1$)์ด ์ฆ๊ฑฐ ์ ์ โ ๊ตฌ๋ถ๋จ 2. ์ ์ ์ ํ๋ฉด "๋ฎ์ ํ์ "์ผ๋ก ๊ฐ์ฃผ๋จ 3. $s=0$ ๊ทผ์ฒ ํ์ ๋ ์ ์ โ ์ฐ์์ ๊ณต๊ฐ (unraveling) 4. **๊ฒฐ๊ณผ:** ์์ ์ ๋ณด ๊ณต๊ฐ (full revelation) **์ค์ ์์ฉ:** - ์ฌ๋ฌด์ ํ ๊ณต์ (Financial disclosure) - ํ์ง ์ธ์ฆ (Quality certification) - ๊ต์ก ํ์ (Educational credentials) **English:** **Hard Evidence vs Cheap Talk:** | Feature | Cheap Talk | Hard Evidence | |---------|-----------|---------------| | Cost of Lying | Costless | Impossible | | Feasible Messages | State-independent | State-dependent | | Equilibrium | Pooling | Separating | | Information | Fails | Succeeds | **Unraveling Mechanism (Grossman-Milgrom 1981):** In hard evidence environment: 1. Highest type ($s=1$) presents evidence โ gets distinguished 2. Not presenting โ inferred as "low type" 3. Types near $s=0$ also present โ cascading revelation (unraveling) 4. **Result:** Full revelation **Real Applications:** - Financial disclosure - Quality certification - Educational credentials --- ### ์ข ํฉ ์์ฝํ / Summary Table: Problem 2 | ์์ธ / Force | ๋ฉ์ปค๋์ฆ / Mechanism | ํจ๊ณผ / Effect | |-------------|---------------------|--------------| | ํํ ($\lambda$) | "๊ณต์ ํ ์ฒ" ๊ฐ์น / Value of appearing unbiased | ๋์กฐ ์ ๋, ํ๋ง / Drives conformity, pooling | | ํธํฅ (Bias) | ๋์ ๊ฒฐ์ ์ ํธ / Intrinsic desire for high $d$ | ์ง์ค ์๊ณก / Skews truthful reporting | | Cheap Talk | ๊ฑฐ์ง๋ง ๋น์ฉ ์์ / No lie cost | ๋ชจ๋ฐฉ ๊ฐ๋ฅ โ ์ ๋ณด ์์ค / Allows mimicry โ info loss | | Hard Evidence | ์ํ ์์กด ๊ฐ๋ฅ ๋ฉ์์ง / State-dependent feasible set | ์ง์ค ์ ๋ฌ ํ๋ณต / Restores truthful communication | --- ## ๐น ์ ์ฒด ์ข ํฉ / Grand Synthesis ### ๋ ๋ฌธ์ ์ ๊ณตํต ์ฃผ์ / Common Themes Across Problems **1. ๋ช ์์ vs ์๋ฌต์ ์ธ์ผํฐ๋ธ (Explicit vs Implicit Incentives)** | ๋ฌธ์ | ๋ช ์์ | ์๋ฌต์ | ๊ด๊ณ | |------|-------|-------|------| | Problem 1 | ๋ณด๋์ค $b_t$ | ํํ $\delta \varphi$ | ๋์ฒด์ฌ (substitutes) | | Problem 2 | ์์ (N/A) | ํํ $\lambda$ | ์ ๋ณด ์๊ณก (distorts info) | **2. ์ ๋ณด์ ์ธ์ผํฐ๋ธ์ ์ํธ์์ฉ (Information-Incentive Interaction)** - **Problem 1:** ์ ๋ณด ํฌ๋ช ์ฑ (๊ณ์ฝ ๊ณต๊ฐ) โ ํํ ์์คํ ์๋ - **Problem 2:** ์ ๋ณด ๋น๋์นญ + ํํ โ ์์ฌ์ํต ์คํจ **3. ์ ๋ ฌ์ ์ค์์ฑ (Importance of Alignment)** - **Problem 1:** $\cos(\theta)$ โ ์ฑ๊ณผ์งํ-๊ฐ์น ์ ๋ ฌ - **Problem 2:** Preference alignment โ ์ ๋ณด ์ ๋ฌ ๊ฐ๋ฅ์ฑ --- ### ๋น์ ์ ์ฐ๊ตฌ์์ ์ฐ๊ฒฐ / Connection to Your Research #### Strategic Ambiguity & OIL Framework **๋น์ ์ OIL ๊ณต์:** $ \tau^* = \max\left\{0, \sqrt{\frac{V}{4i}} - 1\right\} $ where: - $\tau$ = precision level (1 = vague, 0 = precise) - $V$ = variance of project value - $i$ = info gathering cost **Problem 1๊ณผ์ ์ฐ๊ฒฐ:** **Career Concerns = Implicit Value of Ambiguity** ๊ธฐ์ ๊ฐ๊ฐ precision์ ์ ํํ๋ ๋ฌธ์ ๋ ๋ฌธ์ 1์ "์ด๋ค performance measure๋ฅผ ๊ณต๊ฐํ ์ง" ์ ํ๊ณผ ์ ์ฌ: | Precision Choice | Career Concerns Analog | Trade-off | |-----------------|----------------------|-----------| | ๋์ precision (๋ฎ์ $\tau$) | ๋ง์ ์ฑ๊ณผ์งํ ๊ณต๊ฐ | ์ ์๋ ฅ โ, ์ฑ ์์ฑ โ / Low adapt, High account | | ๋ฎ์ precision (๋์ $\tau$) | ์ ์ ์ฑ๊ณผ์งํ ๊ณต๊ฐ | ์ ์๋ ฅ โ, ์ฑ ์์ฑ โ / High adapt, Low account | **์ ๋ ฌ ํจ๊ณผ ($\cos\theta$)์ Precision:** - ๋ถํ์ค์ฑ ๋์ ํ๊ฒฝ (๋ฎ์ $\cos\theta$) โ ์ ๋งค๋ชจํธํ ์ฝ์์ด ์ ๋ฆฌ - ์์ธก ๊ฐ๋ฅํ ํ๊ฒฝ (๋์ $\cos\theta$) โ ์ ํํ ์ฝ์์ด ๊ฐ๋ฅ **Problem 2์์ ์ฐ๊ฒฐ:** **Pooling Equilibrium = Strategic Ambiguity** ๋ฌธ์ 2์ ํ๋ง ๊ท ํ์ strategic ambiguity์ ํ ํํ: | ๊ฐ๋ | ๋ฌธ์ 2 ํํ | OIL ํ๋ ์์ํฌ | |------|-----------|--------------| | ์๋์ ๋ชจํธ์ฑ | ๋ชจ๋ ๊ฐ์ ๋ฉ์์ง | ๋์ $\tau$ ์ ํ | | ํํ ๋๊ธฐ | $\lambda$ ํผ | ์๋ฌต์ ์ฝ์ ๊ฐ์น | | ์ ๋ณด ์์ค | ํ๋ง โ ๋ฌด์ ๋ณด | ์ ์ฐ์ฑ โ, ์ ๋ขฐ โ | **๋น์ ์ H1 & H2 ์ฐ๊ฒฐ:** - **H1: Vague promises โ lower early funding** ($\alpha_1 < 0$) - Problem 1 parallel: ๋ฎ์ signal precision ($\varphi$) โ ์ฝํ career incentive - Mechanism: ํฌ์์๊ฐ ๋ฅ๋ ฅ ํ๋จ ์ด๋ ค์ - **H2: Vague promises โ higher later success** ($\beta_1 > 0$) - Problem 2 parallel: Pooling equilibrium์ด ์ ์ฐ์ฑ ์ ๊ณต - Mechanism: ์ ์ ๊ฐ๋ฅ ๊ณต๊ฐ ํ๋ณด (option value) **ํตํฉ ์ง๊ด:** > **๋ฌธ์ 1 + 2 โ OIL Framework** > > - Career concerns (๋ฌธ์ 1): precision์ด ํํ๊ณผ ์ ์๋ ฅ ์ฌ์ด ํธ๋ ์ด๋์คํ ์์ฑ > - Cheap talk (๋ฌธ์ 2): ์ ๋ต์ ๋ชจํธ์ฑ์ด ํํ ๊ด๋ฆฌ ์๋จ > - **OIL:** ์ต์ ambiguity๋ reputation value์ information cost ๊ท ํ > > $ > \text{Optimal } \tau^* = f\left(\underbrace{\lambda}_{\text{reputation}}, \underbrace{\varphi}_{\text{signal quality}}, \underbrace{V/i}_{\text{uncertainty/cost}}\right) > $ --- ## ๐น ํต์ฌ ๊ตํ / Key Takeaways ### 1. ๋ช ์์ & ์๋ฌต์ ์ธ์ผํฐ๋ธ๋ ๋์ฒด์ฌ / Explicit & Implicit Incentives are Substitutes **์์:** $ b_1^* = b_2^* - \delta \varphi $ **์ง๊ด:** "์ด์ฐจํผ ์๊ฐ ์ด์ฌํ ํ ๊ฑฐ์ผ" โ ๋ณด๋์ค ๊ฐ์ **์์ฉ:** ์คํํธ์ ์ด๊ธฐ ํ (๋์ ๊ฒฝ๋ ฅ ๊ด๋ฆฌ ๋๊ธฐ โ ๋ฎ์ ๋ช ์์ ๋ณด์ ๊ฐ๋ฅ) --- ### 2. ํฌ๋ช ์ฑ์ด ํํ ์์คํ ์ ์๋์ํด / Transparency Enables Reputation Systems **๋ฉ์ปค๋์ฆ:** ๊ณ์ฝ ๊ณต๊ฐ โ ์์ฅ์ด "๋ฅ๋ ฅ"๊ณผ "๋ ธ๋ ฅ" ๋ถํด โ ์ ํํ ํํ **์์ฉ:** - ๊ธฐ์ ํฌ๋ช ์ฑ (ESG ๊ณต์) - ํ๊ณ ์ฐ๊ตฌ ๊ณผ์ ๊ณต๊ฐ (Open Science) --- ### 3. ํํ์ด ์ ๋ณด ์ ๋ฌ์ ํ๊ดดํ ์ ์์ / Reputation Can Destroy Information Transmission **์ญ์ค:** "์ข์ ์ฌ๋์ผ๋ก ๋ณด์ด๊ธฐ" โ โ "์ง์ค ๋งํ๊ธฐ" โ **Crawford-Sobel ํต์ฐฐ:** - Cheap talk + reputation โ pooling - Hard evidence โ unraveling (Grossman-Milgrom) **์์ฉ:** - ํฌ์ ์กฐ์ธ ์์ฅ์ "herding" - ๊ธฐ์ ๋ด๋ถ ์ ๋ณด ํ๋ฆ ์ค๊ณ --- ### 4. ์ ๋ ฌ์ด ๋ชจ๋ ๊ฒ / Alignment is Everything **๋ฌธ์ 1:** $\cos(\theta)$ โ ์ฑ๊ณผ์งํ๊ฐ ๊ฐ์น๋ฅผ ๋ฐ์ํ๋๊ฐ? **๋ฌธ์ 2:** Preference alignment โ ์ ๋ณด ์ ๋ฌ ๊ฐ๋ฅํ๊ฐ? **์ผ๋ฐ ์์น:** ์ธ์ผํฐ๋ธ ์ค๊ณ๋ ๋ชฉํ ์ ๋ ฌ์์ ์์ --- ## ๐น ์ด์์ ์ ์งํ์ ์ฐ๊ฒฐ / Connection to Yi Sun-sin's Strategy **ไธ้ๆฐด่ป (์ผ๋์๊ตฐ) ํ๋ ์์ํฌ:** | ํจ๋ / Fleet | ์กฐ์ง๊ฒฝ์ ํ ๊ฐ๋ / Org Econ Concept | ๋น์ ์ AI ์ฒด๊ณ / Your AI System | |-------------|--------------------------------|---------------------------| | **์ ๋ผ ์ข์์** | Career Concerns (๋ช ์์ ์ธ์ผํฐ๋ธ) / Explicit incentives | ChatGPT (ๅฉ) - ๋น ๋ฅธ ์คํ | | **์ ๋ผ ์ฐ์์** | Reputation System (์๋ฌต์ ์ธ์ผํฐ๋ธ) / Implicit incentives | Claude (ๆ) - ๊ตฌ์กฐํ | | **๊ฒฝ์ ์ฐ์์** | Information Transmission (Hard evidence) / Info transmission | Gemini (็พฉ) - ๊ฒ์ฆ | **์ด์์ ์ ๊ตํ:** > "์ ๋ณด์ ํฌ๋ช ์ฑ + ๋ช ํํ ์ธ์ผํฐ๋ธ + ํํ ๊ด๋ฆฌ = ์น๋ฆฌ" > > โ ๋ช ๋ ํด์ : ํฌ๋ช ํ ์ ์ ๊ณต์ (hard evidence) + ๋ช ํํ ์ฑ๊ณผ ์งํ + ๊ฐํ ํํ ์์คํ **๋น์ ์ ์ฐ๊ตฌ ์ ๋ต:** > Career concerns์ cheap talk ์ด๋ก ์ strategic ambiguity์ ํตํฉ > > โ Precision choice๊ฐ reputation๊ณผ information transmission์ ๋์์ ๊ฒฐ์ ํ๋ ๋ฉ์ปค๋์ฆ --- ## ๐น ์ต์ข ์ฒดํฌ๋ฆฌ์คํธ / Final Checklist **์ํ์ ์ ํ์ฑ / Mathematical Precision:** - โ ๋ชจ๋ FOC ๋์ถ ์ ํ - โ ๋ฒ ์ด์ง์ ์ ๋ฐ์ดํธ ๊ณต์ ์ ํ - โ ๊ท ํ ์กฐ๊ฑด ๋ช ํ **๋ฌธํ ์ฐ๊ฒฐ / Literature Connection:** - โ Holmstrรถm (1982/1999) - Career concerns - โ Holmstrรถm & Milgrom (1991) - Multitask - โ Crawford & Sobel (1982) - Cheap talk - โ Grossman & Milgrom (1981) - Hard evidence - โ BGP Chapters 2 & 4 ๋ช ์ **์ง๊ด ์ค๋ช / Intuitive Explanation:** - โ ํ์ ๋ณํ ์ค๋ช - โ ์ค์ ์์ ํฌํจ - โ ๋น์ ์ ์ฐ๊ตฌ์ ์ฐ๊ฒฐ **Charlie & Scott ์์ค:** - โ ์ด๋ก ์ rigor - โ ์ค์ฆ์ ํจ์ - โ ์ ์ฑ ์ ์์ฉ --- ## ๐ ์ถ๊ฐ ์ฐธ๊ณ ๋ฌธํ / Additional References 1. **Holmstrรถm, B. (1999).** "Managerial Incentive Problems: A Dynamic Perspective." *Review of Economic Studies*, 66(1): 169-182. (Originally published 1982) 2. **Holmstrรถm, B., & Milgrom, P. (1991).** "Multitask Principal-Agent Analyses: Incentive Contracts, Asset Ownership, and Job Design." *Journal of Law, Economics, & Organization*, 7: 24-52. 3. **Crawford, V. P., & Sobel, J. (1982).** "Strategic Information Transmission." *Econometrica*, 50(6): 1431-1451. 4. **Grossman, S. J., & Milgrom, P. (1981).** "The Economics of Information." In *Handbook of Mathematical Economics*, Vol. III. 5. **Bolton, P., & Dewatripont, M.** *Contract Theory.* MIT Press. (BGP) --- **ๅฟ ๆญปๅฝ็ (ํ์ฌ์ฆ์)** *"์ฃฝ์ ๊ฐ์ค๋ก ์ธ์ฐ๋ฉด ๋ฐ๋์ ์ด ์ ์๋ค"* **Good luck on your midterm! ๐ฏ**