증기기관이 석탄을 죽였는가 — AI 하네스의 제본스 역설
모델이 강해질수록 하네스는 죽는다? 1865년 경제학자 William Stanley Jevons가 이미 답했다. 효율성이 수요를 줄이지 않고 폭발시킨다면, AI 하네스의 미래도 같은 구조다.
1. "석탄이 곧 바닥날 것이다"
1865년, 영국 경제학자 William Stanley Jevons는 『The Coal Question』을 출간했다. 당시 영국의 산업 패권은 석탄에 의존하고 있었고, 석탄은 유한한 자원이었다. 그의 질문은 단순했다: "이 속도로 석탄을 쓰면 언제 바닥나는가?"
하지만 이 책의 진짜 통찰은 자원 고갈 예측이 아니었다. James Watt의 증기기관이 석탄 효율을 극적으로 높였음에도, 영국의 석탄 소비가 줄기는커녕 폭증했다는 관찰이었다.
Jevons의 원문:
"It is a confusion of ideas to suppose that the economical use of fuel is equivalent to a diminished consumption. The very contrary is the truth." "연료의 경제적 사용이 소비의 감소와 같다고 생각하는 것은 관념의 혼동이다. 진실은 정반대다."
오늘날 이것을 제본스의 역설(Jevons' Paradox)이라 부른다. 기술적 효율성 향상이 자원 소비를 줄이는 게 아니라 오히려 늘리는 현상. 효율성이 effective cost를 낮추면, 이전에 그 자원을 쓸 수 없던 영역까지 채택이 확산되기 때문이다.
2026년, AI 업계에서 똑같은 논쟁이 벌어지고 있다. "모델이 강해질수록 하네스(harness)는 죽는다"는 주장. 나는 이것이 1865년과 같은 관념의 혼동이라고 생각한다.
2. "하네스가 곧 필요 없어질 것이다"
먼저 "하네스가 죽는다" 쪽 논거를 정직하게 인정하자. 이 주장에는 실제 근거가 있다.
Tool calling의 내재화. GPT-3.5 시절, LangChain은 모델에게 도구를 사용하게 하려고 복잡한 프롬프트 엔지니어링과 파싱 로직을 직접 구현했다. 지금? OpenAI, Anthropic, Google 전부 native function calling을 지원한다. 하네스가 만든 레이어가 모델에 흡수됐다.
Context window 폭발. 32K → 200K → 1M 토큰. RAG(Retrieval-Augmented Generation) 파이프라인의 상당 부분이 "그냥 다 넣으면 됨"으로 대체됐다. 청킹(chunking), 임베딩, 벡터 검색 — 한때 하네스의 핵심 가치였던 것들이 "충분히 큰 컨텍스트 윈도우" 앞에서 의미를 잃고 있다.
Agent 자율성. Claude Code, Devin, OpenAI Codex — 모델이 직접 터미널을 열고, 코드를 쓰고, 테스트를 돌린다. 별도 오케스트레이터 없이 모델 하나가 전체 워크플로우를 수행한다.
Computer Use. 모델이 직접 브라우저를 조작하고 데스크톱을 제어한다. Selenium 래퍼, Playwright 스크립트 — 이런 API 연결 하네스의 존재 이유가 줄어든다.
이 사실들만 보면 결론은 명확해 보인다: 하네스는 모델의 부족함을 메우는 보조기구였고, 모델이 완성에 가까워질수록 보조기구는 필요 없어진다.
이게 맞다면 하네스 생태계는 사양 산업이다. LangChain, CrewAI, OpenClaw — 모두 모델 진화에 의해 도태될 운명.
하지만 Jevons라면 이렇게 물었을 것이다: "증기기관이 좋아졌을 때, 석탄 소비가 정말 줄었느냐?"
3. 안 되던 것이 되는 순간
Watt 증기기관이 석탄 효율을 높였을 때, 방직업에서 쓰는 석탄 양은 줄었을 수 있다. 하지만 철도가 생겼다. 광업이 기계화됐다. 제철소가 대형화됐다. 농업에 증기 펌프가 들어갔다. 석탄이 갈 수 없던 곳에 석탄이 갔다.
AI에서도 같은 일이 일어나고 있다.
멀티모달 에이전트. GPT-4V 이전에는 이미지를 이해하는 AI 에이전트 자체가 불가능했다. 모델이 "되게" 만든 순간, "사진 찍어서 보내면 현장을 진단하는 에이전트"가 가능해졌다. 그런데 이걸 실제로 돌리려면? 카메라 ↔ 이미지 전처리 ↔ 모델 ↔ 의사결정 ↔ 알림 시스템. 새로운 연결이 필요하다. 이 연결이 하네스다.
자율 코딩. Claude Code가 혼자서 코딩을 할 수 있게 됐다. 좋다. 그런데 그걸 회사의 CI/CD 파이프라인에 붙이고, PR 리뷰를 받게 하고, 크론으로 매일 돌리고, 실패하면 롤백하고, 비용을 추적하고, 보안 정책을 적용하려면? OpenClaw이 이걸 한다. 모델이 코딩을 "되게" 만들었지만, 그것을 프로덕션에서 돌리는 인프라는 새로 필요하다.
음성 에이전트. 실시간 음성 모델(GPT-4o, Gemini Live)이 등장했다. 전화 응대, 미팅 요약이 "되는" 세계. 하지만 전화 시스템 ↔ STT ↔ 모델 ↔ TTS ↔ CRM ↔ 녹음 법규 준수 — 이 파이프라인을 연결하는 건 모델이 아니다.
IoT/로보틱스. 모델이 물리 세계를 추론할 수 있게 되면, 센서 ↔ 모델 ↔ 액추에이터 파이프라인이 열린다. 자율주행, 산업 로봇, 스마트 팩토리. 각각이 거대한 하네스 영역이다.
패턴이 보이는가? 모델이 한 영역을 "되게" 만들 때마다, 그 영역에 새로운 연결 인프라가 필요해진다. 이 연결 인프라가 바로 하네스다. 옛 하네스의 일부는 모델에 흡수되지만, 새 프론티어에 새 하네스가 놓인다.
4. 제본스 구조: 정확한 대입
구조를 명시적으로 대입해보자.
| Jevons (1865) | AI Harness (2026) |
|---|---|
| 자원 = 석탄 | 자원 = AI 추론 능력 |
| 효율성 기술 = Watt 증기기관 | 효율성 기술 = Frontier Model 진화 |
| 단위당 석탄 소비 ↓ | 단일 태스크에 필요한 하네스 복잡도 ↓ |
| 석탄의 effective cost ↓ | AI 사용의 effective cost ↓ |
| 이전에 석탄을 못 쓰던 산업 채택 | 이전에 AI를 못 쓰던 영역 채택 |
| 산업별로 새 인프라(레일, 보일러) 필요 | 영역별로 새 연결(하네스) 필요 |
| 총 석탄 소비 ↑ | 총 하네스 수요 ↑ |
경제학에서 이것을 설명하는 메커니즘은 수요의 가격 탄력성이다. AI 추론의 effective cost가 떨어지면:
- 직접 리바운드 효과: 기존 사용자가 더 많이 사용 (기존 에이전트가 더 복잡한 일 수행)
- 간접 리바운드 효과: 비용 절감분이 새로운 AI 투자로 전환 (기존 예산으로 새 에이전트 구축)
- 경제 전체 효과: AI 생산성 향상이 경제 성장을 가속 → AI 수요 추가 증가
세 효과 모두 하네스 수요를 늘린다.
5. 하네스는 보조기구가 아니다
여기서 핵심적인 프레이밍 전환이 필요하다.
"하네스가 죽는다"는 주장은 하네스를 모델의 보조기구로 본다. 모델이 못하는 걸 대신해주는 목발. 목발이니까 모델이 걸을 수 있게 되면 버리는 거다.
하지만 실제 하네스의 역할은 목발이 아니다. 모델이 갈 수 없던 곳으로 가게 하는 브릿지다.
Watt 증기기관은 석탄의 목발이 아니었다. 석탄이 방직업에서 철도로, 철도에서 제철소로, 제철소에서 농업으로 건너가게 한 브릿지였다. 브릿지를 건너면 그 브릿지는 도로가 되고, 다음 프론티어에 새 브릿지가 놓인다.
하네스도 같다:
- 2023년: "모델이 웹을 못 봐요" → 검색 에이전트 하네스가 브릿지 → 지금은 모델 기본 기능
- 2024년: "모델이 코딩을 못해요" → 코딩 에이전트 하네스가 브릿지 → 지금은 Claude Code로 기본
- 2025년: "모델이 도구를 못 써요" → MCP가 브릿지 → 진행 중
- 2026년: "모델이 실시간 멀티에이전트 협업을 못해요" → 오케스트레이션 하네스가 브릿지 → 프론티어
- 202X년: "모델이 물리 세계를 제어 못해요" → 로보틱스 하네스가 브릿지 → 다음 프론티어
하네스의 정의:
모델의 현재 능력과 실세계 적용 가능성 사이의 간극을 메우는 인프라. 모델이 진화하면 이 간극이 사라지는 게 아니라 — 간극의 위치가 이동한다.
6. 반론: "이번엔 다르다"는 항상 위험하다
물론 제본스의 역설이 항상 성립하는 건 아니다. 경제학자들은 "리바운드 효과"의 크기에 대해 여전히 논쟁한다. 100% 이상의 리바운드(=역설 성립)가 일어나려면 수요의 가격 탄력성이 충분히 높아야 한다.
AI 하네스에도 이 반론은 유효하다:
반론 1: "AGI가 오면 하네스는 정말 필요 없다." 모델이 충분히 강해지면 모든 연결을 스스로 만들 수 있다. 프로토콜을 이해하고, API를 발견하고, 파이프라인을 자체 구축한다. 이론적으로는 맞다. 하지만 이건 "핵융합이 오면 에너지 인프라가 필요 없다"와 같은 구조다. 에너지가 무한해져도 송전망, 변압기, 배전 시스템은 필요하다. 생산이 무한해져도 전달 인프라는 남는다.
반론 2: "모델 제공자가 하네스를 흡수한다." OpenAI가 Assistants API를, Anthropic이 Claude Code를 만들듯, 하네스 기능을 모델 제공자가 직접 제공한다. 이건 실제로 일어나고 있다. 하지만 역사를 보면, 플랫폼이 기능을 흡수할수록 그 위에 올라가는 새로운 레이어가 생긴다. AWS가 인프라를 추상화했을 때, 인프라 엔지니어가 사라진 게 아니라 DevOps가 생겼다. Kubernetes가 배포를 추상화했을 때, Helm, Istio, ArgoCD가 생겼다.
반론 3: "탄력성이 충분히 높지 않을 수 있다." AI 사용이 가격이 떨어져도 그만큼 안 늘 수 있다. 이건 경험적 질문이다. 하지만 2023-2026년의 데이터는 명확하다: AI API 가격이 100배 떨어지는 동안 사용량은 1,000배 이상 늘었다. Sequoia의 분석에 따르면 AI 인프라 투자는 연 $600B을 넘어섰다. 탄력성은 충분히 높다.
7. 그래서 하네스 빌더는 어디를 봐야 하는가
Jevons의 역설이 성립한다면, 하네스 생태계의 전략은 이렇게 바뀌어야 한다:
축소되는 영역에 매달리지 마라. Tool routing, RAG chunking, prompt template — 이건 모델에 흡수된다. 여기서 경쟁하면 모델 업데이트마다 존재 이유가 사라진다.
새로 열리는 프론티어에 첫 번째 브릿지를 놓아라. 모델이 "되게" 만든 새 영역에 가장 먼저 연결 인프라를 구축하는 자가 이긴다. 지금 프론티어는:
- 멀티에이전트 오케스트레이션 (에이전트 간 협업, 위임, 감독)
- 에이전트 안전 (tool policy, sandboxing, 감사 추적)
- 물리 세계 연결 (IoT, 로보틱스, 차량)
- 규제 준수 (의료 AI, 금융 AI, 자율주행)
브릿지가 도로가 되면 다음 프론티어로 이동하라. 하네스 회사의 생존 전략은 한 기능에 고정되는 게 아니라, 프론티어가 이동할 때 함께 이동하는 것이다. LangChain이 초기에는 prompt chaining에 집중했다가 지금은 LangGraph로 에이전트 오케스트레이션으로 이동한 것이 한 예다.
8. 1865년의 교훈
Jevons는 석탄의 미래를 예측하려 했지만, 실제로 발견한 건 효율성과 소비의 반직관적 관계였다. 기술이 자원을 더 효율적으로 쓰게 만들면, 그 자원의 총 소비는 줄지 않고 폭발한다.
AI 모델은 지금 매 분기 더 효율적이 되고 있다. 이전에 에이전트 프레임워크가 수백 줄의 코드로 구현하던 것을, 모델이 한 번의 API 호출로 해결한다.
이것을 보고 "하네스가 죽는다"고 결론 짓는 건, 1865년에 "증기기관이 석탄을 절약한다"고 결론 짓는 것과 같다.
진실은 정반대다. 모델이 강해질수록, 모델이 갈 수 있는 곳이 늘어나고, 그곳으로 모델을 데려가는 브릿지의 수요는 폭발한다. 하네스는 소멸하는 보조기구가 아니라, 끊임없이 이동하는 프론티어 브릿지다.
Jevons의 말을 빌려 끝내겠다:
"AI 추론의 효율적 사용이 하네스의 축소를 의미한다고 생각하는 것은 관념의 혼동이다. 진실은 정반대다."
Sources
| # | 출처 | URL |
|---|---|---|
| 1 | William Stanley Jevons — The Coal Question (1865) | https://en.wikipedia.org/wiki/The_Coal_Question |
| 2 | Jevons' Paradox — Wikipedia | https://en.wikipedia.org/wiki/Jevons_paradox |
| 3 | Rebound Effect (Conservation) — Wikipedia | https://en.wikipedia.org/wiki/Rebound_effect_(conservation) |
| 4 | James Watt Steam Engine — Wikipedia | https://en.wikipedia.org/wiki/Watt_steam_engine |
| 5 | Price Elasticity of Demand — Wikipedia | https://en.wikipedia.org/wiki/Price_elasticity_of_demand |
| 6 | Claude Code — Anthropic Docs | https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview |
| 7 | Devin — Cognition Labs | https://devin.ai/ |
| 8 | OpenAI Codex | https://openai.com/index/openai-codex/ |
| 9 | OpenClaw — Agent Harness | https://openclaw.ai |
| 10 | Sequoia — AI's $600B Question (2024) | https://sequoiacap.com/article/ais-600b-question/ |
📚 이런 칼럼은 어떠세요?
공유하기
