2023년 9월 개장한 미국 네바다주 라스베이거스에 있는 최신 대형 공연장 스피어(Sphere). 세계 최대 규모의 구형 LED 스크린으로 지구 모양으로 만들어졌다. 47,889채의 주택을 LED 조명으로 전환하여 에너지와 탄소 절감 효과를 거뒀다. 53,883평방미터의 LED를 사용했다. 이는 제번스의 역설을 잘 보여주는 사례로 꼽힌다. 높이는 40층짜리 아파트와 비슷한 111m, 바닥 지름은 157m에 달한다. [MSG Sphere]
2023년 9월 개장한 미국 네바다주 라스베이거스에 있는 최신 대형 공연장 스피어(Sphere). 세계 최대 규모의 구형 LED 스크린으로 지구 모양으로 만들어졌다. 47,889채의 주택을 LED 조명으로 전환하여 에너지와 탄소 절감 효과를 거뒀다. 53,883평방미터의 LED를 사용했다. 이는 제번스의 역설을 잘 보여주는 사례로 꼽힌다. 높이는 40층짜리 아파트와 비슷한 111m, 바닥 지름은 157m에 달한다. [MSG Sphere]

2023년 9월 개장한 미국 네바다주 라스베이거스에 있는 최신 대형 공연장 스피어(Sphere). 세계 최대 규모의 구형 LED 스크린으로 지구 모양으로 만들어졌다. 47,889채의 주택을 LED 조명으로 전환하여 에너지와 탄소 절감 효과를 거뒀다. 53,883평방미터의 LED를 사용했다. 이는 제번스의 역설을 잘 보여주는 사례로 꼽힌다. 높이는 40층짜리 아파트와 비슷한 111m, 바닥 지름은 157m에 달한다. [MSG Sphere]지난 1월, 딥시크(Deepseek)가 출시한 대형 언어 모델(LLM) R1은 전 세계를 놀라게 하며 금융 시장에도 충격을 안겼다. 중국의 한 스타트업이 미국의 최첨단 반도체 수출 제한에도 불구하고 미국 오픈AI의 대표 모델 (GPT-o1)에 필적하는 성능의 LLM을 훨씬 낮은 비용으로 개발했다는 사실이 알려진 것이다. 일부 전문가들은 이를 ‘스푸트니크 모먼트’(Sputnik moment)에 비유하며 미국이 글로벌 AI 패권을 잃을 수 있다는 우려를 제기했다. 소규모 기업들도 경쟁력 있는 모델을 내놓는 상황이 되자, 투자자들은 빅테크 기업들이 그간의 막대한 투자금을 회수할 수 있을지에 대한 불안감을 드러냈다. 반면, 인공지능 기술 확산과 비용 하락이 경제 전반에 가져올 긍정적 효과에 기대감을 나타내는 여론도 있다. 여러 국가는 ‘딥시크 사태’를 글로벌 AI 경쟁에서 선두를 추격할 수 있는 기회로 받아들이고 있다.

필자는 본 칼럼을 통해 경제적 관점에서 최근 AI 분야의 발전상을 살펴보고자 한다. 단순히 뉴스 헤드라인을 탐구하는 것을 넘어, 파운데이션 모델과 하위 응용 시장의 역학, 그리고 이들이 경제 전반에 걸친 AI 채택에 미치는 영향을 다룰 예정이다. 조만간 2023년 3월부터 2025년 2월까지 AI 언어 모델의 ‘경제적 최전선(economic frontier)’의 변화 추이를 추적하는 OECD 보고서(마누엘 베탕, 피터 갈, 폴 펠티에와 공동 집필)가 발간될 예정이다. 여기서 ‘경제적 최전선’이란, 모델의 성능과 사용자 비용 간 최적의 균형점을 의미한다. AI 모델의 성능은 인공지능 분석 전문 기관 아티피셜 애널리시스(Artificial Analysis)의 방법론을 기반으로, 학술 문제 답변, 텍스트 요약, 수학 문제 풀이, 코딩 등 다양한 인지 과제 수행 능력을 표준 산업 벤치마크를 활용해 측정했다. 가격은 서비스형 AI (AI-as-a-Service) 형태로 클라우드 사업자들이 개발자에게 제공하는 서비스를 기준으로 하여, 백만 토큰당(토큰은 AI 모델의 기본 단위) 청구되는 달러 비용을 기준으로 측정했다.

그 결과, 2025년 2월 기준으로 오픈AI의 o1 모델이 가장 뛰어난 성능을 보였지만, 딥시크의 R1 모델도 이에 근접한 성능을 기록했으며 비용은 o1에 비해 25배 이상 저렴한 것으로 나타났다. 연구진이 샘플에서 조사한 약 1,000개 모델과 60개 개발사 중, 미국, 중국, 프랑스 기업들이 일부 AI 시장 부문에서 경제적 최전선에 도달했다. 한국을 포함한 여러 국가의 도전 기업들도 고품질 LLM (대형 언어 모델)을 지속적으로 선보이며 경쟁력을 높이고 있다. 예를 들어, LG AI의 엑사원 딥 (Exaone Deep) 32B 추론 모델은 수학 문제 풀이와 코딩에서 높은 성능을 보여주었고, 업스테이지AI(Upstage AI)의 솔라 (Solar)모델 또한 자연어 처리 분야에서 강력한 성능을 기록했다.

AI의 경제적 최전선은 빠르게 앞으로 나아가고 있다. 점점 강력한 모델들이 출시되면서, 더 뛰어난 성능의 모델이 저렴한 가격에 제공되는 모양새다. 2023년 3월 당시 최고성능 모델이었던 GPT-4에 준하는 성능을 가진 모델들이, 이제 당시 가격의 100분의 1 이하로 제공되고 있다. 신규 개발자들이 혁신을 이끌고 경쟁을 촉진하면서 전세계 AI 모델 수는 기하급수적으로 증가했다. 평균적으로 매달 약 3분의 1의 최전선 모델들이 경쟁 모델들에 의해 대체되는 현상은, 최고의 모델을 만들기 위한 경쟁이 얼마나 치열한지를 보여준다. 오픈AI는 꾸준히 성능 최전선을 확장해왔지만, 다른 기업들 또한 저렴하면서도 강력한 모델을 개발해왔다. 미국과 중국 외 지역에서도 여러 고성능 모델들이 출시되고 있으며, 문화적, 개인정보 보호, 보안 측면에서 이들 모델을 선호하는 사용자들도 늘고 있다.

개발자들은 다양한 기술 덕분에 품질은 높으면서도 가격이 낮은 모델을 제공할 수 있게 되었다. 여기에는 LLM의 지식을 다른(주로 더 작은) 모델로 이전하는 지식 증류(distillation), 엄선된 데이터셋 활용, 그리고 지식 영역별로 모델을 나누는 전문가 혼합(Mixture of Experts, MoE), 복잡한 질문에 대한 답변 능력을 높이기 위해 중간 추론 과정을 도입하는 연쇄 추론(Chain-of-Thought Reasoning) 같은 소프트웨어 아키텍처 개선이 포함된다. 오픈소스는 지식 확산을 촉진하고, 응용 프로그램 개발자들이 기존 LLM을 기반으로 새로운 제품을 개발할 수 있도록 하면서 활발한 AI 생태계 조성에 기여하고 있다. 보고서 연구의 샘플에 포함된 LLM 중 약 절반은 오픈 웨이트 모델이었다. (다만, 학습 데이터 공개 여부나 라이선스 제한 때문에 완전한 오픈소스 모델은 아니라는 점을 명시한다.) 딥시크, 메타, 미스트랄 등의 최전선 모델들도 여기에 포함된다. 오픈 웨이트 모델은 클라우드 환경에 의존하지 않고 사용이 가능하기에, 데이터 통제권과 개인정보 보호 측면에서 유리하다는 장점이 있다.

이전보다 적은 연산 능력, 저장 용량, 에너지만으로 구동할 수 있는 모델들이 확산되면서, AI 반도체 제조업체, 대규모 컴퓨팅 및 스토리지 인프라에 투자하는 클라우드 사업자, 전력 인프라 공급업체들의 사업 전망에 대한 의문이 제기되고 있다. 그러나 여전히 AI 관련 인프라 수요가 증가할 것으로 보이는 여러 요인들이 존재하며, 이는 한국의 주요 하드웨어 제조업체들에게도 기회가 될 것으로 예상된다. 첫째, 추론 모델은 단순한 챗봇보다 훨씬 많은 연산 과정을 거쳐 답변을 생성하기 때문에 더 큰 연산능력을 요구한다. 둘째, AI가 효율성을 높이며 가격이 하락하면 오히려 수요가 증가하는 경향이 있는데, 이는 경제학자들이 ‘제번스의 역설(Jevons Paradox)’이라 부르는 현상이다. 19세기 영국 경제학자 윌리엄 제번스는 증기기관의 효율성이 높아질수록 석탄 소비량이 증가하는 현상을 관찰했다. AI도 이와 마찬가지로, 다양한 경제 부문에 걸쳐 활용될 수 있는 범용 기술로 간주되며, 모델 효율성이 높아질수록 AI 확산 속도는 더욱 빨라질 것이다. 셋째, 지정학적 분열이 심화되면서 각국은 기술 주권을 보호하고 혁신과 AI 활용 방향을 통제하기 위해 자체적인 컴퓨팅 및 저장 인프라를 확충하려는 움직임을 강화하고 있다.

국제에너지기구(IEA)는 전 세계 데이터 센터의 전력 수요가 2030년까지 두 배로 증가할 것으로 전망하고 있으며, 이 중 상당 부분은 AI 최적화 데이터 센터의 소비 증가에 기인할 것으로 보고 있다. 특히 AI 데이터 센터의 전력 소비는 현재 대비 4배 이상 늘어날 것으로 예상된다. 다른 경제 분야에서도 전기화가 진행되는 상황과 맞물려 있기 때문에, AI 구동을 위한 충분한 무(無)탄소 에너지원 확보와 전력망 현대화를 위해 막대한 투자가 필요하다. 다만, 이러한 장기적 인프라 수요 전망이 과잉 투자의 가능성을 배제하는 것은 아니다. AI 기술 발전의 규모와 속도를 정확히 예측하는 것은 극도로 어려운 일이다. 역사적으로도 철도나 인터넷과 같은 범용 기술의 확산은 금융 시장의 과열과 붕괴를 반복하는 과정을 거쳤다. 현재 전 세계적으로 특히 관세를 둘러싼 경제 정책 불확실성이 높은 상황은 인프라 투자 결정을 더욱 어렵게 만들고 있다.

AI가 창출하는 경제적 가치의 상당 부분은 점점 더 하위 응용 분야에서 창출될 것으로 보인다. AI 플랫폼 ‘There’s an AI for That (TAAFT)’의 데이터에 따르면, 현재 웹 브라우저나 모바일 기기에서 접근할 수 있는 가장 인기 있는 AI 애플리케이션은 텍스트, 이미지, 오디오 등 콘텐츠 생성, 채팅, 고객 지원, 데이터 분석 기능 등을 제공하는 프로그램들이다. AI 기술이 더욱 발전하고 사용자들이 AI 활용에 익숙해지면서, 다양한 새로운 응용 프로그램이 등장하고, 개인 사용자와 기업 모두 AI를 생산 공정과 비즈니스 모델에 통합하는 사례가 증가할 것으로 전망된다. 지금까지 AI 기반 애플리케이션은 주로 정보통신업과 전문·과학·기술 서비스업 등 지식집약적 서비스 산업에 집중되어 왔으나, 모델의 성능과 신뢰성이 향상되면서 AI는 점차 다양한 산업으로 확산되고 있다. AI는 특히 사물인터넷(IoT)과 로보틱스 분야에서 추가적인 발전을 약속하고 있으며, 이 분야는 한국 기업들이 세계 시장을 선도하는 영역 중 하나이기도 하다.

요약하자면, 딥시크 R1의 출시는 최상위 LLM개발이 자금력과 최첨단 반도체 접근성을 갖춘 일부 거대 AI 기업에만 국한되지 않는다는 점을 보여주었다. 현재 딥시크가 오픈AI의 가장 강력한 경쟁자로 부상했지만, 여러 국가의 다른 개발사들도 빠르게 그 뒤를 따르고 있다. 효율성 향상과 경쟁 심화는 AI 사용자 비용을 낮추고, 이는 AI의 경제 전반 확산과 AI 기반 응용 프로그램 개발을 가속화할 것이다. 과잉 투자에 따르는 리스크를 감안하더라도 AI 관련 인프라에 대한 적극적 투자가 합리적이라는 점을 뒷받침하는 부분이다. 앞으로도 미국과 중국이 최고 성능 모델을 놓고 치열하게 경쟁할 것으로 보이지만, 다른 국가들도 자국 AI 생태계를 강화하고 경제적 이익을 확보할 수 있는 여지가 충분히 남아 있다.

※본 칼럼에서 제시된 견해는 필자의 개인 의견이며, OECD 또는 그 회원국들의 공식 입장을 대변하지 않습니다.

The Sphere, at The Venetian Resort Las Vegas, eats up the energy and carbon savings from converting 47,889 houses to LED lighting; a bright example of Jevons‘ Paradox. That’s 53,883 square meters of LEDs. The interior features 14,864 square meters.  [MSG Sphere]
The Sphere, at The Venetian Resort Las Vegas, eats up the energy and carbon savings from converting 47,889 houses to LED lighting; a bright example of Jevons‘ Paradox. That’s 53,883 square meters of LEDs. The interior features 14,864 square meters. [MSG Sphere]

Economics of Artificial Intelligence: looking beyond Deepseek

The launch of Deepseek’s R1 large language model (LLM) last January stunned the world and sent shockwaves across financial markets. A Chinese startup had developed a LLM whose performances nearly matched those of US OpenAI’s leading model (o1), reportedly at a fraction of the cost, and despite US export restrictions on the most advanced chips. Some observers described the event as a “Sputnik moment”, fearing that the United States could be losing its global AI leadership. Investors worried about big tech firms’ ability to recoup their massive investments in a market where smaller players could generate highly competitive models. Other commentators rejoiced over the wide AI diffusion and economy-wide gains falling costs are promising. A number of countries saw prospects for catching up with the leaders in the global AI race.

In this column, I look at recent developments in AI from an economic perspective, going beyond the headlines to explore the foundation model and downstream application market dynamics and their implications for AI adoption across the economy. In a forthcoming OECD paper with Manuel Bétin, Peter Gal and Paul Peltier, we track the evolution of the “economic frontier of AI language models” between March 2023 and February 2025. The frontier captures the best trade-offs between the performance of an AI model and the price users pay to use it. We measure performance using standard industry benchmarks (following Artificial Analysis’ methodology) gauging the models’ ability to perform different cognitive tasks, such as answering academic questions, summarising text, solving mathematical problems or coding. Prices refer to dollars per million tokens (the basic text unit in AI models) charged by cloud providers offering AI-as-a-Service for developers.

On these benchmarks, as of February 2025, OpenAI’s o1 model performs best, but is followed closely by Deepseek’s R1, which is more than 25 times cheaper to use. Among the nearly 1000 models and 60 developers covered in our sample, companies from the US, China and France make it to the frontier in some segments of the AI market. Challengers from several other countries, including Korea, are also increasingly producing high-quality LLMs. For example, LG AI’s Exaone Deep 32B reasoning model shows high capabilities in solving mathematical problems and coding, and Upstage AI’s Solar models achieve strong performances in natural language processing.

The frontier is moving rapidly, with ever more powerful models offered at declining quality-adjusted prices. Models with performances comparable to the GPT-4 model, the leading model in March 2023, are now available at less than one-hundredth of its price at that time. New developers have brought innovation and fostered competition and the number of AI models on the global market has grown exponentially. On average, around a third of the frontier models are displaced by competitors each month, illustrating the intensity of the competition to build the best models. While OpenAI has been consistently pushing out the performance frontier, other companies have been developing more affordable, yet powerful, models. Several high-quality models are available from providers outside the US and China, which may appeal to many users for cultural, privacy and security reasons.

Several techniques allow developers to offer high-performance models at decreasing quality-adjusted prices, including distillation (transferring knowledge from a LLM to another - often smaller - model), the use of curated datasets, and software architecture improvements, such as mixture of expert (structuring the models into separate networks covering different areas of knowledge) and chain-of-thought reasoning (introducing intermediate reasoning steps to enhance a model’s ability to answer complex questions). Open source contributes to a vibrant AI ecosystem by facilitating the diffusion of knowledge and allowing application developers to build on existing LLMs. About half of the LLMs in our sample are open-weight models (though not necessarily fully open-source due to a lack of information on training data or restrictive licensing terms), including frontier models from Deepseek, Meta and Mistral. An additional advantage of open-weight models is that they can be used outside the cloud, ensuring greater control and privacy.

The diffusion of models that require less computing power, storage capacity and energy than before raises questions about business prospects for AI chips producers, cloud providers that invest massively in compute and storage capacity, and suppliers of electrical infrastructure. However, several factors still point to rising demand for AI-related infrastructure, from which leading Korean hardware producers are set to benefit. First, running a reasoning model requires more compute than using a simpler chatbot, as it goes through more steps before giving an answer. Second, as AI becomes more efficient, prices decline and induce more demand, a phenomenon economists call the Jevons paradox, after an English economist who observed in the nineteenth century that improvements in the efficiency of steam engines led to increases in total coal consumption. Like steam power, AI is commonly seen as a general-purpose technology with multiple potential applications across economic sectors and more efficient models will boost its diffusion. Third, increasing geopolitical fragmentation calls for national computing and storage capacities to protect technological sovereignty and allow control over the direction of innovation and AI use.

Altogether, the International Energy Agency projects that electricity demand from data centres worldwide will double by 2030, largely driven by AI-optimised data centres, whose consumption is expected to more than quadruple. Huge investments are needed to provide enough fossil-free energy and upgrade electricity grids to power AI, along with the electrification of other parts of the economy. At this point, it is important to note that these considerations about long-term trends in infrastructure needs do not rule out over-investment, as predicting the scale and time path of AI development is extremely challenging. Historically, the diffusion of wide-ranging technologies like railways or the internet has been characterised by phases of financial exuberance and crashes. The current high global economic policy uncertainty, especially about tariffs, further complicates investment decisions.

A growing share of the economic value generated by AI is likely to come from downstream applications. According to data from the platform There’s an AI for That (TAAFT), the most popular applications currently accessible through web browsers or mobile devices offer content generation (including text, image and audio), chatting, customer support and data analysis. As AI capabilities improve further and users get more familiar with AI, more applications will emerge, more individuals will use them, and more companies will integrate AI into their production processes and business models. AI-powered applications have been primarily deployed in knowledge-intensive services, notably information and communication, and professional, scientific and technical services. But they are now spreading to many other sectors as models become more powerful and reliable. AI promises further advances in the Internet of Things and robotics, where Korean companies are among the world leaders.

To sum up, the release of Deepseek R1 has shown that the production of top LLMs was not confined to the most powerful AI firms with the deepest financial resources and access to the best chips. Although Deepseek may currently be the closest challenger to OpenAI, several other developers from various countries follow closely. Efficiency gains and competition bring down prices for AI users, which will speed up AI diffusion across the economy and support the development of AI-based applications. This rationalises heavy investments in AI-related infrastructure, even though risks of overshooting should not be overlooked. While the United States and China may continue to compete for the best-performing models, there is plenty of room for other countries to bolster their own AI ecosystems and reap economic gains.

The views expressed in this column are those of the author and not of the OECD or of its member countries.


bonsang@heraldcorp.com