무어의 법칙 이후의 컴퓨팅, 어디로 가는가
무어의 법칙 시대의 끝자락
지난 60년간 디지털 혁신을 이끈 가장 위대한 엔진 중 하나는 바로 무어의 법칙(Moore's Law)이었다. 1965년, 인텔 공동 창립자 고든 무어는 “칩 위의 트랜지스터 수가 2년마다 두 배가 된다”는 관찰을 내놓았고, 이 간단한 법칙은 전 세계 반도체 산업의 나침반이 되었다. 트랜지스터 수의 증가는 곧 속도 향상, 전력 효율 개선, 제조 단가 하락으로 이어졌으며, 컴퓨터는 더 작고, 더 빠르고, 더 저렴하게 진화했다.
이러한 발전은 금융, 의료, 통신, 에너지, 국방, 기후 예측, 자율주행 등 산업 전반의 변화를 이끌었다. 하지만 2010년대 중반부터 무어의 법칙은 물리적 한계에 직면하기 시작했다. 5나노미터 이하 공정에서는 양자 터널링, 누설 전류, 발열 문제 등이 극심해지면서 더 이상 기존 방식의 소형화가 성능 향상으로 직결되지 않게 되었다. 이제는 트랜지스터 밀도 증가만으로는 연산 성능을 높이기 어려운 시대가 도래한 것이다.
물리적 한계를 넘어서는 새로운 접근들
무어의 법칙이 종언을 고한다고 해서 계산 능력의 진보가 멈춘 것은 아니다. 오히려 이를 계기로 계산 기술은 다양한 방식으로 확장되고 있다. 대표적인 것이 특수 목적 프로세서, 새로운 시스템 구조, 3차원 집적 기술, 재료 혁신 등이다.
특히 범용 중앙처리장치(CPU) 대신 인공지능(AI), 그래픽 처리, 암호 연산 등에 최적화된 특화형 프로세서들이 각광받고 있다. 또한 이기종 컴퓨팅(heterogeneous computing)은 CPU, 그래픽처리장치(GPU), 현장 프로그래밍 가능 논리 소자(FPGA) 등이 하나의 시스템 안에서 작업을 나누어 처리하게 하여 전반적인 효율을 극대화한다.
3차원 집적회로(3D stacking) 기술은 칩을 수직으로 쌓아올리는 방식으로, 신호 전송 거리를 단축하고 공간을 절약한다. 이는 고성능 컴퓨팅과 스마트폰 같은 소형 기기에서 점점 더 보편화되고 있다.
또한 탄소 나노튜브, 그래핀, 질화갈륨(GaN) 등의 새로운 재료는 전자 이동성이 뛰어나고 발열이 적어, 차세대 반도체 기술로 주목받고 있다. 이러한 기술적 전환은 단순한 트랜지스터 축소가 아닌, 아예 새로운 방식으로 성능을 극대화하는 방향으로 나아가고 있다.
인공지능 시대의 특수 목적 칩의 부상
최근 인공지능의 급속한 발전은 새로운 연산 구조를 요구하고 있다. 특히 대규모 신경망 모델을 학습시키는 데 필요한 연산량은 전통적인 중앙처리장치(CPU)로는 감당할 수 없는 수준이다. 이로 인해 그래픽 처리 장치(GPU), 텐서 처리 장치(TPU), 신경망 처리 장치(NPU) 등의 특수 목적 칩이 중심 기술로 부상했다.
GPU는 수천 개의 코어로 병렬 처리를 수행할 수 있어, 게임 그래픽뿐 아니라 AI 학습, 암호 해석, 금융 시뮬레이션 등에 널리 사용되고 있다. 특히 엔비디아(NVIDIA)의 GPU는 생성형 AI의 학습 및 추론을 위한 핵심 장비로 자리 잡았으며, 2023년 이후 AI 붐을 주도한 핵심 인프라가 되었다. 텐서 처리 장치는 구글이 자체 설계한 칩으로, 자사 서비스인 구글 검색, 번역, 클라우드 기반의 AI 기능에 탑재되며, 대규모 텍스트와 이미지 데이터를 빠르게 처리할 수 있는 기반이 되고 있다.
NPU는 엣지 디바이스, 특히 스마트폰과 IoT 기기에서 AI 연산을 실시간으로 수행하는 데 사용된다. 예를 들어, 삼성전자의 최신 스마트폰에는 자사 개발의 엑시노스 NPU가 탑재되어 사진 자동 보정, 음성 인식, 번역 등의 기능을 오프라인에서도 수행할 수 있다. 이는 데이터 전송 없이도 개인정보를 보호하면서 고성능 AI 기능을 활용할 수 있게 한다.
또한 최근에는 전통적인 반도체 구조를 넘어, 인간의 뇌를 모사한 뉴로모픽 컴퓨팅(neuromorphic computing)이 주목받고 있다. 인텔의 '로이히(Loihi)' 칩은 시냅스 구조를 모방해 초저전력으로 AI 연산을 수행하며, 로봇 및 자율주행 분야에서 실험적으로 활용되고 있다. 이처럼 AI 특화 칩의 발전은 단순한 연산 속도를 넘어서, 전력 소모와 보안 문제까지 포괄하는 ‘전체 시스템 최적화’를 지향하고 있다.---
양자 컴퓨팅의 가능성과 한계
양자 컴퓨팅은 계산 능력을 획기적으로 향상시킬 수 있는 새로운 패러다임으로, 기존 디지털 컴퓨팅의 한계를 뛰어넘을 수 있는 잠재력을 지닌다. 기존 컴퓨터는 정보를 0 또는 1의 이진 상태로 처리하지만, 양자 컴퓨터는 큐비트(qubit)를 통해 0과 1의 상태를 동시에 지닐 수 있는 중첩(superposition) 상태를 활용한다. 또한 큐비트 간의 얽힘(entanglement)은 병렬 처리를 가능하게 해, 특정 문제에서 기존 슈퍼컴퓨터보다 훨씬 빠른 속도를 낼 수 있다.
가장 대표적인 사례는 암호 해독이다. 현재 널리 사용되는 RSA 암호 체계는 소인수분해의 어려움을 기반으로 한다. 그러나 양자 알고리즘인 쇼어 알고리즘(Shor's algorithm)을 사용하면, 고전적인 방식보다 훨씬 빠르게 큰 수의 소인수분해가 가능하다. 이는 곧 현재 인터넷 보안 시스템이 무력화될 수 있음을 의미한다. 이에 대응하기 위해 각국은 양자 저항 암호(post-quantum cryptography)를 개발하고 있으며, 미국 국가표준기술연구소(NIST)는 양자 내성 암호 표준을 채택하고 있다.
또한 양자 컴퓨팅은 신약 개발 분야에서도 혁신적 가능성을 지닌다. 분자 구조의 정확한 시뮬레이션은 기존 슈퍼컴퓨터로는 어려운 문제지만, 양자 시뮬레이션은 그 복잡성을 훨씬 빠르게 계산할 수 있다. 독일의 머크(Merck), 미국의 화이자(Pfizer)와 같은 제약회사들은 이미 IBM, D-Wave 등과 협력해 양자 기반 약물 모델링을 실험하고 있다.
다만 양자 컴퓨팅은 여전히 큐비트의 불안정성, 오류 정정 기술, 냉각 시스템 등에서 기술적 난제를 안고 있다. 실리콘 큐비트, 초전도 큐비트, 이온트랩, 위상 큐비트 등 다양한 방식이 경쟁 중이며, 어떤 방식이 상용화에 유리할지는 아직 결정되지 않았다. 그럼에도 불구하고 주요 국가와 기업은 양자 컴퓨팅 기술에 대규모 투자를 이어가고 있으며, 2030년 전후로 실제 상업적 활용이 시작될 것이라는 전망도 나온다.
소프트웨어와 알고리즘의 진화
하드웨어가 더 이상 비약적으로 발전하지 않는 시대, 소프트웨어는 여전히 엄청난 잠재력을 지니고 있다. 특히 컴파일러, 운영체제, 알고리즘 최적화는 동일한 하드웨어에서도 성능을 수 배 향상시킬 수 있는 중요한 수단이다. 가장 간단한 예로, 버블 정렬과 퀵 정렬은 같은 데이터를 처리하더라도 시간 복잡도 차이로 인해 연산 시간이 수십 배 차이날 수 있다. 알고리즘 선택만으로 성능 향상이 가능한 이유다.
최근에는 자동 병렬화 기술과 메모리 최적화 기술도 주목받고 있다. 예를 들어, 고성능 연산을 요하는 물리 시뮬레이션, 3D 렌더링, 금융 모델링에서는 다중 스레드를 활용한 연산 분할이 효율성 향상에 큰 역할을 한다. 현대의 컴파일러는 소스 코드를 분석해 불필요한 연산을 제거하고, 연산 순서를 자동으로 재배치하여 캐시 사용률과 전력 효율을 높인다.
AI를 활용한 소프트웨어 최적화도 빠르게 성장 중이다. 예를 들어 페이스북의 Glow, 구글의 XLA 같은 AI 컴파일러는 학습된 모델 구조를 자동으로 분석하여 하드웨어별 최적 실행 코드를 생성한다. 이 기술은 고성능 연산 뿐 아니라 스마트폰, 마이크로 컨트롤러 등 소형 디바이스에서도 활용되어, AI 기능을 보다 효율적으로 실행할 수 있게 한다.
이처럼 소프트웨어는 하드웨어 없이도 계산 성능을 혁신할 수 있는 중요한 분야이며, 앞으로는 하드웨어·소프트웨어 공동 최적화(Co-design)가 컴퓨팅 효율의 핵심 전략이 될 것이다.
엣지와 분산 컴퓨팅의 확장
엣지 컴퓨팅은 데이터를 생성하는 현장에서 직접 연산을 처리함으로써, 지연시간을 줄이고 네트워크 부담을 경감시키는 전략이다. 대표적인 사례로는 자율주행차를 들 수 있다. 자율주행차는 초당 수백 장의 카메라 이미지, 라이다 데이터, 센서 정보를 처리해야 하며, 이를 중앙 서버로 보냈다가는 실시간 반응이 불가능하다. 따라서 차량 내부의 엣지 연산 장치가 데이터를 즉시 처리하고, 필요한 경우에만 서버와 동기화하는 구조를 갖춘다.
헬스케어 분야에서도 원격 진료 장비와 웨어러블 기기들은 환자의 생체 신호를 실시간으로 분석해 이상 징후를 감지하고 경고를 보낸다. 이때 엣지 단의 프로세서가 심박수, 산소 포화도, 체온 변화 등을 분석해 병원에 알람을 보내는 시스템이 운영되고 있다.
또한 엣지 컴퓨팅은 개인정보 보호 측면에서도 중요하다. 예를 들어 스마트폰에서 음성 인식, 얼굴 인식, 사진 자동 분류 기능을 사용할 때, 사용자의 데이터를 클라우드에 전송하지 않고 디바이스 내부에서 처리하면 해킹 위험이 줄어든다. 애플은 이를 위해 아이폰에 전용 신경망 칩을 탑재해 AI 기능을 온디바이스로 처리하는 전략을 택하고 있다.
앞으로는 클라우드, 엣지, 로컬 디바이스 간의 역할 분담이 더 정교해지며, 이를 통합적으로 관리하는 분산 컴퓨팅 플랫폼이 보편화될 것이다. 엣지의 중요성은 AI의 보편화, 실시간 반응, 에너지 효율성이라는 측면에서 계속 증가할 전망이다.
산업 지형을 바꾸는 새로운 컴퓨팅
무어의 법칙이 끝났다고 해서 디지털 산업이 위축되는 것은 아니다. 오히려 새롭게 등장한 기술들이 각 산업을 근본적으로 바꾸고 있다. 금융에서는 초단위로 변동하는 시장을 실시간으로 분석하기 위한 고성능 컴퓨팅이 요구되며, 의료에서는 AI 기반의 정밀 진단, 유전체 분석, 치료 시뮬레이션이 보편화되고 있다.
기후 모델링, 신재생 에너지 배분, 스마트 교통망 최적화 등에서도 대규모 연산 능력은 사회 인프라의 핵심으로 자리잡았다. 미래 산업은 하드웨어의 단순한 성능을 넘어서, 에너지 효율, 신뢰성, 지능화 수준까지 고려한 총체적 컴퓨팅 역량을 요구하게 될 것이다.
한국 반도체 산업의 미래와 대응 전략
한국은 반도체 메모리 분야에서 세계적인 경쟁력을 보유하고 있지만, 무어의 법칙 이후 시대에는 단순 제조 능력만으로는 경쟁 우위를 유지하기 어렵다. 지금 필요한 것은 차세대 연산 기술로의 전환을 선도하고, 시스템 반도체 생태계를 육성하는 전략적 접근이다.
먼저 시스템 반도체, 특히 애플리케이션 프로세서(AP), 전력 반도체, AI 가속기 등의 설계 및 제조 역량을 키워야 한다. 미국은 엔비디아, AMD, 애플 같은 초대형 팹리스(fabless) 기업이 강세이며, 대만은 TSMC를 중심으로 첨단 공정과 파운드리 산업을 장악하고 있다. 한국은 삼성전자가 시스템 반도체와 파운드리를 동시에 운영하지만, 팹리스 중소기업의 생태계가 취약하다. 이를 보완하기 위해 정부와 민간이 함께 기술 창업, 인재 양성, IP 확보, 시제품 생산 인프라 등을 지원해야 한다.
둘째, 차세대 메모리 기술인 PIM(메모리 내 연산), MRAM(자기저항 메모리), ReRAM(저항변화 메모리) 등의 선점이 중요하다. 특히 삼성전자는 PIM 기술을 앞서 실현하며 AI 서버의 연산 속도를 획기적으로 끌어올리고 있으며, 향후 AI 반도체 표준을 주도할 수 있는 기회를 창출하고 있다.
셋째, 소재·부품·장비 자립화가 필수적이다. 2019년 일본의 수출 규제는 한국 반도체 산업의 취약성을 드러낸 사건이었다. 이후 국산화 노력이 본격화되었지만, 여전히 핵심 장비와 소재에서 수입 의존도가 높다. 이를 위해 국내 장비기업 육성과 해외 기술 제휴, 인수합병(M&A)을 통한 역량 확보가 중요하다.
마지막으로 정부의 정책적 뒷받침도 중요하다. 미국은 ‘칩스법(CHIPS Act)’을 통해 자국 반도체 산업에 대규모 보조금을 제공하고 있으며, 유럽과 중국도 반도체를 전략 산업으로 지정하고 있다. 한국 역시 세액공제 확대, 용지 확보, 기술 교육 강화 등 장기적 지원이 필요하다.---
새로운 계산의 시대를 향하여
무어의 법칙은 끝났지만, 계산 기술의 진보는 이제 시작일지도 모른다. 물리적 소자의 한계를 넘어서는 새로운 재료, 아키텍처, 알고리즘, 분산 구조가 동시다발적으로 발전하고 있으며, 이는 단순한 연산 속도를 넘어서 지능, 효율, 신뢰성이라는 새로운 가치를 만들어내고 있다.
앞으로의 컴퓨팅은 ‘더 작고 빠르게’가 아니라 ‘더 똑똑하고 유연하게’로 나아갈 것이다. 이 변화는 기술적 진보를 넘어, 산업 지형과 사회 구조 전체를 재구성하는 커다란 전환점이 될 것이다.
Computing After Moore's Law: Where Are We Heading?
The End of the Moore's Law Era
One of the greatest engines of digital innovation over the past 60 years has been Moore's Law. In 1965, Gordon Moore, co-founder of Intel, observed that "the number of transistors on a chip doubles every two years," and this simple observation became the compass for the global semiconductor industry. The increase in the number of transistors led to faster speeds, improved power efficiency, and lower manufacturing costs, enabling computers to evolve to become smaller, faster, and more affordable.
This advancement has driven transformations across industries, including finance, healthcare, telecommunications, energy, defense, climate modeling, and autonomous vehicles. However, since the mid-2010s, Moore's Law began facing physical limits. In processes below 5 nanometers, quantum tunneling, leakage current, and heat generation have become significant obstacles, and the miniaturization of transistors no longer directly translates into performance gains. We have entered an era where simply increasing transistor density is no longer sufficient to enhance computing power.
New Approaches Beyond Physical Limits
The end of Moore's Law does not signal the end of computing advancement. Rather, it marks a turning point where computing technologies are expanding in various directions. These include special-purpose processors, new system architectures, 3D stacking technologies, and material innovations.
Instead of relying solely on general-purpose CPUs, processors optimized for artificial intelligence (AI), graphics processing, and cryptographic calculations are gaining traction. Heterogeneous computing, which integrates CPUs, GPUs, and FPGAs within a single system to distribute tasks effectively, is maximizing overall efficiency.
3D stacking technology vertically layers chips to shorten signal transmission distances and save space. This is becoming increasingly common in high-performance computing and compact devices such as smartphones.
Moreover, new materials such as carbon nanotubes, graphene, and gallium nitride (GaN), known for high electron mobility and low heat generation, are drawing attention as the basis for next-generation semiconductors. These innovations aim not just to shrink transistors but to maximize performance through fundamentally different approaches.
The Rise of Special-Purpose Chips in the AI Era
The rapid development of AI requires new computational architectures. The computational demands of training large-scale neural network models are beyond what traditional CPUs can handle. As a result, GPUs, TPUs, and NPUs have emerged as key technologies.
GPUs, with thousands of cores for parallel processing, are used not only for gaming graphics but also for AI training, cryptography, and financial simulations. NVIDIA's GPUs have become essential infrastructure for training and deploying generative AI models, especially since the AI boom of 2023. TPUs, custom-designed by Google, power Google Search, Translate, and other AI services that handle large-scale text and image data efficiently.
NPUs are used in edge devices like smartphones and IoT devices to process AI computations in real-time. For example, Samsung's latest smartphones include Exynos NPUs developed in-house to perform offline tasks such as photo enhancement, voice recognition, and translation, enabling high-performance AI features while protecting personal data.
Recently, neuromorphic computing, which mimics the structure of the human brain, has also gained attention. Intel's Loihi chip simulates synaptic behavior to perform AI calculations with ultra-low power consumption and is being experimentally used in robotics and autonomous driving. These AI-specialized chips are evolving beyond mere speed improvements to address power consumption and security issues, aiming for overall system optimization.
The Possibilities and Challenges of Quantum Computing
Quantum computing represents a new paradigm with the potential to drastically enhance computational capabilities, overcoming the limitations of traditional digital computing. While classical computers process information in binary states (0 or 1), quantum computers use qubits, which can exist in a superposition of both 0 and 1. Additionally, entanglement between qubits enables parallel computation, allowing certain problems to be solved much faster than with current supercomputers.
One of the most well-known applications is cryptographic decoding. RSA encryption, which is widely used today, relies on the difficulty of factoring large numbers. However, quantum algorithms like Shor's algorithm can factor these numbers far more efficiently, posing a threat to current internet security systems. In response, countries are developing post-quantum cryptography, and the U.S. National Institute of Standards and Technology (NIST) has adopted quantum-resistant encryption standards.
Quantum computing also holds promise for drug discovery. Accurately simulating molecular structures is a complex task even for supercomputers, but quantum simulations can process this complexity more rapidly. Companies such as Merck in Germany and Pfizer in the U.S. are already working with IBM and D-Wave to experiment with quantum-based drug modeling.
Nevertheless, quantum computing still faces technical challenges such as qubit instability, error correction, and cryogenic system requirements. Competing approaches—including silicon qubits, superconducting qubits, ion traps, and topological qubits—are still vying for commercial viability. Despite this, major countries and corporations are making significant investments, with expectations of practical applications emerging around 2030.
The Evolution of Software and Algorithms
As hardware advances slow, software continues to hold tremendous potential. Compiler technology, operating systems, and algorithm optimization can enhance performance by severalfold on the same hardware. A basic example is how bubble sort and quick sort, though solving the same problem, differ vastly in time complexity and execution speed. Choosing the right algorithm alone can significantly improve performance.
Recent attention has been drawn to automatic parallelization and memory optimization technologies. High-performance simulations, 3D rendering, and financial modeling benefit greatly from multithreaded processing. Modern compilers analyze source code to remove unnecessary operations and reorder instructions to improve cache efficiency and power consumption.
Software optimization using AI is also growing rapidly. For instance, AI compilers like Facebook's Glow and Google's XLA analyze trained model structures and generate hardware-specific execution code. These technologies not only support high-performance computing but also enhance AI functionality in small devices like smartphones and microcontrollers.
Software remains a vital area for computing performance innovation even without new hardware, and co-design between hardware and software is expected to become a core strategy for future computing efficiency.
The Expansion of Edge and Distributed Computing
Edge computing processes data at its point of origin, reducing latency and easing the burden on central networks. A prime example is autonomous vehicles, which must process hundreds of camera images, LiDAR data, and sensor inputs per second. Sending this data to a central server would cause delays, so onboard edge processors analyze data in real time and synchronize with servers only when necessary.
In healthcare, telemedicine equipment and wearable devices analyze biosignals in real time to detect abnormalities and send alerts. Edge processors monitor heart rate, oxygen saturation, and temperature changes, enabling immediate responses.
Edge computing is also vital for privacy. Functions like voice recognition, facial recognition, and photo classification on smartphones are increasingly processed locally to reduce hacking risks. Apple, for example, installs neural processing units in iPhones to handle AI tasks directly on the device.
Going forward, the roles of cloud, edge, and local devices will become more sophisticated and integrated through distributed computing platforms. The importance of edge computing will continue to grow due to the proliferation of AI, real-time responsiveness, and energy efficiency.
New Computing That Transforms Industrial Landscapes
The end of Moore's Law does not mean the digital industry is in decline. Rather, emerging technologies are fundamentally transforming various sectors. In finance, high-performance computing is essential for real-time market analysis. In healthcare, AI-based precision diagnostics, genome analysis, and treatment simulations are becoming commonplace.
Large-scale computational capabilities are also central to infrastructure in fields such as climate modeling, renewable energy distribution, and smart transportation systems. Future industries will require not only high hardware performance but also computing capabilities that consider energy efficiency, reliability, and intelligence.
The Future and Strategic Response of Korea's Semiconductor Industry
South Korea holds a competitive edge in memory semiconductors globally. However, in the post-Moore's Law era, manufacturing alone is no longer enough to maintain this advantage. A strategic shift toward next-generation computing technologies and ecosystem development for system semiconductors is essential.
First, Korea must enhance its design and production capabilities in system semiconductors, including application processors (APs), power semiconductors, and AI accelerators. The U.S. dominates with fabless giants like NVIDIA, AMD, and Apple, while Taiwan leads advanced foundry technology with TSMC. Although Samsung Electronics manages both system semiconductor and foundry operations, Korea lacks a robust ecosystem of fabless SMEs. To address this, the government and private sector must jointly support tech startups, talent development, IP acquisition, and prototyping infrastructure.
Second, securing leadership in next-generation memory technologies—such as processing-in-memory (PIM), magnetoresistive RAM (MRAM), and resistive RAM (ReRAM)—is vital. Samsung, in particular, is pioneering PIM technology to boost AI server performance and may set future AI semiconductor standards.
Third, localization of materials, parts, and equipment is crucial. Japan's 2019 export restrictions exposed vulnerabilities in Korea's semiconductor supply chain. While localization efforts have since intensified, dependence on imports remains high for critical components and tools. Supporting domestic equipment companies and acquiring foreign technologies through partnerships or M\&A is essential.
Lastly, consistent policy support is needed. The U.S. provides massive subsidies through the CHIPS Act, and both Europe and China have designated semiconductors as strategic industries. Korea must also offer long-term support through expanded tax credits, land access, and technical education programs.
Toward a New Era of Computing
Moore's Law may have come to an end, but the evolution of computing has just begun. Innovations in materials, architectures, algorithms, and distributed structures are rapidly advancing, creating new values in intelligence, efficiency, and reliability beyond raw speed.
Future computing will move from "smaller and faster" to "smarter and more flexible." This shift is not only a technical evolution but a fundamental transformation of industrial and social structures.