처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈
테크 뉴스
Hacker News 2026.04.18 23

트랜지스터 없이 컴퓨터를 만들 수 있을까 — MZI 광컴퓨팅이 다시 주목받는 이유

Hacker News 원문 보기

트랜지스터가 없는 컴퓨터라니, 무슨 소리일까요

우리가 쓰는 모든 디지털 기기 — 스마트폰, 노트북, 서버 — 의 가장 기본 부품은 트랜지스터예요. 이게 뭐냐면, 아주 작은 전기 스위치라고 생각하면 돼요. 켜지면 1, 꺼지면 0. 이 스위치를 수십억 개 모아서 칩 하나를 만드는 게 지금의 CPU, GPU예요. 인텔이든 엔비디아든 TSMC든 전부 "얼마나 작은 트랜지스터를 얼마나 많이 박아 넣느냐" 경쟁을 하고 있죠.

문제는 이 경쟁이 한계에 다다르고 있다는 거예요. 트랜지스터가 원자 몇 개 수준으로 작아지면서 전자가 벽을 그냥 뚫고 지나가는 양자 현상(터널링)이 나타나고, 발열과 누설 전류도 심각해졌어요. 무어의 법칙이 둔해졌다는 얘기가 바로 이거고요. 그래서 "아예 다른 원리로 계산하는 컴퓨터"를 만들려는 시도들이 꾸준히 있었어요. 양자 컴퓨터, 뉴로모픽 칩, 그리고 오늘 이야기할 광컴퓨팅(photonic computing)이 대표적이에요.

MZI가 도대체 뭔가요

MZI는 Mach-Zehnder Interferometer(마하-젠더 간섭계)의 약자예요. 이름은 어렵지만 원리는 의외로 단순해요. 빛을 두 갈래로 쪼갠 다음, 한쪽 경로의 길이나 위상을 살짝 바꿔서 다시 합쳐요. 그러면 두 빛이 서로 더해지거나(밝아짐) 상쇄되거나(어두워짐) 해요. 이 "더해짐/상쇄됨"을 1과 0처럼, 또는 곱셈/덧셈처럼 쓸 수 있다는 아이디어가 바로 MZI 기반 컴퓨팅이에요.

더 재미있는 건 이게 행렬 곱셈과 자연스럽게 맞아떨어진다는 점이에요. MZI를 격자 모양으로 잔뜩 연결하면, 빛이 그 구조를 한 번 통과하는 것만으로 큰 행렬 곱이 계산돼요. 전기로 하면 수백만 번의 덧셈/곱셈이 필요한 연산이 "빛의 속도로 한 방에" 끝나는 거예요. 전력도 거의 안 드는 게, 계산 과정에서 열이 거의 발생하지 않거든요. 전자가 저항에 부딪히면서 열을 내는 전자 회로와 본질적으로 다른 지점이에요.

그런데 이게 이론적으론 1980~90년대부터 알려져 있었어요. 왜 이제야 다시 주목받냐면, 최근 몇 년 사이 실리콘 포토닉스(Silicon Photonics) 기술이 성숙했기 때문이에요. 쉽게 말하면, 빛을 다루는 부품을 기존 반도체 공정과 똑같은 방식으로 실리콘 웨이퍼 위에 찍어낼 수 있게 됐다는 뜻이에요. 예전엔 광학 부품 하나하나를 수작업으로 정렬해야 했는데, 이제는 칩에 수천 개의 MZI를 한꺼번에 집적할 수 있게 된 거죠.

왜 지금 이 기술이 다시 뜨나요

가장 큰 이유는 AI예요. 대형언어모델(LLM)을 돌리는 데 드는 연산의 거의 대부분이 행렬 곱셈이에요. GPT든 Llama든 내부를 뜯어보면 결국 거대한 행렬들을 수천 번 곱하는 작업이거든요. 엔비디아 H100 같은 GPU가 비싼 이유도 이 행렬 곱셈을 빠르게 해주기 때문이고요. 그런데 MZI 광컴퓨팅은 바로 이 행렬 곱셈에 태생적으로 최적화된 구조예요. "AI 전용 가속기 중에서도 근본이 다른 가속기"가 될 수 있다는 기대가 있는 거죠.

실제로 Lightmatter, Lightelligence, PsiQuantum 같은 스타트업이 이 분야에서 큰 투자를 받았고, MIT와 칭화대 등에서 수년간 핵심 논문들이 쏟아졌어요. Lightmatter는 엔비디아 출신 엔지니어들을 모아 실제 상용 칩을 내놓기 시작했고, 데이터센터 업체들과 파일럿 테스트를 진행 중이라고 알려져 있어요.

그래도 쉬운 길은 아니에요

솔직히 말하면 광컴퓨팅엔 아직 풀어야 할 문제가 많아요. 첫째, 빛 자체는 빠르지만 입력과 출력에서 전기 신호를 빛으로, 빛을 다시 전기로 바꾸는 변환 과정이 오히려 병목이에요. 둘째, MZI는 온도에 매우 민감해요. 섭씨 몇 도만 바뀌어도 위상이 어긋나서 계산 오차가 나요. 그래서 칩 전체의 온도를 아주 정밀하게 제어해야 하죠. 셋째, 아날로그 계산이라 정밀도에 한계가 있어요. 8비트 정도는 괜찮은데 FP32 같은 고정밀 연산은 어려워서 "AI 추론은 가능해도 훈련은 당분간 어렵다"는 평가가 많아요.

그래서 현재 업계의 컨센서스는 "트랜지스터를 대체한다"기보다는 "전자 CPU/GPU 옆에 붙는 특수 가속기로 먼저 자리 잡을 것"이라는 쪽이에요. 양자 컴퓨터도 비슷한 포지션이죠. 일반 목적 연산은 실리콘, 특정 연산은 특수 가속기.

한국 개발자에게 어떤 의미일까요

당장 내일부터 코드에 쓸 수 있는 기술은 아니에요. 하지만 몇 가지 이유로 관심을 둘 만해요. 한국은 반도체 강국이지만 광통신/실리콘 포토닉스 분야에선 상대적으로 후발 주자예요. 삼성전자, SK하이닉스가 HBM 같은 메모리로 AI 칩 시장에서 위치를 잡고 있는데, 광컴퓨팅이 본격화되면 "전기 신호를 빛으로 바꾸는 인터커넥트" 시장이 폭발적으로 커질 거예요. 이게 바로 국내 기업들이 준비하고 있는 분야 중 하나예요.

개발자 입장에서는, AI 인프라 엔지니어나 시스템 프로그래머라면 "내가 짠 커널이 GPU가 아니라 광학 가속기 위에서 돌아가는 날이 올 수 있다"는 걸 염두에 두는 정도면 돼요. PyTorch나 JAX 같은 프레임워크들은 이미 하드웨어 추상화가 잘 되어 있어서, 백엔드가 바뀌어도 상위 코드는 비슷할 거예요. 다만 양자화(quantization)와 저정밀 연산에 대한 이해는 앞으로 점점 더 중요해질 거고요.

마무리

한 줄 요약하면 "빛으로 행렬 곱셈을 하는 시대가 실험실을 벗어나 데이터센터에 들어오기 시작했다"예요. 당장 우리 일상을 바꾸진 않겠지만, 앞으로 5~10년 사이 AI 하드웨어 지형을 크게 흔들 후보 중 하나인 건 분명해요. 여러분은 AI 가속기의 다음 세대로 뭐가 올 거라고 생각하시나요? 광컴퓨팅, 양자, 뉴로모픽 중에서 가장 먼저 실용화될 후보는 어느 쪽일까요?


🔗 출처: Hacker News

이 뉴스가 유용했나요?

이 기술을 직접 배워보세요

AI 도구, 직접 활용해보세요

AI 시대, 코딩으로 수익을 만드는 방법을 배울 수 있습니다.

AI 활용 강의 보기

"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"

실제 수강생 후기
  • 비전공자도 6개월이면 첫 수익
  • 20년 경력 개발자 직강
  • 자동화 프로그램 + 소스코드 제공

매일 AI·개발 뉴스를 받아보세요

주요 테크 뉴스를 매일 아침 이메일로 전해드립니다.

스팸 없이, 언제든 구독 취소 가능합니다.