TCP/IP를 만든 사람이 Claude를 'IP 프로세서'로 굴려본 결과 — ping 한 번에 42초가 걸리는 이유
핵심 요약 (TL;DR)
- lwIP·uIP 창시자 Adam Dunkels가 Claude Haiku 4.5에게 IP 패킷 byte 단위 파싱·체크섬 계산·ICMP echo reply 작성을 직접 시켰습니다.
- 결과: ping이 동작합니다. RTT 42,593ms, 약 42.6초. 응답률 100%, 패킷 크기 84바이트.
- "AI는 시스템 코드를 못 짠다"가 아니라 "AI는 시스템 코드를 짤 수 있는데 가격이 있다"가 정확한 명제입니다.
TCP/IP를 만든 사람이 왜 이런 실험을 했을까
임베디드 IoT에서 "IP가 동작한다"고 말하면 십중팔구 Adam Dunkels의 코드가 동작하고 있다고 보면 됩니다. lwIP·uIP — 그가 만든 작은 TCP/IP 스택은 사실상 산업 표준이거든요. Contiki·RIOT OS의 네트워킹 기둥이기도 하고요. 그런 사람이 지난 5월 11일에 던진 질문은 단순했습니다. "LLM 자체를 user-space IP 스택의 프로세서로 굴리면 어떻게 될까?"
실험 설계는 한 줄로 요약됩니다. ping-respond.md라는 마크다운 파일 하나가 시스템의 전부. Claude Haiku 4.5가 /dev/tun0에서 raw IP 패킷을 hex로 읽고, IP·ICMP 헤더를 바이트 단위로 파싱하고, 체크섬을 계산기 없이 손으로 셈하고, src/dst IP를 스왑한 뒤, ICMP echo reply를 다시 hex로 써서 tun 디바이스로 흘려보냅니다. 그가 직접 쓴 표현은 이렇습니다. "Markdown is code and an LLM is the processor that executes that code."
동작은 한다, 단지 매우 느리다
핵심 숫자는 한 줄입니다. RTT 42,593ms. 약 42.6초. 1개 패킷이 들어가고 1개가 돌아왔고, 응답률 100%, 패킷 크기 84바이트였습니다. 그는 결과를 "a slow ping" 한 단어로 정리했죠.
여기서 사용된 모델이 Sonnet도 Opus도 아니라 Haiku 4.5 — 가장 빠른 라인이라는 점이 의미가 큽니다. 가장 빠른 모델로 가장 단순한 프로토콜을 처리시켰을 때도 ping 한 번이 42초였다는 거예요.
"AI는 못 한다"가 아니라 "AI는 가격이 있다"
이 실험이 묵직한 이유는 따로 있습니다. 이번 주 HN과 한국 X 양쪽에서 "AI 코딩은 한계가 명확하다, 7개월 234커밋을 시켜봐도 아키텍처를 못 짠다"는 회의론이 다시 올라왔거든요. Dunkels의 ping은 그 회의론에 정확히 반대 각도로 답합니다.
"LLM이 IP 패킷을 byte 단위로 처리할 본질적 이유는 어디에도 없다"는 명제로요. 가능합니다. 동작합니다. 단지 42초가 걸릴 뿐입니다.
바이브코더 입장에서 이 결과를 다시 읽어볼까요. 우리가 매일 마주하는 선택은 "AI에게 이 일을 시켜도 되나 vs 안 되나"가 아닙니다. "이 일을 AI에게 시키면 얼마가 드나, 그게 내가 직접 짜는 비용보다 싼가"가 진짜 질문이거든요.
Dunkels의 ping은 그 질문을 가장 극단까지 밀어붙인 케이스입니다. 가장 낮은 레벨에서, 가장 빠른 모델로, 가장 단순한 프로토콜을 — 그래도 42초. 반대편엔 같은 주 회자된 Carlini의 100K줄 Rust C 컴파일러가 있습니다. Opus 4.6 + 병렬 16 에이전트로 2주, $20K. 컴파일러 엔지니어 2주치 인건비보다 싸요. 같은 "AI 코딩"인데 가격표가 완전히 다른 영역에 박혀 있는 거죠.
마크다운이 코드라는 명제
부수적이지만 흥미로운 포인트가 하나 더 있습니다. Dunkels의 "마크다운이 코드, LLM이 프로세서" 표현이 단순한 수사가 아니라는 점이에요. 우리가 매일 짜는 프롬프트는 사실 함수형 언어의 함수 정의에 가깝습니다. 입력을 정의하고, 변환 규칙을 적고, 출력 형식을 강제하죠.
차이는 컴파일 타임이 없다는 것, 그리고 인터프리터(LLM)가 비결정적이라는 것. 그러나 "코드를 짜고 그 코드의 동작을 검증한다"는 패러다임은 동일합니다. 바이브코더가 매일 하는 일을 한 번 더 추상화하면 결국 이 그림이 되는 거예요.
FAQ
Q. 42초짜리 ping이 실용적 의미가 있나요?
실용 측면에선 없습니다. Dunkels 본인도 "a slow ping"이라고 못박았어요. 의미는 다른 데 있죠. "LLM이 시스템 코드를 실행할 수 있다"는 가능성의 증명. 가격이 더 떨어지고 추론 속도가 더 빨라지면 이 42초가 어디까지 줄어드는지가 관전 포인트입니다.
Q. 그럼 바이브코더가 이걸 어디에 써먹나요?
직접 ping 서버를 만들 일은 없을 겁니다. 다만 "AI에게 이 일을 시켜도 되나" 같은 막연한 질문 대신 "이 일을 AI에게 시키면 응답 시간과 토큰 비용이 얼마인가"라는 구체 질문으로 옮겨가는 데 좋은 reference가 됩니다.
Q. 모델을 Opus로 바꾸면 더 빨라지나요?
Dunkels는 Haiku 4.5를 의도적으로 골랐습니다. Opus가 추론은 더 정확하지만 속도는 더 느리거든요. ping 시나리오에선 차라리 빠르고 살짝 부정확한 모델이 낫다는 판단이었던 것 같습니다.
원문: https://dunkels.com/adam/claude-user-space-ip-stack-ping/
댓글 0
아직 댓글이 없습니다