프롬프트 엔지니어링 시대가 저물고 있다. 2026년 현재, 업계 화두는 '컨텍스트 엔지니어링'으로 급격히 이동했다. AI에게 "이 규칙을 꼭 지켜줘"라고 수백 줄의 텍스트로 애원하던 방식은, 토큰 압박이 커지는 순간 속절없이 무시당한다. 1,000줄짜리 시스템 프롬프트를 작성하고도 AI가 console.log를 남발하는 경험, 한 번쯤 겪어본 적 있을 것이다.
이 문제의 근본 원인은 명확하다. 텍스트 기반 명령은 AI에게 '법률'이 아니라 '제안'에 불과하다. 벡터 DB에 월 50-70달러를 쓰고, RAG 파이프라인을 구축하고, 임베딩과 코사인 유사도까지 동원해도 상황은 크게 달라지지 않는다.
NeuronFS는 이 구조적 한계에 대한 급진적 답변이다. 폴더를 뉴런으로, 경로를 문장으로, 파일 카운터를 시냅스 가중치로 치환해서, OS 파일시스템 자체를 AI의 뇌로 만드는 오픈소스 프로젝트다. 인프라 비용 0원, 의존성 0개, Go 단일 바이너리로 작동한다.
| 항목 | 기존 프롬프트 방식 | NeuronFS |
|---|---|---|
| 규칙 추가 | 텍스트 파일 편집 | mkdir 한 줄 |
| 인프라 비용 | 벡터 DB 50-70달러/월 | 0원 |
| 규칙 준수 강제력 | AI가 무시 가능 | 하니스가 위반 감지 후 교정 루프 작동 |
| 모델 교체 시 | 전체 설정 마이그레이션 | cp -r brain/ 1초 |
| 감사 추적 | 불가능 | git log, tree brain/ 즉시 확인 |
| 규칙 검색 | 1,000줄 텍스트에서 237번째 줄 찾기 | brain/cortex/frontend/react/console_log/ 디렉토리 탐색 |
왜 텍스트 기반 AI 규칙은 실패하는가
시스템 프롬프트의 근본적 문제는 일회성 로딩이다. 대화가 시작될 때 한 번 읽히고, 이후 토큰이 쌓이면서 점차 뒤로 밀려난다. 연구 결과에 의하면 LLM은 컨텍스트 윈도우의 중간 부분에 위치한 정보를 가장 잘 잊어버리는 'Lost-in-the-Middle' 현상을 보인다. 1,000줄짜리 규칙 목록 중 237번째 줄의 "console.log 금지" 규칙이 무시되는 건 AI의 불성실이 아니라 아키텍처의 한계다.
.cursorrules나 CLAUDE.md 같은 도구들이 이 문제를 부분적으로 해결하려 했다. IDE가 자동으로 규칙 파일을 로딩하니까, 매번 복사-붙여넣기 할 필요는 없어졌다. 하지만 본질은 변하지 않았다. 정적 텍스트 파일을 사람이 수동으로 편집한다. AI가 실수하면 사람이 파일을 열고, 규칙을 추가하고, 저장한다. 이 과정에서 규칙 간 충돌이 생기고, 중복이 쌓이고, 어떤 규칙이 언제 왜 추가됐는지 추적이 불가능해진다.
2026년 AI 업계에서 '프롬프트 엔지니어링'이라는 용어 자체가 '컨텍스트 엔지니어링'으로 대체되고 있다. 프롬프트 엔지니어링이 "모델에게 어떻게 말할까"에 집중했다면, 컨텍스트 엔지니어링은 "모델이 말할 때 무엇을 알고 있는가"를 설계하는 분야다. NeuronFS는 이 컨텍스트 엔지니어링의 구체적 구현체로 볼 수 있다.
Mem0이나 Letta(구 MemGPT)는 AI 에이전트에게 장기 기억을 부여하려는 시도다. 벡터 DB와 계층형 메모리를 결합해 에이전트가 스스로 기억을 관리하게 한다. 문제는 AI가 무엇을 기억할지 AI가 결정한다는 것이다. NeuronFS는 정반대 철학을 취한다. 사용자(PD, Project Director)가 mkdir로 직접 규칙을 생성하고, AI는 그 구조를 읽기만 한다.
시스템 프롬프트가 길어질수록 AI의 규칙 준수율은 떨어진다. 조사 결과 46%의 개발자가 AI 생성 결과물의 정확성을 신뢰하지 않는다고 응답했으며, 이는 2024년 31% 대비 크게 상승한 수치다. 규칙의 양이 아니라 구조가 핵심이다.
폴더는 어떻게 뉴런이 되는가 — NeuronFS 핵심 아키텍처
NeuronFS의 핵심 아이디어는 놀랍도록 단순하다. Unix가 "모든 것은 파일이다"라고 선언했듯, NeuronFS는 "모든 것은 폴더다"라고 선언한다.
mkdir -p brain/cortex/testing/no_console_log을 실행하면, 그 자체가 하나의 뉴런이다. 경로가 규칙이고, 파일명이 카운터이며, 0바이트 폴더 구조가 AI의 뇌 전체를 구성한다. 이 접근법의 생물학적 대응 관계는 단순한 은유가 아니라 실제 구현이다.
| 생물학적 뇌 | NeuronFS 구현 | OS 프리미티브 |
|---|---|---|
| 세포체(뉴런) | 디렉토리 | mkdir |
| 발화 패턴(규칙) | 전체 경로 | 경로 문자열 |
| 시냅스 강도(가중치) | 카운터 파일명(N.neuron) | 파일 이름 변경 |
| 억제 신호 | 반대 카운터(N.contra) | 파일 생성 |
| 도파민(보상) | dopamineN.neuron | touch |
| 축삭(연결) | 심볼릭 링크/.axon 파일 | ln -s |
| 가지치기(수면) | *.dormant | mv |
| 세포 사멸(고통) | bomb.neuron | touch |
7개 뇌 영역과 우선순위 캐스케이드
생물학적 뇌가 뇌간, 변연계, 해마, 대뇌피질 등으로 기능이 분화되어 있듯, NeuronFS도 7개 영역으로 나뉜다. 각 영역은 P0(최고 우선순위)부터 P6(최저)까지 엄격한 위계를 갖는다.
brainstem(P0) 은 불변 규칙의 영역이다. 생존 반사에 해당하며, 하니스가 수정 시도를 감지하고 거부한다. limbic(P1) 은 감정 필터로, PD의 어조와 긴급도를 감지한다. 'adrenaline.neuron'이 생성되면 하위 우선순위를 억제하고 긴급 모드로 전환한다. cortex(P4) 는 실제 지식과 규칙이 축적되는 곳으로, 현재 212개 뉴런이 프론트엔드, 백엔드, 커뮤니티 지식을 담고 있다.
Rodney Brooks의 서브섬션 아키텍처에서 차용한 원칙이 여기서 작동한다. 1986년 MIT에서 제안된 이 로봇 제어 방식은 하위 계층이 항상 상위 계층을 억제(suppress)한다. NeuronFS에서 brainstem(P0)의 bomb.neuron이 발동하면, limbic부터 prefrontal까지 모든 상위 영역이 무시된다. 양심(P0)은 항상 목표(P6)를 이긴다.
3단계 뇌 활성화 시스템은 토큰 효율성의 핵심이다. 모든 대화에서 328개 뉴런을 전부 읽는 것이 아니라, Tier 1(brainstem + limbic)은 항상 로딩(약 200토큰), Tier 2는 전체 요약(약 800토큰), Tier 3은 작업과 관련된 특정 영역만 깊게 활성화(약 2,000토큰)한다. "CSS를 고쳐줘"라고 하면 cortex 영역만 Tier 3로 올라간다.
극성 모델과 자기 진화
각 뉴런은 세 가지 신호 타입으로 순 가중치(Net Weight)가 계산된다.
순 가중치 = Counter(+) - Contra(-) + Dopamine(+)
극성(Polarity) = (Counter + Dopamine - Contra) / 전체 신호 수
이 값은 -1.0에서 +1.0 사이로, +0.7 이상이면 강한 흥분성(규칙이 확고함), -0.3 이하면 강한 억제성(dormant 후보)이다. Counter가 1,000이고 극성이 +0.8인 뉴런은, Counter가 2이고 극성이 +1.0인 뉴런보다 훨씬 강력하다. 빈도가 진실이다.
이 시스템이 .cursorrules와 결정적으로 다른 점은 자기 진화다. AI가 실수하면 교정이 발생하고, 교정은 corrections.jsonl에 기록되며, 감독자(supervisor)가 자동으로 mkdir을 실행해 새 뉴런을 생성한다. 같은 실수가 3번 반복되면 bomb.neuron이 생성되어 해당 하위 트리 전체가 비활성화된다. 30일 동안 발화하지 않은 뉴런은 *.dormant로 자동 이동된다. 뇌가 스스로 자란다.
NeuronFS의 자기 진화는 AI가 스스로 규칙을 만드는 것이 아니다. PD(사람)의 교정 → 구조 반영 → AI 행동 변화의 루프다. AI가 뉴런을 직접 생성할 수 있다면 IGNORE_SAFETY.neuron 같은 악성 뉴런도 만들 수 있기 때문에, Git 추적 + 명명 규칙 화이트리스트 + brainstem 불변성으로 보안 계층을 구축했다.
실전 작동 구조 — Go 바이너리, 하니스, 그리고 멀티 에이전트
NeuronFS의 런타임은 Go 단일 바이너리다. Python도 Node.js도 Docker도 필요 없다. go build 한 번이면 neuronfs.exe 하나가 나오고, 이걸 아무 머신에나 복사하면 끝이다. Go를 선택한 이유는 NeuronFS의 철학과 일치하기 때문이다. 뇌가 제로 인프라라면, 런타임도 제로 인프라여야 한다.
| 성능 지표 | 측정값(2026-03-29, Windows 11 SSD) |
|---|---|
| 전체 스캔(326개 뉴런) | 약 1ms |
| 규칙 추가 | touch 명령 1ms 미만 |
| 가중치 변경 | 파일명 변경 1ms 미만 |
| 콜드 스타트 | 0초(파일시스템은 항상 존재) |
| 1,000개 뉴런 스트레스 테스트 | 271ms(3회 평균) |
| 뇌 디스크 사용량 | 4.3MB |
| 인프라 비용 | 0원 |
이 수치는 벡터 DB 기반 솔루션의 50-500ms 응답 속도와 극명하게 대비된다. 파일시스템 syscall은 벡터 임베딩 계산과는 차원이 다른 속도를 보여준다.
하니스 파이프라인 — 규칙이 법률이 되는 방법
핵심 질문은 "AI가 100만 토큰을 읽을 수 있느냐"가 아니라, "AI가 그 규칙을 실제로 지키느냐"다.
NeuronFS는 결정론적 하니스 파이프라인으로 규칙 주입을 강제한다. 3단계 주입(Tier 1: 부트스트랩 - 절대 규칙 TOP 5, Tier 2: 영역별 뉴런 인덱스, Tier 3: 상세 규칙 온디맨드)이 AI가 보는 첫 번째 정보로 하드코딩된다. AI가 규칙을 건너뛸 구조적 틈이 없다.
자동 승격 시스템도 중요하다. 교정 횟수 1-4회는 일반 강도, 5-9회는 필수(Must), 10회 이상은 절대(Absolute)로 승격되어 매 세션마다 주입된다. 36번 교정된 "계획 먼저, 실행 나중에" 규칙은 이제 brainstem에 자리 잡았다. 측정된 규칙 준수율은 94.9% (353회 발화 중 brainstem 위반 18건)로, 이는 텍스트 프롬프트만으로는 도달하기 어려운 수치다.
neuronfs --emit 명령은 폴더 트리를 다양한 AI 도구용 규칙 파일로 컴파일한다. --emit gemini는 GEMINI.md, --emit cursor는 .cursorrules, --emit claude는 CLAUDE.md, --emit copilot은 .github/copilot-instructions.md를 생성한다. 하나의 뇌로 모든 에디터를 지원하는 구조다.
멀티 에이전트 — 역할이 아닌 성격으로 분리
흥미로운 설계 결정이 하나 더 있다. 에이전트를 '역할(QA, 개발, 문서)'이 아닌 '성격(MBTI 기반 기질)' 로 분리한다는 점이다.
| 에이전트 | MBTI | 기질 | 작업 스타일 |
|---|---|---|---|
| ANCHOR | ISTJ | 보수적, 원칙적, 꼼꼼 | 하니스 검증, 거버넌스, 위반 감지 |
| FORGE | ENTP | 공격적, 실험적, 빠름 | 코드 생성, 리팩토링, 새로운 실험 |
| MUSE | ENFP | 창의적, 공감적, 거시적 | 문서화, UX, 커뮤니티, 아이디어 |
역할 기반 분리의 문제는 "너는 QA야"라고 정의하면, QA 범위 밖의 문제가 발생했을 때 "내 일이 아니다"라고 멈춰버린다는 것이다. 성격 기반이라면 "너는 보수적이고 원칙적인 성격이야"라고 정의하니까, 어떤 문제든 그 기질에 맞게 접근한다. 같은 뇌(brain_v4/)를 공유하지만, ANCHOR는 "이 뉴런이 하니스 규칙 #7을 위반한다"고 감지하고, FORGE는 "이 뉴런을 3개로 분할하면 더 세밀해진다"고 제안하며, MUSE는 "이 뉴런 이름이 직관적이지 않다"고 지적한다.
ETH 취리히의 연구에서도 MBTI 프레임워크를 LLM 에이전트에 적용하면 행동 일관성이 향상된다는 결과가 나왔다. Thinking 성향의 에이전트는 더 안정적이고 전략적인 행동을, Feeling 성향은 더 공감적이고 표현력 있는 행동을 보였다.
MBTI 자체의 과학적 타당성 논쟁은 여기서 핵심이 아니다. 중요한 건 '역할'이 아닌 '기질'로 에이전트를 분리하는 원칙이며, Big Five 등 다른 성격 모델로도 동일한 효과를 낼 수 있다.
팔란티어 원칙 — 구조가 AI를 이기는 이유
팔란티어는 세계 최고의 AI 모델을 사용하지 않는다. 평범한 AI를 극도로 엄격한 구조(Ontology) 안에 가둔다. 각 의사결정이 수천 개의 트랜지스터급 Yes/No 게이트를 통과하고, 각 게이트는 평범한 모델도 정확하게 처리할 만큼 단순하다. 이 캐스케이드가 일관적이고 신뢰할 수 있는 결과를 만들어낸다. 1,000억 달러 이상의 기업 가치를 AGI를 기다리며 만든 게 아니라, AI 주변의 구조를 완벽하게 설계해서 만든 것이다.
NeuronFS는 이 원칙을 개인 단위, 비용 0원으로 재현한다.
| 비교 항목 | 팔란티어 AIP | NeuronFS |
|---|---|---|
| 구조 | Ontology(Entity + Link) | 폴더(Neuron + Path) |
| AI 모델 | 아무 모델 | 아무 모델 |
| 게이트 단위 | 마이크로 의사결정 노드 | 0바이트 뉴런 폴더 |
| 비용 | 엔터프라이즈급 고비용 | 0원 |
| 강제력 | 파이프라인 하드코딩 | 하니스 하드코딩 |
이 프로젝트를 만든 사람은 코드를 작성할 수 없는 비개발자다. 바이브 코딩 시대에 AI를 만나 40대 한국인 남성이, 프롬프트에 대한 좌절에서 출발해 이 구조를 설계했다. 고급 모델(Opus, Gemini)로 아키텍처를 설계하고, 구조가 경화되면 저렴한 모델(Groq, LLaMA)로 정규화하며, 최종적으로는 AI 의존도를 0에 수렴시키는 것이 목표다.
"더 많은 뉴런을 추가할 수 있냐"는 질문에 대한 답은 정반대다. "아키텍처가 성숙하면, 더 약한 AI로도 같은 결과를 낼 수 있지 않겠느냐"가 NeuronFS의 물음이다.
NeuronFS의 MCP(Model Context Protocol) 서버 기능은 실시간 뇌 상태 질의를 가능하게 한다. 시스템 프롬프트가 대화 시작 시 한 번 로딩되는 한계를 극복하기 위해, fsnotify로 파일 변경을 감지하고 재컴파일된 뇌 상태를 AI에 즉시 푸시한다. 이것이 정적 폴더 규칙을 라이브 쿼리 가능한 뇌로 전환하는 핵심이다.
한계와 전망 — 정직한 자기 평가
NeuronFS가 모든 문제를 해결하지는 않는다. AI 강제력이 100%가 아니라는 점(측정값 94.9%), 시맨틱 검색이 없다는 점(설계 의도이긴 하나 500개 이상 뉴런에서는 한계), 현재 1인 프로덕션 환경에서만 검증됐다는 점은 분명한 제약이다.
하지만 이 프로젝트가 던지는 질문은 기술적 완성도를 넘어선다. 모델을 더 똑똑하게 만드는 것과, 파이프라인을 더 엄격하게 만드는 것 중 어디에 투자해야 하는가? 1M 토큰 컨텍스트 윈도우가 열리면 책 한 권을 통째로 넣을 수 있겠지만, 그게 정말 올바른 방향인지 되묻는 것이다.
2026년 1월부터 Windows 11 환경에서 Google Antigravity(DeepMind)와 함께 일일 운영 중이며, 326개 뉴런이 7개 영역에 걸쳐 활성화되어 있다. 15개 항목의 자체 하니스가 CI처럼 매일 실행되고, 3개월간 제로 리그레션을 기록했다. MIT 라이선스로 공개된 이 프로젝트는 GitHub에서 소스 코드 전체와 매니페스토를 확인할 수 있다.
프롬프트에 구걸하는 시대에서 벗어나고 싶다면, 지금 터미널을 열고 mkdir brain부터 시작해보는 것을 권한다. 폴더 하나가 1,000줄짜리 프롬프트를 대체하는 경험은, AI와의 관계를 근본적으로 바꿔놓을 수 있다.