2026년 1월 말, AI 업계에 조용하지만 강력한 지각변동이 시작되었습니다. 중국 상하이 기반 스타트업 StepFun이 공개한 Step 3.5 Flash는 196B 파라미터 규모임에도 토큰당 11B만 활성화하여 상업 모델과 경쟁하는 성능을 무료로 제공합니다. OpenRouter를 통해 완전 무료 API 접근이 가능하며, Apache 2.0 라이선스로 상업적 활용까지 열려 있습니다.
기존 GPT-5나 Claude 같은 상업 모델은 월 20달러 이상의 구독료를 요구하고, 오픈소스 모델 대부분은 로컬 배포에 수백 GB의 VRAM을 필요로 했습니다. 하지만 Step 3.5 Flash는 이 두 가지 장벽을 동시에 허물었습니다. 무료 API로 즉시 테스트할 수 있고, Int4 양자화 버전은 128GB 통합 메모리만으로 Mac Studio나 고급 워크스테이션에서 구동됩니다.
이 모델은 단순한 챗봇이 아닙니다. SWE-bench Verified에서 74.4%를 기록하며 복잡한 소프트웨어 엔지니어링 작업을 수행하고, τ²-Bench에서 88.2점으로 멀티스텝 에이전트 워크플로우를 조율합니다. 350 tok/s의 생성 속도는 실시간 상호작용을 가능하게 하며, 256K 컨텍스트 윈도우는 대규모 코드베이스 분석까지 소화합니다. 이 글에서는 15회 이상의 심층 검색을 통해 수집한 데이터를 바탕으로 Step 3.5 Flash의 기술적 세부사항부터 실전 활용법까지 모든 것을 분석합니다.

Step 3.5 Flash 핵심 스펙 및 아키텍처
Step 3.5 Flash는 희소 전문가 혼합(Sparse Mixture of Experts, MoE) 아키텍처를 기반으로 설계되었습니다. 전통적인 밀집 모델이 모든 파라미터를 항상 활성화하는 것과 달리, MoE는 입력에 따라 필요한 전문가만 선택적으로 작동시킵니다. Step 3.5 Flash는 45층 트랜스포머 구조에 레이어당 288개의 라우팅 전문가와 1개의 공유 전문가를 배치했으며, 토큰당 Top-8 전문가만 활성화합니다.
이 설계의 핵심은 지능 밀도(Intelligence Density)입니다. 총 196.81B 파라미터(백본 196B + 헤드 0.81B)를 보유하지만 실제 추론 시에는 약 11B만 작동하여 계산 비용을 극적으로 절감합니다. 2025년 MoE 연구에 따르면 이런 희소 활성화 방식은 밀집 모델 대비 추론 비용을 6배 이상 낮추면서도 성능 손실은 5% 미만에 그칩니다. Step 3.5 Flash는 Hopper GPU 기준 128K 컨텍스트에서 추론 비용 1.0x를 달성하며, DeepSeek V3.2(6.0x)나 Kimi K2.5(18.9x) 대비 압도적인 효율성을 보입니다.
MoE 구조와 희소 활성화 원리
MoE 라우팅은 각 토큰이 입력되면 게이팅 네트워크가 288개 전문가의 점수를 계산하고, 상위 8개를 선택하는 방식으로 작동합니다. 선택된 전문가들의 출력은 가중 평균으로 결합되며, 공유 전문가는 모든 경우에 활성화되어 기본 지식을 제공합니다. 이 세밀한 라우팅 전략(Fine-Grained Routing)은 일반적인 MoE가 레이어당 8-16개 전문가를 사용하는 것과 대조적으로, 288개의 더 작은 전문가로 세분화하여 더 정밀한 특화를 가능하게 합니다.
컨텍스트 처리를 위해 Step 3.5 Flash는 3:1 Sliding Window Attention(SWA) 비율을 채택했습니다. 전체 어텐션 레이어 1개당 SWA 레이어 3개를 배치하여, 256K 토큰 윈도우를 지원하면서도 계산 복잡도를 O(n²)에서 O(n×window_size)로 감소시킵니다. SWA 레이어의 쿼리 헤드 수를 64개에서 96개로 증가시켜 표현력을 강화했으며, Head-wise Gated Attention으로 입력 의존적 정보 흐름 조절을 구현했습니다.
** MoE 모델의 성능은 전문가 수와 활성화 비율의 균형에서 결정됩니다. Step 3.5 Flash처럼 288개 전문가 중 8개만 활성화하는 구조는 2.8%의 희소율로 광범위한 지식 베이스를 유지하면서도 추론 속도를 극대화합니다. 로컬 배포 시 전문가 병렬화(Expert Parallelism)를 활성화하면 GPU 메모리를 효율적으로 분산할 수 있습니다.
Multi-Token Prediction(MTP-3) 헤드는 추론 속도의 또 다른 핵심입니다. 표준 자기회귀 디코딩이 토큰을 순차적으로 생성하는 것과 달리, MTP는 슬라이딩 윈도우 어텐션과 FFN을 결합하여 한 번의 순전파에서 4개 토큰을 동시에 예측합니다. 이를 통해 일반 사용에서 100-300 tok/s, 단일 스트림 코딩 작업에서 최대 350 tok/s의 생성 처리량을 달성합니다. 2026년 벤치마크에서 MTP-3 활성화 시 표준 디코딩 대비 2.7배 속도 향상이 확인되었습니다.
| 구성 요소 | 세부 사양 | 효과 |
|---|---|---|
| 백본 구조 | 45층 트랜스포머, 4096 hidden dim | 깊은 표현 학습 |
| 컨텍스트 윈도우 | 256K 토큰 | 대규모 코드베이스 처리 |
| 어휘 크기 | 128,896 토큰 | 다국어 및 코드 최적화 |
| 전문가 구성 | 레이어당 288 라우팅 + 1 공유 | 정밀한 작업 특화 |
| 활성 파라미터 | 토큰당 약 11B | 추론 비용 1/6 절감 |
| MTP 헤드 | 4-토큰 동시 예측 | 속도 2.7배 향상 |
** MoE 모델은 배치 크기가 작을 때 효율성이 떨어질 수 있습니다. 단일 요청 처리 시에는 전문가 라우팅 오버헤드가 발생하므로, 프로덕션 환경에서는 배치 처리나 비동기 요청 큐를 구성하는 것이 좋습니다. vLLM 또는 SGLang 같은 고처리량 서빙 엔진 사용을 권장합니다.
벤치마크 성능 분석
Step 3.5 Flash의 실력은 수치로 증명됩니다. StepFun 공식 발표와 독립 검증 데이터를 종합하면, 이 모델은 추론(Reasoning), 코딩(Coding), 에이전트(Agentic) 세 영역에서 196B 파라미터 규모를 넘어서는 성능을 보입니다. 2026년 1월 기준 LiveBench 종합 순위에서 오픈소스 모델 중 1위를 기록했으며, 일부 벤치마크에서는 GPT-5.2나 Claude Opus 4.5 같은 최신 상업 모델과 동등하거나 우위를 점했습니다.
추론 능력 실측 데이터
수학 추론 벤치마크에서 Step 3.5 Flash는 특히 강력합니다. AIME 2025(미국 수학 올림피아드 예선)에서 97.3%의 정확도를 기록했으며, 이는 DeepSeek V3.2(93.1%)보다 4.2%p 높고 671B 파라미터 모델을 능가하는 수치입니다. HMMT 2025 February 대회에서는 98.4%로 전체 모델 중 1위를 차지했습니다. IMO(국제 수학 올림피아드) 수준의 IMOAnswerBench에서도 85.4점으로 DeepSeek V3.2(78.3점)를 7.1점 차이로 앞섰습니다.
이러한 성능은 단순 암기가 아닌 심층 추론 능력에서 비롯됩니다. Step 3.5 Flash는 강화학습 기반의 MIS-PO(Metropolis Independence Sampling Filtered Policy Optimization) 알고리즘으로 훈련되어, 긴 추론 체인에서도 안정적인 성능을 유지합니다. Reddit 커뮤니티의 실사용 피드백에 따르면, 복잡한 수학 증명 과정에서 중간 단계를 명확히 설명하며, 오류 발생 시 자가 수정 능력도 보였습니다.
| 벤치마크 | Step 3.5 Flash | DeepSeek V3.2 | GLM-4.7 | Kimi K2.5 | GPT-5.2 |
|---|---|---|---|---|---|
| AIME 2025 | 97.3% | 93.1% | 95.7% | 96.1% | 100.0% |
| HMMT 2025 (Feb) | 98.4% | 92.5% | 97.1% | 95.4% | 97.1% |
| HMMT 2025 (Nov) | 94.0% | 90.2% | 93.5% | - | - |
| IMOAnswerBench | 85.4점 | 78.3점 | 82.0점 | 81.8점 | 86.3점 |
** Python 코드 실행 기능을 통합하면 추론 성능이 더욱 향상됩니다. 내부 테스트에서 도구 사용 활성화 시 AIME 2025 점수가 97.3%에서 99.8%로, ARC-AGI-1이 53.5%에서 56.5%로 상승했습니다. Claude Code나 Jupyter 환경과 연동하여 수학 문제를 풀게 하면 검증 단계에서 계산 오류를 자동으로 감지합니다.
코딩 벤치마크 결과
소프트웨어 엔지니어링 작업에서 Step 3.5 Flash는 LiveCodeBench-V6에서 86.4점을 기록하며 경쟁 모델들을 제쳤습니다. 이 벤치마크는 2024-2025년 실제 프로그래밍 대회 문제를 포함하며, 알고리즘 설계부터 최적화까지 종합적인 코딩 능력을 평가합니다. DeepSeek V3.2(83.3점), GLM-4.7(84.9점), Kimi K2.5(85.0점)보다 모두 높으며, 파라미터 대비 효율성은 더욱 압도적입니다.
SWE-bench Verified는 실제 GitHub 이슈를 자동으로 해결하는 능력을 측정합니다. Step 3.5 Flash는 74.4%의 해결률을 보였으며, 이는 200개 검증된 문제 중 148개를 성공적으로 패치했다는 의미입니다. Claude Opus 4.5(80.9%)보다는 낮지만, 오픈소스 모델 중에서는 최고 수준이며 DeepSeek V3.2(73.1%)를 근소하게 앞섰습니다. Terminal-Bench 2.0에서는 51.0%로 1위를 차지하며, 장기 에이전트 작업에서의 안정성을 입증했습니다.
GitHub 커뮤니티 보고에 따르면, Step 3.5 Flash가 생성한 코드는 가독성과 구조화 측면에서 높은 평가를 받습니다. 변수명 선택이 명확하고, 복잡한 로직을 적절히 함수로 분리하며, 주석도 간결하면서 핵심을 짚습니다. 특히 Python, JavaScript, Rust 같은 주류 언어에서 강점을 보이며, 레거시 코드 리팩토링 작업에서도 기존 스타일을 유지하면서 개선점을 제안하는 능력이 돋보였습니다.
| 벤치마크 | Step 3.5 Flash | DeepSeek V3.2 | GLM-4.7 | Kimi K2.5 | Claude Opus 4.5 |
|---|---|---|---|---|---|
| LiveCodeBench-V6 | 86.4점 | 83.3점 | 84.9점 | 85.0점 | 84.8점 |
| SWE-bench Verified | 74.4% | 73.1% | 73.8% | 76.8% | 80.9% |
| Terminal-Bench 2.0 | 51.0% | 46.4% | 41.0% | 50.8% | 59.3% |
** SWE-bench는 환경 설정, 테스트 실행, 패치 적용까지 포함하는 복합 작업입니다. 단순히 코드 생성 품질만으로 점수가 결정되지 않으며, 에이전트의 도구 사용 능력과 오류 복구 전략도 중요합니다. 실제 프로젝트에서는 생성된 코드를 반드시 검토하고 테스트하는 절차를 거쳐야 합니다.
에이전트 작업 성능
에이전트 능력은 Step 3.5 Flash의 가장 큰 차별점입니다. τ²-Bench에서 88.2점으로 DeepSeek V3.2(80.3점)를 7.9점 차이로 앞서며, 복잡한 멀티스텝 도구 사용과 워크플로우 조율에서 탁월함을 증명했습니다. 이 벤치마크는 웹 검색, API 호출, 파일 조작 등 80개 이상의 도구를 제공하며, 모델이 적절한 순서로 도구를 선택하고 결과를 종합하는 능력을 평가합니다.
BrowseComp 벤치마크는 웹 브라우징 에이전트 성능을 측정합니다. 기본 설정에서 Step 3.5 Flash는 51.6%를 기록했지만, 컨텍스트 매니저를 활성화하면 69.0%로 상승합니다. 컨텍스트 매니저는 유효 컨텍스트 길이가 임계값을 초과하면 컨텍스트를 재설정하고 에이전트 루프를 다시 시작하는 전략입니다. 중국어 버전인 BrowseComp-ZH에서는 컨텍스트 매니저 적용 시 73.7%로 1위를 차지했습니다.
ResearchRubrics는 장문 연구 보고서 생성 능력을 평가하는 벤치마크입니다. Step 3.5 Flash는 65.3점으로 Gemini DeepResearch(63.7점)와 OpenAI DeepResearch(60.7점)를 제쳤으며, 단일 ReAct 에이전트 루프만으로 약 10,000단어 분량의 전문가급 보고서를 생성했습니다. 이 과정에서 배치 웹 검색, 셸 명령 실행, 정보 합성을 반복하며, 각 단계마다 사실 근거와 추론 깊이를 유지했습니다.
| 벤치마크 | Step 3.5 Flash | DeepSeek V3.2 | GLM-4.7 | Kimi K2 Thinking | Gemini 3.0 Pro |
|---|---|---|---|---|---|
| τ²-Bench | 88.2점 | 80.3점 | 87.4점 | 74.3점 | 90.7점 |
| BrowseComp (Context Mgr) | 69.0% | 67.6% | 67.5% | 74.9% | 59.2% |
| BrowseComp-ZH (Context Mgr) | 73.7% | - | - | - | - |
| GAIA (no file) | 84.5% | 75.1% | 61.9% | 75.9% | - |
| ResearchRubrics | 65.3점 | 55.8점 | 62.0점 | 59.5점 | - |
에이전트 작업에서는 시스템 프롬프트 최적화**가 성능을 크게 좌우합니다. Step 3.5 Flash는 "Think-and-Act" 패턴에 최적화되어 있으므로, 프롬프트에 "먼저 계획을 세우고, 필요한 도구를 순서대로 사용하세요"와 같은 명시적 지시를 포함하면 성공률이 향상됩니다. 또한 각 단계마다 중간 결과를 확인하고 다음 행동을 결정하도록 유도하는 것이 효과적입니다.
OpenRouter 무료 제공 상세
Step 3.5 Flash의 가장 혁신적인 측면은 완전 무료 API 접근입니다. OpenRouter 플랫폼을 통해 모델 ID stepfun/step-3.5-flash:free로 제공되며, 입력 토큰과 출력 토큰 모두 0달러입니다. 2026년 1월 29일 공개 이후 전 세계 개발자들이 실험, 프로토타이핑, 교육 목적으로 활용하고 있으며, OpenRouter는 "AI 접근성 민주화"를 목표로 이 무료 정책을 유지한다고 밝혔습니다.
무료 제공이지만 사용 제한은 존재합니다. OpenRouter 계정에서 10 크레딧 미만을 구매한 사용자는 하루 50회의 :free 모델 요청이 가능하며, 10 크레딧 이상 구매 시 하루 1,000회로 확대됩니다. 분당 요청 제한은 20 requests/minute이며, 이는 일반적인 개발 및 테스트 용도에는 충분합니다. 프로덕션 환경에서 더 높은 처리량이 필요하다면 StepFun 공식 API를 직접 사용할 수 있으며, 이 경우 입력 토큰 100만 개당 1.20달러, 출력 토큰 100만 개당 6.00달러의 비용이 발생합니다.
API 사용법 및 제한사항
OpenRouter API는 OpenAI SDK와 완전 호환되므로, 기존 코드를 거의 수정 없이 사용할 수 있습니다. 먼저 OpenRouter 웹사이트(openrouter.ai)에서 회원 가입 후 API 키를 발급받습니다. Python 환경에서는 openai 패키지를 설치하고, 클라이언트 초기화 시 base_url을 OpenRouter 엔드포인트로 지정하면 됩니다.
from openai import OpenAI
client = OpenAI(
api_key="YOUR_OPENROUTER_API_KEY",
base_url="[https://openrouter.ai/api/v1](https://openrouter.ai/api/v1)",
default_headers={
"HTTP-Referer": "[https://yourapp.com](https://yourapp.com)",
"X-Title": "Your App Name"
}
)
response = client.chat.completions.create(
model="stepfun/step-3.5-flash:free",
messages=[
{"role": "system", "content": "You are a helpful coding assistant."},
{"role": "user", "content": "Write a Python function to find prime numbers up to n."}
],
temperature=0.7,
max_tokens=2000
)
print(response.choices.message.content)
default_headers의 HTTP-Referer와 X-Title은 선택사항이지만, OpenRouter의 앱 순위 및 통계에 반영되므로 포함하는 것을 권장합니다. temperature 파라미터는 0.0에서 1.0 사이 값으로 조절 가능하며, 코딩이나 정확한 답변이 필요한 경우 0.3-0.5, 창의적 글쓰기는 0.7-0.9가 적합합니다. max_tokens는 출력 길이 제한이며, Step 3.5 Flash는 최대 4096 토큰까지 생성할 수 있습니다.
무료 모델 사용 시 주의할 점은 레이트 리미트 처리입니다. 분당 20회 제한을 초과하면 429 Too Many Requests 오류가 반환되므로, 프로덕션 코드에서는 지수 백오프(Exponential Backoff) 재시도 로직을 구현해야 합니다. Python의 tenacity 라이브러리나 backoff 패키지를 사용하면 간단히 처리할 수 있습니다. 또한 GitHub Actions 같은 CI/CD 파이프라인에서 사용할 때는 API 키를 환경 변수나 시크릿으로 관리하여 노출을 방지해야 합니다.
| 제공처 | 모델 ID | 입력 비용 (1M 토큰) | 출력 비용 (1M 토큰) | 일일 제한 | 분당 제한 |
|---|---|---|---|---|---|
| OpenRouter (무료) | stepfun/step-3.5-flash:free | 0 | 50-1000회 | 20 req/min | |
| StepFun Platform | step-3.5-flash | 6.00 | 무제한 | 협의 가능 | |
| NVIDIA NIM | step-3.5-flash | - | - | 엔터프라이즈 | 별도 계약 |
OpenRouter의 무료 제한을 효율적으로 활용하려면 배치 처리**를 고려하세요. 여러 개의 단일 질문을 순차적으로 보내는 대신, 하나의 프롬프트에 여러 작업을 포함시키면 API 호출 횟수를 줄일 수 있습니다. 예를 들어 "다음 5개 함수를 각각 최적화해주세요"와 같이 요청하면 5회 호출을 1회로 통합할 수 있습니다. 단, 출력 길이 제한을 고려하여 작업 수를 조절해야 합니다.
** 무료 모델은 공유 리소스에서 실행되므로, 피크 시간대(미국 동부 오전 9시-오후 5시)에는 응답 속도가 느려질 수 있습니다. 미션 크리티컬한 애플리케이션이라면 StepFun 공식 API나 로컬 배포를 고려하는 것이 안전합니다. 또한 무료 정책은 OpenRouter의 재량에 따라 변경될 수 있으므로, 장기 프로젝트는 대체 옵션을 미리 준비해두는 것이 좋습니다.
로컬 배포 가이드
Step 3.5 Flash는 클라우드 API뿐 아니라 로컬 배포도 완벽히 지원합니다. 이는 데이터 프라이버시가 중요한 환경, 인터넷 연결이 불안정한 상황, 또는 API 비용을 장기적으로 절감하고 싶은 경우에 특히 유용합니다. Int4 양자화 버전(GGUF 형식)을 사용하면 128GB 통합 메모리만으로 Mac Studio M4 Max, NVIDIA DGX Spark, AMD Ryzen AI Max+ 395 같은 고급 워크스테이션에서 구동할 수 있습니다.
하드웨어 요구사항 및 Int4 양자화
Int4 양자화는 각 파라미터를 4비트 정수로 표현하여 모델 크기를 원본(bf16) 대비 약 1/4로 줄이는 기술입니다. Step 3.5 Flash의 경우 원본 가중치가 약 392GB인데, Int4 버전은 111.5GB로 압축되며, 런타임 오버헤드 약 7GB를 포함하면 최소 120GB의 VRAM 또는 통합 메모리가 필요합니다. 권장 사양은 128GB이며, 이는 컨텍스트 윈도우를 충분히 활용하고 배치 처리를 위한 여유를 확보하기 위함입니다.
Reddit 커뮤니티의 실측 보고에 따르면, Int4 양자화는 품질 손실이 극히 미미합니다. 다른 양자화 방법 대비 99% 이상의 품질을 유지하며, 벤치마크 점수는 bf16 버전과 비교해 평균 1-2% 차이에 불과합니다. 이는 Step 3.5 Flash가 세밀한 라우팅(Fine-Grained Routing)을 사용하기 때문입니다. 288개의 작은 전문가로 나뉘어 있어, 각 전문가의 가중치 분포가 비교적 균일하고 극단값이 적어 양자화 오류가 적게 전파됩니다.
처리 속도는 하드웨어에 따라 다릅니다. NVIDIA DGX Spark(H100 GPU)에서는 약 20 tok/s의 생성 속도가 보고되었으며, Mac Studio M4 Max(128GB 통합 메모리)에서는 15-18 tok/s 수준입니다. AMD Ryzen AI Max+ 395(128GB)는 Vulkan 백엔드를 사용하며 12-15 tok/s 정도입니다. 이는 클라우드 API의 100-300 tok/s보다 느리지만, 로컬 실행의 장점(무제한 사용, 데이터 프라이버시)을 고려하면 충분히 실용적입니다.
| 하드웨어 | 메모리 | 백엔드 | 예상 속도 | 비고 |
|---|---|---|---|---|
| Mac Studio M4 Max | 128GB 통합 | Metal | 15-18 tok/s | 권장 설정 |
| NVIDIA DGX Spark | 128GB HBM3 | CUDA | ~20 tok/s | 최고 성능 |
| AMD Ryzen AI Max+ 395 | 128GB DDR5 | Vulkan | 12-15 tok/s | Windows 지원 |
| RTX 4090 (24GB VRAM) | 104GB RAM 추가 | CUDA (CPU offload) | 5-8 tok/s | 메모리 부족 시 |
llama.cpp를 사용한 배포가 가장 간단합니다. StepFun 공식 GitHub 저장소에서 Step 3.5 Flash용으로 포크된 llama.cpp를 클론하면, 필요한 패치가 모두 적용된 상태입니다. macOS에서는 Metal 가속을 활성화하고, Linux/Windows에서는 CUDA 또는 Vulkan을 설정합니다. 빌드 후 GGUF 모델 파일을 다운로드하여 llama-cli 또는 llama-server로 실행하면 됩니다.
# macOS Metal 빌드
git clone [https://github.com/stepfun-ai/Step-3.5-Flash.git](https://github.com/stepfun-ai/Step-3.5-Flash.git)
cd Step-3.5-Flash/llama.cpp
cmake -S . -B build-macos \
-DCMAKE_BUILD_TYPE=Release \
-DGGML_METAL=ON \
-DGGML_ACCELERATE=ON
cmake --build build-macos -j8
# 모델 실행
./build-macos/bin/llama-cli \
-m step3.5_flash_Q4_K_S.gguf \
-c 16384 -b 2048 -ub 2048 \
-fa on --temp 0.7 \
-p "Explain quantum entanglement in simple terms."
프로덕션 환경에서는 vLLM 또는 SGLang 같은 고처리량 서빙 엔진을 사용하는 것이 좋습니다. 이들은 페이지드 어텐션, 지속적 배치 처리, 투기적 디코딩을 지원하여 처리량을 크게 향상시킵니다. vLLM은 fp8 양자화와 전문가 병렬화를 지원하며, 8개 GPU 환경에서 최적 성능을 발휘합니다. 단, 2026년 2월 현재 vLLM의 MTP-3 지원은 아직 완전하지 않으며, StepFun 팀이 PR을 준비 중이라고 밝혔습니다.
로컬 배포 시 KVCache Int8 양자화**를 활성화하면 메모리 사용량을 추가로 30% 절감할 수 있습니다. 이를 통해 256K 컨텍스트 윈도우를 full로 활용할 수 있으며, 성능 저하는 거의 없습니다. llama.cpp에서는 --cache-type-k int8 --cache-type-v int8 플래그로 활성화하고, vLLM에서는 --kv-cache-dtype int8 옵션을 사용합니다.
** 메모리가 정확히 120GB인 시스템에서는 OS 및 백그라운드 프로세스가 사용하는 메모리를 고려해야 합니다. macOS는 약 10-15GB를 예약하므로, 실사용 가능 메모리가 부족할 수 있습니다. 이 경우 컨텍스트 길이를 32K나 64K로 제한하거나, 메모리 스왑을 허용하되 속도 저하를 감수해야 합니다. 안정적 운영을 위해서는 128GB 이상을 권장합니다.
StepFun 회사 배경 및 생태계
StepFun AI(阶跃星辰)는 2023년 4월 중국 상하이에서 설립된 AGI 스타트업입니다. 창업자 장다신(Zhang Daxin)은 마이크로소프트 글로벌 부사장 및 아시아 AI 연구원 수석을 역임한 인물로, Bing 검색의 AI 통합을 주도했던 경력이 있습니다. 2026년 1월 기준 직원 약 300명 규모이며, Series B 펀딩에서 7억 1,900만 달러(약 5,000억 원)를 유치하며 중국 AI 스타트업 중 최대 투자 유치액을 기록했습니다.
StepFun의 전략은 저비용 고효율입니다. DeepSeek, Baichuan AI, 01.AI와 함께 중국 AI 6대 강자로 꼽히며, 파라미터 효율성과 추론 속도에 집중하여 상업 모델과 경쟁합니다. 2024년 11월 공개한 Step-2는 1조(1T) 파라미터 MoE 모델로 LiveBench에서 글로벌 5위, 중국 내 1위를 기록했습니다. 2026년 1월에는 Step-3-VL-10B 멀티모달 모델을 출시하여 GPT-4o 수준의 이미지 이해 능력을 10B 파라미터로 구현했습니다.
StepFun은 텍스트 모델에만 국한되지 않습니다. Step-Audio 2 Mini는 GPT-4o의 음성 기능을 능가하는 오픈소스 음성 모델로, 표현력과 현실감 있는 실시간 음성 생성을 제공합니다. Step-Video-T2V는 30B 파라미터로 텍스트에서 비디오를 생성하며, SoTA(State-of-the-Art) 수준의 품질을 보입니다. 이러한 멀티모달 확장은 StepFun이 단순 언어 모델 회사가 아닌, 종합 AGI 플랫폼을 지향하고 있음을 보여줍니다.
| 모델 | 파라미터 | 출시 시기 | 주요 특징 |
|---|---|---|---|
| Step-2 | 1T MoE | 2024.11 | 중국 내 1위, 글로벌 5위 |
| Step 3.5 Flash | 196B MoE | 2026.01 | 초고속 추론, 에이전트 특화 |
| Step-3-VL-10B | 10B | 2026.01 | GPT-4o 수준 이미지 이해 |
| Step-Audio 2 Mini | 비공개 | 2025.12 | 오픈소스 음성 생성 |
| Step-Video-T2V | 30B | 2025.11 | 텍스트-비디오 SoTA |
StepFun의 시장 포지셔닝은 오픈소스 우선입니다. Step 3.5 Flash를 Apache 2.0 라이선스로 공개한 것은 커뮤니티 기여를 유도하고, 실사용 피드백을 빠르게 수집하려는 전략입니다. GitHub 저장소는 공개 2주 만에 5,000개 이상의 스타를 받았으며, Discord 커뮤니티는 일일 300개 이상의 질문과 사용 사례가 공유되는 활발한 생태계를 형성했습니다. StepFun은 이를 기반으로 프리미엄 엔터프라이즈 서비스와 파인튜닝 솔루션으로 수익을 창출하는 하이브리드 모델을 추구합니다.
** StepFun의 Discord 서버(discord.gg/RcMJhNVAQc)에 참여하면 모델 업데이트, 최적화 팁, 커뮤니티 프로젝트 정보를 가장 먼저 접할 수 있습니다. 특히 "showcase" 채널에서는 사용자들이 Step 3.5 Flash로 만든 실전 프로젝트를 공유하므로, 아이디어와 영감을 얻기에 좋습니다. GitHub Issues도 활발하게 관리되어, 버그 보고나 기능 제안이 빠르게 반영됩니다.
실전 활용 사례 및 통합 방법
Step 3.5 Flash는 단순한 챗봇을 넘어 에이전트 프레임워크, 데이터 분석, Deep Research 등 다양한 실전 시나리오에서 활용됩니다. 특히 Claude Code, Codex 같은 AI 코딩 어시스턴트 환경과의 통합이 뛰어나며, MCP(Model Context Protocol) 기반 도구 사용에서 강점을 보입니다.
에이전트 플랫폼 통합
Claude Code는 Anthropic의 오픈소스 코딩 에이전트 프레임워크로, 터미널 명령 실행, 파일 편집, 웹 검색 등을 자율적으로 수행합니다. Step 3.5 Flash를 Claude Code에 연결하려면, ~/.claude/settings.json 파일을 수정하여 API 키와 베이스 URL을 설정하면 됩니다. StepFun API는 Anthropic 스타일과 OpenAI 스타일을 모두 지원하므로, 기존 워크플로우를 그대로 유지할 수 있습니다.
{
"env": {
"ANTHROPIC_API_KEY": "YOUR_STEPFUN_API_KEY",
"ANTHROPIC_BASE_URL": "[https://api.stepfun.ai/](https://api.stepfun.ai/)"
},
"model": "step-3.5-flash"
}
설정 후 claude 명령으로 Claude Code를 시작하고, /status로 모델 설정을 확인합니다. Step 3.5 Flash는 Claude Code의 "Think-and-Act" 패턴과 자연스럽게 조화되며, 복잡한 리팩토링 작업이나 다중 파일 편집에서 높은 성공률을 보입니다. 내부 벤치마크에서 Step 3.5 Flash + Claude Code 조합은 50개의 전문가급 데이터 분석 작업에서 39.6%의 정확도를 기록하며, Gemini 3.0 Pro(33.6%)를 앞섰습니다.
Codex(OpenAI의 코딩 에이전트)와의 통합도 간단합니다. ~/.codex/config.toml 파일에서 model_provider를 커스텀 설정으로 지정하고, StepFun API 엔드포인트를 추가합니다. Codex는 wire_api로 chat 모드만 지원하므로, 이 부분을 명시적으로 설정해야 합니다.
model="step-3.5-flash"
model_provider = "stepfun-chat"
preferred_auth_method = "apikey"
[model_providers.stepfun-chat]
name = "StepFun API"
base_url = "[https://api.stepfun.com/v1](https://api.stepfun.com/v1)"
env_key = "OPENAI_API_KEY"
wire_api = "chat"
MCP 기반 도구 사용에서 Step 3.5 Flash의 진가가 드러납니다. MCP는 80개 이상의 도구(웹 검색, API 호출, 파일 조작, 데이터베이스 쿼리 등)를 제공하며, 모델이 이를 조율하여 복잡한 워크플로우를 수행합니다. 예를 들어, 주식 투자 추천 사례에서 Step 3.5 Flash는 80개 도구를 사용해 시장 데이터를 수집하고, Python 코드를 실행해 기술 지표를 계산하며, 클라우드 스토리지에 보고서를 저장하고, 알림 시스템을 트리거하는 엔드-투-엔드 자동화를 구현했습니다.
| 통합 환경 | 설정 파일 | 주요 장점 | 성능 지표 |
|---|---|---|---|
| Claude Code | ~/.claude/settings.json | Think-and-Act 패턴 최적화 | 데이터 분석 39.6% 정확도 |
| Codex | ~/.codex/config.toml | 터미널 통합 우수 | 코딩 작업 86.4점 |
| MCP Tools | 프로그래밍 방식 | 80+ 도구 동시 조율 | τ²-Bench 88.2점 |
| Step-GUI | Edge-Cloud 협업 | 모바일 자동화 | AndroidDaily Hard 57% |
데이터 분석 영역에서도 Step 3.5 Flash는 실용적입니다. CSV 파일 로드, 큐빅 스플라인 보간, 다중 시나리오 예측, 시각화까지 포함하는 50개 작업 벤치마크에서 Claude Opus 4.5(45.0%)에 이어 2위(39.6%)를 차지했습니다. 실제 사례로, DAU(일일 활성 사용자) 60% 감소 시나리오를 모델링하여 획득 채널 간 1.6배 품질 격차를 식별하는 데 성공했습니다. 이 과정에서 자동 오류 수정 및 복잡한 데이터 시각화를 독립적으로 수행했습니다.
Deep Research는 장문 연구 보고서 생성 작업입니다. Step 3.5 Flash는 단일 ReAct 에이전트 루프로 계획, 검색, 반영, 작성을 반복하며, 약 10,000단어 분량의 전문가급 보고서를 생성합니다. ResearchRubrics 벤치마크에서 65.27점을 기록하며, Gemini DeepResearch(63.7점)와 OpenAI DeepResearch(60.7점)를 제쳤습니다. 실제 사례로, 0-3세 유아의 과학 교육에 관한 연구 보고서를 작성했으며, 신경가소성 이론을 실용적 가이드로 종합하고, 부모용 스크립트와 안전 지침을 포함한 포괄적 내용을 제공했습니다.
Deep Research 작업 시 배치 웹 검색 도구**를 활성화하면 효율이 크게 향상됩니다. 단일 쿼리로 5-10개 검색 결과를 동시에 가져오므로, API 호출 횟수를 줄이고 정보 수집 속도를 높입니다. 또한 각 단계마다 "현재까지 수집한 정보 요약"을 프롬프트에 포함하면, 모델이 중복 검색을 피하고 누락 정보를 집중적으로 보완합니다.
** 에이전트 작업은 여러 단계의 도구 호출을 포함하므로, 무료 API의 일일 제한을 빠르게 소진할 수 있습니다. 복잡한 워크플로우 하나가 50-100회 API 호출을 유발할 수 있으므로, 개발 단계에서는 단순화된 버전으로 테스트하고, 프로덕션에서는 StepFun 직접 API나 로컬 배포를 고려하세요.
선택 기준과 도입 체크리스트
Step 3.5 Flash는 2026년 초 AI 모델 시장에서 독보적인 위치를 차지했습니다. 무료 API 접근성, 상업 모델 수준의 성능, 로컬 배포 지원, Apache 2.0 오픈소스 라이선스라는 네 가지 장점이 결합되어, 스타트업부터 대기업까지 폭넓은 사용 사례를 가능하게 합니다. 하지만 모든 상황에 완벽한 해결책은 없으며, 프로젝트의 특성과 요구사항에 따라 신중히 평가해야 합니다.
Step 3.5 Flash가 최적인 경우를 정리하면 다음과 같습니다. 첫째, 코딩 어시스턴트나 에이전트 워크플로우가 핵심이라면 최고의 선택입니다. LiveCodeBench-V6 86.4점, τ²-Bench 88.2점, Terminal-Bench 2.0 51.0%는 실제 소프트웨어 엔지니어링 작업에서의 실력을 입증합니다. Claude Code나 Codex와의 통합이 간편하고, MCP 도구 사용에서 탁월하므로, 자동화된 코드 리뷰, 리팩토링, 테스트 생성 파이프라인에 즉시 적용할 수 있습니다.
둘째, 프로토타이핑 및 실험에 이상적입니다. OpenRouter 무료 API는 하루 50-1000회 제한이 있지만, 초기 개념 검증(PoC)이나 MVP 개발에는 충분합니다. 신용카드 등록 없이 즉시 시작할 수 있으며, 코드 변경 없이 다른 모델과 비교 테스트도 가능합니다. 스타트업이 AI 기능을 빠르게 검증하고 투자 유치용 데모를 만들기에 완벽합니다.
셋째, 데이터 프라이버시가 중요하다면 로컬 배포를 선택하세요. Int4 양자화 버전은 128GB 메모리로 구동되며, 모든 추론이 온프레미스에서 이루어져 외부 서버에 데이터를 전송하지 않습니다. 의료, 금융, 법률 분야에서 규제 준수를 위해 민감 정보를 보호해야 하는 경우, 또는 군사/정부 환경에서 인터넷 연결이 제한된 경우에 유용합니다. Apache 2.0 라이선스는 상업적 활용을 허용하므로, 커스터마이징과 재배포도 자유롭습니다.
| 사용 케이스 | 추천 배포 방식 | 주요 고려사항 |
|---|---|---|
| 코딩 어시스턴트 / 자동화 | OpenRouter API | 일일 제한 관리, 에러 핸들링 |
| 프로토타입 / MVP | OpenRouter API | 빠른 반복, 비용 절감 |
| 데이터 프라이버시 중요 | 로컬 배포 (Int4) | 128GB 메모리, 속도 트레이드오프 |
| 대규모 프로덕션 | StepFun 직접 API | 무제한 사용, SLA 보장 |
| Deep Research / 분석 | OpenRouter + 배치 처리 | API 호출 최적화 |
제한적인 시나리오도 명확합니다. 고도로 전문화된 도메인(의료 진단, 법률 자문, 복잡한 재무 모델링)에서는 Step 3.5 Flash의 일반화 능력이 충분하지 않을 수 있습니다. 이런 경우 도메인 특화 모델이나, GPT-5/Claude Opus 같은 더 큰 상업 모델이 적합합니다. 또한 장시간 멀티턴 대화(20턴 이상)에서는 반복적 추론이나 혼합 언어 출력 같은 안정성 이슈가 보고되었으므로, 고객 지원 챗봇처럼 긴 대화가 필요한 경우 주의가 필요합니다.
토큰 효율성도 고려해야 합니다. StepFun 공식 문서는 Step 3.5 Flash가 Gemini 3.0 Pro 대비 동일 품질 달성을 위해 더 긴 생성 궤적을 필요로 한다고 밝혔습니다. 즉, 같은 답변을 얻기 위해 더 많은 토큰을 생성할 수 있으며, 이는 API 비용(StepFun 직접 사용 시)이나 응답 시간에 영향을 줍니다. 토큰 사용량이 비용의 핵심 요소라면, 더 간결한 출력을 생성하는 모델을 고려하거나, 프롬프트 엔지니어링으로 출력 길이를 제어해야 합니다.
도입 전 체크리스트를 정리합니다. ① API vs 로컬: 무료 제한으로 충분한가? 데이터 프라이버시가 필수인가? 128GB+ 메모리 하드웨어를 보유했는가? ② 작업 유형: 코딩/에이전트 작업이 주요 사용 사례인가? 단순 대화형 챗봇인가? ③ 통합 환경: Claude Code, Codex, MCP 같은 에이전트 프레임워크를 사용 중인가? ④ 라이선스: Apache 2.0이므로 상업 이용 가능하지만, 저작권 고지를 포함할 준비가 되었는가? ⑤ 장기 계획: OpenRouter 무료 정책 변경 시 대체 옵션(StepFun API, 로컬 배포)을 준비했는가?
시작하는 가장 빠른 방법은 OpenRouter에서 API 키를 발급받고, 간단한 스크립트로 모델을 테스트하는 것입니다. 10줄의 Python 코드면 충분하며, 5분 안에 첫 응답을 받을 수 있습니다. 만족스럽다면 Claude Code나 프로젝트에 통합하고, 로컬 배포가 필요하면 llama.cpp 가이드를 따르세요. Discord 커뮤니티에 참여하여 실사용자들의 팁과 트러블슈팅을 공유받는 것도 큰 도움이 됩니다. Step 3.5 Flash는 AI 모델 접근성의 새로운 기준을 제시했으며, 지금이 바로 그 혁신에 동참할 최적의 시점입니다.
첫 통합 시에는 간단한 작업부터 시작**하세요. 예를 들어 코드 리뷰 자동화라면, 전체 리포지토리 분석이 아닌 단일 PR의 변경사항 검토부터 테스트합니다. 성공 사례를 축적하고 팀의 신뢰를 얻은 후, 점진적으로 복잡한 워크플로우로 확장하는 것이 안전합니다. 초기 실패는 AI 도입 전체에 대한 회의론을 불러올 수 있으므로, 작지만 확실한 성과를 먼저 만드세요.
** AI 모델은 도구일 뿐, 최종 책임은 인간에게 있습니다. Step 3.5 Flash가 생성한 코드는 반드시 리뷰하고 테스트해야 하며, 의사결정에 사용한 분석 결과는 교차 검증이 필요합니다. 특히 보안, 금융, 의료 같은 민감한 영역에서는 AI 출력을 맹신하지 말고, 전문가의 최종 검토를 거치는 프로세스를 확립하세요.