매일 아침 TechCrunch, The Verge, MIT Tech Review, Wired 등 수십 개 사이트를 돌아다니며 AI 뉴스를 확인하는 데 지쳐 있다면, 그 시간을 단 1분으로 줄일 수 있는 방법이 존재한다.
2026년 현재, 온라인 콘텐츠의 약 90%가 AI로 생성될 것이라는 전망이 현실로 다가오고 있다. 글로벌 직장인의 80%가 정보 과부하를 경험한다는 조사 결과도 나왔다. AI 업계 종사자나 개발자라면 이 수치가 피부로 와닿을 것이다. 새로운 모델 출시, 도구 업데이트, 논문 발표, 기업 전략 전환이 매시간 쏟아지는 상황에서, 핵심 정보만 빠르게 걸러내는 시스템이 곧 경쟁력이다.
AI News Radar는 이 문제를 정면으로 해결하기 위해 등장한 Python 기반 오픈소스 뉴스 인텔리전스 플랫폼이다. 74개 뉴스 소스에서 기사를 자동 수집하고, 35개 LLM 플랫폼 중 하나를 선택해 요약, 분류, 팩트체크, 음성 브리핑까지 원클릭으로 처리한다. 비용은 0원이다. 이 글에서는 이 도구의 핵심 구조, 실전 활용 전략, 그리고 기존 유료 서비스와의 차이를 구체적으로 다룬다.
| 항목 | 내용 |
|---|---|
| 프로젝트명 | AI News Radar |
| 개발사 | SoDam AI Studio |
| 라이선스 | MIT (무료 오픈소스) |
| 언어/프레임워크 | Python 3.11+ / Streamlit 1.44+ |
| 뉴스 소스 수 | 74개 (일반 AI 26 + 이미지/영상 20 + 바이브코딩 19 + 온톨로지 9) |
| 지원 LLM | 35개 플랫폼 (무료 14개 포함) |
| 주요 기능 수 | 50개 이상 (5개 탭 구성) |
| 설치 난이도 | 초보자 가능 (코딩 경험 불필요) |
| API 키 없이 사용 가능 여부 | 뉴스 수집, 검색, 북마크 등 기본 기능 가능 |
74개 소스 자동 수집 시스템의 구조와 동작 원리
AI News Radar의 핵심 엔진은 feedparser 라이브러리 기반 RSS 크롤러다. 단순히 피드를 순차적으로 읽는 것이 아니라, 15개의 병렬 워커(parallel worker)를 동시에 가동해 74개 소스를 약 60초 만에 전부 수집한다. feedparser 자체가 비동기 처리를 지원하지 않는 라이브러리이기 때문에, 병렬 실행 구조를 별도로 설계한 점이 기술적으로 주목할 만하다.
수집 대상은 네 가지 카테고리로 구분된다. 일반 AI 뉴스 26개 소스(TechCrunch, The Verge, MIT Tech Review, Wired, ZDNET, Ben's Bites, Ars Technica 등), 이미지/영상 AI 20개 소스(Stability AI, Civitai, Runway, Reddit 커뮤니티 등), 바이브코딩 19개 소스(Cursor, GitHub, Anthropic, Simon Willison 등), 온톨로지 9개 소스(Neo4j, Stardog, W3C 등)로 나뉜다.
GitHub Actions를 활용하면 하루 3회 자동 수집 스케줄을 설정할 수 있다. 로컬 PC를 켜놓지 않아도 서버에서 자동으로 최신 뉴스가 갱신되므로, 출근 전 브리핑 확인이 가능하다. .github/workflows/collect.yml 파일에서 cron 표현식만 수정하면 수집 주기를 자유롭게 변경할 수 있다.
수집된 데이터는 로컬 JSON 파일로 저장된다. 별도 데이터베이스 설치가 필요 없다는 점이 초보자 진입 장벽을 크게 낮춘다. data/articles.json에 기사 원문 정보가, data/briefings.json에 AI가 생성한 브리핑이 축적된다.
| 수집 카테고리 | 소스 수 | 대표 소스 | 주요 콘텐츠 |
|---|---|---|---|
| 일반 AI | 26개 | TechCrunch, Wired, ZDNET | 모델 출시, 기업 동향, 정책 |
| 이미지/영상 AI | 20개 | Stability AI, Runway, Reddit | Stable Diffusion, Midjourney 업데이트 |
| 바이브코딩 | 19개 | Cursor, GitHub, Anthropic | AI 코딩 도구, 개발 트렌드 |
| 온톨로지 | 9개 | Neo4j, W3C, Stardog | 지식그래프, 시맨틱웹 |
RSS 피드 특성상 일부 소스는 전문(full-text)이 아닌 요약만 제공할 수 있다. 이 경우 내장된 In-App Reader가 원문 페이지를 직접 가져와 광고 없이 읽을 수 있도록 지원한다.
35개 LLM 연동과 무료 API 활용 전략
이 프로젝트가 여타 뉴스 수집 도구와 결정적으로 다른 지점은 35개 LLM 플랫폼과의 통합 라우터 구조다. ai/model_router.py 파일 하나가 OpenAI, Anthropic Claude, Google Gemini, Groq, Cerebras, SambaNova, Mistral, Cohere 등 35개 서비스의 API 호출을 통합 관리한다. API 키 하나만 .env 파일에 등록하면, 해당 플랫폼의 모델을 모든 AI 기능에 즉시 적용할 수 있다.
비용 부담 없이 시작하려면 무료 티어가 넉넉한 플랫폼을 선택하는 것이 핵심이다. 2026년 기준, 실질적으로 개인 사용에 충분한 무료 할당량을 제공하는 플랫폼은 다음과 같다.
| 플랫폼 | 무료 일일 한도 | 분당 요청 제한 | 신용카드 필요 여부 | 추천 용도 |
|---|---|---|---|---|
| Google Gemini | 100 - 1,000건/일 | 5 - 15건/분 | 불필요 | 범용 요약, 분류 |
| Groq | 14,400건/일 | 7,000건/분 | 불필요 | 고속 대량 처리 |
| Cerebras | 14,400건/일 | 변동 | 불필요 | 병렬 배치 처리 |
| Mistral | 1건/초(무료) | 변동 | 불필요 | 유럽 데이터 규정 준수 |
| SambaNova | 제한적 무료 | 변동 | 불필요 | 오픈소스 모델 테스트 |
Groq의 경우 LPU(Language Processing Unit) 기반 추론 가속 칩을 사용해 응답 속도가 매우 빠르다. 하루 14,400건이라는 요청 한도는 74개 소스의 기사를 모두 처리하고도 남는 수치다. Gemini는 모델 종류에 따라 일일 한도가 100건에서 1,000건까지 다르지만, Flash 모델 기준 개인 뉴스 브리핑 용도로 부족하지 않다.
처음 설치할 때 Gemini와 Groq 두 플랫폼의 API 키를 모두 발급받아 .env에 등록해두는 것을 권장한다. Gemini를 기본으로 사용하다가 일일 한도에 도달하면 Groq로 전환하는 방식으로 무중단 운영이 가능하다. 두 키 모두 발급에 10초, 신용카드 등록 없이 무료로 받을 수 있다.
프리미엄 플랫폼(OpenAI, Anthropic Claude, Azure OpenAI)도 동일한 라우터를 통해 연결된다. 기업 환경에서 품질이 더 높은 요약이나 정밀한 팩트체크가 필요할 때 유료 모델로 즉시 전환할 수 있다는 점은, 개인 프로젝트에서 팀 도구로 확장할 때 유리하게 작용한다.
API 키를 .env 파일에 저장할 때 앞뒤 공백이 포함되면 인증 오류가 발생한다. 특히 복사-붙여넣기 과정에서 줄바꿈 문자가 섞이는 경우가 많으므로, 키 값 전후의 불필요한 문자를 반드시 제거해야 한다.
50개 이상의 기능 구성과 실전 워크플로우
대시보드 탭: 하루의 시작점
AI News Radar의 인터페이스는 5개 탭으로 구성된다. 그중 대시보드 탭은 매일 가장 먼저 확인하는 화면이다. AI가 수집된 기사 전체를 분석해 오늘의 TOP 5 뉴스를 중요도 순으로 선별하고, 각 기사에 1-5성 중요도 점수를 부여한다. 감성 분석(긍정/중립/부정) 결과를 Plotly 인터랙티브 차트로 시각화하며, 9개 카테고리(도구, 연구, 트렌드, 튜토리얼, 비즈니스, 이미지/영상, 바이브코딩, 온톨로지, 기타) 퀵 필터를 통해 관심 분야만 골라볼 수 있다.
음성 브리핑 기능은 edge-tts(Microsoft 뉴럴 TTS)를 활용해 브리핑 내용을 자연스러운 음성으로 읽어준다. 40개 이상의 언어와 다양한 음성 스타일을 지원하며, 출퇴근 중 이어폰으로 AI 뉴스를 들을 수 있다. 별도 API 키나 비용 없이 사용 가능하다.
뉴스 피드 탭: 심층 탐색
수집된 모든 기사를 한 화면에서 탐색하는 공간이다. 각 기사에는 AI가 생성한 3줄 한국어 요약, 카테고리 태그, 중요도 별점, 감성 태그가 붙는다. 영문 기사는 자동 번역되어 한국어로 표시된다. 동일 이슈를 다룬 여러 매체의 기사가 자동으로 병합(deduplication)되므로, 같은 뉴스를 반복해서 읽는 낭비가 사라진다.
키워드 워치리스트 기능을 설정하면, 특정 용어(예: "GPT-5", "Stable Diffusion 4", "Claude Opus")가 포함된 기사가 등장할 때 데스크톱 알림을 받을 수 있다.
AI 탭과 인사이트 탭: 분석과 예측
AI 뉴스 챗봇은 수집된 기사 데이터를 기반으로 자연어 질문에 답변한다. "이번 주에 가장 많이 언급된 AI 도구는?" 같은 질문에 즉시 응답한다. AI 용어 사전(Glossary)은 기사에서 자동 추출한 기술 용어를 초보자도 이해할 수 있는 수준으로 설명한다.
인사이트 탭의 AI 도구 릴리즈 트래커는 19개 주요 AI 도구의 업데이트를 자동 감지한다. 트렌드 차트는 키워드별 일간 언급 빈도를 인터랙티브 라인 그래프로 보여주고, 핫 키워드 섹션은 전주 대비 상승률이 높은 용어를 하이라이트한다. AI 디베이트 기능은 두 개의 AI 도구를 선택하면 자동으로 장단점 비교와 판정을 생성해준다.
주간 인텔리전스 리포트 기능을 활성화하면, AI가 한 주간의 트렌드를 분석해 핵심 동향과 향후 예측을 포함한 보고서를 자동 생성한다. 이를 팀 회의 자료나 뉴스레터 원고로 바로 활용할 수 있다.
공유 탭: SNS 자동 포스팅과 콘텐츠 생성
수집-분석된 뉴스를 외부로 확산하는 기능이 공유 탭에 집중되어 있다. X(Twitter), 텔레그램, 디스코드, 쓰레드, 인스타그램 5개 플랫폼에 원클릭 자동 포스팅이 가능하다. 각 플랫폼에 맞는 콘텐츠(트윗, 쓰레드, 인스타그램 캡션, 블로그 글, 링크드인 포스트)를 AI가 자동 생성한다.
카드 뉴스 제너레이터는 1080x1080 해상도의 다크 테마 이미지를 자동으로 만들어준다. Pillow 라이브러리 기반이라 외부 디자인 도구 없이 프로그램 내에서 완결된다. 뉴스레터 기능은 SMTP를 통해 구독자 리스트에 일간/주간 브리핑을 이메일로 발송한다.
| 기능 영역 | 유료 서비스(Feedly Pro+) | AI News Radar |
|---|---|---|
| 월 비용 | 약 12.99달러/월 | 0원 (오픈소스) |
| 뉴스 소스 수 | 사용자 직접 추가 | 74개 사전 구성 |
| AI 요약 | Leo AI (유료 기능) | 35개 LLM 선택 가능 |
| SNS 자동 포스팅 | 미지원 | 5개 플랫폼 지원 |
| 음성 브리핑 | 미지원 | edge-tts 무료 |
| AI 팩트체크 | 미지원 | 교차 검증 내장 |
| 데이터 저장 위치 | 클라우드(타사 서버) | 로컬 PC (100% 프라이버시) |
| 카드 뉴스 생성 | 미지원 | 자동 이미지 생성 |
| 데스크톱 앱 | 미지원 | pywebview + 시스템 트레이 |
설치부터 첫 브리핑까지 7단계 실행 과정
코딩 경험이 전혀 없어도 설치할 수 있도록 설계되어 있다. 전체 과정은 약 10-15분이 소요된다.
1단계 - Python 설치: python.org에서 최신 버전을 내려받아 설치한다. 설치 화면 하단의 "Add Python to PATH" 체크박스를 반드시 활성화해야 한다. 이 옵션을 빠뜨리면 이후 모든 명령어가 작동하지 않는다.
2단계 - 프로젝트 다운로드: GitHub 저장소에서 ZIP 파일을 다운로드하거나 git clone 명령으로 복제한다.
3단계 - 패키지 설치: 프로젝트 폴더에서 터미널을 열고 pip install -r requirements.txt를 실행한다. 의존 패키지 설치에 1-3분 정도 소요된다.
4단계 - API 키 발급: Google AI Studio(aistudio.google.com/apikey)에 접속해 Gemini API 키를 무료로 발급받는다. 구글 계정만 있으면 10초 내 완료된다.
5단계 - 환경 설정: .env.example 파일을 .env로 복사한 뒤, 발급받은 키를 GEMINI_API_KEY= 뒤에 붙여넣는다.
6단계 - 앱 실행: streamlit run app.py 명령으로 웹 대시보드를 실행하거나, python desktop.py로 네이티브 데스크톱 앱을 띄운다. Windows 사용자라면 AI_News_Radar.bat 파일을 더블클릭하는 것만으로 충분하다.
7단계 - 첫 브리핑 생성: 사이드바에서 "Collect" 버튼을 클릭해 뉴스를 수집(약 1분)하고, "AI Process"로 분석을 실행한 뒤, "Briefing"으로 오늘의 TOP 5 요약을 생성한다. 원클릭 파이프라인 버튼을 누르면 이 세 단계가 한 번에 실행된다.
.env 파일은 절대로 GitHub에 업로드되지 않도록 .gitignore에 의해 차단되어 있다. 저장소에는 API 키, 비밀번호, 개인 데이터가 일체 포함되어 있지 않다. 각 사용자가 자신의 키로 자신의 할당량을 사용하는 구조이므로, 보안 측면에서 안전하다.
데스크톱 앱 모드와 백그라운드 알림 시스템
Streamlit 기반 웹 모드 외에, pywebview와 pystray를 결합한 네이티브 데스크톱 앱 모드를 제공한다. python desktop.py를 실행하면 브라우저 없이 독립 창으로 대시보드가 열리고, 창을 닫아도 시스템 트레이에 상주하며 백그라운드에서 뉴스 수집과 키워드 알림을 계속 수행한다.
plyer 라이브러리를 활용한 데스크톱 알림은 워치리스트에 등록한 키워드가 새 기사에 등장하면 즉시 팝업으로 알려준다. Windows의 경우 AI_News_Radar_Silent.vbs 스크립트를 시작 프로그램에 등록하면, 부팅 시 콘솔 창 없이 자동 실행되도록 설정할 수 있다.
텔레그램 봇 연동도 지원한다. 7개 명령어로 외부에서도 뉴스 확인, 브리핑 요청, 키워드 검색이 가능하다. 모바일 환경에서 빠르게 AI 뉴스를 확인하는 채널로 활용할 수 있다.
| 실행 모드 | 실행 명령 | 특징 |
|---|---|---|
| 웹 모드 | streamlit run app.py | 브라우저에서 실행, 포트 6601 |
| 데스크톱 모드 | python desktop.py | 네이티브 창 + 시스템 트레이 |
| 무소음 모드 | AI_News_Radar_Silent.vbs | 콘솔 창 없이 백그라운드 실행 |
| 자동 수집 | GitHub Actions | 하루 3회 서버 기반 자동 실행 |
| 모바일 접근 | 텔레그램 봇 | 7개 명령어로 원격 제어 |
기존 뉴스 모니터링 도구와의 핵심 차이점
Feedly, Inoreader, NewsBlur 같은 기존 RSS 리더는 피드를 모아서 보여주는 역할에 집중한다. AI 기능이 포함된 Feedly Pro+의 Leo AI는 필터링과 요약을 제공하지만, 월 12.99달러의 구독료가 발생하고 SNS 포스팅, 음성 브리핑, 팩트체크 같은 확장 기능은 없다.
AI News Radar는 수집 이후의 전체 파이프라인을 커버한다. 수집 → AI 분석 → 브리핑 → 릴리즈 감지 → SNS 포스팅 → 뉴스레터 발송까지 하나의 도구 안에서 완결된다. 데이터가 로컬에 저장되므로 프라이버시 측면에서도 우위에 있다.
n8n이나 Make 같은 노코드 자동화 도구로 유사한 파이프라인을 구축할 수 있지만, 여러 서비스를 연결해야 하고 각각의 API 비용이 별도로 발생한다. AI News Radar는 단일 Python 프로젝트에 모든 것이 통합되어 있어 관리 복잡성이 현저히 낮다.
PDF와 마크다운 형식의 내보내기(Export) 기능을 활용하면, 수집된 뉴스와 AI 분석 결과를 팀 보고서나 프레젠테이션 자료로 즉시 변환할 수 있다. 특히 주간 인텔리전스 리포트는 경영진 보고용으로 그대로 활용 가능한 수준의 구조화된 분석을 제공한다.
AI 뉴스의 흐름을 따라잡는 것은 더 이상 열정의 문제가 아니라 시스템의 문제다. 매일 74개 사이트를 직접 방문하는 대신, AI가 읽고 판단하고 요약한 결과를 확인하는 것이 2026년형 뉴스 소비 방식이다.
AI News Radar는 MIT 라이선스 오픈소스로 누구나 무료로 사용하고 수정할 수 있다. 로드맵에는 ChromaDB 벡터 검색, Ollama 로컬 LLM 지원, 모바일 PWA가 예정되어 있어 확장 가능성도 충분하다.
지금 GitHub 저장소에서 ZIP 파일을 다운로드하고, 15분 뒤에 첫 번째 AI 브리핑을 받아보라. 74개 사이트를 돌아다니며 소비했던 아침 30분이 단 1분으로 압축되는 경험을 하게 될 것이다.