AI 모델의 내부 지식 vs 실시간 웹 검색 — 지피터스 리모션 트렌드 분석 대시보드 제작 사례
대시보드 작업물 링크: https://w3-research-practice.vercel.app
하려던 것 📝
AI 모델의 내부 지식(Cut-off)과 실시간 웹 검색(WebSearch)을 결합하여, 지피터스 21기 "리모션(Remotion)" 트렌드를 분석하고 대시보드로 시각화한 사례.
지피터스 커뮤니티에서 화제인 Remotion(React 기반 영상 자동 생성 프레임워크)의 트렌드를 체계적으로 분석하고자 함. 단순히 "요즘 뭐가 뜨나?" 수준이 아니라, AI 모델이 자체 지식만으로 추론한 키워드 15개와 실제 웹 검색 15회로 수집한 데이터를 비교하여 모델의 한계점을 정량적으로 확인하고, 그 결과를 GPTers B5 디자인 시스템 기반의 9페이지 HTML 대시보드로 시각화하고자 함.
활용한 툴 ⚒️
Claude Code (CLI): 전체 리서치 설계, Phase 1 키워드 도출(모델 내부 지식), Phase 2 WebSearch 15회 호출로 실시간 데이터 수집, 수집 데이터 정리 및 마크다운 문서화, B5 디자인 시스템 기반 HTML 대시보드 생성에 활용함.
WebSearch: Claude Code에 내장된 실시간 인터넷 검색 도구. AI 모델은 학습 시점(컷오프) 이후의 정보를 모르지만, WebSearch를 사용하면 현재 시점의 최신 정보를 가져올 수 있음. 이번 과제에서는 "지피터스 리모션", "Remotion skills.sh", "2026 밈 트렌드" 등의 쿼리로 15회 검색하여 실제 커뮤니티 데이터를 수집함.
진행 세부 내용 🔍
1️⃣ Phase 1: 모델 내부 지식(Cut-off) 기반 키워드 15개 도출
시도한 방법과 접근 방식: 웹 검색을 전혀 하지 않고, AI 모델의 학습 데이터(컷오프 2025.05)만으로 "지피터스 21기 스터디 - 리모션"이라는 키워드에서 연상되는 핵심 키워드 15개를 도출함. 이는 모델이 "모르는 것"의 한계를 확인하기 위한 의도적인 실험임.
사용한 프롬프트나 코드:
통합 실험 프롬프트: 지피터스 "리모션" 트렌드 분석 및 대시보드
[Phase 1: 모델 내부 지식(Cut-off) 기반 사전 응답]
설명: 외부 검색 없이 현재 모델이 '지피터스 21기 스터디 - 리모션'이라는
키워드에서 유추하는 15개 핵심 키워드를 먼저 제시합니다.
얻은 결과나 피드백: 5개 카테고리로 분류된 15개 키워드를 도출함 — Remotion 기술 키워드(Remotion, React 비디오, FFmpeg, @remotion/player, Next.js+Remotion), 콘텐츠 자동화 키워드(숏폼 자동생성, 릴스 템플릿, 콘텐츠 자동화, 영상 마케팅 자동화, 프로그래매틱 비디오), AI 결합 키워드(TTS 합성, 자막 자동생성, 밈 생성기), GPTers 스터디 키워드(바이브코딩, Claude Code). 이후 Phase 2와 비교한 결과 정확도 약 73%로, 기술 키워드는 정확했으나 커뮤니티 밈("딸깍 생산"), 생태계 수치(skills.sh 15만 설치), 트렌드 키워드("페이스리스 콘텐츠", "픽셀라이프") 등은 포착하지 못함.
2️⃣ Phase 2: 실시간 웹 검색 15회로 트렌드 데이터 수집
시도한 방법과 접근 방식: WebSearch 도구를 15회 호출하여 지피터스 커뮤니티, Remotion 공식 사이트, skills.sh, GitHub, Medium, Threads 등에서 최신 트렌드 데이터를 수집함. 검색 쿼리를 다각도로 설계하여 트렌드 키워드, 숏폼/릴스 키워드, 밈 트렌드, 생태계 수치를 각각 커버함.
사용한 검색 쿼리 (15회):
1. "지피터스 21기 리모션 Remotion 스터디 2026"
2. "GPTers Remotion 숏폼 자동생성 트렌드 2026"
3. "지피터스 리모션 릴스 숏폼 키워드 인기"
4. "Remotion React 영상 자동화 한국 커뮤니티 트렌드"
5. "지피터스 밈 트렌드 2026 최신 유행"
6. "GPTers remotion 에이전트 영상 파이프라인 자동화"
7. "지피터스 숏폼 콘텐츠 AI 자동화 사례 2026"
8. "Remotion Claude Code skill 영상 생성 2026"
9. "remotion 숏폼 TTS 자막 자동화 파이프라인"
10. "지피터스 21기 바이브코딩 Claude Code 과제"
11. "gpters.org remotion 영상 템플릿 사례"
12. "리모션 site:gpters.org 2026"
13. "Remotion skills.sh 인기 스킬 설치 수 2026"
14. "2026년 3월 숏폼 릴스 밈 트렌드 키워드 인기"
15. "remotion 프롬프트 갤러리 비디오 예제 template"
얻은 결과나 피드백: 트렌드 키워드 Top 10 도출(Remotion Skills, 숏폼 자동생성, 에이전트 파이프라인, 딸깍 생산, TTS 통합, 바이브코딩, 프롬프트 갤러리, 템플릿 자산화, 페이스리스 콘텐츠, 픽셀라이프), 숏폼/릴스 키워드 8개 및 노출 빈도 정량화, 밈 트렌드 4개(GPTers 내부 + 2026 일반), Remotion 생태계 수치(GitHub 38K Stars, 월간 npm 90만, skills.sh 15만 설치) 확보.
3️⃣ Phase 3: B5 디자인 시스템 기반 HTML 대시보드 생성
시도한 방법과 접근 방식: /gpters-21th-hello 스킬에 정의된 B5 White Clean 디자인 시스템(오렌지 #EB5A10 강조색, Noto Sans KR 폰트, 카드/하이라이트 박스/스텝 넘버 컴포넌트)을 참조하여, Phase 1~2의 실제 검색 결과값이 반영된 9페이지 원페이지 HTML 대시보드를 생성함.
사용한 프롬프트나 코드:
[Phase 3: 실시간 트렌드 대시보드 (HTML/JS)]
아래는 검색된 실시간 데이터를 시각화하여 볼 수 있는 원페이지 HTML 구현해주세요
`/gpters-21th-hello` 의 html 디자인 시스템을 참고해야 합니다
얻은 결과나 피드백: 9페이지 구성의 대시보드 생성 — 표지, 목차, Cut-off vs 실제 비교표, Remotion 생태계 수치(stat-grid), 트렌드 키워드 Top 10(막대 차트), 숏폼/릴스 키워드 분석(플랫폼별 이용률), 자동화 파이프라인 5단계 플로우, 밈 트렌드 결합 양상(meme-grid), 핵심 인사이트 & 참고자료. 브라우저에서 열거나 Ctrl+P로 PDF 변환 가능.
시행착오 ⚠️
모델 컷오프의 한계: Phase 1에서 모델이 추론한 15개 키워드 중 약 27%는 실제와 맞지 않았음. 특히 커뮤니티 고유 밈("딸깍 생산"), 2026년 1월 이후 출시된 서비스(skills.sh), 최신 숏폼 트렌드("페이스리스 콘텐츠") 등 커뮤니티 내부 문화와 최신 이벤트는 모델 내부 지식만으로 파악이 불가능했음. 이를 통해 "AI의 추론"과 "실제 데이터"를 반드시 비교해야 한다는 점을 실감함.
WebSearch 쿼리 설계의 중요성: 초기에 "지피터스 리모션"처럼 한국어 키워드만으로 검색하면 결과가 제한적이었음. "Remotion skills.sh installs 2026"처럼 영어 키워드를 섞거나, "site:gpters.org"로 특정 사이트를 지정하거나, 주제별로 쿼리를 세분화(기술/밈/생태계/숏폼)해야 다양한 각도의 데이터를 수집할 수 있었음. 15회라는 검색 횟수 제한 안에서 최대한의 커버리지를 확보하기 위해 쿼리를 전략적으로 배치하는 것이 중요했음.
디자인 시스템 참조의 효율성: B5 디자인 시스템 문서(design-system.md)에 색상 토큰, 타이포 스케일, 컴포넌트 CSS가 모두 정의되어 있어서 대시보드 생성이 빠르게 진행됨. 디자인 시스템이 없었다면 HTML/CSS 작성에 훨씬 더 많은 시간이 소요됐을 것임.
배운 점 📚
AI 모델의 "자신감"과 "정확도"는 다름: Phase 1에서 모델은 15개 키워드를 자신 있게 제시했지만, 실제로 27%는 부정확하거나 불완전했음. 특히 커뮤니티 내부 밈이나 최근 출시된 서비스 같은 "살아있는 데이터"는 모델 내부 지식만으로 파악할 수 없음. AI를 활용한 리서치에서는 반드시 실시간 검증 단계(WebSearch 등)를 병행해야 함.
WebSearch는 "구글 검색을 AI가 대신 해주는 것": Claude Code의 WebSearch 도구는 인터넷에서 실시간으로 정보를 검색해서 AI 대화 맥락에 통합해주는 기능임. 사람이 직접 구글에서 검색하고 결과를 복사해 오는 과정을 AI가 자동으로 수행하며, 15회 검색 결과를 즉시 종합 분석할 수 있어 리서치 효율이 크게 향상됨.
검색 쿼리를 다각도로 설계하면 리서치 품질이 올라감: 동일한 주제라도 "기술 키워드(Remotion skills.sh)", "커뮤니티 키워드(지피터스 밈)", "트렌드 키워드(숏폼 릴스)", "생태계 키워드(설치 수)" 등으로 쿼리를 세분화하면 훨씬 풍부하고 입체적인 데이터를 수집할 수 있었음.
디자인 시스템이 있으면 시각화가 빠름: /gpters-21th-hello 스킬의 B5 디자인 시스템에 색상, 폰트, 컴포넌트가 모두 정의되어 있어서, "이 데이터를 대시보드로 만들어줘"라는 한 마디로 일관된 디자인의 9페이지 HTML을 생성할 수 있었음. 디자인 시스템은 AI와 협업할 때 특히 강력한 레퍼런스가 됨.
향후 계획 🧭
검색 데이터를 기반으로 실제 Remotion 숏폼 영상을 제작해보고자 함 — 분석에서 끝나지 않고 "딸깍 생산"을 직접 체험.
Phase 1~2 비교 분석 방법론을 다른 주제(MCP, 에이전트 SDK 등)에도 적용하여 "AI 리서치 프레임워크"로 템플릿화하고자 함.
대시보드에 실시간 검색 결과를 자동 갱신하는 기능을 추가하여, 트렌드 변화를 지속적으로 모니터링할 수 있도록 개선하고자 함.
도움이 필요한 점 🤝
Remotion으로 실제 숏폼 영상을 제작해본 분의 경험 공유가 필요함 — 템플릿 설계 팁, TTS 연동 시 주의점, 렌더링 성능 최적화 등 실전 노하우가 궁금함.
WebSearch 쿼리를 더 효과적으로 설계하는 방법에 대한 팁이 있다면 공유 부탁드림 — 15회 제한 내에서 최대 커버리지를 확보하는 전략.
댓글 0개
로그인하고 댓글을 작성하세요