[Claude Code] 1차 인터뷰로 끝났던 유튜브 자동화, 2차 인터뷰부터 진짜가 시작됐습니다
한줄 요약
1차에서 "일반적인" 인터뷰만 하고 멈췄던 유튜브 자동화를, 2차 인터뷰에서 실제 업무 기준으로 다시 설계하니 드라이런 성공 + 실제 분석까지 이어진 사례입니다.
이런 분들께 도움돼요
자동화 설계를 해봤는데 "이게 실제로 쓸 수 있나?" 싶었던 분
인터뷰/워크시트는 했는데 그 다음이 막막했던 분
AI 워크스페이스 스터디를 통해 자동화를 어디까지 해볼 수 있는지 궁금한 분
소개: 시도하고자 했던 것과 그 이유
문제 상황 (Before)
1차 스터디 때 유튜브 자동화 인터뷰를 진행했었습니다. 그때는 GPT와 일반적인 대화로 요구사항을 정리한 수준이었고, 채널 수집 코드도 만들었지만 실제로 쓸 수 있는 상태는 아니었습니다.
기존에 가지고 있던 것:
1차 인터뷰 메모 (요구사항정리.md)
채널 수집 코드 (channel_discovery.py 등)
국내/해외 채널 데이터
없었던 것:
워크시트 (인터뷰 내용이 구조화되지 않음)
자동화 설계 (파이프라인이 없음)
실제로 동작하는 분석 시스템
솔직히 1차 인터뷰만으로는 "이걸로 뭘 어떻게 하지?" 상태였습니다.
시작하게 된 계기
AI 워크스페이스 스터디 2주차에서 중급 자동화 설계 스킬을 배우면서, GPTers 자동화를 6단계로 완성한 경험이 있었습니다. 같은 방법으로 유튜브도 해보자고 생각했는데, 1차 인터뷰 내용을 다시 보니 실제 업무와 동떨어진 부분이 많았습니다.
그래서 2차 인터뷰를 처음부터 다시 하기로 했습니다.
진행 방법: 어떤 도구를 사용했고, 어떻게 활용했나요?
사용한 도구
도구: Claude Code (VSCode 확장)
스킬: 2주차 중급 자동화 설계 스킬 (6단계)
API: YouTube Data API, youtube-transcript-api
진행 흐름
Step 1. 1차 인터뷰 메모 기반으로 워크시트 초안 작성
기존 요구사항정리.md를 읽고 워크시트 형식에 맞춰 초안을 만들었습니다. 80% 정도는 채워졌지만, [확인 필요] 항목이 여러 개 나왔습니다.
기존 인터뷰 메모(요구사항정리.md)를 기반으로 워크시트 초안을 작성하고, [확인 필요] 부분만 1개씩 질문으로 보완해줘.
이 방식이 좋았던 건, 처음부터 다시 인터뷰하지 않고 빈칸만 채우는 식으로 진행할 수 있었다는 점입니다.
Step 2. 2차 인터뷰 - 실제 업무 기준으로 전면 재구성
여기서 큰 전환이 있었습니다. 워크시트의 [확인 필요] 항목에 답하다 보니, 1차 인터뷰의 전제 자체가 틀렸다는 걸 깨달았습니다.
1차 인터뷰 (일반적) | 2차 인터뷰 (실제 업무) |
|---|---|
채널을 먼저 수집하고 분석 | 영상을 먼저 찾고, 채널은 그 다음 |
정기 자동 실행 | 대화형 (내가 원할 때 요청) |
메타데이터 수집 수준 | 대본/썸네일/SEO/댓글까지 심층 분석 |
고정된 파이프라인 | 카테고리/국가/기간을 매번 대화로 지정 |
2차 인터뷰를 하면서 계속 새로운 요구사항이 나왔습니다:
"VPH(Views Per Hour)로 살아있는 영상 vs 죽은 영상 판별해줘"
"댓글도 분석해서 신규 대본에 참조되도록 해줘"
"노란딱지 리스크도 같이 알려줘"
"분석 데이터가 쌓이면 주간으로 가이드를 업데이트해줘"
"내 채널 데이터와 벤치마킹 데이터를 비교해서 GAP 분석해줘"
처음에는 간단할 줄 알았는데, 실제 업무 관점에서 생각하니 워크시트가 3번이나 전면 재구성되었습니다.
Step 3. 자동화 설계 → 도구 연결 → 드라이런
워크시트가 완성되니 자동화 설계는 자연스럽게 나왔습니다.
파이프라인 구조:
대화 요청 → 떡상 영상 검색(VPH/아웃라이어)
→ 영상 심층 분석(대본/썸네일/SEO/댓글/광고적합성)
→ 채널 분석 (선택)
→ 내 채널 GAP 분석 (선택)
→ 가이드 생성
→ 주간 자기개선 루프
도구 연결 결과:
즉시 사용 가능: 19개 (YouTube API + 기존 코드 + Claude Code 직접 분석)
추가 설정: 2개
신규 제작: 4개
그레이 영역: 5개
드라이런에서 실제로 YouTube API를 호출해서 영상을 검색하고, VPH를 계산하고, 자막을 추출하는 데까지 성공했습니다.
Step 4. 실제 분석 실행
드라이런을 넘어서 실제 떡상 영상 3개 + 해당 채널 3개를 심층 분석했습니다.
분석 항목:
VPH(시간당 조회수) 계산으로 살아있는 영상 판별
30초 후킹 구조 분석
초반 3분 스토리 구성 분석
도파민/반전 요소 위치와 빈도
댓글 감성 분석 (공감/부정/요청)
키워드/태그/해시태그 SEO 분석
광고 적합성 판정 (안전/주의/위험)
그리고 내 채널과 벤치마킹 채널을 비교하는 GAP 분석까지 진행했습니다. 내 채널의 최근 조회수 하락 원인을 데이터로 찾아내고, 구체적인 개선 포인트 3가지를 도출했습니다.
Step 5. 가이드 3종 생성
분석 데이터를 기반으로 실제 콘텐츠 제작에 쓸 수 있는 가이드를 만들었습니다:
대본 작성 지침 - 후킹 방식, 반전 간격, 안전한 수위 가이드
제목/썸네일 가이드 - 떡상 제목 공식 3가지, 실패 패턴, 신규 제목 예시
SEO 가이드 - 태그 30개 목록, 해시태그 전략, 디스크립션 구조
이 가이드들은 분석을 더 할수록 자동으로 업데이트되는 구조입니다.
인상적이었던 순간
"오!" 했던 순간: 드라이런에서 YouTube API로 실제 영상을 검색하고, VPH를 계산해서 "이 영상은 지금 살아있다/죽었다"를 판별했을 때. 그리고 자막을 추출해서 "처음 30초 후킹이 이래서 떡상했구나"를 데이터로 확인했을 때.
그런데 더 인상적이었던 건, 2차 인터뷰 과정이었습니다. 1차에서 "일반적으로" 정리했던 내용이 실제 업무 관점에서 얼마나 동떨어져 있었는지 깨달은 순간. 워크시트가 3번 뒤집어진 이유가 "실제로 어떻게 쓸 건지"를 제대로 생각하지 않았기 때문이었습니다.
막혔던 순간과 해결
문제 1: youtube-transcript-api 버전이 바뀌어서 기존 코드가 안 돌았습니다. entry['text']가 entry.text로 바뀐 거였는데, 드라이런에서 발견해서 바로 수정했습니다. 드라이런을 안 했으면 나중에 더 헤맸을 겁니다.
문제 2: Windows cp949 인코딩 문제로 한글 출력이 깨졌습니다. sys.stdout.reconfigure(encoding='utf-8') 한 줄로 해결.
문제 3: 기존 코드(1차 때 만든 것)를 살릴지, 새로 만들지 고민. 결론은 새로 만들되 검증된 유틸리티만 재활용. 흐름 자체가 반대(채널→영상 vs 영상→채널)라서 억지로 고치면 오히려 복잡해지니까.
결과와 배운 점
Before vs After
항목 | 1차 (Before) | 2차 (After) |
|---|---|---|
인터뷰 | GPT와 일반 대화 | 중급 스킬로 구조화된 2차 인터뷰 |
워크시트 | 없음 | 완성 (3번 재구성) |
자동화 설계 | 없음 | 7 Phase 파이프라인 |
도구 연결 | 코드만 있음 | 19개 즉시 사용 + 4개 신규 + 5개 그레이 |
드라이런 | 안 함 | YouTube API 실제 호출 성공 |
실제 분석 | 안 함 | 떡상 영상 3개 + 채널 3개 + 내 채널 분석 |
가이드 | 없음 | 대본/제목/SEO 가이드 3종 |
Agent | 없음 |
결과물
워크시트 (worksheet.md) - 2차 인터뷰 반영, 5 Phase 구조
자동화 설계 (automation_design.md) - 7 Phase 파이프라인 + 검수 + 주간 루프
도구 연결표 (tool_connection.md) - 즉시/추가/신규/그레이 분류
오케스트레이션 실행 결과 (orchestration_run.md) - 드라이런 성공
Agent 정의 (youtube-analyzer.md) - 대화형 분석 Agent
가이드 3종 - 대본지침, 제목/썸네일 가이드, SEO 가이드
내 채널 GAP 분석 - 하락 원인 + 개선 포인트
전체 자동화 로드맵 (ROADMAP.md)
배운 점과 나만의 꿀팁
1차 vs 2차 인터뷰의 차이
가장 큰 배움은 이거였습니다: "일반적인 인터뷰"와 "실제 업무 기준 인터뷰"는 완전히 다르다.
1차에서는 "채널 분석 → 영상 분석 → 대본 생성" 같은 교과서적 흐름을 그렸습니다. 하지만 실제로 제가 업무를 할 때는 "지금 뜨는 영상부터 찾고, 필요하면 그 채널을 본다"였습니다. 2차 인터뷰에서 이걸 깨닫고 전체 구조가 뒤집어졌습니다.
AI 워크스페이스를 통해 배운 것들
이번 스터디를 통해서 여러 가지를 배울 수 있었습니다:
업무 폴더 구성: AI 워크스페이스 같은 구조화된 작업 환경을 만들고 운영하는 방법. 향후 제 업무 스타일에 맞게 폴더 구조를 재편성하는 것도 고려하고 있습니다.
자동화 스킬의 활용과 한계: 중급 스킬로 6단계까지 진행할 수 있었지만, 여러 자동화를 유기적으로 연결하려면 스킬 자체의 업데이트가 필요하다는 것도 알게 됐습니다. 어느 레벨까지 가능하고, 어디서부터 스킬 업데이트가 필요한지 감을 잡았습니다.
자동화의 한계를 프로그램 개발로 보완: 스킬이나 Agent로 해결이 안 되는 부분은 별도 프로그램을 기획/개발해서 채울 수 있다는 것. 어떤 도구로 어느 단계까지 하고 넘어가면 효율적인지(기획 → 프로토타입 → 고도화)도 정리해봤습니다.
큰 틀을 먼저 잡고, 개별 실행하면서 수정: 전체 자동화 로드맵을 먼저 만들고, 개별 자동화(유튜브 → 블로그 → 등)를 하나씩 구축하면서 로드맵도 계속 보정하는 방식. 한 번에 다 만들려고 하면 안 되고, 하나씩 만들어서 반응 보고 개선하는 게 맞다는 걸 체감했습니다.
효과적이었던 것
기존 인터뷰로 워크시트 초안 80% 채우기 - 처음부터 다시 하지 않고 빈칸만 보완
드라이런으로 실제 API 호출 - 설계만 하고 끝내지 않고 진짜 돌려봄
벤치마킹 + 내 채널 비교 - 남의 채널만 분석하면 "그래서 나는?" 빠짐. GAP 분석이 핵심
검수 로직 내장 - AI가 분석한 결과를 다시 AI가 체크 (빠진 항목, 얕은 분석 탐지)
이렇게 하면 안 돼요
1차 인터뷰에서 "일반적으로" 정리하고 끝내면 실제 업무에 안 맞는 설계가 나옵니다
기존 코드를 억지로 살리려고 하면 오히려 복잡해집니다 (흐름이 다르면 새로 만드는 게 나음)
한 번에 전체 시스템을 다 만들려고 하면 안 됩니다 (유튜브 → 블로그 → ... 순차적으로)
앞으로의 계획
아직은 이르지만, 이번 스터디를 계기로 그동안 생각만 하던 것들을 자동화로 연결해보려는 재미있는 구상을 하게 됐습니다.
지금까지 만든 유튜브 분석 자동화를 시작으로:
분석 결과를 기반으로 대본 생성까지 연결하는 파이프라인
블로그 자동화와의 연동
작업 공간 자체의 재편성
이런 것들을 하나씩 구현해보고 싶습니다. 물론 정교함과 품질 면에서 갈 길이 멀지만, 한 가지씩 만들어보면서 개선해가려고 합니다.
전체 자동화 로드맵도 만들어뒀는데, 이것 역시 실행하면서 계속 수정될 겁니다. 자동화라는 게 한 번 만들면 끝이 아니라, 쓰면서 계속 고쳐가는 거라는 걸 이번에 많이 느꼈습니다.
앞으로 진행할 부분
자동화 스킬의 고급 버전 (Multi-Agent, 시스템 간 데이터 연결)
데이터 허브 구축 (Obsidian 연동 등)
재사용 가능한 프롬프트
프롬프트 1: 기존 인터뷰로 워크시트 초안 만들기
이 파일을 먼저 읽어줘:
[기존 인터뷰 메모 경로]
이 내용을 기반으로 워크시트 초안을 작성하고,
빠진 부분은 [확인 필요]로 표시해줘.
[확인 필요] 부분만 1개씩 질문으로 보완하자.
프롬프트 2: 떡상 영상 검색 + VPH 분석
[카테고리] [국가] 최근 [기간] 떡상 영상 찾아줘.
VPH(시간당 조회수)로 살아있는 영상 판별하고,
아웃라이어 지수도 같이 보여줘.
프롬프트 3: 영상 심층 분석
이 영상 심층 분석해줘.
30초 후킹, 초반 3분 구성, 도파민 요소, 반전 구조,
댓글 감성 분석, SEO, 광고 적합성까지 전부.
프롬프트 4: 내 채널 GAP 분석
내 채널 분석해줘.
[채널 URL]
벤치마킹 데이터와 비교해서 GAP 분석하고,
다음 영상 제안까지 해줘.
도움 받은 글 (옵션)
참고한 자료
GPTers 21기 AI 워크스페이스 스터디
안상영님 중급 자동화 설계 스킬
댓글 0개
로그인하고 댓글을 작성하세요