Upstage × SW마에스트로 · 2026.04

Spec-Driven Vibe Coding 시대,
서비스 기획은 어떻게 달라지는가

코드를 빠르게 쓰는 것보다,
무엇을 쓸지 정하는 게 더 중요해지는 시대

정구봉 · Team Attention
team-attention.com
01 / 23
Hello

저는 누구인가

Team Attention
길드·밋업·해커톤·컨설팅을 운영하는 Attention 집단
AI Native Camp
비개발자 130명이 자기 업무를 AI로 바꾼 7일 부트캠프.
수강생의 65%가 의사결정권자
Ralphthon
1박 2일 AI 자율 해커톤. 서울 검증 → SF에서 150명 규모로 개최, OpenAI 스폰서
deep-thought  ·  1 레포  ·  CLAUDE.md 159개  ·  스킬 38개  ·  커밋 265개  (6개월)

4명이 파일만으로 길드 운영·컨설팅·콘텐츠·커뮤니티를 돌립니다.
오늘 내용은 이 환경에서 수백 명과 함께 검증한 결과입니다.

02 / 23
What You'll Take Home

오늘 가져갈 것 3가지

01
개발의 무게중심
어디로 이동하고 있는가
02
무엇을 만들지 정하는 법
여러분의 3주 프로젝트에서 바로 쓸 도구
03
팀으로 만들 때
5명의 코드가 망가지지 않게 하는 법

이 3개만 들고 돌아가면 됩니다.

03 / 23
Part 1 · 12 min

개발은 어떻게
바뀌고 있는가

무게중심이 어디로 이동하는가

04 / 23
Part 1

AI 도구의 3단계 진화

단계 방식 도구 한계
Stage 1 복사 · 붙여넣기 ChatGPT, Claude 웹 수동 반복
Stage 2 버튼 클릭 Cursor, v0 특정 기능에 한정
Stage 3 위임 (Delegation) Claude Code · Codex · Ralph 에이전트가 자율 실행
쓰는 게 아니라 맡기는 방식으로.

여러분의 3주 프로젝트도 이 Stage 3에 해당합니다.

05 / 23
Part 1 · Case 1

AI Native Camp — 비개발자 130명의 변화

130
7일 부트캠프 누적 참가자
65%
의사결정권자 (CEO · 팀리드)
대부분
비개발자 직군

Before → After 3가지

01
안영학 · 이벤터스 CEO
인사평가 2주 시간 투입 → 4단계로 단축, 30시간 절감
02
정이을 · 토스 플레이스 데이터
수동 데이터 요청 처리 → Slack에서 자연어로 묻는 Text-to-SQL 챗봇
03
예건희 · AI 엔지니어
RAG 성능 개선 7일 예상 → 3시간 만에 구현 완료

공통점 — 코드를 많이 쳐서가 아니라, "내 업무에서 무엇을 맡길 수 있는가"를 정확히 정의했기 때문.

06 / 23
Part 1 · Case 2

Ralphthon — AI가 밤새 코딩한 1박 2일

16:00 인간 셋업 — 스펙 작성, 하네스 설정 20:00 핸드오프 — 노트북 닫기. 만지면 가재옷 착용. 20:00–08:00 자율 실행 — 에이전트 독립 실행, 인간 개입 불가 08:00 개봉 — 결과 확인, 데모, 발표
501,955
총 LOC (100% AI 작성)
169,553
1등팀 LOC · 사람 개입 0회
133
1등팀 사전 인터뷰 라운드
코딩을 잘한 팀이 아니라, 설계를 잘한 팀이 이겼다.

"아무렇게나 하면 절대 밤새 돌지 않아요. 바이브 코딩은 이제 100% 실력입니다."
— Ralphthon 회고 · 2026.03

07 / 23
Part 1 · The Shift

무게중심이 이동한다

예전

"이걸 어떻게 구현하지?"

엔지니어링 시간의 대부분이 여기 들어갔다

지금

"어느 방향이 맞는가.
무엇을 만들면 해결되지?"

코드가 싸질수록, 이 질문이 비싸진다

실행이 공짜가 된 세계에서는,
맥락을 설계하는 사람이 이깁니다.
"코드를 수동으로 작성하는 능력이 퇴화하고 있다."
— Andrej Karpathy
"내 새 주요 업무는 AI가 잘못한 것을 알려주는 것."
— Malte Ubl (Vercel CTO)
08 / 23
Part 2 · 20 min

그래서, 여러분의
새 경쟁력은?

3주 동안 무엇을 만들지 정하는 법

09 / 23
Part 2 · The New Question

질문을 바꾼다

이전 질문

이걸 어떻게 구현하지?

새 질문

이 사람은 이걸 필요로 하지?
무엇을 만들면 해결되지?

코드가 싸질수록, 질문이 비싸진다.

10 / 23
Part 2 · Moat

무엇이 여러분만의 해자가 될 수 있는가

EASY
쉽게 복제되는 것
일반 CRUD · 기본 RAG · 범용 챗봇 — 하루면 다 만들어진다
MOAT
진짜 문제의 정확한 발견
AI는 아직 "어떤 문제가 진짜 문제인지"를 못 고른다
MOAT
독점적 맥락 · 데이터
여러분만 접근할 수 있는 사용자·도메인 지식
MOAT
사용자와의 신뢰 관계
시간이 누적되는 자산, 복제 불가능
MOAT
실행 속도 — 피드백 루프
같은 아이디어라도, 빠르게 검증하고 빠르게 조정하는 팀이 이긴다
가치의 이동

코드문서하네스도메인

"SEO 시대엔 Google이 고객을 데려왔다. 에이전트 시대엔 문서가 데려온다."

3주 프로젝트에서 이 스펙트럼 중 하나는 반드시 확보하세요.

11 / 23
Part 2 · Practice

무엇을 만들지 정하는 법 — 3가지 연습

01
진짜 사용자 1명을 골라라
추상적 페르소나 "30대 직장인" 금지
구체적 이름 "우리 팀 영업 매니저 김과장님"
02
그 사람이 이미 쓰고 있는 대체재를 찾아라
엑셀 · 카톡 · 수동 루틴 — 지금 어떻게든 해결하고 있는 방법
03
대체재보다 10배 나은 한 가지를 정의하라
나머지는 버린다. 좋은 스펙은 "무엇을 안 할지"부터 시작된다.
좋은 스펙은 버리는 것부터 시작된다.
12 / 23
Part 2 · Case Study

Ralphthon 1등팀이 실제로 한 것

# Ouroboros 하네스의 단 하나의 규칙 Ambiguity = 1 − Σ(clarity × weight) if Ambiguity > 0.2: # 코드 생성 금지. 인터뷰 계속. interview_more()

인터뷰 진행

1.0
인터뷰 시작 시점
0.05
133 라운드 후 · 코드 생성 시작
169K
LOC · 사람 개입 0회

핵심 메시지 — 코딩 전에 스펙을 깎는 시간을 아끼지 말 것.

13 / 23
Part 2 · Your Deliverables

여러분의 3주 산출물

Service Spec
누구의, 어떤 문제를, 어떻게 해결하는가
1페이지
Validation Plan
사람이 어떻게 "된다"를 확인하는가
에이전트가 "다 됐습니다"라고 해도 검증할 수 있도록
Unknown-Unknown List
지금 모르는데, 모른다는 사실조차 모르는 것들의 목록
일부러 찾으러 간다
코드는 에이전트도 짜준다.
이 3개는 여러분만 짤 수 있다.
14 / 23
Part 2 · Why You're in a Good Position

여러분이 지금 유리한 이유

선입견이 적다
"원래 이렇게 했어"가 없다
10년차는 전환이 더 힘들다
하루 종일 실험 가능
회사원은 마감에 쫓겨 실험 시간이 없다
여러분에겐 있다
한국이 가장 유리한 시장
AI 유료 구독률 15%
글로벌 평균 0.3% — 50배 높다

이 3주는, 여러분 커리어에서 드물게 오는 실험 구간입니다.

15 / 23
Part 3 · 15 min

5명이
함께 만들 때

공통 하네스 · 공통 스킬

16 / 23
Part 3 · The Problem

각자 AI로 짜면 팀 코드가 망가진다

다섯 명이 각자 Cursor를 쓰고,
합치는 순간 작동이 안 된다.

충돌 포인트 3가지

01
라이브러리 선택이 다르다
A는 axios, B는 fetch, C는 또 다른 걸 쓴다
02
코딩 컨벤션이 다르다
변수명 · 함수명 · 파일 구조 · lint 규칙이 다섯 가지
03
아키텍처 가정이 다르다
"이 데이터는 어디에 둘까"가 다섯 명 다르면, 레포를 합칠 수 없다

기술 문제가 아닙니다. 합의 문제입니다.

17 / 23
Part 3 · The Fix

해법 — 팀의 공통 AGENTS.md 하나

# Team Harness ## Stack - Frontend: Next.js 14, TypeScript, Tailwind - Backend: FastAPI, PostgreSQL - Package manager: pnpm / uv ## Conventions - 파일: kebab-case - 함수: camelCase - DB 컬럼: snake_case ## 검증 - lint / typecheck / test 통과 후에만 커밋 - 변경 시 README 자동 업데이트

Claude Code · Codex · OpenClaw는 이 파일을 자동으로 읽고 따른다.
다섯 명이 각자 AI를 써도 같은 규칙으로 코드가 나온다.

Claude Code
CLAUDE.md
OpenAI Codex
AGENTS.md
OpenClaw
SOUL.md

이름만 다를 뿐 전부 같은 패턴. 도구가 바뀌어도 이 파일은 그대로 들고 간다.

Thin Harness, Fat Skills. 하네스는 복제되고, Skills가 팀을 구분 짓는다.

18 / 23
Part 3 · Ecosystem

올라탈 수 있는 공통 인프라

처음부터 다 만들 필요 없습니다. 검증된 하네스 위에 여러분의 Skills만 얹으세요.

Foundation · 공식
Claude Code · Anthropic
CLAUDE.md 기반 터미널 에이전트
Codex CLI · OpenAI
AGENTS.md 기반, 장시간 자율 실행
Community · 오픈소스 하네스
gstack · Garry Tan (YC)
23개 전문 역할(PM·QA·Designer…)을 스킬로 고정한 "1인 팀" 하네스
oh-my-claudecode · 허예찬
Teams-first 멀티 에이전트. plan → prd → exec → verify → fix 파이프라인
oh-my-codex · 허예찬
Ralphthon 서울 2등 → 2만+ 스타. tmux 병렬 팀 런타임 + $ralph 루프
oh-my-openagent · 김연규
모델 중립 하네스. Claude·Kimi·GLM·GPT를 라우팅. Hash-anchored edits
OpenClaw
로컬 데몬 + 25개 메신저 채널(Slack·Telegram·WhatsApp·iMessage…) 통합 게이트웨이. "local-first personal agent"
Next Frontier
Hermes · Nous Research
"에이전트가 스킬을 직접 만들고, 쓰면서 고친다." — 사람이 스킬을 쓰던 구도가 뒤집히는 실험.
19 / 24
Part 3 · Compound

공통 스킬 저장소 — 반복을 팀 자산으로

team-repo/ ├── AGENTS.md ← 공통 규칙 ├── skills/ ← 공통 스킬 (레시피) │ ├── new-endpoint/ API 추가 레시피 │ ├── new-component/ 프론트 컴포넌트 레시피 │ └── run-tests/ 테스트 실행 레시피 └── src/

한 번 만들어 두면, 다섯 명이 모두 /new-endpoint 사용자 로그인 한 마디로
같은 구조의 API가 생성됩니다.

팀의 집단 지능이 파일로 쌓인다.
사람이 아니라 리포 자체가 일하는 방식을 강제한다.
19 / 23
Part 3 · Day One

팀 첫 미팅에서 정할 3가지

이 세 개 정하는 데 3시간.
안 정하면 3주가 갑니다.

20 / 23
Summary

3줄 요약

01
무게중심은 "어떻게"에서 "무엇을"로 이동했다
코드가 싸질수록 질문이 비싸진다. Taste가 경쟁력.
02
여러분의 산출물은 Spec · Validation · Unknown-Unknown
코드는 에이전트도 짠다. 이 셋은 여러분만 짤 수 있다.
03
팀으로 만들 때는 공통 AGENTS.md 하나를 먼저
첫 미팅 3시간이 남은 3주를 좌우한다.
21 / 23
The Question

이번 3주 프로젝트에서,
여러분은 무엇을
증명할 것인가?

코드 줄 수가 아니라, 이 질문에
한 문장으로 답할 수 있는 팀이 이깁니다.

"중요한 건 장소가 아니라 문제의 크기입니다.
저는 아직 제 문제의 크기를 모릅니다. 그걸 알아내러 왔습니다."

— SF 체류 기록 중 · 2026.03

22 / 23
Thanks

감사합니다.

정구봉 · Team Attention
team-attention.com
LinkedIn · /in/goobongjeong
X · @goobongjeong

Q & A

3주 프로젝트 관련 구체적인 질문 환영합니다.
스펙 깎는 방법 · 팀 합의 · 검증 설계 — 구체적일수록 좋습니다.

23 / 23