Claude, GPT-4o & Winston AI로 자체 블로그 파이프라인을 구축한 이유
대부분의 에이전시는 콘텐츠를 아웃소싱하거나 SEO 포스트를 쏟아내기 위해 주니어 라이터를 고용합니다. 마치 토스터로 생성된 것처럼 읽히는 글들이죠. 우리도 그렇게 했습니다. 하지만 작동하지 않았습니다. 그래서 우리는 다른 것을 만들었습니다 -- 단일 작가가 따라갈 수 없는 속도로 기사를 작성하고, 인간화하고, 평가하고, 배포하는 멀티 모델 AI 파이프라인입니다. 동시에 웹 개발에 대한 우리의 생각을 실제로 반영하는 품질 기준을 유지합니다.
이것은 우리가 3개월 미만에 91개의 기사를 배포한 방법, 우리가 함께 연결한 구체적인 도구와 모델, 그리고 그 과정에서 배운 모든 끔찍한 교훈들에 관한 이야기입니다.
목차
- 에이전시 콘텐츠의 문제
- 블로그 파이프라인의 아키텍처
- 첫 번째 초안을 위해 Claude Opus 4를 선택한 이유
- GPT-4o 인간화 패스
- Winston AI 탐지와 85% 임계값
- 전체 워크플로우 단계별 설명
- 91개의 기사가 우리에게 가르쳐준 AI 콘텐츠
- 비용 분석 및 성과 데이터
- 평가하고 거부한 도구들
- FAQ

에이전시 콘텐츠의 문제
다음은 에이전시 업계의 누구도 큰 목소리로 말하고 싶어하지 않는 진실입니다: 대부분의 개발 회사는 콘텐츠 마케팅에 능숙하지 않습니다. 우리도 예외가 아니었습니다. 적어도 과거에는요.
우리는 전형적인 문제를 가지고 있었습니다. 우리 팀은 Next.js, Astro 및 다양한 헤드리스 CMS 플랫폼으로 만드는 방법을 알고 있습니다. 우리는 실제 클라이언트를 위해 실제 제품을 제공합니다. 하지만 그것에 대해 쓰는 것은? 꾸준하게? 실제로 SEO 순위를 움직이는 속도로? 그것은 완전히 다른 근육입니다.
우리는 프리랜서 라이터를 고용해 보았습니다. 기술적 깊이는 얕았습니다. 개발자들이 포스트를 작성하도록 했습니다. 그들은 멋진 기사 하나를 만들고는 6주간 스프린트로 사라져 버렸습니다. ChatGPT를 사용한 기본 AI 생성을 시도했습니다 -- 출력물은 Wikipedia 기사와 마케팅 브로슈어가 아기를 낳은 것처럼 읽혔습니다.
그래서 우리는 스스로에게 물었습니다: 콘텐츠 생산을 소프트웨어 엔지니어링 문제처럼 다루면 어떨까요? 파이프라인을 만들면 어떨까요?
블로그 파이프라인의 아키텍처
파이프라인은 5개의 단계를 가지고 있습니다. 각 단계는 이를 책임질 특정 모델이나 도구를 가지고 있으며, 각각은 다음 단계에 공급되는 측정 가능한 출력을 생성합니다.
┌─────────────┐ ┌──────────────┐ ┌─────────────┐
│ Research & │────▶│ Claude Opus │────▶│ GPT-4o │
│ Brief Gen │ │ First Draft │ │ Humanizer │
└─────────────┘ └──────────────┘ └─────────────┘
│
▼
┌─────────────┐
│ Winston AI │
│ Detection │
└─────────────┘
│
▼
┌─────────────┐
│ Human Edit │
│ & Publish │
└─────────────┘
단계 1: 조사 및 브리프 생성
우리는 키워드 조사를 위해 Ahrefs와 실시간 경쟁 분석을 위해 Tavily의 API 조합을 사용합니다. 브리프는 다음을 포함하는 구조화된 JSON 문서입니다:
- 목표 키워드 및 보조 키워드
- 상위 10개의 경쟁 기사 (제목, 단어 수, H2 구조)
- Google에서 스크래핑한 "사람들이 또한 묻는" 질문
- 섹션당 목표 단어 수를 포함한 제안된 개요
이 브리프는 Claude에 대한 입력 프롬프트가 됩니다.
단계 2: Claude Opus 첫 번째 초안
Claude Opus 4가 첫 번째 초안을 작성합니다. 자세한 내용은 아래를 참조하세요.
단계 3: GPT-4o 인간화 패스
초안은 실제 사람이 작성한 것처럼 쓰기를 만들도록 설계된 신중하게 조정된 시스템 프롬프트가 있는 GPT-4o를 통과합니다.
단계 4: Winston AI 탐지
모든 기사는 Winston AI를 통해 평가됩니다. 우리의 임계값에 도달하지 못하면 다른 매개변수로 인간화기를 통해 다시 처리됩니다.
단계 5: 인간 편집 및 게시
실제 사람이 모든 기사를 읽습니다. 그들은 기술적 정확성을 확인하고 적절한 곳에 개인적인 일화를 추가하며 최종 서식을 처리합니다.
첫 번째 초안을 위해 Claude Opus 4를 선택한 이유
우리는 첫 번째 초안 생성을 위해 모든 주요 모델을 테스트했습니다. 다음은 우리가 발견한 것입니다:
| 모델 | 기술적 깊이 (1-10) | 구조 품질 (1-10) | 평균 단어 수 | AI 탐지 점수 (Winston) | 기사당 비용 |
|---|---|---|---|---|---|
| GPT-4o | 7 | 8 | 2,400 | 32% 인간 | $0.18 |
| Claude Opus 4 | 9 | 9 | 3,100 | 28% 인간 | $0.42 |
| Claude Sonnet 4 | 8 | 8 | 2,600 | 35% 인간 | $0.08 |
| Gemini 2.5 Pro | 7 | 7 | 2,800 | 30% 인간 | $0.14 |
| Llama 3.1 405B | 6 | 6 | 2,200 | 41% 인간 | $0.03 |
Claude Opus 4는 우리가 가장 신경 쓰는 두 가지 측면에서 승리했습니다: 기술적 깊이와 구조적 품질입니다. AI 탐지 점수는 실제로 GPT-4o의 원본 출력보다 더 나빴지만, 어떤 모델의 원본 출력도 게시하지 않을 예정이었기 때문에 문제가 되지 않았습니다.
Claude Opus에 대해 테이블에 정량화하기 어려운 점은 다음과 같습니다: 다른 어떤 것보다 복잡한 지시를 더 충실하게 따릅니다. 우리가 "고경력 개발자가 어렵게 얻은 지식을 공유하듯이 쓰세요"라고 말할 때, Claude는 실제로 그 톤을 바꿉니다. GPT-4o는 아무리 강하게 밀어도 도움이 되는 어시스턴트 음성으로 돌아가는 경향이 있습니다. Gemini는 괜찮은 기술 콘텐츠를 생성하지만 곳곳에서 이상하게 공식적으로 됩니다.
비용 차이는 실수입니다 -- Opus는 대안보다 토큰당 대략 2-5배 더 비쌉니다. 하지만 재작성에서 절약한 시간을 고려하면, 그것이 전체적으로 가장 저렴한 옵션입니다.
차이를 만든 시스템 프롬프트
우리는 Claude 시스템 프롬프트를 약 3주간 반복했고 꾸준히 좋은 출력을 생성하는 것으로 착지했습니다. 우리가 배운 몇 가지 사항:
특정 문구 금지는 톤을 요청하는 것보다 더 잘 작동합니다. "캐주얼한 톤으로 쓰세요"라고 말하는 대신, 우리는 금지된 단어와 구문의 목록을 유지합니다. "comprehensive", "leverage", "in today's digital landscape" -- AI 생성 콘텐츠의 확실한 신호들입니다.
구조적 제약을 강제하면 더 나은 콘텐츠가 생성됩니다. 우리는 정확한 제목 구조를 지정하고, 코드 블록을 요구하고, 마크다운 테이블을 요구합니다. Claude Opus는 이 제약 조건을 거의 완벽하게 따릅니다.
일반적인 지시보다 실제 컨텍스트가 더 좋습니다. 우리는 실제 경쟁 조사를 제공합니다. 우리는 Claude에게 상위 순위의 기사가 무엇을 다루는지, 어디서 부족한지 말해줍니다. 이것은 정말로 차별화된 콘텐츠를 생성합니다.
def generate_first_draft(brief: dict) -> str:
system_prompt = load_prompt("claude_writer_v14.txt")
messages = [
{"role": "user", "content": format_brief(brief)}
]
response = anthropic_client.messages.create(
model="claude-opus-4-20250514",
max_tokens=8192,
system=system_prompt,
messages=messages,
temperature=0.7 # slightly creative, not chaotic
)
return response.content[0].text
우리는 온도 0.7로 정착했습니다. 그보다 낮으면 글쓰기가 로봇처럼 느껴집니다. 더 높으면 Claude가 사물을 지어냅니다 -- 프레임워크 기능을 환각하고, 존재하지 않는 API 엔드포인트를 발명합니다.

GPT-4o 인간화 패스
여기서 상황이 흥미로워집니다. 그리고 조금 이상해집니다.
Claude가 기술적으로 견고한 첫 번째 초안을 작성한 후, 우리는 이를 완전히 다른 시스템 프롬프트가 있는 GPT-4o를 통해 전달합니다. 이 프롬프트의 역할은 정보를 추가하는 것이 아닙니다 -- 쓰기가 더 인간적으로 느껴지도록 하는 것입니다.
실제로 그것이 무엇을 의미하는가? 몇 가지 구체적인 변환:
- 문장 길이 변동. AI 모델은 길이가 모두 대략 같은 문장을 작성하는 경향이 있습니다. 인간은 그렇지 않습니다. 우리는 GPT-4o에게 짧고 명확한 문장과 긴 문장을 섞도록 지시합니다.
- 불완전한 전환. 실제 블로그 포스트는 완벽한 문단 간 흐름을 가지지 않습니다. 때때로 당신은 단지 다음 생각으로 점프합니다. 인간화기는 이 자연스러운 휴식을 추가합니다.
- 일인칭 삽입. "우리의 경험상", "우리가 발견한 것", "나는 이것을 디버깅하는 데 일주일을 보냈습니다" -- 이러한 작은 터치는 AI 탐지 점수에 큰 차이를 만듭니다.
- 축약형. Claude Opus는 명령을 받아도 "do not"과 "it is"를 작성하는 경향이 있습니다. 인간화기 패스는 이를 포착하고 변환합니다.
def humanize_draft(draft: str) -> str:
system_prompt = load_prompt("gpt4o_humanizer_v8.txt")
response = openai_client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": system_prompt},
{"role": "user", "content": f"Humanize this article while preserving all technical accuracy and structure:\n\n{draft}"}
],
temperature=0.8
)
return response.choices[0].message.content
이 패스를 위해 Claude 대신 GPT-4o를 사용하는 이유는? 솔직히, GPT-4o가 캐주얼하게 들리는 것에 더 좋기 때문입니다. Claude의 강점은 기술적 정확성과 명령 따르기입니다. GPT-4o의 강점은 인간의 쓰기 패턴을 모방하는 것입니다. 우리는 각 모델의 강점을 활용하고 있습니다.
이중 모델 접근법은 우리의 첫 번째 아이디어가 아니었습니다.
우리는 초기에 단일 모델로 모든 것을 시도했습니다. 하나의 프롬프트, 하나의 패스, 하나의 출력입니다. 결과는 전체적으로 평범했습니다. 초안은 기술적으로 강력했지만 로봇같았거나, 대화체지만 얕았습니다.
파이프라인을 특화된 단계로 분할하는 것이 획기적이었습니다. 이는 마이크로서비스 뒤의 원리와 동일합니다 -- 각 구성 요소는 한 가지를 잘 합니다.
Winston AI 탐지와 85% 임계값
우리는 5개의 다양한 AI 콘텐츠 탐지기를 테스트한 후 Winston AI를 선택했습니다. 이유는 다음과 같습니다:
| 탐지기 | 일관성 (동일한 입력, 동일한 점수?) | 거짓 양성 비율 | API 이용 가능? | 가격/월 |
|---|---|---|---|---|
| Winston AI | 높음 | 낮음 (~3%) | 예 | $18/mo |
| Originality.ai | 높음 | 중간 (~8%) | 예 | $15/mo |
| GPTZero | 중간 | 중간 (~7%) | 예 | $10/mo |
| Copyleaks | 중간 | 낮음 (~4%) | 예 | $8/mo |
| Sapling | 낮음 | 높음 (~12%) | 예 | 무료 계층 |
Winston AI는 실행 전반에 걸쳐 가장 일관된 점수를 제공했습니다. 같은 기사를 두 번 공급하면 거의 같은 인간 점수를 받습니다. 이는 자동화된 파이프라인을 구축할 때 중요합니다 -- 결정을 내리기 위해 결정론적 행동이 필요합니다.
우리의 임계값은 85% 인간 점수입니다. 그 이하이면 기사는 조정된 매개변수로 인간화기를 통해 다시 처리됩니다 (더 높은 온도, 다른 지시 강조). 두 번째 시간이 실패하면 인간이 플래그된 섹션을 수동으로 다시 작성합니다.
실제로, 약 70%의 기사는 첫 번째 인간화기 실행에서 통과합니다. 또 다른 20%는 두 번째에 통과합니다. 나머지 10%는 수동 개입이 필요합니다.
def check_detection(article: str) -> dict:
result = winston_client.scan(text=article)
return {
"human_score": result.score, # 0-100
"passed": result.score >= 85,
"flagged_sentences": result.flagged_sentences
}
flagged_sentences 필드는 금입니다. 전체 기사를 다시 실행하는 대신, 우리는 탐지기를 트리거한 문장만을 표적화할 수 있습니다. 이는 토큰을 절약하고 더 나은 결과를 생성합니다.
전체 워크플로우 단계별 설명
다음은 새로운 기사를 게시하고 싶을 때 실제로 일어나는 일입니다:
키워드 선택 -- 우리는 콘텐츠 일정 (Notion에서 유지)에서 끌어오고 Ahrefs 키워드 어려움 점수와 교차 참조합니다. 새로운 토픽의 경우 KD < 30을 목표로 합니다.
경쟁 조사 -- 우리의 스크립트는 Tavily의 검색 API를 공격하고 상위 10개 결과를 가져옵니다. 제목, 단어 수 및 콘텐츠 격차를 추출합니다.
브리프 생성 -- Claude Sonnet 4 호출 (이 작업을 위해 Opus보다 저렴함)은 연구 데이터에서 구조화된 브리프를 생성합니다.
첫 번째 초안 -- Claude Opus 4가 기사를 생성합니다. 길이에 따라 약 45-90초가 걸립니다.
인간화 패스 -- GPT-4o는 음성과 자연스러움을 위해 다시 작성합니다. 또 다른 30-60초입니다.
탐지 점수 매김 -- Winston AI는 출력을 평가합니다. 결과는 약 10초 내에 돌아옵니다.
반복 또는 진행 -- 점수 < 85%이면 수정된 매개변수로 5단계로 돌아갑니다. 최대 2회 재시도.
인간 검토 -- 팀 멤버가 기사를 읽고, 사실을 확인하고, 스크린샷이나 다이어그램을 추가하고, 우리의 CMS를 위해 형식을 지정합니다.
게시 -- 기사는 우리의 헤드리스 CMS 파이프라인을 통해 라이브됩니다.
기사당 총 시간: 약 35분의 인간 주의. AI 단계는 약 3분의 계산 시간이 걸립니다.
91개의 기사가 우리에게 가르쳐준 AI 콘텐츠
우리는 2025년 1월부터 이 파이프라인을 실행해 왔습니다. 나타난 패턴은 다음과 같습니다:
기술 콘텐츠는 더 잘 수행됩니다
우리의 최고 성과 기사는 특정 프레임워크 및 도구에 대한 깊이 있는 기술 조각입니다. Next.js 개발 패턴 또는 Astro 성능 최적화에 대한 기사는 일반적인 "헤드리스 CMS란 무엇인가" 콘텐츠를 꾸준히 능가합니다.
이는 말이 됩니다. AI 생성 일반 콘텐츠는 이제 어디에나 있습니다. Google의 순위 매김 알고리즘은 명백히 특이성과 깊이를 선호합니다. 우리의 파이프라인은 정확히 그런 종류의 콘텐츠를 생성하도록 설계되었습니다.
처음 30개 기사는 거칠었습니다
나는 첫 날부터 완벽하게 해냈다고 가장하지 않겠습니다. 초기 기사 배치에는 문제가 있었습니다:
- 기사 간 불일관한 음성
- 일부 환각 통계 (Claude는 자신 있게 존재하지 않는 "2024 가트너 보고서"를 인용했습니다)
- 컴파일되지 않는 코드 예제
- 반복적인 섹션 구조
우리는 프롬프트 반복과 더 엄격한 인간 검토를 통해 이를 수정했습니다. 시스템 프롬프트는 이제 버전 14입니다. 각 버전은 우리가 게시된 콘텐츠에서 식별한 특정 실패 모드를 다루었습니다.
AI 탐지는 움직이는 목표입니다
Winston AI는 우리의 3개월 실행 중에 탐지 모델을 두 번 업데이트했습니다. 매번 우리의 점수는 5-10포인트 떨어졌고 우리는 인간화기 프롬프트를 조정해야 했습니다. 이는 진행 중인 군비 경쟁이며, 비슷한 것을 구축 중이면 유지 보수 시간을 계획하세요.
인간 검토는 불가항력입니다
우리는 실험으로 5개 기사에 대한 인간 검토를 건너뛰려고 시도했습니다. 그 중 2개에는 우리를 창피하게 할 만한 사실 오류가 있었습니다. 하나는 2023년에 지원 중단된 API를 참조했습니다. 또 다른 것은 Next.js 15가 실제로 여전히 RFC 상태인 기능을 지원한다고 주장했습니다.
모든 기사가 인간의 눈으로 검토됩니다. 마침표.
비용 분석 및 성과 데이터
다음은 우리의 91개 기사 실행의 실제 숫자입니다:
| 메트릭 | 값 |
|---|---|
| 게시된 총 기사 수 | 91 |
| 평균 단어 수 | 2,847 |
| 총 AI API 비용 | $127.40 |
| 기사당 평균 비용 (AI 전용) | $1.40 |
| Winston AI 구독 (3개월) | $54.00 |
| Ahrefs 구독 (3개월) | $297.00 |
| Tavily API 비용 | $42.00 |
| 인간 검토 시간 (기사당 평균) | 35 분 |
| 총 인간 시간 | ~53 시간 |
| 첫 번째 시도에서 Winston을 통과한 기사 | 64 (70%) |
| 수동 다시 작성이 필요한 기사 | 9 (10%) |
| 평균 Winston AI 인간 점수 (최종) | 89% |
| 유기 트래픽 증가 (1월-3월 2025) | +340% |
| 색인된 페이지 증가 | +86 |
AI 비용당 $1.40는 놀랍도록 낮습니다. 실제 비용은 인간의 시간입니다 -- 3개월 동안 검토 및 편집에 대해 53시간입니다. 하지만 품질 기술 라이터가 청구하는 것과 비교해보세요. 품질 기술 콘텐츠의 경우 $0.15/단어에서, 2,847단어 기사의 비용은 약 $427입니다. 우리는 (시간당 $40 비율에서) 약 $35의 인간 시간과 $1.40의 AI 비용으로 비교 가능한 품질의 콘텐츠를 생성합니다.
그것은 91%의 비용 절감입니다. 그리고 단일 프리랜서 라이터보다 더 넓은 지식을 가진 AI 모델 때문에 출력은 기술적으로 더 정확합니다.
평가하고 거부한 도구들
우리가 시도한 모든 것이 최종 파이프라인에 포함된 것은 아닙니다:
- Jasper AI -- 마케팅 카피에 너무 집중합니다. 우리가 필요한 기술적 깊이를 생산할 수 없습니다. 또한 비즈니스 계층의 경우 $59/월로 비쌉니다.
- Copy.ai -- Jasper와 유사한 문제입니다. 광고 카피에 좋지만 3,000단어 기술 기사의 경우는 아닙니다.
- Undetectable.ai -- 우리는 이것을 GPT-4o 대신 인간화기로 시도했습니다. 출력은 문법적으로 어색했고 때때로 문장의 기술적 의미를 변경했습니다. 확실한 거부입니다.
- Surfer SEO -- 좋은 도구이지만 Ahrefs 데이터로 자신의 SEO 분석을 구축하는 것이 선호됩니다. Surfer의 콘텐츠 편집기는 너무 제약적으로 느껴졌습니다.
- Perplexity API -- 우리는 이것을 조사 단계용으로 테스트했습니다. 결과는 좋았지만 인용 형식이 우리의 브리프 구조와 잘 통합되지 않았습니다. 나중에 다시 검토할 수도 있습니다.
FAQ
이것이 그냥 콘텐츠 스팸이 아닌가요?
아닙니다. 모든 기사는 기술적 정확성과 진정한 유용성에 대한 인간 검토를 통과합니다. 우리는 콘텐츠를 회전시키거나 얇은 페이지를 게시하지 않습니다. 각 조각은 실제 깊이를 가진 특정 키워드를 목표로 합니다. AI는 첫 번째 초안 생성의 무거운 작업을 처리하지만, 편집 판단은 전적으로 인간입니다. 전체 사이트의 콘텐츠를 확인하세요 -- 우리는 읽고 싶어하는 기술 블로그에서 기대할 것과 같은 표준으로 자신을 관리합니다.
라이터를 고용하지 않고 왜?
우리는 여전히 특정 조각에 대해 인간 라이터를 사용합니다 -- 사례 연구, 의견 조각 및 직접적인 클라이언트 경험이 필요한 것. 하지만 기술 설명자와 비교 기사의 경우, 우리의 파이프라인은 대부분의 프리랜서 라이터보다 더 나은 첫 번째 초안을 생성합니다. 왜냐하면 AI 모델은 더 광범위하고 최신의 기술 지식을 가지고 있기 때문입니다. 경제학도 한 번에 많은 프리랜서만으로는 비용이 많이 들 것 같은 양으로 게시하는 것을 가능하게 합니다.
Google은 AI 생성 콘텐츠를 처벌하나요?
Google의 공식 입장은 2024년 3월 업데이트 이후 제작 방법에 관계없이 콘텐츠 품질을 평가한다는 것입니다. 그들은 저품질의 대량 생산 콘텐츠 -- AI 생성이든 모국어가 아닌 언어를 구사하는 콘텐츠 농장이든 -- 를 처벌합니다. 우리의 콘텐츠는 순위가 매겨집니다. 왜냐하면 그것은 정말로 유용하고, 기술적으로 정확하며, 잘 구조화되어 있기 때문입니다. 우리는 우리의 91개 기사 전체에 걸쳐 일관된 색인화 및 순위 매김 개선을 보았습니다.
Winston AI 인간 점수는 정확히 무엇을 의미하나요?
Winston AI는 텍스트 패턴 -- 혼란, 폭발, 문장 구조 변동, 어휘 분포 -- 을 분석하고 0에서 100 사이의 점수를 생성하며 텍스트가 인간이 작성했을 가능성을 나타냅니다. 85의 점수는 Winston이 그것이 인간이 작성했을 85% 확률이 있다고 믿는다는 의미입니다. 탐지기는 완벽하지 않지만, Winston의 일관성은 자동화된 파이프라인에서 품질 게이트로 유용하게 만듭니다.
이 파이프라인을 오픈 소스로 공개할 수 있나요?
우리가 이를 고려했습니다. 핵심 로직은 복잡하지 않습니다 -- 대부분 Python과 함께 연결된 API 호출입니다. 실제 가치는 프롬프트에 있으며, 이는 우리의 음성과 기술 도메인에 특별히 조정됩니다. 우리는 어느 시점에 일반 버전을 출시할 수도 있습니다. 관심이 있으시면 우리에게 연락하세요.
기사의 코드 예제를 어떻게 처리하나요?
이는 인간 검토가 중요한 영역 중 하나입니다. Claude Opus는 시간의 약 90%에서 문법적으로 올바른 코드를 생성하지만, 남은 10%는 미묘한 버그, 지원 중단된 API 또는 경험 많은 개발자를 소름 끼치게 할 패턴을 포함합니다. 모든 코드 블록은 수동으로 확인됩니다. 프레임워크별 코드의 경우, 우리는 종종 로컬로 실행하여 작동하는지 확인합니다.
AI 모델이 업데이트되면 어떻게 되나요?
모델 업데이트는 모든 것을 깨뜨릴 수 있습니다. Anthropic이 Claude Opus 4를 출시했을 때, Claude 3 Opus에서 완벽하게 작동한 우리의 프롬프트는 상당한 재작업이 필요했습니다. 우리는 버전이 지정된 프롬프트를 유지 관리하고 모델이 업데이트될 때마다 10개 기사의 벤치마크 세트에 대해 테스트합니다. 이를 위한 시간을 예산하세요 -- 3개월 실행 중에 3번 발생했습니다.
파이프라인의 다음 단계는 무엇인가요?
우리는 Playwright를 사용하여 자동화된 스크린샷 생성을 추가하고, 원클릭 게시를 위해 헤드리스 CMS 배포 파이프라인과 통합하고, Google Search Console 데이터가 다음에 우선 순위를 지정해야 할 주제를 영향을 미치는 피드백 루프를 구축하는 작업을 하고 있습니다. 목표는 품질을 희생하지 않으면서 그 35분 인간 검토 시간을 줄이는 것입니다. 완료되면 아마도 그것에 대해 작성할 것입니다. 우리가 클라이언트 프로젝트에 유사한 체계적 사고를 적용하는 방법이 궁금하면 가격 책정 페이지를 확인하세요.