AI 프로그래밍 속도 제한 DeepSeek-V4 체험  
묵매 블로그 | 2026년 제19주 초매 주간 보고서
게시글 목록Caomei WeeklyAI 프로그래밍 속도 제한 DeepSeek-V4 체험 묵매 블로그 | 2026년 제19주 초매 주간 보고서

AI 프로그래밍 속도 제한 DeepSeek-V4 체험 묵매 블로그 | 2026년 제19주 초매 주간 보고서

草梅友仁
2026-05-10 14:05:37 0 조회수 300 글자 수 1분Caomei Weekly

요약

초매 주보 이번 호 주요 업데이트 내용: 묵매 블로그 v1.16.0 출시, 크리에이터 통계 및 원격 저장소 동기화(GitHub/Gitee의 Hexo 스타일 Markdown 파일 지원) 기능 추가, 데모 사이트와 공식 웹사이트 체험 제공. AI 코딩 플랜 전반적으로 제한 조치 시작, GitHub Copilot, Claude, OpenAI, GLM 등 업체들이 제한 조치를 취하고 있으며, 그 이유는 AI 대형 모델 서비스가 자산 집약적 모델로, 사용자 수에 따라 컴퓨팅 비용이 선형적으로 증가하고 한계 체감 효과가 약하기 때문. 사용자 사용량 증가로 인한 비용 상승이 지능 저하 사이클을 유발. 저자는 컴퓨팅 파워 증가로 성능 향상을 꾀하는 것은 지속 가능하지 않으며, DeepSeek의 저컴퓨팅 요구 모델을 더 긍정적으로 평가. DeepSeek-V4 사용 경험: 고강도 프로그래밍 시 약 5.5억 토큰 소모, 45위안 비용, 캐시 메커니즘 덕분에 가성비 우수. 하지만 최상위 모델(예: Claude Opus 4.6)과는 여전히 차이 존재. GitHub 릴리스 관련: rss-impact-server v1.18.2 캐시 테스트 추가 및 의존성 수정; momei v1.15.0 및 v1.16.0 여러 기능 추가 및 버그 수정; picgo-plugin-optimization v1.1.1 의존성 리팩토링. 최근 스타 받은 저장소로는 소프트웨어 저작권 생성 도구, LaughterCan, awesome-deepseek-agent, DeepSeek-V4 역할극 명령어, hermes-agent 등이 있음. 기타 블로그 추천: 루안이펑 주간 395/394호, HelloGitHub 121호, 트렌드 주간 266/265호, 이야강범 학습 주간 260호. 마지막으로 독자들에게 감사 인사와 구독 방법 안내.

본 글은 초매우인 블로그에서 게시 및 업데이트되며, 여러 플랫폼에 동시 게재됩니다. 업데이트가 있을 경우 블로그 버전을 기준으로 합니다. 또한 글 말미의 원문 링크를 통해 최신 버전을 확인하실 수 있습니다.

서문

초매 주간 보고서에 오신 것을 환영합니다! 이는 초매우인이 AI를 기반으로 정리한 주간 보고서로, 최신 블로그 업데이트, GitHub 동향, 개인 소식 및 기타 추천 주간 글 등을 제공합니다.


오픈소스 동향

이번 주에도 묵매 블로그 개발이 꾸준히 진행 중입니다.

데모 사이트에서 체험해 보실 수 있습니다: https://demo.momei.app/

  • 이메일 admin@example.com, 비밀번호 momei123456로 데모용 관리자 계정에 로그인할 수 있습니다.

또는 공식 사이트에서 가입하세요: https://momei.app/

프로젝트 전체 계획과 향후 개발 로드맵은 문서 사이트에서 확인하실 수 있습니다: https://docs.momei.app/

현재 묵매 블로그는 정식으로 1.16.0 버전을 출시했습니다. 아래는 새 페이지와 기능의 일부 스크린샷입니다.

크리에이터 통계 기능이 추가되어, 이제 관리자 페이지에서 개별 크리에이터의 통계를 확인할 수 있습니다.

image-20260510205205111

원격 저장소 동기화 기능이 새로 추가되어, 지정된 GitHub/Gitee 저장소에 블로그를 동기화할 수 있습니다(Hexo 스타일의 markdown 파일 사용).

image-20260510190053005

더 많은 기능과 페이지는 공식 사이트에서 체험해 보실 수 있으며, 이전 블로그에서도 스크린샷을 확인하실 수 있습니다.

여러분의 사용과 의견을 환영합니다.

앞으로도 로드맵과 할 일 목록에 따라 기능 개발이 계속될 예정이니 기대해 주세요.

당연히, 현재 모메이 블로그에는 아직 다듬어야 할 세부 사항이 많고 기능적으로도 완벽하지 않습니다. 어떠한 의견이나 제안이 있으시면 프로젝트의 GitHub issues에 남겨주세요.

만약 모메이 블로그에 관심이 있으시다면, 개발과 테스트에 참여하시는 것을 환영합니다.

AI 코딩 플랜에 대한 제한이 일반화되기 시작

최근 GitHub Copilot을 사용하면서 세션 제한(session limit)과 주간 제한(weekly limit)을 자주 마주치고 있습니다. 이는 유료로 Copilot Pro를 구독하더라도 제한을 피할 수 없음을 의미합니다.

image-20260510190432511

하지만 유일한 문제는 이 제한이 추가 요금을 지불한 사용자를 고려하지 않는다는 점입니다. 이전에는 사용량이 초과될 때마다 직접 횟수를 구매했는데, 예를 들어 3월에는 추가로 10달러 분량을 구매했고, 최종 사용량은 200%까지 도달했습니다(추가로 거의 100% 더 사용했습니다).

image-20260510191240736

그런데 이제는 추가로 구매한 사용량도 제한에 포함되어, 현재는 이상한 상황이 발생하고 있습니다. 패키지 내 요청량을 다 사용하지 못할 수도 있다는 것입니다(이전이라면 요청 사용량이 이미 80% 이상 도달했을 것입니다).

image-20260510191401821

비록 다음 달부터 GitHub Copilot은 실제 사용량에 따라 요금이 계산될 예정이지만(참고: 《GitHub Copilot이 사용량 기반 요금제로 전환됩니다》), 이 마지막 과도기 동안 사용자 경험을 조금이라도 개선할 수는 없을까요?

image-20260510192345082

물론, Coding Plan에 대한 트래픽 제한은 GitHub Copilot만의 문제가 아닙니다. 해외의 Claude, OpenAI, Gemini부터 국내의 GLM, MiniMax 등 AI 대형 모델 업체들도 예외 없이 Coding Plan에 대한 트래픽 제한을 시작했습니다.

그중에는 사용량을 매우 낮게 제한하는 업체도 있을 뿐만 아니라, 패키지 내용을 임의로 변경해 사용자들의 반발을 사면서까지 트래픽 제한을 시행하는 경우도 있습니다.

예를 들어, GLM은 기존 패키지를 완전히 폐지하고 강제로 새 패키지로 전환했습니다. (참고: 《기존 패키지 마이그레이션 및 보상 안내》)

image-20260510192759859

알리바바 클라우드의 경우에는 아예 Coding Plan Lite를 폐지하여 갱신이나 업그레이드가 불가능하게 만들었습니다. (참고: 《Coding Plan Lite 기본 패키지 갱신 및 업그레이드 중단 안내》)

image-20260510193333474

따라서 이러한 AI 업체들에게 화를 내기 전에, 한 가지 새로운 질문을 던져볼 필요가 있습니다. 바로: 왜 이들 AI 업체들은 모두 Coding Plan에 대해 트래픽 제한을 시행하는 걸까요?

그 이유는 생각보다 간단합니다. AI 대형 모델 구독 서비스를 제공하는 것은 사실상 자본 집약적인 행위이기 때문입니다.

그렇다면 어느 부분이 자본 집약적일까요? 바로 컴퓨팅 파워, 즉 GPU입니다. 그리고 이 부분은 한계 비용 체감 효과가 크지 않습니다. 간단히 말해, 사용자가 늘어날수록 실제로 제공해야 할 컴퓨팅 파워도 그만큼 증가합니다. 반면 전통적인 인터넷 산업에서는 한계 비용 체감 효과가 매우 뚜렷합니다. 첫 번째 사용자에게 서비스를 제공하는 데는 많은 자원이 필요하지만, 사용자 규모가 커지면 1만 번째 사용자에게 서비스를 제공하는 데 추가로 필요한 자원은 많지 않습니다.

하지만 Coding Plan에서는 첫 번째 사용자와 1만 번째 사용자에게 제공해야 하는 컴퓨팅 파워가 거의 비슷합니다. 비용을 크게 줄일 방법이 없습니다.

게다가 사용량이 특히 많은 사용자들은 정말로 패키지 상한까지 사용할 수 있기 때문에, 구독 패키지 사용자가 늘어날수록 이러한 사용자도 늘어나고, 이에 따라 필요한 컴퓨팅 파워도 증가하게 되어 비용이 계속 높아질 수밖에 없습니다.

바로 이 때문에 점점 더 많은 AI 업체들이 패키지 사용량을 줄이기 시작한 것입니다.

비슷한 문제로 또 다른 사례가 있습니다. 최근 들어 많은 화제를 모았던 동영상 생성 대형 모델인 Seedance2.0의 성능 저하 문제에 대해 들어보셨을 겁니다.

현재는 유료 결제를 통해 일부 '풀 버전’을 이용할 수 있지만, 초기와 비교하면 확실히 감동이 덜한 건 사실입니다.

이는 사실 AI 대형 모델이 직면한 가장 큰 난제입니다: 새로운 대형 모델이 처음 등장할 때는 컴퓨팅 자원이 비교적 풍부해 사용자 경험이 좋습니다. 하지만 새로운 사용자들이 유입되면서 컴퓨팅 자원이 부족해지고, 사용자 경험이 나빠지기 시작하면 결국 사용자들이 떠나게 됩니다. 그러다 다음 대형 모델이 나타나면 같은 사이클이 반복되죠.

텍스트 생성 대형 모델이든, 이미지 생성 대형 모델이든, 동영상 생성 대형 모델이든 모두 이러한 사이클에서 벗어날 수 없습니다.

대형 모델 주기적 사이클

따라서 단순히 컴퓨팅 자원을 늘려서 성능을 높이는 방식의 AI 대형 모델은 지속 가능하지 않습니다. 컴퓨팅 자원 증가에 따른 성능 향상은 거의 선형적인 반면, 이로 인해 발생하는 새로운 수요는 기하급수적으로 증가하기 때문입니다. 결국 AI 대형 모델의 성능 향상 속도는 새로 생겨나는 수요를 따라잡을 수 없게 됩니다.

그래서 DeepSeek이 스스로 평가한 DeepSeek-V4-Pro의 결과가 Opus 4.6의 사고 방식과는 여전히 일정한 차이가 있다고 밝혔음에도 불구하고, 저는 오히려 DeepSeek의 접근 방식을 더 긍정적으로 봅니다.

DeepSeek은 계속해서 성능은 더 높이면서 컴퓨팅 자원 요구량은 줄이는 AI 대형 모델을 만들려고 노력하고 있습니다. 이것이야말로 AI 대형 모델의 미래라고 생각합니다.

(미래에 가성비 좋은 DeepSeek-V4-Pro 요금제가 나온다면 더욱 좋겠습니다)

DeepSeek-V4 사용 후기

이번에는 직접 DeepSeek-V4-Pro와 DeepSeek-V4-Flash를 집중적으로 사용해 프로그래밍 작업을 진행했는데, 총 약 5.5억 토큰을 소모하면서 약 45원의 비용이 발생했습니다. 환산하면 1원당 약 1200만 토큰을 사용할 수 있는 셈입니다.

image-20260510200016915

물론 일부 V4-Flash 사용량도 포함되어 있지만, 사용량이 너무 적어 합산하여 계산했습니다.

이렇게 저렴할 수 있는 이유는 DeepSeek의 신비로운 캐시 메커니즘 덕분입니다. 이로 인해 캐시 적중률이 매우 높게 유지되며, 프로그래밍과 같이 컨텍스트가 반복되기 쉬운 시나리오에서는 비용 절감에 탁월한 솔루션입니다.

물론, DeepSeek-V4-Pro가 현재 최고 수준의 AI 대형 모델인 GPT5.5나 Claude Opus 4.6 등과는 여전히 상당한 격차가 있다는 점은 인정해야 합니다. 실제로 사용해 본 후 DeepSeek-V4-Pro의 코딩 결과물에서 상당한 오류를 발견한 후 이 사실을 알게 되었습니다. 따라서 DeepSeek-V4-Pro만으로 최고 수준의 AI 모델을 따라잡는 것은 아직 어렵습니다.

하지만 저는 DeepSeek을 여전히 긍정적으로 봅니다. 결국 이 가격대에서 무엇을 더 바라겠습니까?

옆집의 Anthropic에서 판매하는 Claude API는 얼마나 비싼지 아시나요? Opus 4.7의 입력은 100만 토큰당 5달러(약 34위안), 출력은 100만 토큰당 25달러(약 170위안)에 이릅니다.

패키지 측면에서도 계정이 자주 차단되고 KYC 검증이 강화되면서 사용하기 점점 더 번거로워지고 비용도 급격히 증가하고 있습니다.

따라서 이론적으로는 최고의 AI 모델을 사용해 작업 효율을 극대화하고 수익을 늘려 비용 상승을 상쇄해야 하지만, 실제로는 비용을 고려하지 않고 일할 수 있는 사람은 없습니다.

비싼 것은 비싼 대로의 방법이 있고, 저렴한 것은 저렴한 대로의 방법이 있습니다. 더 중요한 것은 자신의 실제 상황에 맞춰 가장 비용 효율적인 솔루션을 선택하는 것입니다.

GitHub 릴리스

rss-impact-server

v1.18.2 - 2026-05-02 20:28:53

요약:

v1.18.2 버전 릴리스 요약

  • 테스트: 캐시 서비스에 대한 단위 테스트 추가.
  • 버그 수정: 의존성 업데이트 및 캐시 관리 구현 최적화.

momei

v1.16.0 - 2026-05-09 20:42:55

요약:

1.16.0 (2026-05-09)

✨ 새로운 기능

  • admin:

v1.15.0 - 2026-04-25 20:36:49

요약: v1.15.0 버전 업데이트 내용 요약:

새로운 기능:

  • 관리자 백엔드 AI 모듈에 작업 상세 정보 로딩 기능 추가
  • API 타입 안전성 및 오류 처리 강화
  • 댓글 시스템에 번역 기능 및 다국어 안내 추가
  • 친구 링크 모듈에 메타 정보 인터페이스의 현지화 지원 추가, 친구 링크 관리 기능 및 국제화 지원 추가
  • 코드 거버넌스: 초기 코드 주석 거버넌스 완료 및 JSDoc 템플릿 고정; ESLint/타입 부채 거버넌스 문서 및 관련 설정 추가; 주석 표류 거버넌스 문서 추가
  • Hexo 스타일 글 저장소 동기화 기능 추가, Hexo 저장소 동기화 기능 추가
  • 국제화: 감사 기능 강화; admin-posts 모듈 번역 개선; 다국어 지원 및 관리 인터페이스 텍스트 업데이트
  • Markdown 편집기에 편집기 기능 및 코드 복사 지원 추가
  • 페이지네이션 쿼리에 안전한 파싱 기능 추가
  • 글 목록 쿼리에 언어 폴백 필터 추가
  • SEO: 페이지 SEO 관련 기능 추가, 태그 페이지에 구조화된 데이터 및 SEO 최적화 추가
  • 기타: 댓글 영역 AI 번역 기능 추가; 문자열 목록 파싱 로직 통일

버그 수정:

  • 글 관리 모듈에 관리 기능 및 국제화 지원 추가
  • 이메일 템플릿에 런타임 필드 지원 추가
  • 외부 Feed 패널 테스트 케이스 구조 최적화
  • 외부 Feed에서 제목 없는 항목 처리
  • ESLint/타입 부채 두 번째 라인 강화 완료
  • 국제화: 저장소 동기화 정보 현지화 텍스트 최적화; 사용자 약관 관리 기능의 국제화 지원 추가
  • 설정 모듈 필드 파싱 로직 최적화, 외부 소스 편집기 기능 추가

코드 리팩토링:

  • AI 모듈에서 끝 슬래시 처리 로직 통일
  • ASR 모듈에서 toWebSocketBuffer 함수로 데이터 전송
  • 데이터베이스 준비 상태 확인 기능 추가
  • Hexo 저장소 동기화를 원격 저장소 동기화로 리팩토링
  • 국제화 동적 키 처리 로직 리팩토링
  • 설정 API 타입 처리 로직 강화
  • 서드파티 설정에서 외부 소스 설정 모델 바인딩 최적화
  • 기타: 효과 마운트 조건 최적화

picgo-plugin-optimization

v1.1.1 - 2026-05-10 00:30:35

요약: 버전 1.1.1 (2026-05-09):

  • 수정: tsdown 의존성 구성 리팩토링.
  • 리팩토링: tsdown의 neverBundle 의존성 수정, picgo 및 axios 추가.

최신 GitHub 스타 저장소

다른 블로그 또는 주간지 추천

루안이펑의 네트워크 로그

HelloGitHub 월간

트렌드 주간

이야깅판의 학습 주간

요약

이번 주의 업데이트와 소식은 위와 같습니다. 읽어주셔서 감사합니다!
초매 주간의 업데이트를 다음과 같은 방법으로 구독하실 수 있습니다:

지난 호 보기

저작권 안내
작성자:草梅友仁
원문 링크:https://momei.app/ko-KR/posts/2026-19-caomei-weekly-ai-programming-throttling-deepseek-v4-experience
저작권 안내:별도 안내가 없는 한 이 블로그의 모든 글은 CC BY-NC-SA 4.0 (저작자 표시-비영리-동일조건변경허락) 라이선스를 따릅니다. 재게시 시 출처를 밝혀 주세요!

게시글 공유

이 글 공유하기

후원