Skip to content
Back to Blog
Sulphur 2 base 출시 분석 — LTX 2.3 기반 오픈소스 비디오 AI가 바꾸는 것
Trend

Sulphur 2 base 출시 분석 — LTX 2.3 기반 오픈소스 비디오 AI가 바꾸는 것

5 min read0

Sulphur 2 base 출시 분석 — LTX 2.3 기반 오픈소스 비디오 AI가 바꾸는 것

2026년 5월 초, Hugging Face에 조용히 올라온 한 모델이 30일 만에 다운로드 53만 건을 기록했습니다. 이름은 Sulphur 2 base. Lightricks의 차세대 비디오 파운데이션 모델 LTX 2.3을 베이스로, SulphurAI 커뮤니티가 파인튜닝한 오픈웨이트 텍스트-투-비디오/이미지-투-비디오 모델입니다.

흥미로운 건 모델 자체보다 그 뒤에 숨은 숫자들입니다. 12만 5천 개 비디오 클립을 캡셔닝하는 데 700달러, GPU 렌탈 8천 달러, 자금 조달은 익명 후원자 2명과 Kofi 커뮤니티 펀딩. 합치면 1만 달러 미만으로 비디오 모델 한 개를 만든 셈입니다.

이 글은 1인 기업·소규모 팀 관점에서 Sulphur 2 base 출시가 무엇을 의미하는지, 어떻게 활용 가능성을 검토할지 정리한 분석입니다.

모델 한 줄 정리

Sulphur 2 base는 다음 세 가지 축으로 요약됩니다.

  • 베이스 모델: Lightricks LTX-2.3 (DiT 기반 audio-video foundation 모델, 단일 모델로 비디오 + 오디오 동시 생성, 최대 1080p, 9:16 세로 네이티브 지원)
  • 파인튜닝 데이터: 약 12만 5천 개 비디오 클립 (~500GB), Google Gemini 3 Flash로 캡션 자동 생성
  • 공개 형태: Hugging Face 오픈웨이트 (ltx-2-community-license-agreement), 텍스트-투-비디오 + 이미지-투-비디오 네이티브 양 지원

파라미터는 두 갈래로 나뉩니다. 프롬프트 인핸서로 9B(qwen35 아키텍처), 비디오 본체로 22B(LTX 2.3). 다운로드 53만 건, 좋아요 838개(Sulphur 414)가 2026년 5월 말 시점 수치입니다.

학습 비용 1만 달러 — 진짜 의미

TechnoEdge가 2026년 5월 11일 보도한 학습 비용 구조는 한 줄로 압축됩니다.

항목비용
캡션 생성 (Gemini 3 Flash, 500GB)약 $700
GPU 렌탈약 $8,000
합계1만 달러 미만

여기서 봐야 할 건 캡션 비용 $700입니다. 비디오 12만 5천 개에 자동 캡션을 붙이는 작업이 1년 전이라면 사람을 고용하거나 별도 라벨링 SaaS에 수만 달러를 썼을 일입니다. Gemini 3 Flash 같은 멀티모달 모델이 보편화되면서, 데이터 라벨링이 더 이상 비디오 AI 개발의 병목이 아니게 됐습니다.

GPU 렌탈 8천 달러도 마찬가지입니다. 클라우드 H100 단가가 떨어지고 학습 효율이 좋아지면서, 22B 비디오 모델 파인튜닝조차 1인 개발자 통장 안에 들어옵니다. SulphurAI 팀이 익명 후원자 2명과 Kofi로 자금을 모은 사례는 오픈소스 AI 모델의 새로운 자금 조달 경로가 검증됐다는 시그널이기도 합니다.

모델 변형과 하드웨어 요구

Sulphur 2 base는 환경에 맞춰 4가지 변형을 제공합니다.

파일용도크기권장 VRAM
sulphur_dev_bf16.safetensors풀 모델, 최고 품질~46 GB24~32 GB
sulphur_dev_fp8mixed.safetensorsFP8 혼합 정밀, 메모리 절감~29 GB16~24 GB
Q8_0 GGUF프롬프트 인핸서 양자화9.53 GB8~12 GB
Distill LoRA추론 가속, 단계 축소--

핵심은 24GB급 컨슈머 GPU(예: RTX 4090) 한 대로 풀 모델이 돌아간다는 점입니다. 1년 전이라면 클라우드 H100을 시간당 2~3달러씩 빌려야 했을 작업이, 이제 자기 책상 위 워크스테이션에서 실행됩니다. SaaS 구독 없이 마케팅 영상, 제품 데모, SNS 콘텐츠를 무한 생성할 수 있는 옵션이 진짜로 열린 셈입니다.

⚠️ 주의: 풀 모델과 LoRA를 동시 로드하지 마세요. 워크플로우에서 효과가 중복 적용되어 결과가 꼬입니다.

실행 환경 — ComfyUI가 사실상 표준

도구 생태계는 이미 정리됐습니다. 권장도 순서로 정리하면 다음과 같습니다.

  • ComfyUI + LTX-Video 노드 (⭐⭐⭐): Lightricks 공식 워크플로우 번들 포함. 가장 많은 가이드와 LoRA, 머지 모델이 이 환경 기준으로 공유됩니다.
  • Diffusers (Python) (⭐⭐): Hugging Face가 자동 생성하는 추론 스니펫이 있지만, 텍스트-투-비디오만 지원하고 이미지-투-비디오는 ComfyUI를 거쳐야 합니다.
  • LM Studio / Ollama / Jan / Unsloth Studio (⭐~⭐⭐): 프롬프트 인핸서(9B 모델) 로컬 실행용. 시스템 프롬프트 없이 텍스트(또는 이미지)만 전달하면 됩니다.

프롬프트 인핸서는 별도 폴더 구조(Sulphur/promptenhancer/)에 gguf와 mmproj 파일을 함께 배치하는 방식이라, 처음 설치할 때 한 번만 신경 쓰면 됩니다. 이후엔 LM Studio GUI에서 모델만 선택하면 동작합니다.

ComfyUI가 2026년 3월 5일 LTX-2.3을 Day-0 지원한 게 결정적이었습니다. 모델 출시일과 동시에 노드가 준비돼 있었기 때문에, Sulphur 2가 5월에 나왔을 때 사용자들은 워크플로우 파일을 받자마자 바로 돌릴 수 있었습니다. "모델 + 도구 + 워크플로우 가이드"가 한 묶음으로 배포되는 흐름이 자리 잡고 있습니다.

1인 기업 관점 시사점 5가지

QJC 같은 1인 기업·소규모 팀이 Sulphur 2 base 출시를 어떻게 봐야 할지 정리하면 다음과 같습니다.

  1. 로컬 비디오 생성 패러다임이 진짜로 열렸다 — 마케팅 영상, 제품 데모, SNS 릴스를 SaaS 비용 없이 자체 제작 가능. 24GB GPU 한 대로 시작 가능.
  2. 워크플로우 중심 배포 — 모델 가중치만이 아니라 ComfyUI 그래프 + LoRA + 가이드 묶음이 단위가 됨. 콘텐츠 제작자도 워크플로우를 자산으로 관리해야 합니다.
  3. AI 캡셔닝 비용이 붕괴했다 — 500GB 데이터셋 캡셔닝 $700. 데이터 라벨링은 더 이상 진입 장벽이 아닙니다. 자체 데이터셋을 만들 가치가 다시 생겼습니다.
  4. 커뮤니티 펀딩 모델 검증 — Kofi + 익명 후원자로 1만 달러 모델이 가능. 오픈소스 프로젝트의 자금 조달 경로가 다양해졌습니다.
  5. 다층 생태계 형성 — Lightricks 공식(LTX 2.3) → 커뮤니티 파인튜닝(Sulphur 2) → 특화 머지(10Eros, TenStrip i2v) → 양자화 변형(silveroxides). LLM이 그랬듯, 비디오 AI도 계층화가 시작됐습니다.

라이선스와 책임 있는 사용

Sulphur 2 base는 베이스 모델인 LTX-2.3의 ltx-2-community-license-agreement를 그대로 계승합니다. OSI 비공식 라이선스로, Lightricks가 정의한 커뮤니티 라이선스 조항을 따릅니다.

여기서 두 가지를 분리해서 기억해 둘 만합니다.

  • 모델 라이선스: 상업 이용·공개 데모 시 라이선스 조항을 직접 검토해야 합니다. 특히 "오픈소스 = 무제한 상업 이용"이라는 가정은 위험합니다.
  • 콘텐츠 책임: 모델이 콘텐츠 필터를 강하게 걸지 않는다는 것과 "원하는 무엇이든 생성해도 괜찮다"는 것은 다릅니다. 실존 인물, 저작권 캐릭터, 미성년자, 폭력·사생활 침해 콘텐츠는 커뮤니티 가이드라인·플랫폼 정책·현지 법률에 따라 금지됩니다.

기업 환경에서 도입을 검토한다면, 사내 사용 가이드라인 + 생성물 검수 프로세스를 먼저 갖추고 시작하는 게 안전합니다.

정리

2026년 비디오 AI 지형도는 이미지 AI가 2022~2023년에 거쳤던 단계를 빠르게 밟고 있습니다. 폐쇄형 SaaS(Runway, Pika 등)와 오픈웨이트 모델(LTX-2.3, Sulphur 2 등)이 병존하고, 컨슈머 GPU에서 돌아가는 모델이 늘어나고, 워크플로우와 파인튜닝 변형이 LLM처럼 계층화됩니다.

Sulphur 2 base 자체가 모든 1인 기업에 즉시 필요한 도구는 아닙니다. 하지만 "내 비디오 콘텐츠를 SaaS 비용 없이, 내 GPU 위에서 만들 수 있다"는 옵션이 실증됐다는 점은 마케팅·콘텐츠 자동화 전략을 다시 그릴 만한 변화입니다. 향후 6개월 안에 더 가벼운 변형, 더 풍부한 LoRA, 더 친절한 GUI가 쏟아질 가능성이 높습니다.

지금 시점에서 할 일은 단순합니다. ComfyUI 한 번 설치해서 LTX-2.3 워크플로우 한두 개 돌려보기. 그게 비디오 AI가 내 비즈니스에 어떤 의미를 가질지 가장 빠르게 감 잡는 방법입니다.


참고 자료

본 분석은 공개 정보 기반 정보 제공이며, 실제 모델 사용 시 라이선스 및 현지 법규 검토가 필요합니다.