이번 주 깃허브 트렌드와 AI 커뮤니티에서는 특정 툴 하나를 두고 갑론토박이가 벌어지고 있다. 매번 다른 사이트에 로그인해 프롬프트를 입력하고, 엄격한 필터링에 걸려 작업이 끊기던 개발자들이 한 곳에 모든 모델이 모인 스튜디오에 주목하기 시작했다. 특히 상용 서비스의 제약 없이 자유롭게 실험하고 싶은 이들 사이에서 이 도구의 공유 속도가 무섭게 빨라지고 있다.
200개 이상의 모델과 5개 전문 스튜디오
Open Generative AI(200개 이상의 AI 모델을 통합한 생성 스튜디오)가 구체적인 스펙을 공개했다. 이 도구는 Flux, Midjourney, Kling, Sora, Veo 등 200개가 넘는 모델을 통해 텍스트-이미지, 이미지-이미지, 텍스트-영상, 이미지-영상, 립싱크 생성을 콘텐츠 필터 없이 지원한다. 제공되는 스튜디오는 총 5개로 세분화되어 있다. Image Studio는 t2i(텍스트를 이미지로 변환) 50개 이상, i2i(이미지를 이미지로 변환) 55개 이상의 모델을 지원하며 최대 14장의 참조 이미지를 사용할 수 있다. Video Studio는 t2v(텍스트를 영상으로 변환) 40개 이상, i2v(이미지를 영상으로 변환) 60개 이상의 모델을 갖췄다. Lip Sync Studio는 초상화나 영상에 오디오를 입히는 9개 모델을 제공하며, Cinema Studio는 렌즈, 초점거리, 조리개 같은 프로 카메라 컨트롤 기능을 지원한다. Workflow Studio는 노드 기반(데이터 흐름을 시각적 상자로 연결하는 방식)의 멀티스텝 파이프라인 빌더를 제공한다.
로컬 추론 엔진으로는 sd.cpp(SD 1.5, SDXL, Z-Image를 지원하며 Apple Silicon Metal, CUDA, Vulkan, ROCm 환경에서 작동하는 엔진)와 Wan2GP(Flux, Qwen-Image, Wan 2.2 T2V/I2V, Hunyuan, LTX 비디오를 위해 사용자가 운영하는 Gradio 서버 기반 엔진) 2종을 지원한다. 최근 업데이트를 통해 Google Gemini 3.1 Flash 기반의 Nano Banana 2, ByteDance의 Seedream 5.0, MiniMax Image 01, Seedance 2.0, Grok Imagine 등이 추가되었다. 설치는 macOS, Windows, Linux용 Electron(웹 기술로 데스크톱 앱을 만드는 프레임워크) 인스톨러를 통해 가능하며, 웹 버전은 dev.muapi.ai에서 설치 없이 바로 사용할 수 있다.
필터 제거와 오픈소스 아키텍처의 결합
예전에는 모델 하나를 바꾸려면 API 키를 새로 발급받거나 다른 웹 서비스로 이동해야 했다. 이제는 하나의 인터페이스에서 200개 모델을 스위칭하며 결과물을 즉시 비교하는 환경으로 바뀌었다. 특히 콘텐츠 필터가 없다는 점이 개발자들에게 가장 뜨거운 반응을 얻고 있다. 기존 상용 서비스들이 기업의 가이드라인으로 생성을 막았던 지점을 이 도구는 완전히 열어젖혔다.
기술적으로는 Next.js(리액트 기반의 웹 프레임워크) 모노레포(여러 프로젝트를 하나의 저장소에서 관리하는 구조) 아키텍처를 채택했다. packages/studio라는 공유 컴포넌트 라이브러리를 통해 UI 일관성을 유지하며, Muapi.ai API 게이트웨이(API 요청을 효율적으로 배분하는 관문)를 통해 Submit(제출) 후 Poll(상태 확인) 하는 2단계 통신 패턴을 사용한다. 이는 생성 시간이 긴 영상 모델의 특성을 고려해 서버 부하를 줄이고 상태를 효율적으로 추적하기 위한 설계다. 라이선스는 MIT(누구나 자유롭게 수정하고 배포할 수 있는 오픈소스 라이선스)로 공개되어 셀프 호스팅과 커스터마이징이 완전히 자유롭다.
이제 AI 생성의 핵심은 개별 모델의 성능보다 수백 개의 모델을 얼마나 효율적으로 엮어내는 파이프라인 설계 능력으로 옮겨갔다.



