Managing large-scale machine learning workflows requires specialized orchestration tools that ensure smooth operations, cost control, and compliance. Whether you're dealing with terabytes of data, running distributed training on Kubernetes, or navigating multi-cloud environments, choosing the right platform is critical. Here’s a quick overview of six leading options:
각 도구는 확장성, 통합, 수명 주기 범위, 거버넌스 및 비용 효율성을 기준으로 평가됩니다. 기존 ML 워크플로를 우선시하는 팀의 경우 Airflow, Kubeflow 또는 Flyte와 같은 도구가 가장 적합할 수 있습니다. AI 오케스트레이션 및 LLM에 중점을 둔 사람들을 위해 Prompts.ai는 비교할 수 없는 거버넌스와 비용 투명성을 제공합니다.
올바른 선택은 인프라, 팀 전문성, 비즈니스 목표에 따라 달라집니다. 각 도구에 대해 자세히 알아보고 요구 사항에 가장 적합한 도구를 찾으세요.
ML 오케스트레이션 도구 비교: 기능, 확장성 및 비용 분석
Apache Airflow는 Python을 기반으로 구축된 오픈 소스 오케스트레이션 플랫폼으로, DAG(방향성 비순환 그래프)를 통해 워크플로를 관리하도록 설계되었습니다. 처음에는 Airbnb에서 만들어졌고 현재는 Apache Software Foundation에서 관리되고 있으며, 특히 데이터 엔지니어링 팀 사이에서 널리 채택되고 있습니다. 기계 학습(ML)에 특별히 맞춤화되지는 않았지만 유연성 덕분에 특히 도구에 이미 능숙한 팀의 경우 대규모 데이터 환경에서 ML 워크플로를 처리하기 위한 실용적인 옵션이 됩니다. 복잡한 빅데이터 설정에서도 워크플로를 구성하고 관리할 수 있는 안정적인 프레임워크를 제공합니다.
Airflow’s modular design enables it to scale effectively. By distributing tasks across workers while adhering to specified dependencies, it ensures workflows can expand as data processing demands grow. For instance, Netflix relies on Airflow to manage and schedule thousands of tasks in its data pipelines, maintaining seamless operations. That said, Airflow excels in environments with relatively stable workflows and may not perform as efficiently in highly dynamic setups.
Airflow는 다양한 빅 데이터 시스템과 통합할 수 있는 능력이 뛰어나 다양한 생태계를 위한 다목적 도구입니다. Hadoop, Spark 및 Kubernetes와 같은 플랫폼과 연결되는 수많은 운영자를 제공합니다. 예를 들어, 금융 기술 회사인 Wise는 Airflow를 활용하여 Amazon SageMaker에서 ML 워크플로를 재교육하여 실시간 거래 모니터링 및 고객 파악(KYC) 프로세스를 지원합니다. 또한 Google Cloud Composer 및 Astronomer와 같은 관리형 서비스는 온프레미스에서 클라우드 기반 환경으로의 확장 및 전환을 단순화합니다.
Airflow’s Python-based programmatic approach allows teams to orchestrate multiple stages of the ML lifecycle, from data preprocessing to model training and deployment. Its ability to dynamically generate pipelines lets users create and schedule intricate workflows based on specific parameters. However, setting up Airflow can introduce moderate DevOps challenges, and it may lack some ML-specific capabilities found in platforms designed exclusively for machine learning.
Airflow에는 파이프라인 진행 상황을 모니터링하고 문제를 해결하기 위한 사용자 친화적인 웹 인터페이스가 포함되어 있습니다. DAG 구조는 워크플로를 구성할 뿐만 아니라 버전을 추적하여 협업을 촉진하고 감사 추적을 유지합니다. 이 기능은 빅 데이터 환경에서 ML 워크플로를 관리하는 데 규제 준수 및 명확한 데이터 계보가 중요한 금융 및 의료와 같은 산업에 특히 유용합니다.
오픈 소스 플랫폼인 Apache Airflow에서는 사용자가 온프레미스 또는 클라우드에 배포하든 관계없이 인프라 비용만 부담하면 됩니다. Cloud Composer 및 Astronomer와 같은 관리형 서비스에는 추가 비용이 발생하지만 유지 관리, 확장, 업데이트 부담도 줄어듭니다. 데이터 엔지니어링 프로젝트를 통해 이미 Airflow를 경험한 팀의 경우 학습 곡선이 최소화되어 간접 비용이 더욱 절감됩니다.
Kubeflow는 Kubernetes에서 기계 학습 워크플로의 배포, 모니터링 및 관리를 단순화하도록 설계된 오픈 소스 도구 키트입니다. 대규모 기계 학습 작업을 처리하기 위해 Kubernetes를 활용하는 팀을 위해 맞춤화된 Kubeflow는 ML 수명 주기의 고유한 요구 사항에만 초점을 맞춘다는 점에서 범용 조정 도구와 차별화됩니다. 이러한 특화된 접근 방식은 대규모 데이터 세트를 처리하는 환경에서 워크플로를 최적화하는 데 이상적입니다.
Kubernetes의 기본 확장성을 기반으로 구축된 Kubeflow는 분산 시스템 전반에서 기계 학습 워크로드를 효율적으로 처리합니다. 컨테이너화된 프레임워크를 통해 팀은 처리 요구 사항에 따라 리소스를 동적으로 조정하는 파이프라인을 배포할 수 있습니다. 이는 광범위한 데이터 세트에 대한 모델을 교육할 때 중요한 기능입니다. Kubeflow는 또한 AWS, Google Cloud Platform, Microsoft Azure와 같은 주요 클라우드 제공업체와 원활하게 통합됩니다. 이러한 멀티 클라우드 호환성을 통해 기업은 유연한 리소스 할당으로 대규모 데이터 작업을 관리할 수 있으므로 하이브리드 또는 멀티 클라우드 설정을 위한 강력한 도구가 됩니다.
Kubeflow는 Kubernetes와 통합되어 기존 데이터 엔지니어링 생태계에 원활하게 적응할 수 있습니다. 예를 들어 Airflow와 같은 널리 사용되는 워크플로 시스템과 함께 작동하여 조직이 인프라를 점검하지 않고도 ML 조정 기능을 향상시킬 수 있습니다. 클라우드 네이티브 디자인은 이식성을 보장하므로 효율성을 유지하면서 다양한 환경에 적응할 수 있습니다.
Kubeflow는 훈련 및 테스트부터 배포, 모델 버전 관리, 초매개변수 조정에 이르기까지 기계 학습 수명 주기의 모든 단계를 다룹니다. 플랫폼은 사전 구성된 컨테이너를 제공하여 Kubernetes 내에서 ML 파이프라인을 배포하는 표준화된 방법을 제공합니다. Domo는 다음과 같이 지적합니다.
__XLATE_11__
ML 파이프라인이 배포되고 제공되는 방식을 표준화함으로써 Kubeflow는 팀이 바퀴를 다시 개발하지 않고도 빠르게 혁신할 수 있도록 보장합니다.
또한 Kubeflow는 고급 기계 학습 도구에 대한 액세스를 민주화하여 팀 전체의 엔지니어와 과학자가 모델을 구축, 실행, 실험할 수 있도록 지원하고 협업과 혁신을 촉진합니다.
Kubeflow 자체는 무료이지만 효과적으로 사용하려면 Kubernetes에 대한 확실한 이해가 필요합니다. 이미 Kubernetes 클러스터를 운영하고 있는 팀의 경우 추가 비용이 최소화됩니다. 그러나 Kubernetes를 처음 접하는 사람들은 가파른 학습 곡선과 통합 문제에 직면할 수 있으며, 이로 인해 초기 비용이 더 높아질 수 있습니다.
Prefect는 오늘날의 복잡한 데이터 환경과 인프라를 처리하도록 설계된 현대적인 워크플로우 관리 시스템입니다. 기존 오케스트레이션 도구와 달리 Prefect는 사용 편의성과 탄력성을 우선시하므로 예측할 수 없는 빅 데이터 워크로드를 관리하는 팀에 널리 사용됩니다. Monte Carlo Data는 직관적인 인터페이스, 단순화된 설정 프로세스 및 복잡성 감소로 인해 "Airflow, but better"라는 별명을 붙이기도 했습니다.
Prefect는 원활하게 확장할 수 있는 능력이 돋보입니다. 수백만 개의 워크플로 실행을 처리할 수 있어 기업 요구에 적합한 수준의 확장성을 제공합니다. 이 플랫폼은 오픈 소스 옵션인 Prefect Core와 완전히 호스팅되는 솔루션인 Prefect Cloud의 두 가지 버전으로 제공됩니다. 이러한 유연성을 통해 팀은 소규모로 시작하여 데이터 요구 사항이 증가함에 따라 확장할 수 있습니다. Prefect Cloud는 분산 시스템에서 대규모 데이터 세트를 처리하는 워크플로를 관리하는 데 필수적인 성능 향상 및 에이전트 모니터링과 같은 추가 기능을 제공합니다. 하이브리드 실행 모델은 온프레미스, 클라우드 또는 하이브리드 환경에서 작업을 안전하게 실행할 수 있도록 하여 적응성을 더욱 강화합니다. 이는 빅 데이터 및 기계 학습 워크플로에 적합합니다.
Prefect는 재시도, 로깅, 동적 매핑, 캐싱 및 오류 경고와 같은 중요한 기능을 통합하여 데이터 파이프라인을 향상합니다. 특히 동적 매핑은 변동하는 데이터 볼륨을 처리하고 병렬 처리를 활성화하는 데 매우 중요합니다. 또한 플랫폼은 LakeFS와 같은 도구와 원활하게 통합되어 PythonOperators 또는 사용자 지정 작업에서 API 호출을 래핑하여 데이터 버전 관리를 지원합니다. 이 기능은 대규모 데이터 세트에 대한 효율적인 버전 제어를 보장합니다.
Prefect는 기존 데이터 파이프라인 관리를 뛰어넘어 전체 기계 학습 수명주기를 지원합니다. 자연어 인터페이스를 사용하여 AI 모델, 분류자 및 애플리케이션을 구축하기 위한 프레임워크인 Marvin AI의 도입으로 기능이 크게 확장되었습니다. 또한 자동 재시도 기능은 워크플로 무결성을 보호하여 ML 수명 주기 전반에 걸쳐 원활한 작업을 보장합니다.
Prefect Core는 무료 오픈 소스이므로 빅 데이터 워크플로를 사용하는 개발자가 액세스할 수 있는 옵션입니다. 향상된 기능을 원하는 팀을 위해 Prefect Cloud는 권한, 팀 관리, 서비스 수준 계약(SLA)과 같은 기능을 갖춘 유료, 완전 호스팅 백엔드를 제공합니다. Prefect Cloud 가격은 사용량에 따라 다릅니다. 간단한 설정과 사용자 친화적인 디자인을 갖춘 Prefect는 오케스트레이션 도구를 구현하는 동안 시간과 리소스를 절약하려는 팀에게 탁월한 선택입니다.
Flyte는 프로덕션 환경에서 대규모 기계 학습 워크로드를 관리하기 위해 Lyft가 처음 개발한 Kubernetes 기반 오케스트레이션 플랫폼입니다. 현재는 3,000개가 넘는 팀의 워크플로를 지원하며 Google 및 Airbnb와 같은 주요 기업의 신뢰를 받아 데이터 센터 전체에서 기계 학습 모델을 확장하고 있습니다.
Flyte’s design allows for dynamic scaling, eliminating idle costs by adjusting resources on demand. It supports both horizontal and vertical scaling, enabling resource adjustments directly from your code during runtime. With built-in features like automatic retries, checkpointing, and failure recovery, Flyte ensures reliability and reduces the need for manual fixes. This scalable framework also integrates seamlessly with big data systems.
Flyte’s architecture is optimized for highly concurrent and maintainable workflows, making it ideal for machine learning and data processing tasks. Teams can deploy separate repositories without disrupting the platform’s functionality. This setup prevents tool fragmentation across data, ML, and analytics stacks, while centralizing workflow management at scale.
Flyte는 단일 플랫폼에서 AI/ML 시스템을 개발, 배포 및 개선하기 위한 포괄적인 워크플로 관리를 제공합니다. Python SDK는 ETL 워크플로우를 위한 데이터 전처리를 지원합니다. 모델 교육을 위해 Flyte는 분산 워크플로를 촉진하고 TensorFlow 및 PyTorch와 같은 프레임워크와 원활하게 통합됩니다.
Flyte’s open-source version is free, making it accessible to teams of all sizes. For those needing advanced features, Union Enterprise offers a managed version of Flyte with customized pricing options. Jeev Balakrishnan from Freenome describes Flyte as "a workhorse", highlighting its reliability and effectiveness. This cost flexibility strengthens Flyte’s position as a dependable solution for large-scale, production-ready ML workflows.
MLRun은 전체 기계 학습 수명주기를 대규모로 관리하도록 설계된 오픈 소스 플랫폼입니다. 서버리스의 탄력적인 아키텍처는 대규모 데이터 작업을 수행하는 팀에 특히 유용합니다.
수백만 건의 실행을 지원하는 능력을 갖춘 MLRun은 탄력적인 확장을 통해 수동 인프라 관리의 필요성을 제거합니다. 이 서버리스 설계를 통해 팀은 모델 개발에 집중할 수 있으며 플랫폼은 코드를 프로덕션에 즉시 사용할 수 있는 워크플로로 변환합니다.
MLRun’s framework integrates effortlessly with various data systems, making it a strong choice for handling big data. It includes a feature and artifact store to manage data ingestion, processing, metadata, and storage across multiple repositories and technologies. This centralization is critical for big data operations. The platform supports a variety of storage systems, including S3, Artifactory, Alibaba Cloud OSS, HTTP, Git, and GCS, offering flexibility in infrastructure choices. Additionally, its abstraction layer connects seamlessly with a wide array of machine learning tools and plugins, ensuring compatibility with established big data frameworks.
MLRun은 초기 개발부터 배포까지 전체 기계 학습 파이프라인을 포괄하여 확장성과 통합을 뛰어넘습니다. 자동화된 실험, 모델 교육, 테스트, 실시간 파이프라인 배포와 같은 프로세스를 간소화하여 기계 학습 수명 주기의 모든 단계에서 일관성을 유지합니다.
오픈 소스 플랫폼인 MLRun은 무료로 사용할 수 있으므로 모든 규모의 조직에 경제적인 옵션입니다. 이러한 비용 구조를 통해 팀은 값비싼 라이선스 비용 대신 인프라와 인재에 더 많은 리소스를 할당할 수 있으며, 이는 스타트업 및 연구 중심 그룹에 특히 유용합니다.
Prompts.ai는 AI 오케스트레이션을 간소화하도록 설계된 강력한 엔터프라이즈 플랫폼입니다. GPT-5, Claude, LLaMA, Gemini 등 35개 이상의 주요 대규모 언어 모델에 대한 액세스를 모두 하나의 안전한 단일 인터페이스 내에서 통합합니다. 다른 도구와 달리 Prompts.ai는 강력한 거버넌스, 정확한 비용 관리 및 최신 AI 모델에 대한 원활한 액세스를 강조하므로 대규모 기계 학습 워크플로를 관리하기 위한 신뢰할 수 있는 선택입니다. 그 기능은 확장성, 통합, 거버넌스 및 비용 관리를 충족시켜 기업이 효율적으로 운영될 수 있도록 보장합니다.
Prompts.ai는 귀하의 요구에 따라 성장하도록 구축되었습니다. 역동적인 작업 공간과 협업 도구를 통해 팀은 유연한 종량제 TOKN 신용 시스템의 지원을 받아 리소스를 효과적으로 풀 수 있습니다. 멀티 테넌트 아키텍처를 통해 데이터 과학 팀, ML 엔지니어 및 분석 전문가는 성능 저하 없이 대규모 데이터 세트에서 실험과 파이프라인을 동시에 실행할 수 있습니다.
이 플랫폼은 기존 데이터 인프라와 원활하게 통합되어 RAG 워크플로 및 벡터 데이터베이스 구성을 지원하여 엔드투엔드 기계 학습 파이프라인을 활성화합니다. Prompts.ai는 전통적인 ML 프로세스와 현대적인 대규모 언어 모델 기능을 연결함으로써 팀이 기존 시스템에 대한 보안 연결을 유지하면서 방대한 양의 데이터를 처리할 수 있도록 지원합니다. 이러한 접근 방식을 통해 다양한 데이터 환경을 효율적으로 관리할 수 있습니다.
Security and compliance are at the heart of Prompts.ai. It aligns with industry standards like SOC 2 Type II, HIPAA, and GDPR to safeguard sensitive data, making it especially valuable for industries such as healthcare and finance. The platform began its SOC 2 Type II audit process on 2025년 6월 19일, and offers a public Trust Center at https://trust.prompts.ai/ where users can access real-time updates on its security and compliance status. Features such as compliance monitoring and governance tools are included in its Business plans, ensuring comprehensive oversight.
Prompts.ai는 기존의 좌석당 라이선스에서 벗어나 종량제 TOKN 신용 시스템을 도입합니다. 가격 옵션에는 $0 탐색 단계와 회원당 월 $99~$129 범위의 비즈니스 계획이 포함됩니다. 실시간 FinOps 도구를 통해 사용자는 토큰 사용량을 모니터링하고 지출을 최적화하여 AI 비용이 비즈니스 목표에 부합하도록 할 수 있습니다. 이러한 투명성은 기업이 가치를 극대화하는 동시에 전체 비용을 줄이는 데 도움이 됩니다.
Each tool brings its own strengths and challenges when it comes to scalability, integration with big data and AI systems, ML lifecycle management, governance, and cost efficiency. Let’s break down the key highlights:
Apache Airflow는 프로덕션 환경에서 수천 개의 동시 작업을 처리할 수 있는 모듈식 설계와 효율적인 스케줄러 덕분에 확장성이 뛰어납니다. AWS, GCP, Azure와 같은 주요 클라우드 플랫폼과 함께 Hadoop, Spark, Kubernetes와 같은 분산 시스템과 원활하게 통합됩니다. 그러나 가파른 학습 곡선과 복잡한 설정으로 인해 특히 소규모 팀의 경우 채택이 느려질 수 있습니다.
Kubeflow는 Kubernetes 기반 프레임워크를 활용하여 클라우드 기반 확장성을 제공합니다. 그러나 잠재력을 최대한 활용하려면 팀에 Kubernetes에 대한 사전 경험과 이를 지원하는 데 필요한 인프라가 필요합니다.
Prefect는 Python 우선의 현대적인 접근 방식으로 배포를 단순화하여 팀이 복잡성을 줄이면서 더 빠른 결과를 얻을 수 있도록 합니다. 따라서 더 빠른 구현을 원하는 빠르게 성장하는 팀에게 인기 있는 선택입니다.
Flyte and MLRun focus on reproducibility across the ML lifecycle. While both tools excel in this area, their ecosystems are not as extensive as Apache Airflow’s, which has a more established user base.
Prompts.ai는 기존 ML 파이프라인이 아닌 AI 오케스트레이션에 중점을 두어 다른 접근 방식을 취합니다. 보안 인터페이스를 통해 35개 이상의 주요 대규모 언어 모델에 대한 통합 액세스를 제공하며 비용 관리를 위한 FinOps 제어 기능이 내장되어 있습니다. 종량제 TOKN 시스템은 좌석당 요금을 없애고 SOC 2 Type II, HIPAA 및 GDPR을 준수하므로 규제 대상 산업의 거버넌스 요구 사항을 충족합니다.
Here’s a quick comparison of these tools based on key metrics:
The right tool depends heavily on your team’s existing infrastructure, expertise, and specific needs. Teams with strong Kubernetes skills might find Kubeflow or Flyte more suitable, while those looking for simplicity and faster deployment may lean toward Prefect. For enterprises prioritizing governance, cost management, and unified AI model access, Prompts.ai offers a standout solution with its compliance-driven design and transparent cost structure.
올바른 ML 조정 소프트웨어를 선택하는 것은 팀의 전문 지식, 기존 인프라 및 비즈니스 우선순위에 맞게 조정하는 데 달려 있습니다. Apache Airflow는 Hadoop, Spark 및 주요 클라우드 제공업체와 같은 플랫폼 전반에 걸쳐 검증된 확장성을 제공하면서 일반 워크플로 조정에 대한 강력한 경쟁자로 남아 있습니다. 모듈식 아키텍처는 수천 개의 작업을 동시에 효율적으로 관리하지만 상당한 설정 노력이 필요합니다.
거버넌스 및 규정 준수 역시 특히 규제 대상 산업에서 중추적인 역할을 합니다. 역할 기반 액세스 제어, 감사 로깅, 데이터 계보 추적과 같은 기능은 GDPR 및 HIPAA와 같은 표준을 충족하는 데 필수적입니다. 그러나 이러한 기능을 구현하려면 상당한 인프라 투자와 지속적인 유지 관리가 필요한 경우가 많습니다.
Kubernetes 기반 인프라를 활용하는 미국 기반 기업의 경우 Kubeflow 및 Flyte와 같은 도구는 ML 수명주기 관리에 대한 강력한 지원과 함께 강력한 클라우드 기반 확장성을 제공합니다. 둘 다 컨테이너 오케스트레이션과 원활하게 통합되지만 Kubernetes에 대한 확실한 이해가 필요합니다. 이러한 전문 지식이 부족한 팀을 위해 Prefect는 보다 간단한 배포 프로세스를 제공합니다.
LLM 중심 프로젝트 및 AI 오케스트레이션에 중점을 두는 기업의 경우 Prompts.ai가 눈에 띕니다. SOC 2 Type II, HIPAA 및 GDPR 규정 준수를 통해 거버넌스 문제를 해결하는 동시에 35개 이상의 언어 모델에 대한 액세스를 단순화합니다. 종량제 TOKN 크레딧 시스템은 비용 투명성을 보장하고 사용자당 라이센스 비용을 제거합니다. 이는 확장성과 예산 제약의 균형을 맞추려는 미국 기업에게 확실한 이점입니다.
궁극적으로 결정은 기존 ML 워크플로 또는 최신 AI 오케스트레이션에 우선순위가 있는지에 따라 달라집니다. 확장성, 통합, 수명 주기 적용 범위, 거버넌스, 비용 효율성 등 주요 기준에 따라 요구 사항을 비교함으로써 현명한 선택을 내릴 수 있습니다. 확립된 ML 파이프라인은 기존 오케스트레이션 도구와 잘 어울리는 반면, Prompts.ai는 LLM 중심의 통합 AI 운영에 매우 적합합니다.
빅 데이터를 위한 ML 조정 도구를 선택할 때 현재 기술 스택과의 호환성을 우선시하는 것이 중요합니다. 기존 시스템과 원활하게 통합되는 도구는 시간과 리소스를 모두 절약하고 불필요한 복잡성을 줄일 수 있습니다.
Think about the tool's scalability - can it handle increasing data volumes and more intricate workflows as your needs grow? It's equally important to consider the ease of use for your team. A user-friendly tool that matches your team’s skill level can significantly reduce the time spent on training and onboarding.
또한 워크플로우 관리를 단순화하고 신뢰할 수 있는 성능을 보장하려면 강력한 모니터링 및 자동화 기능이 필수적입니다. 마지막으로, 도구가 새로운 기술 채택이나 클라우드로의 전환과 같은 조직의 장기 계획과 일치하는지 평가하세요.
거버넌스 및 규정 준수는 워크플로가 법적 요구 사항과 내부 표준을 모두 준수하도록 보장하므로 기계 학습 조정 소프트웨어를 선택하는 데 중요한 역할을 합니다. 데이터 계보, 감사 추적 및 강력한 보안 제어 기능을 제공하는 도구는 규정 준수를 유지하면서 데이터 무결성을 보호하는 데 도움이 됩니다.
빅 데이터 워크플로우의 맥락에서 규정 준수는 민감한 정보가 책임감 있고 투명하게 관리되도록 보장합니다. 효과적인 거버넌스는 위험을 최소화하고 기계 학습 프로세스에 대한 자신감을 키워 업계 지침을 준수하면서 원활한 확장을 위한 기반을 마련합니다.
기계 학습 조정 소프트웨어 활용 비용은 인프라 요구 사항, 운영 규모, 지원 요구 사항 등 여러 주요 요소의 영향을 받습니다. 예를 들어 Kubeflow 및 Metaflow와 같은 플랫폼은 복잡한 배포 프로세스로 인해 인프라 비용이 높아지는 경우가 많습니다. 반면 Apache Airflow 및 Prefect와 같은 오픈 소스 솔루션은 라이선스 비용을 줄이는 데 도움이 될 수 있지만 설정 및 지속적인 유지를 위해 추가 내부 리소스가 필요할 수 있습니다.
궁극적으로 총 비용은 귀하의 특정 요구 사항에 따라 달라집니다. 데이터 워크플로의 크기, 달성하려는 자동화 수준, 엔터프라이즈 수준 지원 또는 맞춤형 통합이 필요한지 여부와 같은 변수는 전체 비용을 결정하는 데 중요한 역할을 합니다.

