AI 모델이 엣지 디바이스에서 효율적으로 작동하도록 하기 위한 경쟁에서는 양자화와 가지치기라는 두 가지 전략이 두드러집니다. IoT 센서, 스마트폰과 같은 엣지 장치는 메모리, 전력, 처리 용량에 대한 엄격한 제한에 직면해 있습니다. 이러한 기술은 정확성을 유지하면서 AI 모델을 축소하고 성능을 향상시키는 데 도움이 됩니다.
두 기술 모두 하드웨어 및 애플리케이션 목표에 따라 다릅니다. 양자화는 더 빠른 추론에 이상적인 반면, 프루닝은 메모리가 제한된 장치에 더 좋습니다. 두 가지를 결합하면 더 나은 결과를 얻을 수 있습니다.
이러한 방법의 작동 방식, 과제, 엣지 AI 배포에 적합한 접근 방식을 선택하는 방법을 이해하려면 계속 읽어보세요.
양자화는 표준 32비트 부동 소수점 값을 더 작은 하위 비트 형식으로 변환하여 AI 모델을 더욱 효율적으로 만드는 것입니다. 이 기술은 특히 리소스가 제한된 장치의 경우 메모리 사용량을 줄이고 계산 속도를 높이는 데 도움이 됩니다.
근본적으로 양자화는 신경망에서 숫자가 표현되는 방식을 단순화합니다. 대부분의 AI 모델은 32비트 부동 소수점 정밀도(FP32)를 사용합니다. 이는 높은 정확도를 제공하지만 막대한 메모리와 계산 요구 사항이 따릅니다. 예를 들어, 2,600만 개의 가중치와 1,600만 개의 활성화를 포함하는 50층 ResNet 모델은 FP32 값을 사용할 때 약 168MB를 차지합니다.
가장 중요한 정보를 유지하는 공식을 사용하여 이러한 FP32 값을 FP16, INT8 또는 INT4와 같은 정밀도가 낮은 형식에 매핑하여 양자화 단계를 진행합니다. 정밀도가 감소할 때마다 눈에 띄는 이점이 있습니다. 예를 들어, FP16에서 INT8로 전환하면 모델 가중치의 크기를 절반으로 줄일 수 있으며, FP16에 비해 INT8을 사용하면 메모리 액세스가 최대 4배 더 빨라질 수 있습니다. 이 중에서 INT8은 많은 응용 분야에서 더 작은 크기, 더 빠른 속도 및 안정적인 정확도 사이에서 최상의 균형을 유지하는 경우가 많습니다.
이러한 간결한 표현은 상당한 성능 향상을 달성하는 데 핵심입니다.
양자화는 더 작은 파일 크기, 더 빠른 메모리 전송, 전력 소비 감소 등 여러 가지 이점을 제공합니다. 이러한 이점은 스마트폰, IoT 시스템 등 제한된 배터리 전력을 사용하는 엣지 장치나 자율 주행 차량과 같은 실시간 애플리케이션에 특히 중요합니다.
실제로 양자화는 다양한 엣지 AI 시나리오에서 사용됩니다. 스마트폰은 실시간 사진 편집, 음성 인식 등의 작업에 양자화 모델을 사용합니다. 의료 분야에서 진단 장치는 알고리즘을 로컬로 처리하여 장치 자체에 민감한 데이터를 안전하게 유지합니다. 산업용 IoT 시스템은 예측 유지 관리 및 품질 검사를 위해 양자화된 모델을 사용하는 반면, 스마트 홈 장치는 이를 사용하여 엄격한 전력 제약 조건 내에서 작동하면서 음성 명령을 처리하거나 비디오 피드를 분석합니다.
양자화는 분명한 이점을 제공하지만 최적의 성능을 유지하기 위해 신중하게 관리해야 하는 과제도 발생합니다.
가장 큰 우려 중 하나는 정확도 손실입니다. 정밀도를 낮추면 특히 복잡한 작업의 경우 모델 성능이 저하될 수 있습니다. 정확도 손실 수준은 모델 아키텍처, 선택한 정밀도 형식, 현재 작업의 복잡성과 같은 요소에 따라 달라집니다.
또 다른 과제는 하드웨어 호환성입니다. 모든 에지 장치가 낮은 정밀도의 연산을 지원하는 것은 아니며 전체 정밀도 모델을 양자화된 모델로 변환하면 복잡성이 추가될 수 있습니다. 개발자는 더 간단하지만 정확도 손실이 더 높을 수 있는 PTQ(Post-Training Quantization)와 정확도를 더 잘 유지하지만 구현하는 데 더 많은 노력이 필요한 QAT(Quantization-Aware Training)와 같은 방법 중에서 선택해야 하는 경우가 많습니다.
교정은 또 다른 장애물입니다. 정확도 손실을 최소화하려면 실제 조건을 반영하는 대표적인 데이터 세트를 사용하여 모델을 미세 조정해야 합니다. 이 교정 프로세스는 시간이 많이 걸릴 수 있으며 추가 노력이 필요할 수 있습니다. 또한 정밀도가 낮은 형식에서는 디버깅 및 최적화가 더욱 까다로워지며 종종 전문적인 도구와 기술이 필요합니다.
성능과 정확성 사이의 균형을 유지하기 위해 개발자는 하이브리드 정밀 모델을 자주 사용합니다. 이러한 모델은 네트워크 내에서 다양한 정밀도 수준을 혼합하여 중요한 레이어를 더 높은 정밀도로 유지하면서 덜 민감한 작업에는 더 낮은 정밀도를 사용합니다.
MosChip의 수석 엔지니어인 Rakesh Nakod는 다음과 같이 지적합니다.
__XLATE_15__
"모델 양자화는 전력, 메모리, 컴퓨팅이 낮은 엣지 장치에서 AI 모델을 개발하고 배포할 때 매우 중요합니다. IoT 에코시스템에 인텔리전스를 원활하게 추가합니다."
양자화와 마찬가지로 가지치기는 에지 장치에 대한 기계 학습 모델을 최적화하는 전략입니다. 그러나 가지치기는 정밀도를 줄이는 대신 전체 성능에 거의 기여하지 않는 신경망 부분을 잘라내는 데 중점을 둡니다.
이 기술은 많은 신경망이 중복된 연결과 매개변수를 가지고 있다는 원리에 따라 작동합니다. 이러한 것들을 식별하고 제거함으로써 가지치기는 정확성 측면에서 큰 희생 없이 더 적은 리소스를 사용하는 보다 간결한 모델을 만듭니다. 결과는? 강력한 성능을 유지하면서 더 적은 계산 능력과 메모리를 소비하는 보다 효율적인 모델입니다.
가지치기에는 신경망에서 각 매개변수의 중요성을 평가하고 덜 중요하다고 간주되는 매개변수를 체계적으로 제거하는 작업이 포함됩니다. 일반적인 방법 중 하나는 크기 기반 가지치기(magnitude-based pruning)로, 거의 0에 가까운 가중치를 제거합니다. 이 프로세스는 일반적으로 모델을 훈련하고, 거의 0에 가까운 가중치를 제거하고, 다시 훈련하는 반복 주기를 따릅니다. 이러한 점진적인 접근 방식은 성능이 갑자기 저하될 위험을 최소화합니다.
가지치기에는 두 가지 주요 접근 방식이 있습니다.
가지치기 시기도 중요합니다. 모델이 완전히 훈련된 후에 훈련 후 가지치기가 적용되어 단순성을 제공합니다. 반면, 훈련 시간 가지치기는 가지치기를 훈련 프로세스에 통합하므로 더 나은 결과를 얻을 수 있지만 보다 정교한 구현이 필요합니다.
Pruning can significantly reduce the size of a model - sometimes by as much as 30–50%, and in some cases, up to 90% - without a notable loss in accuracy. This makes it a go-to technique for deploying models on memory-constrained edge devices like smartphones, IoT sensors, and embedded systems. Smaller models not only fit better on such devices but also run faster, which is essential for real-time applications like video analysis, autonomous vehicles, and speech recognition.
정리된 모델은 속도와 크기 이상의 이점을 제공합니다. 컴퓨팅 요구 사항을 줄임으로써 더 적은 전력을 사용하고 모바일 장치의 배터리 수명을 연장하며 클라우드 환경의 운영 비용을 절감합니다. 또한, 소형 모델은 데이터 전송에 더 적은 대역폭을 필요로 하며 이는 연결이 제한된 환경에서 획기적인 변화를 가져옵니다. 가지치기의 영향에 대한 실제 사례가 있습니다. 예를 들어 연합 학습(PruneFL)의 적응형 매개 변수 가지치기는 정확성을 유지하면서 훈련 시간을 단축했으며 일부 클라우드 에지 협업 시스템은 정확도 손실을 최소화하면서 대기 시간을 최대 84%까지 단축했습니다.
Pruning isn't without its challenges. One of the biggest concerns is accuracy degradation. If too many parameters are removed - especially beyond the 30–50% range - model performance can take a significant hit.
하드웨어 호환성도 문제를 야기합니다. 구조화된 가지치기는 표준 프로세서와 원활하게 작동하지만, 구조화되지 않은 가지치기에는 잠재력을 최대한 활용하기 위해 특수 하드웨어가 필요한 경우가 많습니다. 또한 가지치기에는 신중한 보정이 필요합니다. 개발자는 검증 세트에서 모델 성능을 지속적으로 평가하고 정리된 모델을 미세 조정하여 손실된 정확도를 복구해야 합니다. 로컬 가지치기(개별 연결을 대상으로 함)와 전역 가지치기(모델의 더 큰 부분 제거) 중에서 선택할 때 복잡성은 더욱 증가하며, 각각 고유한 장단점이 있습니다.
이러한 문제를 해결하기 위해 전문가들은 단순성을 위해 훈련 후 가지치기부터 시작할 것을 제안합니다. 정확도 손실이 문제가 되면 훈련 시간 가지치기를 시도해 볼 가치가 있습니다. 좋은 경험 법칙은 30% 가지치기 비율로 시작하고 급격한 성능 저하를 방지하기 위해 점진적으로 조정하는 것입니다. 신중하게 수행하면 양자화와 같은 가지치기가 성능과 에지 장치의 제약 조건 간의 균형을 유지하는 데 도움이 될 수 있습니다.
양자화와 가지치기가 어떻게 서로 겹쳐지는지 분석해 보겠습니다. 두 방법 모두 에지 장치에 대한 기계 학습 모델을 최적화하는 것을 목표로 하지만 접근 방식은 상당히 다릅니다.
양자화는 32비트 부동 소수점 숫자를 8비트 정수로 변환하여 정밀도를 줄이는 데 중점을 둡니다. 이는 주로 스토리지 절약과 빠른 계산을 목표로 합니다. 반면 가지치기는 모델에서 불필요한 가중치나 연결을 제거합니다. 본질적으로 양자화는 수치 정밀도를 단순화하는 반면, 가지치기는 중복을 제거하여 지방을 다듬습니다.
양자화와 가지치기의 차이점은 주요 기능을 나란히 비교해 보면 더 명확해집니다.
이러한 차이점은 성능 요구 사항과 하드웨어 제한 사항을 기반으로 결정을 내리는 데 도움이 됩니다.
양자화와 가지치기 사이를 결정하는 것은 목표와 제약 조건에 따라 크게 달라집니다. 양자화는 더 빠른 추론 속도가 중요한 시나리오, 특히 계산 리소스가 제한된 경우에 가장 적합합니다. 이는 정밀도가 감소해도 성능에 최소한의 영향을 미치기 때문에 컴퓨터 비전 모델에 특히 효과적입니다.
반면에 가지치기는 메모리가 제한된 환경에서 빛을 발합니다. 정리는 저장소와 RAM 사용량을 모두 줄임으로써 메모리 제한이 엄격한 장치에 이상적입니다. 가지치기는 중복 연결을 제거하여 일반화를 향상시킬 수 있으므로 과적합을 해결하는 데에도 훌륭한 옵션입니다.
하드웨어 설정도 큰 역할을 합니다. 조밀한 행렬 곱셈에 최적화된 GPU로 작업하는 경우 구조화된 가지치기가 이러한 기능에 잘 맞습니다. 희소 계산을 지원하는 특수 하드웨어 또는 소프트웨어의 경우 구조화되지 않은 가지치기는 더 나은 압축을 제공합니다.
선택은 응용 프로그램에 따라 달라집니다. 예를 들어 엣지 AI가 예측 유지 관리와 같은 작업을 처리하는 제조 분야에서는 양자화된 모델이 필요한 일관된 성능을 제공할 수 있습니다. 한편, 의료용 웨어러블에서는 정리된 모델을 사용하여 리소스 소비를 줄여 배터리 수명을 연장할 수 있습니다.
둘 중 하나를 선택하는 대신 최대 최적화를 위해 결합하는 것을 고려하십시오. 각각의 고유한 장점을 활용하면 최대 10배 더 작은 상당한 모델 압축을 달성할 수 있습니다.
이러한 결합된 접근 방식은 양자화가 나머지 가중치의 정밀도를 미세 조정하는 반면 가지치기는 불필요한 매개변수를 완전히 제거하기 때문에 효과적입니다. 이들은 함께 제한된 하드웨어에서도 강력한 성능을 제공하는 매우 효율적인 모델을 만듭니다.
그러나 절충안이 있습니다. 과도하게 최적화하면 정확성 문제나 하드웨어 호환성 문제가 발생할 수 있습니다. 이를 방지하려면 모든 단계에서 모델을 조정하고 테스트하는 것이 중요합니다. 좋은 출발점은 30% 감소로 훈련 후 가지치기를 적용한 다음 양자화를 수행하여 전반에 걸쳐 성능을 면밀히 모니터링하는 것입니다.
궁극적으로 접근 방식은 모델 아키텍처와 하드웨어 설정에 따라 달라집니다. 다양한 애플리케이션에는 다양한 전략이 필요하므로 이러한 기술을 결합할 때는 특정 요구 사항을 고려하십시오.
에지 장치에 최적화된 모델을 배포하려면 하드웨어 제약 조건, 애플리케이션 요구 사항 및 실제 환경의 과제를 탐색하기 위한 신중한 계획이 필요합니다.
효과적으로 최적화하려면 메모리, 컴퓨팅 성능, 배터리 수명 등 하드웨어의 한계에 맞게 전략을 조정해야 합니다. 이러한 요소는 모델을 미세 조정하는 데 사용할 기술을 형성합니다.
__XLATE_39__
"효과적인 엣지 AI 개발은 하드웨어의 사양과 기능 내에서 작업하는 데 달려 있습니다."
메모리 제약이 중심이 되는 경우가 많습니다. RAM이 제한된 장치는 추론 중에 메모리 사용량과 스토리지 수요를 모두 줄이는 정리의 이점을 누릴 수 있습니다. 반면, 메모리는 충분하지만 저장 공간이 부족한 경우 양자화만으로 요구 사항을 해결할 수 있습니다. 최적화 노력의 지침이 되는 모델 크기, 속도 및 정확성에 대한 기준 지표를 정의하는 것부터 시작하세요.
전력 소비는 특히 스마트폰 및 IoT 센서와 같은 배터리 구동 장치의 경우 또 다른 중요한 고려 사항입니다. 양자화는 전력 효율성을 크게 향상시킬 수 있습니다. 예를 들어, MobileNet의 양자화 인식 훈련은 추론 속도를 3배 높이는 동시에 배터리 사용량을 60% 줄였습니다. 따라서 배터리 수명이 최우선인 애플리케이션에 강력한 선택이 됩니다.
애플리케이션의 대기 시간 요구 사항도 최적화 경로에 영향을 미칩니다. 자율 주행 차량이나 산업 모니터링과 같은 실시간 시스템은 양자화의 속도 향상을 통해 이점을 얻습니다. 한편, 약간의 지연을 허용하지만 효율성을 우선시하는 애플리케이션은 압축 이점을 위해 가지치기 쪽으로 기울어질 수 있습니다.
배포 환경은 상황을 더욱 복잡하게 만듭니다. 구조화된 가지치기는 표준 GPU 및 CPU에서 잘 작동하는 반면, 구조화되지 않은 가지치기는 더 높은 압축률을 달성하지만 특수 하드웨어 또는 컴파일러 최적화에 의존하여 속도 향상을 제공합니다. 하드웨어 기능에 접근 방식을 일치시키는 것이 중요합니다.
장치 및 애플리케이션 요구 사항을 명확하게 이해하면 이러한 제약 조건에 맞는 최적화 도구를 선택할 수 있습니다.
Prompts.ai와 같은 플랫폼은 프로세스를 단순화하도록 설계된 기능을 통해 최적화 워크플로를 간소화합니다. AI 기반 도구는 보고, 문서화, 테스트를 자동화하는 동시에 실시간 협업을 통해 팀이 보다 효율적으로 작업할 수 있도록 해줍니다. 또한 플랫폼은 토큰화를 추적하고 종량제 인프라를 제공합니다. 이는 특히 최적화 프로젝트의 반복 특성에 유용합니다.
Qualcomm의 AIMET는 전문 도구의 또 다른 예입니다. 퀄컴에 따르면:
__XLATE_48__
"AIMET는 훈련된 신경망 모델에 고급 양자화 및 압축 기술을 제공하여 에지 장치에서 보다 효율적으로 실행할 수 있도록 해줍니다."
도구를 선택할 때 하드웨어 목표를 지원하고 강력한 벤치마킹 기능을 제공하는 도구에 중점을 두십시오. 여러 최적화 전략을 신속하게 테스트할 수 있는 도구는 시간을 절약하고 배포가 성능 기대치를 충족하는지 확인하는 데 도움이 됩니다.
올바른 도구를 통합함으로써 최적화 프로세스를 단순화할 뿐만 아니라 철저한 테스트를 위한 기반을 마련하여 모델이 실제 문제에 대비할 수 있도록 보장합니다.
최적화 기술을 하드웨어 및 애플리케이션 요구 사항에 맞게 조정한 후에는 실제 조건에서 엄격한 테스트가 필수적입니다. 실험실 결과는 성능에 영향을 미칠 수 있는 조명 변화, 네트워크 대기 시간, 열 제약과 같은 변수를 설명하지 못하는 경우가 많습니다.
개발 프로세스 초기에 실제 하드웨어를 테스트하는 것이 중요합니다. 에뮬레이터와 시뮬레이터는 도움이 되지만, 특히 전력 소비 및 열 동작과 같은 실제 조건을 완전히 재현할 수는 없습니다. 대상 장치에서 기본 측정을 캡처한 다음 각 최적화 단계 후에 개선 사항을 벤치마킹합니다.
강력한 성능을 보장하기 위해 극단적인 경우를 테스트합니다. 컴퓨터 비전 애플리케이션의 경우 여기에는 다양한 조명, 카메라 각도 또는 이미지 품질이 포함될 수 있습니다. 자연어 처리를 위해서는 다양한 억양, 배경 소음, 입력 형식을 고려하세요. 이러한 테스트는 앞서 설명한 실제 문제를 해결하는 데 도움이 됩니다.
회귀 테스트는 최적화된 모델을 업데이트할 때 매우 중요합니다. 가지치기 및 양자화와 같은 기술은 모델 동작을 미묘하게 변경할 수 있으므로 자동화된 테스트 스위트는 정확성과 성능 지표를 검증해야 합니다. 여러 최적화 방법을 결합할 때 상호 작용이 예상치 못한 결과를 초래할 수 있으므로 이는 특히 중요합니다.
모델 설명 가능성은 최적화 후 정확도 저하와 같은 문제를 진단하는 데도 도움이 될 수 있습니다. 모델의 어떤 구성 요소가 결정에 가장 큰 영향을 미치는지 이해하면 가지치기 전략을 안내하거나 양자화에 민감한 레이어를 강조할 수 있습니다.
마지막으로 배포 후 지속적인 모니터링 구현을 고려하세요. 엣지 장치는 초기 예상과 다른 작업 부하나 조건에 직면하는 경우가 많으며 열 제약과 같은 요인으로 인해 성능 변동이 발생할 수 있습니다. 모니터링 도구는 추론 시간, 정확성, 리소스 사용량과 같은 지표를 추적하여 모델이 의도한 대로 계속 작동하는지 확인해야 합니다.
검증 프로세스에서는 최적화 선택이 원래 목표와 일치하는지 확인해야 합니다. 예를 들어, 속도를 위해 양자화를 선택했지만 메모리 사용량이 문제가 된다면 가지치기를 추가해야 할 수도 있습니다. 반대로, 가지치기로 인해 정확도가 너무 많이 감소하는 경우 양자화 인식 교육이 더 나은 옵션이 될 수 있습니다.
에지 장치에 AI 모델을 배포할 때 양자화와 정리 사이의 선택은 특정 요구 사항과 제한 사항에 따라 크게 달라집니다. 두 접근 방식 모두 뚜렷한 이점을 제공하지만 서로 다른 시나리오에서 빛을 발합니다.
Quantization is often the go-to option for many edge deployments. It can shrink model size by as much as 4× and cut inference latency by up to 69%. This method is particularly useful when working with hardware that supports low-precision operations or when bandwidth is limited. Studies also suggest that quantization frequently delivers better efficiency without compromising too much on accuracy.
반면에 가지치기는 모델 크기를 줄이는 것이 최우선인 상황에 대한 강력한 선택입니다. 모델 크기를 최대 57%까지 자르고 추론 속도를 최대 46%까지 향상시킬 수 있습니다. 따라서 IoT 센서나 배터리로 작동되는 시스템과 같이 메모리 제약이 엄격한 장치에 매우 적합합니다.
흥미롭게도 두 기술을 결합하면 두 가지 방법 중 하나가 자체적으로 달성할 수 있는 것보다 훨씬 더 큰 압축 및 속도 향상이 이루어지는 경우가 많습니다. 그들은 함께 엄격한 리소스 제한을 유지하면서 모델에서 최고의 성능을 끌어내는 핵심 과제를 해결합니다.
When deciding which method to use, it’s essential to consider three main factors: hardware capabilities, application requirements, and accuracy tolerance. For devices using standard CPUs or GPUs, structured pruning can be easier to integrate. Meanwhile, hardware designed for low-precision calculations may benefit more from quantization.
Timing is another key consideration. If you’re working on a tight schedule, post-training quantization can be implemented faster, though it might slightly affect accuracy. For those who can afford a longer development timeline, quantization-aware training preserves accuracy better. Pruning, however, requires more iterative fine-tuning to maintain task performance.
2025년까지 기업에서 생성된 데이터의 75%가 엣지 장치에서 나올 것이라는 예측으로 인해 효율적인 메모리 최적화 전략에 대한 수요는 계속 증가할 것입니다. 최선의 선택을 하려면 기준 측정항목을 설정하는 것부터 시작하여 대상 하드웨어에서 두 가지 방법을 모두 테스트하고 정확성과 리소스 사용량 간의 균형을 가늠해 보세요.
프로세스를 단순화하기 위해 Prompts.ai와 같은 도구를 사용하면 최적화 노력을 간소화할 수 있습니다. 자동화된 보고 및 실시간 협업과 같은 기능을 갖춘 이러한 플랫폼은 팀이 개발 주기 전반에 걸쳐 전략을 보다 효과적으로 평가하고 성과 지표를 추적하는 데 도움이 될 수 있습니다.
To determine the most suitable optimization method for your edge AI model, start by defining your project’s goals and limitations. Quantization is a technique that reduces the precision of a model’s parameters. This approach minimizes memory usage and speeds up inference, making it an excellent option for devices where size and speed are top priorities. On the other hand, pruning focuses on removing unnecessary weights, which can significantly shrink the model and lower RAM requirements - especially useful for models with an abundance of parameters.
대부분의 경우 이 두 가지 방법을 결합하면 효율성과 정확성 사이의 완벽한 균형을 이룰 수 있습니다. 가지치기는 모델을 다듬고, 양자화는 성능 최적화를 한 단계 더 발전시킵니다. 이들은 함께 리소스가 제한된 장치에 배포하는 데 이상적인 가볍고 효율적인 모델을 만듭니다.
To make quantization and pruning work effectively on edge AI devices, the hardware needs to handle low-precision computations (like 8-bit or lower) and offer efficient memory management. Devices such as CPUs, GPUs, FPGAs, or ASICs are well-suited for this, particularly if they’re designed for sparse and quantized models or include specific instructions for low-precision arithmetic.
For smooth operation, the device should have at least 1–2 GB of RAM for handling intermediate computations, ample storage capacity (preferably SSDs), and solid power efficiency to sustain performance over time. Reliable connectivity options are also key for seamless integration and real-time processing. Hardware with these features is essential for achieving the best results in edge AI applications.
When you combine quantization and pruning, there’s a chance of losing accuracy. Why? Pruning cuts down the number of model parameters, and quantization simplifies numerical values. Together, these adjustments can sometimes stack up and amplify errors if not handled properly.
정확성을 그대로 유지하려면 다음과 같은 몇 가지 전략을 시도해 볼 수 있습니다.
이러한 방법을 사용하면 특히 엣지 AI 장치의 경우 메모리 절약, 계산 효율성 및 모델 성능 간의 균형을 유지할 수 있습니다.

