Transformers documentation
머신러닝 앱
시작하기
Base classes
추론(Inference)
학습(Training)
양자화(Quantization)
배포환경에 내보내기
(번역중) 개발자 가이드
(번역중) 경량화 메소드
(번역중) Getting startedbitsandbytesGPTQAWQ(번역중) AQLM(번역중) VPTQQuantoQuarkEETQ(번역중) HQQ(번역중) Optimum(번역중) Contribute new quantization method
(번역중) 성능 및 확장성
(번역중) QuantizationLLM 추론 최적화어텐션 행렬 캐싱 디버깅(번역중) Optimize inference using `torch.compile()`
(번역중) 효율적인 학습 기술들
(번역중) Methods and tools for efficient training on a single GPU다중 GPU에서 훈련 진행하기DeepSpeed완전 분할 데이터 병렬 처리CPU에서 훈련다중 CPU에서 훈련하기Apple 실리콘에서 PyTorch 학습훈련용 사용자 맞춤형 하드웨어Trainer API를 사용한 하이퍼파라미터 탐색
추론 최적화하기
리소스
🤗 Transformers에 기여하는 방법🤗 Transformers에 새로운 모델을 추가하는 방법어떻게 🤗 Transformers에 파이프라인을 추가하나요?테스트Pull Request에 대한 검사
기여하기
API
You are viewing v5.5.2 version. A newer version v5.8.1 is available.
머신러닝 앱
머신러닝 앱을 빠르고 쉽게 구축하고 공유할 수 있는 라이브러리인 Gradio는 Pipeline과 통합되어 추론을 위한 간단한 인터페이스를 빠르게 생성할 수 있습니다.
시작하기 전에 Gradio가 설치되어 있는지 확인하세요.
!pip install gradio
원하는 작업에 맞는 pipeline을 생성한 다음, Gradio의 Interface.from_pipeline 함수에 전달하여 인터페이스를 만드세요. Gradio는 Pipeline에 맞는 입력 및 출력 컴포넌트를 자동으로 결정합니다.
launch를 추가하여 웹 서버를 생성하고 앱을 시작하세요.
from transformers import pipeline
import gradio as gr
pipeline = pipeline("image-classification", model="google/vit-base-patch16-224")
gr.Interface.from_pipeline(pipeline).launch()웹 앱은 기본적으로 로컬 서버에서 실행됩니다. 다른 사용자와 앱을 공유하려면 launch에서 share=True로 설정하여 임시 공개 링크를 생성하세요. 더 지속적인 솔루션을 원한다면 Hugging Face Spaces에서 앱을 호스팅하세요.
gr.Interface.from_pipeline(pipeline).launch(share=True)아래 Space는 위 코드를 사용하여 생성되었으며, Spaces에서 호스팅됩니다.
Update on GitHub