diff --git a/docs/source/ko/_toctree.yml b/docs/source/ko/_toctree.yml index 05031b31786a..c8332d9bb292 100644 --- a/docs/source/ko/_toctree.yml +++ b/docs/source/ko/_toctree.yml @@ -332,8 +332,8 @@ title: (번역중) Optimization - local: main_classes/output title: 모델 출력 - - local: in_translation - title: (번역중) PEFT + - local: main_classes/peft + title: PEFT - local: in_translation title: (번역중) Pipelines - local: in_translation diff --git a/docs/source/ko/main_classes/peft.md b/docs/source/ko/main_classes/peft.md new file mode 100644 index 000000000000..662b4b495fe4 --- /dev/null +++ b/docs/source/ko/main_classes/peft.md @@ -0,0 +1,23 @@ + + +# PEFT[[transformers.integrations.PeftAdapterMixin]] + +[`~integrations.PeftAdapterMixin`]은 Transformers 라이브러리와 함께 어댑터를 관리할 수 있도록 [PEFT](https://huggingface.co/docs/peft/index) 라이브러리의 함수들을 제공합니다. 이 믹스인은 현재 LoRA, IA3, AdaLora를 지원합니다. 프리픽스 튜닝 방법들(프롬프트 튜닝, 프롬프트 학습)은 torch 모듈에 삽입할 수 없는 구조이므로 지원되지 않습니다. + +[[autodoc]] integrations.PeftAdapterMixin + - load_adapter + - add_adapter + - set_adapter + - disable_adapters + - enable_adapters + - active_adapters + - get_adapter_state_dict