Skip to content

🌐 [i18n-KO] Translated compressed_tensor.md to Korean #39517

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
wants to merge 11 commits into
base: main
Choose a base branch
from

Conversation

maximizemaxwell
Copy link
Contributor

@maximizemaxwell maximizemaxwell commented Jul 19, 2025

What does this PR do?

Translated the compressed_tensor.md file of the documentation to Korean.
Thank you in advance for your review.

Part of #20179

Before reviewing

  • Check for missing / redundant translations (번역 누락/중복 검사)
  • Grammar Check (맞춤법 검사)
  • Review or Add new terms to glossary (용어 확인 및 추가)
  • Check Inline TOC (e.g. [[lowercased-header]])
  • Check live-preview for gotchas (live-preview로 정상작동 확인)

Who can review? (Initial)

May you please review this PR?
@4N3MONE, @yijun-lee, @jungnerd , @harheem

Before submitting

  • This PR fixes a typo or improves the docs (you can dismiss the other checks if that's the case).
  • Did you read the contributor guideline,
    Pull Request section?
  • Was this discussed/approved via a Github issue or the forum? Please add a link
    to it if that's the case.
  • Did you make sure to update the documentation with your changes? Here are the
    documentation guidelines, and
    here are tips on formatting docstrings.
  • Did you write any new necessary tests?

Who can review? (Final)

@4N3MONE
Copy link
Contributor

4N3MONE commented Jul 19, 2025

번역 고생하셨습니다.

번역하신 내용을 읽으면서 23,25,96라인에 씌여 있는 '활성화' 라는 표현이 적절하게 글의 원래 의도를 나타내고 있지 못한 것 같아서 이 부분을 어떻게 하면 더 적절하게 표현할 수 있을 지 고민해보면 좋을 것 같아요!

인터넷을 찾아봐도 적절한 표현이 없는 것 같아서 우선 고민해본 몇 가지 번역 제안을 드립니다.

활성화 양자화 -> 활성화 함수 기반 양자화
활성화 정밀도 -> 활성화 함수 출력 정밀도

@maximizemaxwell
Copy link
Contributor Author

제안해주신 단어를 반영하였고, line 96의 문장은 전반적으로 구조를 약간 바꾸었습니다,

@Rocketknight1
Copy link
Member

cc @stevhliu

Copy link
Contributor

@harheem harheem left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

은수님 좋은 번역 정말 감사합니다 ☺️
잘 읽히는 글이라 조금 욕심을 내서 수정 제안을 해보았습니다.

22~28 라인은 문장형인 것이 있고 단어로 끝나는 것이 있어서 단어로 끝나게 통일해보았습니다. 문장형으로 모두 통일하셔도 좋을 것 같아요! 편하게 의견주세요.


[compressed-tensors](https://github.com/neuralmagic/compressed-tensors)[safetensors](https://github.com/huggingface/safetensors) 파일을 압축된 텐서 데이터 타입으로 확장해서, dense, int 양자화(int8), float 양자화(fp8), pack 양자화(int32로 패킹된 int4 또는 int8 가중치 양자화) 등 다양한 양자화·sparse 형식을 하나의 체크포인트 형식으로 저장하고 불러올 수 있게 합니다.

compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 파인튜닝을 지원하며, 다음과 같은 기능들을 제공합니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 파인튜닝을 지원하며, 다음과 같은 기능들을 제공합니다.
compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 미세 조정을 지원하며, 다음과 같은 기능들을 제공합니다.

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

glossary에 따라 '미세 조정'으로 수정하였습니다


compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 파인튜닝을 지원하며, 다음과 같은 기능들을 제공합니다.

- fp8, int4, int8 가중치 및 활성화 함수 출력 정밀도.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- fp8, int4, int8 가중치 및 활성화 함수 출력 정밀도.
- fp8, int4, int8 가중치 및 활성화 함수 출력 정밀도

Copy link
Member

@stevhliu stevhliu left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Thanks all, I'll merge once comments have been resolved! 🤗

maximizemaxwell and others added 4 commits July 22, 2025 01:20
@maximizemaxwell maximizemaxwell marked this pull request as ready for review July 22, 2025 12:06
Copy link
Contributor

@jungnerd jungnerd left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

일부 리뷰해보았습니다. 참고 부탁드려요!


# compressed-tensors[[compressed-tensors]]

[compressed-tensors](https://github.com/neuralmagic/compressed-tensors)[safetensors](https://github.com/huggingface/safetensors) 파일을 압축된 텐서 데이터 타입으로 확장해서, dense, int 양자화(int8), float 양자화(fp8), pack 양자화(int32로 패킹된 int4 또는 int8 가중치 양자화) 등 다양한 양자화·sparse 형식을 하나의 체크포인트 형식으로 저장하고 불러올 수 있게 합니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
[compressed-tensors](https://github.com/neuralmagic/compressed-tensors)[safetensors](https://github.com/huggingface/safetensors) 파일을 압축된 텐서 데이터 타입으로 확장해서, dense, int 양자화(int8), float 양자화(fp8), pack 양자화(int32로 패킹된 int4 또는 int8 가중치 양자화) 등 다양한 양자화·sparse 형식을 하나의 체크포인트 형식으로 저장하고 불러올 수 있게 합니다.
[compressed-tensors](https://github.com/neuralmagic/compressed-tensors)[safetensors](https://github.com/huggingface/safetensors) 파일을 압축된 텐서 데이터 타입으로 확장해서, dense, int 양자화(int8), float 양자화(fp8), pack 양자화(int32로 패킹된 int4 또는 int8 가중치 양자화) 등 다양한 양자화 및 희소성 형식을 하나의 체크포인트 형식으로 저장하고 불러올 수 있게 합니다.

아래에서 Weight sparsity를 가중치 희소성으로 번역해주셔서 통일감을 주고자 원문의 sparsity format을 '희소성 형식'으로 수정해봤습니다.


## 모델 체크포인트[[model-checkpoint]]

compressed-tensor 모델은 설정 항목을 통해 정의됩니다. 다음 예시는 [nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf](https://huggingface.co/nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf/blob/main/config.json) `config.json` 파일에서 가져온 것입니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
compressed-tensor 모델은 설정 항목을 통해 정의됩니다. 다음 예시는 [nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf](https://huggingface.co/nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf/blob/main/config.json) `config.json` 파일에서 가져온 것입니다.
compressed-tensor 모델은 설정 항목을 통해 정의됩니다. 다음은 [nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf](https://huggingface.co/nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf/blob/main/config.json) `config.json` 파일에서 가져온 예시입니다.

한 번 다르게 번역해봤습니다. 참고해 주세요!

},
```

구성 파일은 구성 그룹(`group_0`)에 대해 정적 per-tensor 전략으로 가중치와 활성화 함수 기반 값을 fp8로 양자화하도록 지정합니다. `ignore` 키에 명시된 것처럼 `lm_head` 모듈은 양자화되지 않습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
구성 파일은 구성 그룹(`group_0`)에 대해 정적 per-tensor 전략으로 가중치와 활성화 함수 기반 값을 fp8로 양자화하도록 지정합니다. `ignore` 키에 명시된 것처럼 `lm_head` 모듈은 양자화되지 않습니다.
구성 파일은 구성 그룹(`group_0`)에 대해 텐서별 정적 전략으로 가중치와 활성화 함수 기반 값을 fp8로 양자화하도록 지정합니다. `ignore` 키에 명시된 것처럼 `lm_head` 모듈은 양자화되지 않습니다.

위에서 Dynamic per-token activation토큰별 동적 활성화 함수로 번역해 주셔서 비슷하게 번역해보았습니다. (텐서별 정적 전략 이라는 표현이 조금 어색하긴 하네요 😆)

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

6 participants