Skip to content

🌐 [i18n-KO] Translated compressed_tensor.md to Korean #39517

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
wants to merge 11 commits into
base: main
Choose a base branch
from

Conversation

maximizemaxwell
Copy link
Contributor

@maximizemaxwell maximizemaxwell commented Jul 19, 2025

What does this PR do?

Translated the compressed_tensor.md file of the documentation to Korean.
Thank you in advance for your review.

Part of #20179

Before reviewing

  • Check for missing / redundant translations (번역 누락/중복 검사)
  • Grammar Check (맞춤법 검사)
  • Review or Add new terms to glossary (용어 확인 및 추가)
  • Check Inline TOC (e.g. [[lowercased-header]])
  • Check live-preview for gotchas (live-preview로 정상작동 확인)

Who can review? (Initial)

May you please review this PR?
@4N3MONE, @yijun-lee, @jungnerd , @harheem

Before submitting

  • This PR fixes a typo or improves the docs (you can dismiss the other checks if that's the case).
  • Did you read the contributor guideline,
    Pull Request section?
  • Was this discussed/approved via a Github issue or the forum? Please add a link
    to it if that's the case.
  • Did you make sure to update the documentation with your changes? Here are the
    documentation guidelines, and
    here are tips on formatting docstrings.
  • Did you write any new necessary tests?

Who can review? (Final)

@4N3MONE
Copy link
Contributor

4N3MONE commented Jul 19, 2025

번역 고생하셨습니다.

번역하신 내용을 읽으면서 23,25,96라인에 씌여 있는 '활성화' 라는 표현이 적절하게 글의 원래 의도를 나타내고 있지 못한 것 같아서 이 부분을 어떻게 하면 더 적절하게 표현할 수 있을 지 고민해보면 좋을 것 같아요!

인터넷을 찾아봐도 적절한 표현이 없는 것 같아서 우선 고민해본 몇 가지 번역 제안을 드립니다.

활성화 양자화 -> 활성화 함수 기반 양자화
활성화 정밀도 -> 활성화 함수 출력 정밀도

@maximizemaxwell
Copy link
Contributor Author

제안해주신 단어를 반영하였고, line 96의 문장은 전반적으로 구조를 약간 바꾸었습니다,

@Rocketknight1
Copy link
Member

cc @stevhliu

Copy link
Contributor

@harheem harheem left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

은수님 좋은 번역 정말 감사합니다 ☺️
잘 읽히는 글이라 조금 욕심을 내서 수정 제안을 해보았습니다.

22~28 라인은 문장형인 것이 있고 단어로 끝나는 것이 있어서 단어로 끝나게 통일해보았습니다. 문장형으로 모두 통일하셔도 좋을 것 같아요! 편하게 의견주세요.


[compressed-tensors](https://github.com/neuralmagic/compressed-tensors)는 [safetensors](https://github.com/huggingface/safetensors) 파일을 압축된 텐서 데이터 타입으로 확장해서, dense, int 양자화(int8), float 양자화(fp8), pack 양자화(int32로 패킹된 int4 또는 int8 가중치 양자화) 등 다양한 양자화·sparse 형식을 하나의 체크포인트 형식으로 저장하고 불러올 수 있게 합니다.

compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 파인튜닝을 지원하며, 다음과 같은 기능들을 제공합니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 파인튜닝을 지원하며, 다음과 같은 기능들을 제공합니다.
compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 미세 조정을 지원하며, 다음과 같은 기능들을 제공합니다.

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

glossary에 따라 '미세 조정'으로 수정하였습니다


compressed-tensors는 [PEFT](https://huggingface.co/docs/peft)를 사용한 파인튜닝을 지원하며, 다음과 같은 기능들을 제공합니다.

- fp8, int4, int8 가중치 및 활성화 함수 출력 정밀도.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- fp8, int4, int8 가중치 및 활성화 함수 출력 정밀도.
- fp8, int4, int8 가중치 및 활성화 함수 출력 정밀도

Copy link
Member

@stevhliu stevhliu left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Thanks all, I'll merge once comments have been resolved! 🤗

maximizemaxwell and others added 4 commits July 22, 2025 01:20
@maximizemaxwell maximizemaxwell marked this pull request as ready for review July 22, 2025 12:06
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

5 participants