torchtune 은 대규모 언어 모델 (LLM) 의 작성, 파인튜닝 및 실험 프로세스를 간소화하도록 설계된 PyTorch 기반 라이브러리입니다. 또한, torchtune은 W&B를 이용한 로그 기록 을 기본적으로 지원하여 트레이닝 프로세스의 추적 및 시각화 기능을 강화합니다.Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-update-training-api-26.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.

손쉬운 W&B 로그 기록
- 커맨드라인
- Recipe
Launch 시 커맨드라인 인수를 오버라이드합니다:
W&B 메트릭 로거 사용하기
레시피 설정 파일의metric_logger 섹션을 수정하여 W&B 로그 기록을 활성화하세요. _component_ 를 torchtune.utils.metric_logging.WandBLogger 클래스로 변경합니다. 또한 로그 기록 행동을 커스텀하기 위해 project 이름과 log_every_n_steps 를 전달할 수 있습니다.
wandb.init() 메소드와 마찬가지로 다른 kwargs 를 전달할 수도 있습니다. 예를 들어, 팀 단위로 작업하는 경우 WandBLogger 클래스에 entity 인수를 전달하여 팀 이름을 지정할 수 있습니다.
- Recipe
- 커맨드라인
무엇이 로그되나요?
W&B 대시보드를 탐색하여 로그된 메트릭을 확인할 수 있습니다. 기본적으로 W&B는 설정 파일 및 Launch 오버라이드에서 모든 하이퍼파라미터를 로그합니다. W&B는 Overview 탭에서 확정된 설정을 캡처합니다. 또한 W&B는 Files 탭 에 YAML 형식으로 설정을 저장합니다.
로그된 메트릭
각 레시피에는 고유한 트레이닝 루프가 있습니다. 개별 레시피를 확인하여 로그된 메트릭을 확인하세요. 기본적으로 포함되는 메트릭은 다음과 같습니다:| 메트릭 | 설명 |
|---|---|
loss | 모델의 손실 값 |
lr | 러닝 레이트 (Learning rate) |
tokens_per_second | 모델의 초당 토큰 처리량 |
grad_norm | 모델의 그레이디언트 노름 |
global_step | 트레이닝 루프의 현재 단계에 해당합니다. 그레이디언트 누적(gradient accumulation)을 고려하며, 기본적으로 옵티마이저 단계가 실행될 때마다 모델이 업데이트되고, 그레이디언트가 누적되어 gradient_accumulation_steps 마다 모델이 업데이트됩니다. |
global_step 은 트레이닝 단계의 수와 동일하지 않습니다. 이는 트레이닝 루프의 현재 단계에 해당합니다. 그레이디언트 누적을 고려하여, 옵티마이저 단계가 실행될 때마다 global_step 이 1씩 증가합니다. 예를 들어, 데이터로더에 10개의 배치가 있고, 그레이디언트 누적 단계가 2이며 3 에포크 동안 실행된다면, 옵티마이저는 15번 단계를 밟게 되며 이 경우 global_step 은 1에서 15까지의 범위를 갖게 됩니다.current_epoch 를 계산하여 로그할 수 있습니다:
이 라이브러리는 빠르게 발전하고 있으므로 현재 메트릭은 변경될 수 있습니다. 커스텀 메트릭을 추가하려면 레시피를 수정하고 해당
self._metric_logger.* 함수를 호출해야 합니다.체크포인트 저장 및 로드
torchtune 라이브러리는 다양한 체크포인트 형식 을 지원합니다. 사용하는 모델의 출처에 따라 적절한 checkpointer 클래스 로 전환해야 합니다. 모델 체크포인트를 W&B Artifacts 에 저장하고 싶다면, 가장 간단한 방법은 해당 레시피 내부의save_checkpoint 함수를 오버라이드하는 것입니다.
다음은 모델 체크포인트를 W&B Artifacts 에 저장하기 위해 save_checkpoint 함수를 오버라이드하는 방법의 예시입니다.