-
Llama3 출시 및 사용법, fine-tuning codeMachine Learning 2024. 4. 19. 16:19반응형
https://ai.meta.com/blog/meta-llama-3/
2024년 04월 19일 새벽에 출시된 Llama3 입니다.
성능은 gemma, mistral 7b 보다 좋다고 하니깐 사실상 현존하는 sLLM 중에서는 가장 성능이 좋을 듯 하네요.
70B 기준으로도 클로드3의 sonnet, mistral medium과 gpt-3.5까지 이기는 모습을 보이네요.
짧게 요약하자면 최대 토큰 8,192 tokens
vocab size 128k, GQA(group query attention) 사용
굉장히 질 좋은 데이터셋으로 Pre-trained 진행 총 학습 토큰은 15T tokens(15조 토큰 갯수)
24k(24,000)개의 GPU Cluster 구성 학습
다국어 데이터(30국어) 학습
instruct model의 학습 방법은 SFT -> PPO -> DPO 사용
그리고 400B 짜리 모델도 학습 중인 것으로... 성능은 굉장히 높음
대략적인 모델들의 성능은 다음 페이지 참고:
https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu
fine-tuning code는 일반적인 16gb GPU 기준으로 unsloth 패키지를 사용해서, 학습하면 될 듯 합니다.
unsloth는 04/19 기준으로 아직 DDP 지원이 안됨(multi gpu) 1개 GPU만 가능
https://github.com/unslothai/unsloth.git
https://colab.research.google.com/drive/135ced7oHytdxu3N2DNe1Z0kqjyYIkDXp?usp=sharing
끝.
반응형'Machine Learning' 카테고리의 다른 글
효율적인 AI 에이전트 개발을 위한 4단계 체크리스트 (2) 2024.12.09 AI의 잠재력을 최대한 발휘하다: 효과적인 LLM Prompt(프롬프트) 작성법 (0) 2023.11.07 Transformer의 설명이 좋은 글 공유 (0) 2023.08.04 LLM Model의 새로운 Fine-tuning 방식 - LoRA Tuning (0) 2023.07.28 LLM Model을 가정 GPU에서 사용하는 방법 - Quantization 방법론 - GPTQ (1) 2023.07.28