Machine Learning
-
효율적인 AI 에이전트 개발을 위한 4단계 체크리스트Machine Learning 2024. 12. 9. 16:50
1단계: 문제 정의 및 데이터 준비AI 에이전트의 목적에 맞는 문제를 명확히 정의하고, 관련 데이터를 수집 및 준비하는 단계입니다.목적 정의AI 에이전트가 수행해야 할 특정 목적, 과제, 목표를 명확히 설정합니다.데이터 수집학습 및 평가를 위해 과제에 적합한 다양하고 대표적인 데이터를 수집합니다.데이터 정제모델 학습의 정확도를 높이기 위해 불필요하거나 품질이 낮은 데이터를 제거합니다.특징 엔지니어링에이전트의 도메인에 적합한 핵심 특징을 식별하고 이를 학습 가능하도록 전처리합니다.지식 베이스 설정에이전트가 활용할 수 있는 태스크 관련 지식(예: 시맨틱 검색 데이터베이스 또는 그래프 기반 지식)을 체계적으로 구축합니다.2단계: 모델 미세 조정 및 통합AI 모델을 선택하고 과제에 맞게 조정한 후, 시스템 환경..
-
Llama3 출시 및 사용법, fine-tuning codeMachine Learning 2024. 4. 19. 16:19
https://ai.meta.com/blog/meta-llama-3/ Introducing Meta Llama 3: The most capable openly available LLM to date In the development of Llama 3, we looked at model performance on standard benchmarks and also sought to optimize for performance for real-world scenarios. To this end, we developed a new high-quality human evaluation set. This evaluation set contains 1,800 ai.meta.com 2024년 04월 19일 새벽에 ..
-
AI의 잠재력을 최대한 발휘하다: 효과적인 LLM Prompt(프롬프트) 작성법Machine Learning 2023. 11. 7. 16:13
인공지능의 발전은 우리의 상상력을 현실로 만드는 데 한걸음 더 다가가게 해주었습니다. Large Language Models (LLM)은 특히 텍스트 기반 작업을 자동화하고 인간처럼 소통할 수 있는 능력을 제공합니다. 그러나 이 기술의 놀라운 잠재력을 최대한 활용하기 위해서는 올바른 프롬프트 작성이 필수적입니다. 이 블로그에서는 LLM에 사용할 프롬프트를 효과적으로 작성하는 방법에 대해 상세하게 설명해 드리겠습니다. 클리어하고 구체적인 목표 설정 명확성: 프롬프트는 LLM에게 분명한 지시를 제공해야 합니다. 무엇을 요청하는지, 어떤 정보가 필요한지, 또는 어떤 종류의 작업을 완수해야 하는지 명확히 하세요. 구체성: 가능한 한 구체적이어야 합니다. "비즈니스 이메일 작성"보다는 "고객에게 새로운 상품 출시..
-
Transformer의 설명이 좋은 글 공유Machine Learning 2023. 8. 4. 09:10
https://deeprevision.github.io/posts/001-transformer/ AI Research Blog - The Transformer Blueprint: A Holistic Guide to the Transformer Neural Network Architecture A deep dive into Transformer a neural network architecture that was introduced in the famous paper “attention is all you need” in 2017, its applications, impacts, challenges and future directions deeprevision.github.io 사실상 LLM의 기초가 되는..
-
LLM Model의 새로운 Fine-tuning 방식 - LoRA TuningMachine Learning 2023. 7. 28. 09:47
사실 이 개념은 나온지는 오래된 개념이지만Bert, RoBERTa처럼 그렇게 크지 않은 모델을 사용할 때는 그냥 Full-fine tuning을 진행하지 굳이 LoRA를 사용하지는 않았습니다.Bert-Base: 450M, RoBERTa: 1.3GB 정도입니다.Llama가 나오면서 이 모델들을 Full Fine tuning을 하기에는 컴퓨팅 소스가 매우 크기 때문에 LoRA가 빛을 발했다고 저는 생각합니다.개념은 기존의 Pre-trained Layer의 가중치는 고정을 한체, 새로운 레이어의 가중치만을 학습을 시키는데도, 실제 성능의 차이가 많지 않다고 합니다.동작 방식은 기존 LLM Model은 RAM에 저장을 하고 CPU inference만 진행하고, LoRA 가중치는 GPU에 저장을 해서 학습을 진행..
-
LLM Model을 가정 GPU에서 사용하는 방법 - Quantization 방법론 - GPTQMachine Learning 2023. 7. 28. 09:32
Model 32bit 4bit 32g Llama 7B 13GB 4GB Llama 13B 26GB 8GB Llama 30B 66GB 19.4GB 이미 파라미터 수가 13B 넘어서는 순간부터는 가정에서 쓰이는 GPU로는 돌릴 수가 없는 모델이죠 4090 기준으로도 GPU Memory는 24GB이기 때문에 이론상 7B Model만 사용 가능합니다. 하지만 Quantization 기술을 활용하면 성능을 조금 포기하고, 매우 큰 LLM Model도 GPU에 Load하여 사용할 수 있습니다. 실제로도 HuggingFace에 "TheBloke" 라는 이름으로 매번 새로운 Fine-tune 모델들이 올라오면 Quantization 한 후에 prompt까지 제공을 해주는 아주 고마운 분들이 있죠, 덕분에 저희는 이미 Q..
-
Llama 2 설명 및 ChatGPT를 활용한 논문 요약Machine Learning 2023. 7. 19. 09:17
2023년 7월 18일 Meta에서 Llama 2 버전을 출시하였습니다. 1 버전과 다른 점은 "진짜" 오픈소스라는 점! 공개된 버전은 7B, 13B, 70B Token의 수는 1 버전보다 늘어난 4096 학습된 Token의 수는 1조개에서 늘어난 2조개..ㄷㄷㄷ Fine-tuning 방식도 RLHF + Human Feedback을 추가했다고 하네요. 그리고 이번에는 Chat Model도 출시가 됐기 때문에 Queatization만 잘하면 바로 사용도 가능한 모델이라고 생각됩니다. 4Bit, 128g 나오면 바로 써봐야 겠네요 ㅎㅎ 휴먼 피드백에서 민감한 내용은 제외하게 학습을 해서, 모델 자체도 안전해졌다고 하네요. 꼭 한번 읽어보시길 바랍니다. 아쉽지만 학습된 데이터는 거의 영어네요..ㅠㅠ 성능 자체..
-
배치 크기(batch size)를 늘리는 방법Machine Learning 2023. 4. 4. 16:20
RoBERTa 모델을 학습할 때 배치 크기(batch size)를 늘리는 방법은 크게 두 가지입니다. 하이퍼파라미터 조정: RoBERTa를 학습할 때 사용하는 코드나 구성 파일에서 batch_size 하이퍼파라미터를 변경하여 배치 크기를 조정할 수 있습니다. 이렇게 변경하면 RoBERTa 모델의 학습 과정에서 한 번에 처리되는 데이터 샘플 수가 증가하게 됩니다. 예를 들어, 배치 크기를 32에서 64로 늘리고자 한다면 batch_size 값을 64로 변경해야 합니다. 그래디언트 축적 (Gradient Accumulation): 모델의 메모리 사용량에 제한이 있거나, 현재 배치 크기를 더 늘릴 수 없는 경우에는 그래디언트 축적 기법을 사용할 수 있습니다. 이 방법은 여러 미니 배치의 그래디언트를 축적한 후..