R&D 551

AWS Ubuntu 22.04 & PyTorch & Llama2 설치

참조: https://github.com/samlhuillier/code-llama-fine-tune-notebook/blob/main/fine-tune-code-llama.ipynb 기본 환경: Python 3.10, cuda 11.8 EC2 Instance Type: g3s.xlarge GPU가 장착되어 있는 VM을 생성합니다. PyTorch 설치 root@ip-172-31-10-59:~# pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 Looking in indexes: https://download.pytorch.org/whl/cu118 Collecting torch Downloa..

R&D/AI 2023.11.14

Fine Tuning

Model 의 Fine Tuning 방법은 크게 두가지 종류가 있다. Full parameter fine-tuning pre-trained model 의 모든 layer 의 parameter에 대해서 fune-tuning 을 하는 방법 GPU resource를 많이 사용하며, 시간이 엄청 오래 걸리다는 단점이 있음 PEFT (Parameter Efficient Fine Tuning) 최소 비용과 리소스로 fune tuning 을 하는 방법 LoRA (Low Rank Adaptation) QLoRA (Quantized Low Rank Adaptation) - quantized 8-bit and 4-bit weights 모델이 로드됨 일반적으로 LoRA를 사용하며, GPU 리소스가 부족하다면 QLoRA를 사..

R&D/AI 2023.11.14

Linux Foundation Member Summit 2023 참관 후기

올해는 Linux Foundation Silver 맴버인 메가존클라우드의 오픈소스를 대표하는 자격이 아닌, Cloudforet 의 열렬한 지지자로 Linux Foundation Member Summit 2023에 참가하여, Cloudforet를 소개한 경험과 인상적인 순간들을 소개하고자 합니다. 세상에서 가장 큰 Software 회사는 Google도 아니고, Apple도 아니고, Microsoft도 아니고, Linux Foundation 이라는 말이 있습니다. Linux Foundation은 리눅스와 오픈 소스 기술 생태계를 지원하고 발전시키는 비영리 단체로, 전 세계에서 오픈 소스 프로젝트와 커뮤니티를 지원하며 기업 및 개발자들 간의 협력을 촉진하는 역할을 합니다. 리눅스 커널과 같은 핵심 오픈 소스 ..

R&D/클라우드 2023.11.07

Github Actions 연재 - Runner

Github Action은 Github 서버에서 가상머신을 실행한다고 생각하면 된다. 예를 들어 아래와 같은 action 파일이 존재할 때 "runs-on" 의 값이 어떤 가상머신에서 실행할지에 대한 내용이다. name: Github Runner test on: workflow_dispatch: inputs: select_box: type: choice description: "Choose ..." required: false default: Menu1 options: - Menu1 - Menu2 - Menu3 jobs: build: runs-on: ubuntu-latest steps: - name: checkout repo uses: actions/checkout@v2 그럼 현재 Github 에서는 L..

R&D/클라우드 2023.11.02

EKS internal NLB 사용하기

EKS 에서 Internal NLB로 Service를 구성하고 싶을 때 manifest apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/aws-load-balancer-type: nlb service.beta.kubernetes.io/aws-load-balancer-internal: "true" name: aws-internal-nlb labels: app: myapp spec: type: LoadBalancer ports: - name: "http" port: 80 targetPort: 80 selector: app: myapp 위와 같은 설정을 가지면 choonhoson# kubectl get service ..

R&D/클라우드 2021.03.17
728x90
반응형