ideal insane

Resistance ∙ Pioneer ∙ 생산자

Mac OS

로컬 환경에서 LLM 사용하기 - llama3.1

Idealinsane 2024. 7. 25. 15:53
728x90
 

Ollama

Get up and running with large language models.

ollama.com

로컬 환경에서 LLM을 다운로드하여 사용하는 과정에는 번거로운 작업이 많다.
Ollama라는 오픈소스를 통해 다양한 LLM을 편리하게 다운로드하여 사용할 수 있다.
Ollama로 llama3.1을 사용해 보는 과정을 알아보자.

  

위 주소에서 Ollama를 다운받아 설치하면, 터미널에서 `ollama` 를 통해 LLM을 사용할 수 있다.

먼저 사용할 모델을 다운받기 위해 라이브러리를 찾아본다.

 

library

Get up and running with large language models.

ollama.com

나는 llama3.1을 사용할 것이다.

llama3.1은 파라미터 크기별로 3가지 모델을 볼 수 있다. 
로컬에서 감당 가능한 용량을 확인하여 고르면 될 것 같다.
8b 시험으로 사용해보고, 231GB 용량의 405b 모델을 설치했다.
=> 자체 용량과 별개로 램 부족 때문에 안 돌아간다. 택도 없는 것 같다.

아래 터미널 명령을 통해 해당 모델을 실행할 수 있다. 모델이 없으면 다운로드가 진행된다.

ollama run llama3.1

 

다운로드 속도는 70 ~ 100 MB/s 사이로 나오는 듯 하다.

사용해 보기

입력 값: What is different between Big Endian and Little Endian. respond by 한국어

8B 모델

 

로컬 LLM의 꽃은 파인튜닝 아니겠는가? (사실 모름)
다음에 파인튜닝을 알아봐야겠다.

참고

 

Ollama란? Ollama 사용법: 내 PC에서 무료로 LLM 실행하기 | 코딩추월차선

Ollama를 사용하여 내 PC에서 무료로 대형 언어 모델(LLM)을 실행하는 방법을 알아봅니다. 설치부터 사용법까지 자세히 설명합니다.

www.developerfastlane.com

 

반응형