This is a bilingual snapshot page saved by the user at 2025-7-8 16:53 for https://ollama.com/blog/ollama-is-now-available-as-an-official-docker-image, provided with bilingual support by Immersive Translate. Learn how to save?

Ollama သည် ယခုအခါ အတည်ပြုထားသော Docker ပုံရိပ်အဖြစ် ရရှိနိုင်ပါပြီ

အောက်တိုဘာ ၅၊ ၂၀၂၃

Ollama သည် ယခုအခါ အတည်ပြုထားသော Docker ပုံရိပ်အဖြစ် ရရှိနိုင်ပါပြီ

Ollama သည် ယခုအခါ အတည်ပြုထားသော Docker အထောက်အပံ့ ဖွင့်လှစ်ရင်းမြစ်ပုံရိပ် အဖြစ် ရရှိနိုင်ကြောင်း မျှဝေရန် ဝမ်းသာပါသည်။ ၎င်းသည် Docker ကွန်တိန်နာများကို အသုံးပြု၍ ကြီးမားသော ဘာသာစကားမော်ဒယ်များနှင့် အလုပ်လုပ်ရန် ပိုမိုလွယ်ကူစေပါသည်။

Ollama နှင့်အတူ သင်၏ အကြီးစား ဘာသာစကား မော်ဒယ်များနှင့် ဆက်သွယ်မှုများသည် တည်နေရာတွင် ဖြစ်ပျက်ပြီး ကိုယ်ရေးအချက်အလက်များကို တတိယပါတီ ဝန်ဆောင်မှုများသို့ မပို့ပါ။

Mac တွင်

Ollama သည် GPU အမြန်နှုန်းဖြင့် မော်ဒယ်ကို လည်ပတ်ရန် ကိုင်တွယ်သည်။ ၎င်းသည် သင်၏ အက်ပလီကေးရှင်းများနှင့် ဆက်သွယ်ရန် ရိုးရှင်းသော CLI နှင့် REST API နှစ်ခုလုံးကို ပံ့ပိုးပေးသည်။

စတင်ရန်၊ ဒေါင်းလုပ် လုပ်ပြီး Ollama ကို ထည့်သွင်းပါ။

Mac တွင် Ollama ကို Docker ကွန်တိန်နာများအပြင် standalone application အဖြစ် လည်ပတ်ပါ၊ အကြောင်းမှာ Docker Desktop သည် GPU များကို ထောက်ပံ့မထားပါ။

Linux တွင်

Ollama သည် Nvidia GPU များအတွက် Docker ကွန်တိန်နာများအတွင်း GPU အမြန်နှုန်းဖြင့် လည်ပတ်နိုင်သည်။

Docker image ကို အသုံးပြုရန် စတင်ရန် အောက်ပါ အမိန့်များကို အသုံးပြုပါ။

CPU သာ

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Nvidia GPU

  1. Nvidia container toolkit ကိုติดตั้งပါ။
  2. Docker container အတွင်း Ollama ကို run လုပ်ပါ။
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

မော်ဒယ်တစ်ခုကို လည်ပတ်ပါ

ယခု သင်သည် ကွန်တိန်နာအတွင်း Llama 2 ကဲ့သို့သော မော်ဒယ်တစ်ခုကို လည်ပတ်နိုင်ပါပြီ။

docker exec -it ollama ollama run llama2

Ollama library တွင် မော်ဒယ်များ ပိုမို ရှာဖွေနိုင်ပါသည်။

Ollama ၏ Discord တွင် အခြားအသိုင်းအဝိုင်းဝင်များ၊ ထိန်းသိမ်းသူများနှင့် အထောက်အကူပြုသူများနှင့် ဆွေးနွေးရန် ပါဝင်ပါ။

Ollama ကို Twitter တွင်လိုက်နာပါ အချက်အလက်များအတွက်။