Ollama သည် ယခုအခါ အတည်ပြုထားသော Docker ပုံရိပ်အဖြစ် ရရှိနိုင်ပါပြီ
အောက်တိုဘာ ၅၊ ၂၀၂၃
Ollama သည် ယခုအခါ အတည်ပြုထားသော Docker ပုံရိပ်အဖြစ် ရရှိနိုင်ပါပြီ
Ollama သည် ယခုအခါ အတည်ပြုထားသော Docker အထောက်အပံ့ ဖွင့်လှစ်ရင်းမြစ်ပုံရိပ် အဖြစ် ရရှိနိုင်ကြောင်း မျှဝေရန် ဝမ်းသာပါသည်။ ၎င်းသည် Docker ကွန်တိန်နာများကို အသုံးပြု၍ ကြီးမားသော ဘာသာစကားမော်ဒယ်များနှင့် အလုပ်လုပ်ရန် ပိုမိုလွယ်ကူစေပါသည်။
Ollama နှင့်အတူ သင်၏ အကြီးစား ဘာသာစကား မော်ဒယ်များနှင့် ဆက်သွယ်မှုများသည် တည်နေရာတွင် ဖြစ်ပျက်ပြီး ကိုယ်ရေးအချက်အလက်များကို တတိယပါတီ ဝန်ဆောင်မှုများသို့ မပို့ပါ။
Mac တွင်
Ollama သည် GPU အမြန်နှုန်းဖြင့် မော်ဒယ်ကို လည်ပတ်ရန် ကိုင်တွယ်သည်။ ၎င်းသည် သင်၏ အက်ပလီကေးရှင်းများနှင့် ဆက်သွယ်ရန် ရိုးရှင်းသော CLI နှင့် REST API နှစ်ခုလုံးကို ပံ့ပိုးပေးသည်။
စတင်ရန်၊ ဒေါင်းလုပ် လုပ်ပြီး Ollama ကို ထည့်သွင်းပါ။
Mac တွင် Ollama ကို Docker ကွန်တိန်နာများအပြင် standalone application အဖြစ် လည်ပတ်ပါ၊ အကြောင်းမှာ Docker Desktop သည် GPU များကို ထောက်ပံ့မထားပါ။
Linux တွင်
Ollama သည် Nvidia GPU များအတွက် Docker ကွန်တိန်နာများအတွင်း GPU အမြန်နှုန်းဖြင့် လည်ပတ်နိုင်သည်။
Docker image ကို အသုံးပြုရန် စတင်ရန် အောက်ပါ အမိန့်များကို အသုံးပြုပါ။
CPU သာ
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Nvidia GPU
Nvidia container toolkit ကိုติดตั้งပါ။
Docker container အတွင်း Ollama ကို run လုပ်ပါ။
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
မော်ဒယ်တစ်ခုကို လည်ပတ်ပါ
ယခု သင်သည် ကွန်တိန်နာအတွင်း Llama 2 ကဲ့သို့သော မော်ဒယ်တစ်ခုကို လည်ပတ်နိုင်ပါပြီ။
docker exec -it ollama ollama run llama2
Ollama library တွင် မော်ဒယ်များ ပိုမို ရှာဖွေနိုင်ပါသည်။
Ollama ၏ Discord တွင် အခြားအသိုင်းအဝိုင်းဝင်များ၊ ထိန်းသိမ်းသူများနှင့် အထောက်အကူပြုသူများနှင့် ဆွေးနွေးရန် ပါဝင်ပါ။
Ollama ကို Twitter တွင်လိုက်နာပါ အချက်အလက်များအတွက်။