parent
219ad09569
commit
db02ddbc62
@ -0,0 +1,16 @@
|
|||||||
|
import torch
|
||||||
|
from transformers import AutoTokenizer, AutoModelForCausalLM
|
||||||
|
import os
|
||||||
|
|
||||||
|
cache_dir = "./models"
|
||||||
|
model_id = "NousResearch/Meta-Llama-3.1-8B"
|
||||||
|
|
||||||
|
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
||||||
|
model = AutoModelForCausalLM.from_pretrained(
|
||||||
|
model_id,
|
||||||
|
cache_dir=cache_dir,
|
||||||
|
torch_dtype=torch.float32, # Использование float32 для CPU
|
||||||
|
device_map=None # Явное указание, что модель не будет использовать GPU
|
||||||
|
)
|
||||||
|
|
||||||
|
model.to("cpu")
|
Loading…
Reference in new issue