1. KoRnDAlpaca-Polyglot-12.8B (v1.3)

2. How to use the model

from transformers import pipeline, AutoModelForCausalLM
import torch

LLM_MODEL = "NTIS/KoRnDAlpaca-Polyglot-12.8B"
query = "지능형 영상감시 기술의 대표적인 국내 기업은?"

llm_model = AutoModelForCausalLM.from_pretrained(
    LLM_MODEL,
    device_map="auto",
    torch_dtype=torch.float16,
    low_cpu_mem_usage=True,
    #    load_in_8bit=True,
    #    revision="8bit"
)
pipe = pipeline(
    "text-generation",
    model=llm_model,
    tokenizer=LLM_MODEL,
    # device=2,
)

ans = pipe(
            f"### 질문: {query}\n\n### 답변:",
            do_sample=True,
            max_new_tokens=512,
            temperature=0.1,
            top_p=0.9,
            return_full_text=False,
            eos_token_id=2,
        )
msg = ans[0]["generated_text"]

if len(msg.split('###')[0]) > 0:
    output = msg.split('###')[0]
else:
    output = '답변을 드리지 못하여 죄송합니다.'

print(output)
# 국내 지능형 영상감시 기술의 대표적인 기업으로는 한화 테크윈이 있다.

3. R&D Instruction Dataset v1.3

4. Future plans

5. Date of last update

References