BiLLa-7B-SFT
  • 模型资讯
  • 模型资料

BiLLa: A Bilingual LLaMA with Enhanced Reasoning Ability

BiLLa 是开源的推理能力增强的中英双语 LLaMA 模型. 模型的主要特性有:

  • 较大提升 LLaMA 的中文理解能力, 并尽可能减少对原始 LLaMA 英文能力的损伤;
  • 训练过程增加较多的任务型数据, 利用 ChatGPT 生成解析, 强化模型理解任务求解逻辑;
  • 全量参数更新, 追求更好的生成效果.

Github: https://github.com/Neutralzz/BiLLa

以下是经过有限的评测分析得出的结论:

  • BiLLa-7B-LLM 中英语言建模能力显著优于 Chinese-LLaMA-7B;
  • BiLLa-7B-SFT 中文推理能力显著优于 BELLE-LLaMA-Ext-7B 等模型;
  • 由GPT4打分, BiLLa-7B-SFT 在英文指令上得分显著高于 ChatGLM-6B, 中文得分持平, 但解题与代码得分更高.

代码示例

from modelscope.utils.constant import Tasks
from modelscope.pipelines import pipeline
pipe = pipeline(task=Tasks.text_generation, model='AI-ModelScope/BiLLa-7B-SFT', device_map='auto',model_revision='v1.0.7')
inputs = 'Human: Write a Python function that checks if a given number is even or odd.\nAssistant: '
result = pipe(inputs, min_length=10, max_length=512, num_beams=3,temperature=0.8,do_sample=False, early_stopping=True,top_k=50,top_p=0.8, repetition_penalty=1.2, length_penalty=1.2, no_repeat_ngram_size=6,max_new_tokens=1024)
print(result)

输入格式

Human: [Your question]
Assistant: 

模型局限性

当前BiLLa模型未经RLHF训练, 泛化性有待观望.

BiLLa训练过程中使用了较多的任务型数据, 建议减少常识类的、时事类的提问.

BiLLa训练数据中包含了多轮对话摘要数据, 但未直接包含多轮对话的生成数据, 因此模型多轮对话能力可能较差.

Clone with HTTP

git clone https://www.modelscope.cn/AI-ModelScope/BiLLa-7B-SFT.git