baichuan-7B
-
王小川的「百川智能」正式推出首个70亿参数中英文预训练大模型——baichuan-7B
baichuan-7B是由百川智能开发的一个开源的大规模预训练模型。基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。 如果希望使用baichuan-7B(如进行推理、Finetune等),我们推荐使用配套代码库b…