赞
踩
phi-3-mini:3.8B参数。phi-3-mini使用与Llama-2模型相似的结构和tokenizer,vocabulary大小为32064。3072的维度(hidden dimension,32heads,32layer,基于bf16训练)
phi-3-small:7亿参数。vocabulary为100352,context length8K,hidden dimension4096,使用GQA,4个query共享1个key。10%多语言数据。dense attention和blocksparse attention结合,来节省10%的kv cache。
phi-3-medium:14亿参数。40head,40layer,hidden dimension 5120。这个模型反而不是微软主推的,因为还“没找到14B下的最佳方案”。
mini版本手机应用:量化成4bits的时候,占用1.8GB内存,因此可以部署到iphone 14上,在A16上运行,12tokens/s:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。