AI公司MosaicML推出70亿参数模子MPT
AI 守业公司 MosaicML 克日宣告了其 70 亿参数模子 MPT-7B-8K,公司据悉,推出该模子一次可能处置 8000 字文本 ,亿参至关长于从事长文重点摘要以及问答 ,数模还能在 MosaicML 平台上凭证特界说务 ,公司进一步微调相关配置装备部署 。推出
据悉,亿参系列模子接管了 150 万个 Token ,数模并以 256 块 H100 GPU 花 3 天实现模子磨炼而成。公司MosaicML 本次宣告了 3 个版本模子 ,推出搜罗 MPT-7B-8k、亿参MPT-7B-8k-Instruct 以及 MPT-7B-8k-Chat 。数模
其中,公司第一个版本 MPT-7B-8k、推出因此 Transformer 解码器为根基,亿参并以 FlashAttention 以及 FasterTransformer 机制来减速磨炼与推论,能一次处置 8000 字文本,MosaicML 公司展现 ,该模子开源 、应承商用 。
第二个版本 MPT-7B-8k-Instruct 因此第一个版本 MPT-7B-8k 微调而成