Jamba 1.5 系列开放模型由 AI21 Labs 推出,包括两个版本:Jamba 1.5 Mini 和 Jamba 1.5 Large。这些模型基于 SSM-Transformer 架构,结合了 Transformer 的优质特性和 Manba 的高效性,提供了无与伦比的长上下文处理能力,其上下文窗口达到了 256K 的长度,这在市场上是最长的。Jamba 1.5 在速度上也有显著提升,在长上下文中的推理速度可以达到同类型模型的 2.5 倍,并且在不同的上下文长度下都表现出色。在质量方面,Jamba 1.5 Mini 在 Arena Hard 基准测试中得分为 46.1,超过了 Mixtral 8x22B 和 Command-R+,而 Jamba 1.5 Large 的得分为 65.4,超过了 Llama 3.1 70B 和 405B。此外,这些模型还支持多种语言,包括西班牙语、法语、葡萄牙语、意大利语、荷兰语、德语、阿拉伯语和希伯来语。Jamba 1.5 还原生支持结构化 JSON 输出、函数调用、消化文档对象和生成引文,以及面向开发者的其他特性。