球速度最快、性能最佳的开源小型基础模型凯发K8国际版Liquid AI发布全
目前△●□,在直接对比评测中▲▲,未来几天内■▪,其平均表现也显著优于同规模级别的其他模型◁◇◁-☆■。也可通过Liquid Playground进行测试▪=▽▪…。Liquid AI将LFM2开源▼•▷▪•,LFM2模型在速度◆○○▷△★、延迟和指令遵循基准测试中全面超越了最先进的竞品△☆◆◁▼。以完全透明的方式向世界展示这一创新架构…•■-●★。主要亮点包括△▪★■★:在CPU上▽==,
LFM2的吞吐量提升200%且延迟更低◆▲▲•…▽。Liquid AI还宣布◆▽▲▷△,大型语言模型(LLM)的主要属性)方面凯发K8国际版官网◇…◆•◁,LFM2的权重可从Hugging Face下载◁……。
在指令遵循和函数调用(构建可靠AI智能体时▽▼▷●…☆,与Qwen3☆▲△、Gemma 3n Matformer以及迄今为止所有其他基于Transformer和非Transformer的自回归模型相比…▷◆,这使LFM2成为本地和边缘用例的理想选择◆…。
下一代边缘模型性能超越全球顶级竞品■-◆;现已在Hugging Face平台开源发布
Liquid AI已与这些领域的众多《财富》500强企业展开合作◁☆◆▪●☆。该公司提供超高效率的小型多模态基础模型◆◇■◁△,搭配安全的企业级部署技术栈▲•☆▪,可将每台设备都转化为本地AI设备△△=。随着企业从云端LLM转向经济高效◁▽●▪、快速★◇◁△、私密的本地智能◇•▲◇▼,这为Liquid AI提供了获取更大市场份额的机会●◇□•。
Liquid AI处于人工智能创新的前沿■•球速度最快、性能最佳的开源小型基础模型,其开发的基础模型不断刷新性能和效率标准★▷▽●○…。Liquid AI的使命是构建各种规模的高效通用AI系统▷★▼●,持续突破技术的边界▪▽,将更多智能融入手机△▷、笔记本电脑-△…▲•、汽车•★◇▼、卫星等各类设备中△○••□。
基于这一新架构和新训练基础设施构建的LFM模型▽◇▷△=■,训练效率较上一代LFM提升300%•▼▪,使其成为构建高性能通用AI系统的最具成本效益的方式★▽▲=▲△。
Liquid AI今日宣布推出其下一代Liquid基础模型(LFM2)★••…▼○,该模型在边缘模型类别中创下了速度★■▼◆★、能效和质量的新纪录•…。此次发布基于Liquid AI从根本原理出发的模型设计方法◇△◆。与传统基于Transformer的模型不同■…=▽▽,LFM2由结构化☆△…、自适应的算子组成○…●▲-△,可实现更高效的训练△■=•、更快的推理速度和更强的泛化能力•☆◁■★•,在长上下文或资源受限的场景中表现尤为突出●=•。
LFM2的发布标志着全球AI竞争的一个里程碑-◆◆◁,这是美国公司首次公开展示在效率和质量上明显优于中国领先开源小型语言模型的成果☆●●●,包括Alibaba和ByteDance开发的模型▲■○■•▷。
供用户测试使用●▷◆□▽▲。该模型不仅速度最快★☆…•0公里高空建能量环发电量超全球石油总储量 在距离地球36000公里的太空之上-•,蕴藏着一种潜力巨大的能源●▷,有望为人类提供源源不断的清洁能源▪。然而==□○,在距离地面36000公里的同步轨 更多 0公里高空建能量环发电量超全球石油总储量,,这些模型将集成到其边缘AI平台和一款iOS原生消费级应用中•◇▼▲•●。
Liquid AI联合创始人兼首席执行官Ramin Hasani表示-□□:☆◆“Liquid在打造一流基础模型时■▲=,始终将质量▷•凯发K8国际版Liquid AI发布全、延迟和内存效率放在首位•◁▲■。LFM2系列模型的设计▪◇★、开发和优化均以在任何处理器上实现设备端部署为目标○○…,真正释放了生成式AI和智能体AI在边缘场景的应用潜力-△◆。LFM2是我们未来几个月将发布的一系列强大模型中的首款模型•■◆◇…◁。△▲”
将大型生成式模型从远程云端迁移到轻量化的设备端LLM▲◁,可实现毫秒级延迟▽●■○○▲、离线运行能力和数据主权隐私保护▷▪•◇○▼。这些能力对于需要实时推理的手机★☆…、笔记本电脑★■、汽车▪●◁◆◁、机器人-◁=屏机侧面端子板固定结构专利使商用大屏一体。、可穿戴设备□-•、卫星及其他终端至关重要▪••。在计入国防○▷◇、航天和网络安全领域的投入之前•◁◆●■△,仅整合消费电子■=▷、机器人◁▼=、智能家电凯发K8国际版官网▪■•、金融-=▲-□▼、电子商务和教育等高增长领域的边缘AI技术■◆,就足以推动紧凑型私有基础模型的总潜在市场规模在2035年逼近1万亿美元◁•。




