百亿token补贴,4月起免费!
这次的羊毛来自清华系AI公司无问芯穹,企业与个人皆可薅~
这家公司成立于2023年5月,目标是打造大模型软硬件一体化最佳算力解决方案。
就在刚刚,它发布了基于多芯片算力底座的无穹Infini-AI大模型开发与服务平台,供开发者体验、对比各种模型和芯片效果。
图源备注:图片由AI生成,图片授权服务商Midjourney
大模型浪潮涌起之后,有人调侃: 比起“造福人类”,大模型更应该先呼吁“给我场景”。
然而,无问芯穹认为,经历了互联网时代的高速发展,中国市场并不缺应用场景。
大模型的落地难,症结在于行业内正在持续遭遇的算力难题。
比起“给我场景”,更应该先呼吁“解决算力”。
让开发者花小成本、用好工具和充沛算力。
今天,无问芯穹发布了基于多芯片算力底座的无穹Infini-AI大模型开发与服务平台。
还宣布自3月31日起,正式开放全量注册,给所有实名注册的个人和企业用户提供百亿tokens免费配额。
开发者可以在这个平台上体验、对比各种模型能力和芯片效果。
目前,无穹Infini-AI已支持了Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3闭源模型、Llama2、Qwen、Qwen1.5系列等共20多个模型,以及AMD、壁仞、寒武纪、燧原、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡,支持多模型与多芯片之间的软硬件联合优化和统一部署。
第三方平台或自定义训练、微调而来的模型也可以无缝迁移托管到无穹Infini-AI,并获得细粒度定制化的按token计费方案。
“市面上有很多未被激活的有效算力,硬件本身差距在快速缩小,但大家在使用时总会遇到‘生态问题’。”夏立雪说,这是因为硬件的迭代速度总是比软件更慢、价格更高,软件开发者不希望工作中出现除自身研发工作之外的其他“变量”,因而总是会倾向于直接使用有成熟生态的芯片。
无问芯穹希望帮助所有做大模型的团队“控制变量”,即在使用无问芯穹的算力服务时,用户不需要也不会感觉到底层算力的品牌差异。
“在端侧,人们则更加倾向于快速将大模型的能力落到人机交互的界面上,提升实用体验。”无问芯穹联合创始人兼首席科学家戴国浩认为,未来,凡是有算力的地方,都会有AGI级别的智能涌现。而每一个端上的智能来源,就是大模型专用处理器LPU。
大模型处理器LPU可以提升大模型在各种端侧硬件上的能效与速度。
请留下您对大模型算力优化的想法和观点,让我们一起讨论未来AI技术的发展方向。感谢您的耐心阅读,也希望您能关注我们的更新内容,点赞并留下您的宝贵意见。