• 欢迎使用千万蜘蛛池,网站外链优化,蜘蛛池引蜘蛛快速提高网站收录,收藏快捷键 CTRL + D

百亿tokens免费额度,清华系明星AI公司的羊毛薅起来 百亿tokens免费额度,清华系明星AI公司的羊毛薅起来


百亿token补贴,4月起免费!

这次的羊毛来自清华系AI公司无问芯穹,企业与个人皆可薅~

这家公司成立于2023年5月,目标是打造大模型软硬件一体化最佳算力解决方案。

就在刚刚,它发布了基于多芯片算力底座的无穹Infini-AI大模型开发与服务平台,供开发者体验、对比各种模型和芯片效果。

人工智能大脑,大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

大模型如何在实际场景中应用?

大模型浪潮涌起之后,有人调侃: 比起“造福人类”,大模型更应该先呼吁“给我场景”。

然而,无问芯穹认为,经历了互联网时代的高速发展,中国市场并不缺应用场景。

大模型的落地难,症结在于行业内正在持续遭遇的算力难题

比起“给我场景”,更应该先呼吁“解决算力”。

无问芯穹如何提供算力优化解决方案?

让开发者花小成本、用好工具和充沛算力。

今天,无问芯穹发布了基于多芯片算力底座的无穹Infini-AI大模型开发与服务平台

还宣布自3月31日起,正式开放全量注册,给所有实名注册的个人和企业用户提供百亿tokens免费配额

开发者可以在这个平台上体验、对比各种模型能力和芯片效果。

图片

无穹Infini-AI支持的模型与合作伙伴

目前,无穹Infini-AI已支持了Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3闭源模型、Llama2、Qwen、Qwen1.5系列等共20多个模型,以及AMD、壁仞、寒武纪、燧原、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡,支持多模型与多芯片之间的软硬件联合优化和统一部署。

第三方平台或自定义训练、微调而来的模型也可以无缝迁移托管到无穹Infini-AI,并获得细粒度定制化的按token计费方案。

未来AI行业如何应对算力需求的挑战?

“市面上有很多未被激活的有效算力,硬件本身差距在快速缩小,但大家在使用时总会遇到‘生态问题’。”夏立雪说,这是因为硬件的迭代速度总是比软件更慢、价格更高,软件开发者不希望工作中出现除自身研发工作之外的其他“变量”,因而总是会倾向于直接使用有成熟生态的芯片。

无问芯穹希望帮助所有做大模型的团队“控制变量”,即在使用无问芯穹的算力服务时,用户不需要也不会感觉到底层算力的品牌差异。

“在端侧,人们则更加倾向于快速将大模型的能力落到人机交互的界面上,提升实用体验。”无问芯穹联合创始人兼首席科学家戴国浩认为,未来,凡是有算力的地方,都会有AGI级别的智能涌现。而每一个端上的智能来源,就是大模型专用处理器LPU。

大模型处理器LPU可以提升大模型在各种端侧硬件上的能效与速度。

请留下您对大模型算力优化的想法和观点,让我们一起讨论未来AI技术的发展方向。感谢您的耐心阅读,也希望您能关注我们的更新内容,点赞并留下您的宝贵意见。

本文链接:https://www.24zzc.com/news/171200900365284.html

相关文章推荐

    无相关信息

蜘蛛工具

  • WEB标准颜色卡
  • 域名筛选工具
  • 中文转拼音工具