• OpenAI停服,国产大模型免费用!开发者Token自由实现了


    9654c006102e55b303e04e6893626ce0.png

    来源|机器之心

    昨天,OpenAI 突然宣布终止对中国提供 API 服务,进一步收紧国内开发者访问 GPT 等高水平大模型。国内开发者真是太难了。
     

    08ba9ed0a640a2b3c380a3ef73a455e5.jpeg

    好在,随着开源大模型水平越来越高,开发者已经有很多不错的 “平替”,比如 Qwen2、DeepSeek V2 等模型。为了给开发者提供更快、更便宜、更全面、体验更丝滑的开源大模型 API,AI Infra 领域的专业选手硅基流动(SiliconFlow)上场,推出了一站式大模型 API 平台 SiliconCloud。

    同样在昨天,硅基流动为国内开发者献上一份前所未有的大礼:Qwen2 (7B)、GLM4 (9B)、Yi1.5(9B)等顶尖开源大模型永久免费。

    从此,开发者 “Token 自由” 不再是梦,可以甩开膀子开发超级应用了。

    “Token 自由” 传送门,一键直达:

    cloud.siliconflow.cn/s/free

    ebc6b1efb3c7951f7abb9400bad991d3.png

    正如在工业化时代,机械化工厂推动了大规模生产商品的效率。在大模型时代,生成式 AI 应用的繁荣亟需高性价比的 Token 生产工厂。

    通过云服务接入大模型 API 已成为开发者的最优选择。不过,很多平台只提供自家大模型 API,不包含其他顶尖大模型,同时,在模型响应速度、用户体验以及成本方面,远不能满足开发者的需求。

    现在,硅基流动的超级 Token 工厂 SiliconCloud,让开发者不用再花费精力部署大模型,大规模降低 AI-Native 应用开发门槛与成本。

    大模型 Token 工厂

    即时上新、极速输出、价格亲民

    既然叫 Token 工厂,那用户喜欢的模型就都能直接在 SiliconCloud 上找到。

    最近,大模型社区相当热闹,开源模型不断刷新着 SOTA,轮流霸榜。

    硅基流动第一时间将这些大模型快速上架到 SiliconCloud,包括最强开源代码生成模型 DeepSeek-Coder-V2,超越 Llama3 的大语言模型 Qwen2、GLM-4-9B-Chat、DeepSeek V2 系列模型。还支持 Stable Diffusion 3 Medium、InstantID 等文生图模型。

    值得一提的是,对 DeepSeek V2 等部署难度极高的模型,SiliconCloud 是除官方之外唯一支持这些开源大模型的云服务平台。

    考虑到在不同应用场景下需要选择适合的大模型,开发者可在 SiliconCloud 自由切换。

    f9da9ee21333418ea2776ef582606e58.png

    这样的开源大模型聚合平台,已经为开发者提供了不少便利,但还远远不够,作为世界顶级的 AI Infra 团队,硅基流动致力于将大模型部署成本降低 10000 倍。

    要实现这一目标,核心挑战是如何大幅提升大模型推理速度。对此,SiliconCloud 做到了什么程度?

    直观上图,感受一下 Qwen2-72B-Instruct 在 SiliconCloud 上的响应速度。

    8c04417caa003098b70bd98c2987d54a.gif

    刚开源不久的 SD3 Medium 的生图时间在 1s 左右。

    03ea1e4cfc16922b54b01d75a53c1b0b.gif

    这些开源大模型的响应速度变快,相同算力的产出更高,价格自然就打下来了。

    SiliconCloud 上的大模型 API 价格也(很卷)更为亲民。即使是 Qwen2-72B,官网显示只要 4.13 元 / 1M Token。新用户还可免费畅享 2000 万 Token。

    开发者评价:“速度快得再也回不去了”

    SiliconCloud 一经发布,不少开发者就在各大社交平台分享了使用体验。部分 “自来水” 用户是这样评价的:

    知乎上,机器学习系统专家 @方佳瑞称赞了 SiliconCloud 的输出速度,“用久了就受不了其他大模型厂商 web 端的响应速度”。

    8b10b8180eadd69b8395ba8031e9dd6a.png

    微博用户 @祝威廉二世称,其他几家平台都不敢放 Qwen2 大规模参数的模型,SiliconCloud 都放了,速度很快,还很便宜,一定会付费。

    他还提到,大模型的最终产物是 Token,未来会由硅基流动这样的 Token 工厂,或 OpenAI、阿里云这样的大模型企业或云厂商完成 Token 的生产。

    7961402fe2e2697149a79d98d6752dab.png

    还有 X 用户强烈推荐 SiliconCloud,体验太过丝滑,尤其还有体贴周到的一流售后服务团队。

    ca5d5be821e26e1f720e9eb5322b3b33.png

    微信公众号博主评价SiliconCloud 是国内同类产品中体验最好的一家。

    0647a57ed07d51b5053056a5b8b2628e.png

    这些评价有一个明显的共性,他们不约而同地提到了 SiliconCloud 平台的速度。为什么它的响应这么快?

    答案很简单:硅基流动团队做了大量性能优化工作。

    早在 2016 年,硅基流动的前身 OneFlow 团队就投身大模型基础设施,是世界上做通用深度学习框架的唯一创业团队。再次创业,他们基于丰富的 AI 基础设施及加速优化经验,率先研发了高性能大模型推理引擎,在某些场景中,让大模型吞吐实现最高 10 倍加速,该引擎也集成到了 SiliconCloud 平台。

    换句话说,让开发者用上输出速度更快、价格实在的大模型服务,是硅基流动团队的拿手绝活。

    Token 自由后,现象级应用还远吗?

    此前,阻碍国内开发者开发 AI 应用的一大因素是不方便访问高水平大模型,即便做出了优质应用也不敢大规模推广,因为烧钱太快,他们无力承受。

    随着国产开源大模型不断迭代,以 Qwen2、DeepSeek V2 为代表的模型已足够支持超级应用,更重要的是,Token 工厂 SiliconCloud 的出现能解决超级个体的后顾之忧,他们不用再担心应用研发与大规模推广带来的算力成本,只需专注实现产品想法,做出用户需要的生成式 AI 应用。

    可以说,现在是超级个体开发者与产品经理的最佳 “掘金” 时刻,而 SiliconCloud 这个好用的掘金工具已经为你准备好了。

    再提醒一下:Qwen2 (7B)、GLM4 (9B) 等顶尖开源大模型永久免费。

    欢迎走进 Token 工厂 SiliconCloud:

    cloud.siliconflow.cn/s/free
     

    其他人都在看


    开发生成式AI超级应用,就用SiliconCloud
     

    更快、便宜、更全面、体验更丝滑的开源大模型API
     

    siliconflow.cn/zh-cn/siliconcloud

  • 相关阅读:
    (02)Cartographer源码无死角解析-(09) gflags与glog简介、及其main函数讲解
    最短Hamilton路径( 二进制 + 状态压缩dp)
    巯基纳米二氧化硅修饰亚氨基二乙酸基团微球SiO2-SH/IDA/巯丙基修饰介孔二氧化硅微球的制备
    【线性代数】P1 行列式基本概念
    基于ABP实现DDD--领域服务、应用服务和DTO实践
    机器学习-感知机模型
    如何在《倩女幽魂》游戏中使用搭建工具
    Java 动态判断数组维数并取值
    被邀请为期刊审稿时,如何做一个合格的审稿人?官方版本教程来喽
    openGauss 列存表PSort索引
  • 原文地址:https://blog.csdn.net/OneFlow_Official/article/details/140003419