机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 133|回复: 0

现在折腾通用大模型的必须既有钱又有人

[复制链接]

2万

主题

2万

帖子

17万

积分

超级版主

Rank: 8Rank: 8

积分
178092
发表于 2025-1-11 14:33:35 | 显示全部楼层 |阅读模式
Scaling Law不是金科玉律,但也绝不是无的放矢。

一个AI公司可以不按照scaling law的方式去硬堆算力、数据和模型,但是绝对得有这个底气,而且是源源不断的底气才能继续在场内玩下去。
简单观察下零一万物Yi-AI的更新也能看的出来,Github上最近的更新已经是大半年以前的了,很可能早就没再继续了。
*Hugging Face上倒是最近两个月还有更新,但是Yi-AI V1.5的下载量最高的9B-Chat模型的17.5K,这么点的下载量也能看得出它在各方面并没有现有的其他模型性能好。
*反观AI新锐,deepseek的v3版本,下载量75.9K。
*Qwen,最高有1.7M的下载量。
*而现在还在场内活跃的公司,都至少满足了一个条件:
1 有足够的后续资金
比如豆包,字节是真舍得花钱,那些应用一直以来都是免费的,并且各种AI应用都上的飞快,这个烧钱力度独一家。
就连OpenAI都得依靠融资来解决资金问题。
2 有足够的研发能力
比如Qwen,阿里云的开源比Meta都要全面,模型齐全,单模态,多模态,还有最近放出的对标OpenAI O系列的QVQ模型,基本上找不出比它更全面的开源模型大家族了。
3 有独特的技术栈
代表就是Deepseek,它是真的走出了一条不用融资,不用海量卡也能做foundation大模型的路子,独特的GPU放大器,能让千卡跑出万卡的效果,现在世界上独此一家。
而Yi-AI这三点都不沾,钱得靠融资,不稳定;研发能力也从B端C端的反馈上看不出来;技术栈李开复老师也说了,借鉴的是GPT以及Llama的老路子。
这个情况下,未来终究是个死,现在激流勇退其实还是能看出来开复老师的果断的。








本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2025-1-21 17:50 , Processed in 0.089158 second(s), 20 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表