网上流传的“Kimi概念股”名单。在2024年3月24日的一场用户活动上,月之暗面的几位产品负责人直言:“我们不敢说太多,还是希望大家关注产品本身。”而一场对Kimi的长文本围剿战,也已经在大厂中打响。3月23日,360 AI 浏览器宣布内测500万字长文本处理功能。百度的文心一言也被曝将在4月开放长文本功能,长度在200万~500万。阿里的通义千问则一口气免费开放了1000万字的长文档处理功能,坐上了“全球第一长”的宝座。可炮制的技术,被验证的需求Kimi带起的长文本之火,无外乎两个原因:技术门槛不高,市场需求已经被月之暗面初步验证。2023年10月9日,Kimi带着“全球首个支持输入20万汉字”的标签走进大众视野。彼时,这一上下文窗口长度达到了Claude-100K(约8万字)的2.5倍,GPT-4-32K(约2.5万字)的8倍。不过,多名从业者对36氪表示,长文本处理的技术壁垒并不高。长文本建模的方案,主要有外部召回(借助外部工具处理长文本或者利用外部记忆存储上下文向量)、模型优化、注意力计算优化三种,而每一种都有公开的研究论文和技术方案。很快,Kimi“20万字”的记录就被他人打破。2023年10月30日,Kimi首发仅过了21天,王小川的百川智能就推出了上下文窗口达192K的大模型Baichuan2-192K,单次能处理35万个汉字。11月,王座再次易位,李开复成立的零一万物,又发布了能够处理约40万字的大模型Yi-34B,是Kimi的约2倍。长文本带来的模型竞速,最根本的原因,还是在于看到了庞大的消费群体。“C端用户对大模型的需求无外乎两种,一是提效工具,二是娱乐工具。”一名AI从业者告诉36氪。他认为,目前AI对短文本的理解和生成能力,还没完全超过人类,比如看咨询、写短文案,“人用在修改AI生成的文案的时间,其实不比自己从头想来的少。”但大模型相较于人的竞争力,恰恰在于理解长文本的效率。“10万字的论文,一般人读完起码要30小时,还是在不休息的情况下,但大模型只要几分钟。”一名法律行业AI产品经理向36氪提及,问答机器人、模拟法庭等AI产品在专业度高、实践性强的法律行业都跑不通,唯一能跑通的只有对判决文书等长文本的总结,而“Kimi是目前律师等法律专业用户认可度最高的一款AI产品”,不少律师用Kimi来总结资料,输出法律文书。Kimi的火爆,是苦于C端变现途径的大厂所垂涎的。在大模型落地的打法上,体系庞大的大厂们,采用的基本是模型+云服务、AI功能+原有产品的保守打法。在B端,这样的打法初见成效。百度在2023年的财报中,强调了大模型对云等B端业务的推动。但大模型对App、搜索等C端产品营收的助推,依然是个谜。百度财报显示,2023年12月,百度App的月活达6.67亿,同比增长了3%~然而,这个数字与9月的6.63亿基本持平,不及6月的6.77亿。而Kimi证明了,不采用和其他产品的“打包”模型,大模型本身也有拉新造血的潜力。通过月之暗面这个对手,大厂们完成了对长文本的市场验证。Kimi的难题是商业模式,大厂的难题是获客但要让长文本真正造血,厂商们担心的仍然是高昂的成本。日前,Kimi的获客成本就引发了讨论。据△科技栏目获得的数据,算上广告投放和算力成本,Kimi每个用户的获客成本达12-13元,按照近一个月17804的日均下载量计算,Kimi每日的获客成本高达20万元。