【新智元导读】训练数据的数量和质量,对LLM性能的重要性已经是不言自明的事实。然而,Epoch AI近期的一篇论文却给正在疯狂扩展的AI模型们泼了冷水,他们预测,网络上可用的人类文本数据将在四年后,即2028年耗尽。
算力方面,英伟达的不停地改进革新和各家代工厂的产能提高,让世界各处的数据中心拔地而起,研究人员暂时不需要过多的担心计算资源。
根据报道,OpenAI在训练GPT-5时已经遇到了文本数据不足的问题,正在考虑使用Youtube公开视频转录出的文本。
关于「数据耗尽」这样的一个问题,非营利研究机构Epoch AI在6月4日发布了一篇最新论文。
根据他们的预测,未来10年内,数据增长的速度无法支撑起大模型的扩展,LLM会在2028年耗尽网络上的所有文本数据。
目前这篇论文已被ICML 2024接收。著名的硅谷天才少年Alexandr Wang也转发了这篇论文,并附上了自己的一番见解。
他创办的Scale AI专门为AI模型提供训练数据,估值已经飙升到138亿,是当下硅谷最炙手可热的明星独角兽。
论文作者所属的机构Epoch AI则是一家非营利研究组织,成立于2022年4月,他们致力于调查人工智能的历史趋势,并帮助预测其未来发展。
虽然这个组织目前只有13名员工,且分布在世界各地,但他们的工作有十分普遍的影响。
英国和荷兰的政府报告都曾引用Epoch AI发表的论文。RAND智库的研究员表示,Epoch的AI模型数据库对于政策制定者来说是宝贵的资源,「世界上无另外的数据库如此详尽和严谨」。
说得直白一点,数据量就像一个水池。有存量、有增量,是否够用就要同时看供给侧和需求侧,预测AI模型的数据集会不会把水池抽干。
定期更新的开源数据集Common Crawl爬取到了超过2500亿个网页,包含130T tokens。但这不是全部的网络内容,还需要统计索引网络的大小。
我们先假设谷歌搜索引擎包含了所有索引网站,能够正常的使用「词频法」估计其中的页面数量。
比如,如果「chair」这个词出现在Common Crawl 0.2%的页面中,而且谷歌可以搜索到40B个包含「chair」的网页结果,就能初步预估出整个索引网络的大小约为40B/0.002=20T个页面。
采用这种方法,论文估算出谷歌索引包含约270B个页面,每个网页约有1.9KB纯文本数据,这表明整个索引网络的数据量大概为500T,是Common Crawl的5倍。
除此之外,还可以用另一种思路建模,估算整个互联网的数据总量——从使用人数入手。
网络上大部分文本数据都是用户生成的,并存储在各种平台上,因此,考虑互联网用户数和人均产生数据量,即可估计人类生成的公开文本数据量。
根据人口增长以及互联网逐渐普及的趋势,论文对互联网用户增长趋势做建模,得出的曲线与历史数据非常吻合。
假设每个用户平均生成数据率保持不变,论文预计2024年上传的文本数据总量为180T~500T tokens。
根据这个预测结果以及已知的增长趋势,论文预估,网络上的存量数据为3100T。
由于同时考虑了索引网络和深层网络(搜索引擎无法触及的网页),这一个数字可以看作索引网络数据量的上限。
5G时代的冲浪选手应该都有体会,虽然在同一个互联网,但文本和文本的质量可以有云泥之别。
比如,在书籍或的文本上训练出的模型,与Youtube评论喂出的模型,可能有很大的性能差异。因此,只用token数量衡量数据的话,就过于片面了。
但也不能对网络数据失去信心。之前有多项研究表明,通过仔细的过滤和数据处理,网络数据带来的性能依旧优于人工用尽心思挑选的语料库。
研究人员尝试对Common Crawl数据集进行类似的处理,发现过滤后数据集大小会降低30%。同时,另一项去年的研究也发现,剪除Common Crawl中50%的重复数据能轻松实现最佳性能。
因此,有比较充足的理由相信,数据总量的10%-30%可作为高质量数据用于训练,相当于索引网络510T数据中的100T左右。
以上是对互联网数据池的预估,是数据的供给方。接下来,需要对数据使用方——数据集容量(变量D)进行预估。
Epoch曾经在2022年发表了一个知名的机器学习模型数据库,包含了300多个模型,从中选取2010年-2024年间发表的80余个LLM进行分析。
上图表明,目前LLM使用的最大训练集约为10T。Epoch AI之前也曾预估过,GPT-4训练集大小达到了12T tokens。
但这个结果没有同时考虑算力的限制。根据Scaling Law,Transformer架构所需的数据量大致随训练算力的平方根扩展。
由此,论文就得出了预测结果。按照目前互联网数据总量和训练数据集的上涨的速度,如果以当前趋势继续下去,数据耗尽年份的中位数是2028年,最大可能性是2032年。
这意味着,未来10年内,数据将成为LLM的重大瓶颈,「数据墙」将成为现实。
慢着,记不记得之前我们预估过,整个网络上的文本数据总量约为3100T,这一些数据怎么没有算进去?
遗憾的是,这部分数据大多分布在Fackbook、Instagram、WhatsApp等社会化媒体上,抓取过程不仅复杂、昂贵,而且涉及个人隐私相关的法律问题,因此几乎没办法应用于LLM的训练。
这篇论文并没有止步于一个偏向于悲观的预测结论,因为同时考虑别的的因素,「数据墙」只会让模型扩展的速度放缓,而不是完全停滞。
Epoch AI的创始人也在此前的采访中表示过,虽然我们能看到「数据耗尽」的前景,但「目前还没有感到恐慌的理由。」
目前就至少有两种策略可以绕过人类文本数据的瓶颈,而且在论文作者看来,这两种方法都是「前途无量」。
根据报道,仅OpenAI一个企业的模型每天就能生成100B个单词,也就是每年36.5T个单词,相当于Common Crawl中优质单词的总数。
这远远快于人类生成文本的速度,可以让数据存量急剧扩大,而且在模型输出相对容易验证的领域很有前景,比如数学、编程、游戏等等。
使用合成数据训练的最著名模型莫过于AlphaZero,它通过自我对弈达到了人类棋手都未能企及的水平。
此外2024年最新发布的AlphaGeometry同样使用合成数据来进行训练,尝试解决几何问题。
之前有研究表明,使用模型输出的文本进行迭代训练,会丢失有关人类文本数据分布的信息,让生成的语言越来越同质化且不切实际。
有研究者还把合成数据导致的模型崩溃形象比喻为「近亲结婚」,称这种LLM为「哈布斯堡模型」。
但这个问题也并非无解。有之前的研究证明,利用多样的训练数据,或者混合一些人类文本数据,既可以合理规划利用训练数据,又能某些特定的程度上缓解副作用。
除了我们熟知的视频、图像之外,金融市场数据或科学数据库也能够正常的使用。有人预测,到2025年,基因组学数据将以每年200-4000万兆字节的速度增长。
除了这两种方法,很多实验室和初创公司也正在积极探索。比如DatologyAI正在研究一种名为「课程学习」(curriculum learning)的方法,把数据按特定顺序输入,以期LLM能够在概念之间形成更智能的联系。
2022年他们发表的论文显示,如果数据无误,使用这种训练方法的模型可以用一半的数据实现相同的效果。
也许,Epoch AI创始人的话的确有道理。虽然数据是有限的,「数据墙」也是可预期的,但方法总比困难多。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。