站长之家 - 业界 2024-06-19 11:07

ChatGPT等模型疯狂训练,最快2026年消耗尽公开文本数据

AI发展科研机构Epochai在官网发布了一项,关于大模型消耗训练数据的研究报告。目前,人类公开的高质量文本训练数据集大约有300万亿tokens。但随着ChatGPT等模大型的参数、功能越来越强以及过度训练,对训练数据的需求呈指数级增长,预计将在2026年——2032年消耗完这些数据。研究人

本文由站长之家合作伙伴自媒体作者“​ AIGC开放社区公众号”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

推荐关键词

24小时热搜

查看更多内容

大家正在看

ChatGPT搜索?也就那样