刚刚看到奥特曼的采访,他公开将训练AI模型的能源消耗与我们人类的消耗进行了比较。你知道吗,这非常具有代表性。也就是说,对于他来说,训练一台GPT-4大约需要的能源,等于养育三千个成人直到成年所需的资源。数学很严苛:人类每天大约消耗2000千卡,20年大约是17,000千瓦时。而GPT-4在一次训练周期中消耗了五千万千瓦时。但这里有个悖论——用这17,000千瓦时训练出来的人,能产生40到60年的回报。而模型则在两年内过时,需要重新训练。萨姆·奥特曼想要7万亿美元,以及相当于整个纽约市能源消耗的算力,用于Stargate项目。而这一切都以人类的福祉为理由。常见的套路——任何关于数据中心危害、电价上涨、土地占用的问题,回答都是:这一切都是为了你们的利益,很快你们就会治愈癌症,获得自由。什么时候?很快。与此同时,成千上万的人被解雇,因为AI更高效。虽然早已被驳斥——其实只是为了降低工资成本。留下的人现在在修复这套系统留下的漏洞。这就是所谓的优化。我在这里看到一种思维模式:人类的经验——爱、错误、个人成长——都只是输入数据。获得一个“聪明单元”的低效方式。对奥特曼和他的圈子来说,我们只是能量密集的过时错误集合。只要AI还不能自己做一切,我们才有用。而这正是他们试图改善的地方。因此,他们需要超大规模的数据中心。他们愿意翻山越岭。但从奥特曼的角度来看,效率才是关键。生成模型是历史上最耗能、最易
查看原文