阅读:155回复:0
编程语言:在关于可持续编程语言的博客
在此阶段,部分数据会使用不同的超参数和特征进行重复迭代,以更接近可行的解决方案。需要考虑的一些方面:
“以数据为中心而非以模型为中心”:在开发过程中,应选择适合数据和问题的模型。我们经常看到所选择的模型应该总是被尝试或者目前正在特别激烈地争论。这会导致复杂模型实验的资源消耗,尽管该问题也可以通过更简单的模型来解决。 文章中已经很清楚,语言的纯粹运行时行为并不是一切。由于运行时方面对AI影响较大,但常见的Python库都是基于低级语言的,因此这里只需要指出,Python、R、C或C++将自己确立为标准是有充分理由的。 奥卡姆剃刀:并非所有问题都需要用人工智能来解决。使用简单的统计方法或一维数据系列通常可以很好地解决问题。 训练 在人工智能模型的生命周期中,训练通常只占 希腊 whatsapp 数据 消耗工作量的百分之十。尽管单独的训练运行非常耗能,但模型很少经过训练。特别是对于神经网络等更复杂的人工智能过程,能耗随着模型中参数的数量呈指数级增长。由于复杂的组网和迭代训练,两倍的参数数量导致两倍以上的资源消耗。可持续培训的一些技巧是: 训练效率:即使“仅”百分之十的排放来自训练,在选择决策中当然应该考虑模型在训练期间的行为。模型的效率经过充分研究,基准测试为评估您自己的用例提供了一个良好的起点。 GPU优化的解决方案:与在内存中训练相比,在显卡上训练可以显着减少每次计算消耗的能量。 迁移学习:通过重用预先训练的模型,最初投入的计算能力也可以在以后的模型中“重用”。这意味着训练基础模型的能源成本在多个用例中分摊。 重新训练:经过训练,模型并不总是能提供有意义的结果。在重新训练时,必须注意不要仅仅因为新数据可用就简单地对其进行训练。在每次重新训练之前,重要的是要检查经过训练的模型的性能如何随着时间的推移而发展以及重新训练是否有意义。 |
|