新方法可以从根本上改变计算过程并加速人工智能的发展。
矩阵乘法的突破可以使人工智能模型更快、更高效。 科学家们 发现了一种快速乘以大型矩阵的新方法,消除了以前未知的低效率问题。这一发现可以加快 ChatGPT 等人工智能模型的速度,这些模型严重依赖矩阵乘法。最近两篇论文中提出的研究使矩阵乘法的效率取得了十多年来未曾见过的重大进展。
矩阵乘法在现代人工智能模型中发挥着关键作用,包括语音和图像识别、聊天机器人和人工智能图像生成。图形处理单元 (GPU) 由于能够同时处理多个计算,因此在执行矩阵乘法任务时特别有效。
清华大学、加州大学伯克利分校和麻省理工学院研究人员的新研究旨在进行理论改进,旨在降低矩阵乘法的复杂度以提高整体效率。传统上,将两个大小为 n 的矩阵乘以 n 需要进行 n 的三次方乘法。然而,新技术降低了指数的上限,使其更接近理想值 2。
2020 年,在提高矩阵乘法效率方面取得了重大进展,并于 2023 年 11 月引入了一种方法,消除了先前方法中的低效率,为复杂性指标设定了新的上限。这一发现标志着该领域自 2010 年以来最重大的进展。改进矩阵乘法方法将加快AI模型的训练速度,提高任务执行效率。
在实践中,这可能会导致更复杂的人工智能模型的开发,加快其训练速度,并降低所需的计算能力和能源消耗。这些改进还可以减少人工智能技术的环境足迹。对人工智能模型速度的影响将取决于系统的架构及其任务对矩阵乘法的依赖程度。算法效率的提高通常需要与硬件优化相结合,才能充分发挥加速潜力。
文章原文链接:https://www.anquanke.com/post/id/293786