- 发表时间:2020-08-28 09:16
- 来源:数度域
在过去的几年里,电子行业在创造人工智能方面取得了巨大的进步,这是艾伦·图里在20世纪40年代想象出来的。多层神经网络算法进步的融合、作为大规模并行处理加速器的pc图形处理单元的发展,以及由互联网和广泛部署的传感器(大数据)推动的大规模数据集的可用性,使得通常被称为“深度学习”或“dl”的软件神经网络建模技术复兴。
此外,3d图形着色器管线向通用计算加速器的演变极大地减少了训练dl模型所需的时间。图像识别和自然语言处理等各种应用的培训时间从几个月缩短到几天——在某些情况下,甚至是几小时甚至几分钟。
这些解决方案使新的人工智能应用成为可能,从计算科学到基于语音的数字助理,如alexa和siri。然而,就我们在如此短的时间内取得的成就而言,要实现人工智能的真正好处,我们还有很长的路要走。
[/h/
人工智能经常被比作人脑,因为我们的大脑是地球上最复杂的神经网络之一。然而,我们并不完全了解人脑是如何运作的,医学研究人员仍在研究我们大脑中的许多主要结构实际上是如何运作的,以及它们是如何运作的。
人工智能研究人员从模拟人眼的神经网络开始。他们是加速dls的GPU的早期采用者,所以dl的早期应用在视觉系统中也就不足为奇了。
即使有了这些知识,我们的行业仍处于dl革命的早期阶段。每个研究迭代为每个神经元产生更复杂的功能,每个网络层产生更多的神经元,每个模型产生更深层次的网络,并为学习任务的不同部分提供不同的模型选择。
随着我们对大脑如何工作的了解越来越多,这些新知识将会驱动更多的dl模型复杂性。例如,dl研究人员仍在探索数字精度对训练和推理任务的影响,并得出了大相径庭的观点,从高端的64位到128位训练精度,到一些低端推理情况下的8位、4位、2位甚至1位精度。
“足够好”的精度是由上下文驱动的,因此高度依赖于应用程序。这种快速的进步是知识和技术看不到尽头。
什么有意义
dl网络培训通常在数据中心环境中进行,使用配备计算卸载加速器的高性能计算型集群,如GPU、数字信号处理器、现场可编程门阵列(fpgas)或更专业的定制逻辑。加速器的选择是基于同一个行业已经使用了几十年的标准:
[/h/
在dl网络被训练之后,产生的网络模型通常被转移到更简单的系统和设备中,并作为推理引擎运行。推理机一次处理一个单独的人工产物,例如一张照片或一句话,而不是训练数百万张照片或句子。
然而,推理服务可能对延迟很敏感——人们可能会不耐烦。因此,一些推理引擎作为服务在云中运行,比如苹果的siri作为专用设备和云服务的混合,比如亚马逊的alexa或者完全本地化,比如facebook与高通公司合作,在智能手机上启用某些人工智能功能。
[/h/
tirias研究预测,在20年内,大多数数字系统将使用某种形式的人工智能来完成特定的任务或应用。这可能就像在用户界面上使用人工智能一样简单,类似于alexa,或者确定执行特定任务的最有效和最安全的方法。因此,人工智能将会破坏硬件、软件和服务交付链。
有许多关于人工智能对市场不同部分的价值的疯狂预测。虽然围绕它的某些商业模式将会有所改变,但人工智能实际上是一个非常广泛的产品和服务的潜在技术优势,而不是一个新的收入来源。
这很像在pc或智能手机上添加gpu:如果你没有GPU,你就没有竞争力。那些不属于人工智能革命的人将会被遗弃在路边枯萎和死亡,而那些属于革命的人将会成长和繁荣。因此,整个高科技生态系统都急于拥抱和支持它。
人工智能是一个强大的新工具。也许它与改变社会的发明如农业、印刷机、蒸汽机、内燃机和计算机本身属于同一类。最终,人工智能技术的进步将重组人类的大部分工作,导致从农业到医学研究等领域的新进展。只是不要指望它会在一夜之间发生。
与人工智能仍处于形成阶段 相关的文章: