神经网络是复杂的,但由于许多原因同样令人兴奋。它们也促使我们更好地了解自己的认知机制,然后将其反映到机器上。我们已经有了深度神经网络的惊人例子,如谷歌DeepMind的AlphaGo击败了李世石,李世石曾获得18个世界冠军,被广泛认为是过去十年中最伟大的棋手。
图像分类、自然语言处理和计算机轴向断层成像分类是神经网络被使用的一些领域。神经网络在其特定领域很聪明,但缺乏概括能力。他们的智能需要调整。
了解神经网络的工作原理
谈论神经网络而不解释它们是如何工作的,就有点毫无意义。因此,这里有一个总结:
神经网络是由神经元组成的,它接受一个单一的输入参数并对其进行操作。你可以把一个参数看作是我们想要分类的图像中的一个像素。然后,我们有连接神经元和其他神经元的突触。在学习过程中,它们获得权重,放大或缩小神经元的输出。一个由神经元和连接它们的突触组成的网络,该网络使用训练数据来调整其突触的权重。而人工智能研究人员调整神经网的形状和大小,对其进行微调。
这是超高层的观点,但你已经可以理解为什么神经网有黑暗的一面。
神经网络的 “黑暗面”
一个图像识别神经网络可以包括数以百万计的隐藏层,直到网络得出这个图像中有一个夕阳的解决方案。这个过程有一个非常被误解的黑暗面,因为大多数时候,即使是那个人工智能的创造者也不知道神经网络的详细连接和他们创造的神经元是什么样的。从输出中计算出误差并加以调整是很容易的,但这并不意味着我们知道在无数层神经连接中发生了什么。因此,被猜测地误解为星球大战电影中的黑暗面。它只是意味着有太多的数据,而且我们要花很大的力气才能看到发生了什么。但它还是能让一些人起鸡皮疙瘩。如果人工智能开发者对正在发生的事情有更多的了解,那么开发更复杂的神经网络就会更容易。
解决这一难题的最知名的努力之一是谷歌的DeepDream。DeepDream是为2014年的ImageNet大规模视觉识别挑战赛(ILSVRC)开发的。该软件旨在检测图像中的人脸和其他图案,目的是对图像进行自动分类。然而,一旦经过训练,该网络也可以反向运行,被要求稍微调整原始图像,以便给定输出神经元。这可以用于可视化,以更好地理解神经网络的出现结构,这也是DeepDream概念的基础。这种优化类似于反向传播,然而不是调整网络权重,而是保持权重固定,调整输入。逆向传播是调整神经连接的权重的过程。
DeepDream图像识别系统学会了识别动物(来源:谷歌)
尽管神经网络仍有发展空间,但它们已经出现在我们的日常生活中。由于像谷歌翻译这样的服务,即使我们没有意识到,我们也从神经网络中受益。就像在我们的日常生活中一样,人工智能也已经准备好改变工作。关于人工智能在企业中的应用,你可以查看人工智能在市场营销、销售、客户服务、IT、数据或分析方面的应用。
如果你仍然好奇,想学习神经网络背后的数学,想在一个极其简单的例子中多探索一下这个黑暗领域,这里有更详细的解释。
深度神经网络的极致细节
让我们假设我们有一个带有四个像素的黑白摄像头的神经网络,我们希望它能识别摄像头拍摄的图像是实心的、垂直的、对角线的还是水平的。这不能用简单的关于像素亮度的规则来完成。它们与其他像素的关系也在起作用。为了解决这个复杂的问题,我们为每个像素创建一个神经元,并给它们在-1(黑色)和1(白色)之间的值,以确定其亮度。当这些输入神经元的值被添加时,一个新的神经元就被创建了。神经元与突触相连,就像它们在人类大脑中的对应物。
在与新的神经元连接时,神经网络用1和-1之间的数字对输入神经元的值进行加权。 在这种情况下,输出神经元的值不能大于1,因为我们有一个固定的光谱。如果神经输入的值大于1,神经网络会用一个sigmoid函数将其压扁,这样输出值就会保持在固定的区间内。白色的连接是正值,黑色的是负值,线的厚度显示了权重的大小。
每个神经元都用4个不同的值进行加权(但可能有400和400万),所以我们有4个新的神经元,这些神经元也被连接和加权了。这就形成了一个层。
这个过程在神经网络根据我们的输出值集(实心、垂直、对角线和水平)对图像中的内容有了清晰的认识后继续。根据我们想要得到的输出,可能有4或4000个层。在下面的图片中,我们可以看到一个假设的案例,即我们的神经网络如何理解图像是水平的。
黑色的点和连接表示负值,白色的表示正值,灰色的是零。没有灰线的原因是它们被忽略了,因为它们对输出没有影响。但神经网络永远不会给出真实的输出,而只是最接近真实的输出。例如,一个有正值的输出神经元绝不会是我们首先为我们的区间设定的最大值。这是一种说法,即神经网络给出的答案永远不会是确定的,但它们是非常好的近似值。
Clarifai.com的图像分类人工智能将是一个很好的例子,它是上面所说的更复杂的版本。从下面的图片中可以看出,它没有将其中一个输出设置为水平,而是设置为日落。日落的输出值约为0.9,这告诉我们,图片中出现日落的概率约为90%。
希望我没有在细节上让你失望。如果我做到了,庆幸的是,有解决方案提供商来处理人工智能的科学部分。
原文地址:https://www.wbolt.com/how-neural-networks-work.html