科技食谱

机器学习架构之路

除了AI,深度运行和机器运行之外,无法解释计算机技术。 AI可以定义为机器再现的人类智能。用于计算机处理人为驱动的任务。当前的AI仅限于处理一个或多个比人类更聪明的预定义情况。这就像学习自然语言处理和理解和说这种语言的游戏一样。

机器学习是一种实现AI的方法,可以根据经验查找和学习数据模式。机器学习不是人类编程并赋予计算机权力,但它可以创建算法并识别模式并通过仅提供数据来学习。机器学习可以自己搜索数据并学习模式,这样即使出现未知情况,也可以根据学到的模式对其进行分类。机器学习的好处是,一旦你学习,你可以再次学习。其中一个优点是这里不需要人为干预。

现有编程需要严格的规则。但是,机器学习程序,例如,对电子邮件进行排序,并为您提供相同类型的命令以减少错误,并且机器的其余部分继续学习。

深度学习是执行机器学习的技术之一,它包括再现人类大脑结构的神经网络的概念。人工智能本身的概念已经在20世纪50年代开始,但在20世纪80年代,机器学习开始普及。在2000年代,深度学习变得切实可行,人工智能开始实现。

当机器学习系统被训练时,它被赋予学习的属性。例如,水果包括颜色和重量等属性。两个属性意味着两个维度。如果你有苹果和橘子,机器学习会识别数据模式,并可以区分这两者。但是,滥用属性数据不会产生令人满意的结果。如果苹果和橙子具有种子数和成熟状态的特性,则通过区分数据变成不能识别两个果实的差异的状态。换句话说,知道基于机器学习要学习什么类型的数据是很重要的。在水果的情况下,它被判断为两个属性,但可以增加属性。

下一个重要的事情是如何为学习准备好的数据。如果您研究猫,您需要大约10,000个数据才能获得良好的结果。给定数据可以是图像,文本,测量,声音样本等,以及图像。

机器运行无法预测你不知道的东西。例如,如果您根据动物的腿数,颜色,重量和种类等因素学习4,黑色,10公斤,狗,2,橙,5公斤和鸡,计算机将判断此数据是否打开。因为计算机只能学习狗和鸡,所以预计它会更接近。

你如何学习机器学习系统?监督培训就是一个典型的例子。提供标签数据并继续学习。如果按颜色,重量和类型划分水果,则在输入新信息时将其放入。

另一方面,无监督培训是一种基于未标记数据集自行进行学习的机器。如果有三个块元素,则计算机首先识别出有三个簇,然后对它们进行分类。如果您的计算机上有某些类别,请务必事先告诉我们。这是要解决它。

强化学习是一种通过重复执行和失败逐渐找到正确方向的学习方法。如果您运行游戏,如果您不了解游戏规则,如果您获得了良好的结果,计算机旨在通过获得奖励重复数百万次最大化奖励,最终获得最有效的答案。

如何使用AI? Google使用机器学习在Google相册中进行智能搜索,智能提及自动回复Gmail收件箱。对于Google镜头,智能手机相机只是识别物体拍摄的物体并识别菜单。机器学习还可用于改善服务内的用户体验。什么可以用来设计个性化。

除机器人外,您还可以让机器人通过机器学习学习各种功能。您还可以通过在图片中创建图像或通过学习各种主题来让AI创建您自己的虚拟视频。还可以预测掌握大型模式和行为的复杂性,并帮助自然地在日常生活中进行交流。

人工智能一直在不断发展。那么机器学习架构是如何发展的呢? Google AI导演杰夫迪恩于1月份与图灵奖获得者大卫帕特森一起发表了他的论文。在本文中,鼓励机器学习专家和计算机架构师共同设计实现机器学习潜力所需的计算系统。

他还提到了研究人员希望在7月份在北京举行的清华 – 谷歌人工智能研讨会上学习的模型趋势。他指出,档案档案(arXiv)中发表的机器学习论文数量的增加超过了1975年的摩尔定律。

在他的论文中,他分析了使用TPI v1(第一代TPU(Tensor Processing Unit))和第二代TPU v2(谷歌开发的机器学习处理器)的硬件设计。双方需要根据五年时间框架了解情况,其中包括至少两年的设计和三年的引入,以保持机器运行的硬件竞争力。他听了六年关于机器学习硬件设计的事情,为期五年。

一,学习。机器学习工作流程中最重要的两个步骤是称为推理或预测的生产阶段以及称为增强或学习的开发阶段。谷歌在2015年宣布了TPU v1,在2017年宣布了TPU v2,在今年宣布了TPU v3。 Jeff Dean表示,通过链接多达16个TPU v2,您可以将Google搜索排名模型学习速度提高14.2倍,将图像模型学习速度提高9.8倍。 TPU v2是最初连接到64个单元的系统配置,但速度仅通过配置的四分之一来实现。

当然TPU是昂贵的硬件,但谷歌还为进行机器学习研究的科学家提供了1000个免费的TPU设备,作为TensorFlow研究云(TFRC)计划的一部分。

第二个是批量大小。运行机器时的一个重要设置是批量大小和批量大小。通过将用于学习的数据划分为较小的批次,大小设置极大地影响了机器学习的速度和效率。今年的GPU可以使用32个或更多的小批量。

接下来是稀疏性。 Spa City是指神经网络中某些神经元的反应。有各种类型的水疗城市,因此您也可以使用它们,省略零或小数据值,以减少机器学习的复杂性。通常情况下,较大的数据集需要较大的模型大小,但在Google的混合专家(MoE)中,使用较少的先前方法可以减少学习。事实上,谷歌的英法翻译数据集MoE模型比GNMT(谷歌神经机器翻译)高1.01倍

以下是量化。量化已经证明对于经济有效的机器学习推理是有用的。据说人们越来越意识到,通过学习已经接受过新AI培训的AI AI,提高效率是不容忽视的。

以下是软内存网络。该报称,一些深度运行的技术可以提供与内存访问类似的功能。例如,注意机制用于通过在处理数据时关注长序列之间的源的所选部分来提高机器学习的学习性能。与传统硬核存储器不同,软存储器计算为内容丰富的内容选择准备的所有项目的加权平均值。然而,没有关于如何有效地实现具有复杂处理的软存储器模型的研究。

最后是L2L(学习学习)。从你学到的东西中学习。大规模机器学习架构模型设计大多依赖于人类专家所掌握的经验规则和直觉。 L2L从机器学习中学习是革命性的,因为它是一种模型,使人类专家能够在不做决定的情况下自动学习。这种方法还可以帮助机器学习专业人员解决缺乏的问题。

对于此类自动化机器学习,Google Brain团队使用强化学习。使用准确度作为补偿信号,您可以随着时间的推移学习自我改进。在使用NMT(神经机器翻译)模型的学习实验中,基于强化学习的学习速度快65小时,训练时间快27.8%。

杰夫迪恩是未来前景的一个重要模型,但他一直活跃在水疗城市,一个模式来解决更多任务,学习通过大型模型动态成长和增长,机器学习,专注于超级计算的硬件,硬件和机器学习,高效映射是可能的。

lswcap

lswcap

通过每月的AHC PC和HowPC杂志时代,他在网络IT媒体上观看了“技术时代”,如ZDNet,电子报互联网经理,Consumer Journal Ivers的编辑,TechHolic出版商和Venture Square的编辑。 我很好奇这个仍然充满活力的市场。

Add comment

Follow us

Don't be shy, get in touch. We love meeting interesting people and making new friends.

Most discussed

%d 블로거가 이것을 좋아합니다: