赞
踩
在加入谷歌一年后,1月18日凌晨,谷歌云负责人、首席科学家李飞飞通过自己的推特账号和博客宣布了谷歌云取得的里程碑进展:可自动设计、建立机器学习模型的服务——AutoMLVision。
“我很荣幸地宣布AutoMLVision面世。这是一款能让每个人都有能力构建机器学习模型,却无需机器学习经验的产品。这是“人工智能民主化”的重要进展!也是令人振奋的团队合作结果。
”李飞飞在自己的推特账号上写道。这款面向公众的产品,意味着谷歌正在努力让人工智能成为每个人都会使用且容易上手的工具,也降低企业开发人工智能的门槛。
除了在自己的推特上介绍此款新产品外,李飞飞还与谷歌人工智能研发负责人李佳共同撰写了博客,详细介绍了新产品。AutoMLVision是一款提供自定义图像识别系统自动开发的服务。
用户只需要将自己的数据上传,就可以直接在谷歌云上训练和管理模型。也就是说,即使是没有机器学习专业知识的的人,只需了解模型基本概念,就能借这项服务轻松搭建定制化的图像识别模型。
但目前谷歌并未透露该服务如何收费。谷歌的cloud_auto_ml如何使用?
目前,迪士尼已通过AutoML建立图片分类模型,依据角色、种类和颜色等分类标示产品,并导入搜寻的功能中,让消费者搜寻商品更加方便且准确。
另外,美国流行服装零售商UrbanOutfitters也通过AutoML来分类商品。除了图像识别,谷歌未来还计划将AutoML服务拓展到翻译、视频和自然语言处理等领域。
在博客中,两位女科学家认为谷歌这款产品的优势在于以下三点:一是即使用户的机器学习专业知识有限,也可以获得更准确的模型。二是能更快速的建立模型,用户可以在几分钟内或者在一天内构建完整的能用的模型。
三是易于使用,用户操作的界面简洁清晰。谷歌博客截图这些优势也在一定程度上解决了当前人工智能在工业界发展的一些瓶颈。
首先,从目前的情况看,世界上只有少数企业能够支付得起人工智能以及机器学习的人才招募和研发预算,这意味着企业可以创建的高级机器学习模型非常有限。
其次,即便是有能力的公司,也需要大量的精力来管理和构建自定义的机器学习模型和其中复杂的研发过程。AutoMLVison操作界面那么谷歌是如何做到的?
AutoML由控制器(Controller)和子网络(Child)2个神经网络组成,控制器生成子模型架构,子模型架构执行特定的任务训练并评估模型的优劣反馈给控制器,控制器将会将此结果作为下一个循环修改的参考。
重复执行数千次“设计新架构、评估、回馈、学习”的循环后,控制器能设计出最准确的模型架构。
2017年3月份,谷歌就推出了机器学习服务GoogleCloudMachineLearningEngine,帮助具有机器学习专业知识的开发人员轻松构建适用于任何规模、任何类型数据机器学习模型。
不过,那时候的机器学习服务需要使用大量的数据,才能训练出一般(General)的预测模型,难以符合每家企业的需求。
这次推出的AutoML则更进一步,直接为企业提供机器学习技术来建立自家的模型,也推动了谷歌“人工智能民主化”的战略目标。
不过,虽然谷歌称AutoML是市面上唯一提供类似服务的产品,但此前、微软的认知服务,以及IBM的Watson视觉识别也能让曾提供给用户定制预先训练好的视觉、语音识别和决策模型的服务。
谷歌人工智能写作项目:小发猫
果蝇是公认被人类研究的最彻底的生物之一,谷歌自动重建整个果蝇的大脑的意义就是推动了分子生物学、遗传学和神经科学的发展什么软件可以显示神经网络图,神经网络图怎么看。科学家们一直梦想通过绘制完整的大脑神经网络的结构,以了解神经系统是如何工作的。
据新智元报道,最近,谷歌与霍华德休斯医学研究所、剑桥大学合作发表了一项研究成果,探讨了整个果蝇大脑每个神经元的自动重建过程。
参与这项研究的团队给一只果蝇的大脑细胞和突触注入重金属,用来标记每个神经元及其连接的轮廓。为了生成图像,他们用一束电子束轰击大约7062个果蝇大脑切片,然后电子束穿过了除含有重金属部分以外的所有物体。
果蝇并不是随意选取的研究目标。
正如该论文的几位合著者在一篇博客文章中指出的,果蝇的大脑相对较小(10万个神经元),与青蛙的大脑(超过1000万个神经元)、老鼠的大脑(1亿个神经元)、章鱼的大脑(5亿个神经元),以及人类的大脑(1000亿个神经元)相比是最佳选择。
这使得他们更容易做“完整的闭环”研究。要绘制出一个果蝇的大脑,首先需要将它切成数千个40纳米的超薄切片,然后用透射电子显微镜对其成像,并将其排列成整个大脑的三维立体图像。
接下来,成千上万的由谷歌定制的人工智能加速芯片运行一种被称为洪水填充网络(FFNs)的特殊算法。随着时间的推移,算法会自动追踪果蝇大脑中的每个神经元,最终重建出果蝇大脑。
TPU的需求大约真正出现在6年之前,那时我们在所有产品之中越来越多的地方已开始使用消耗大量计算资源的深度学习模型;昂贵的计算令人担忧。
假如存在这样一个场景,其中人们在1天中使用谷歌语音进行3分钟搜索,并且我们要在正使用的处理器中为语音识别系统运行深度神经网络,那么我们就不得不翻倍谷歌数据中心的数量。
TPU将使我们快速做出预测,并使产品迅速对用户需求做出回应。
TPU运行在每一次的搜索中;TPU支持作为谷歌图像搜索(GoogleImageSearch)、谷歌照片(GooglePhoto)和谷歌云视觉API(GoogleCloudVisionAPI)等产品的基础的精确视觉模型;TPU将加强谷歌翻译去年推出的突破性神经翻译质量的提升;并在谷歌DeepMindAlphaGo对李世乭的胜利中发挥了作用,这是计算机首次在古老的围棋比赛中战胜世界冠军。
我们致力于打造最好的基础架构,并将其共享给所有人。我们期望在未来的数周和数月内分享更多的更新。
谷歌的神经网络翻译(GNMT)的性能与传统的基于词组的翻译(PBMT)相比,的确有了显著的提高。
在不同的语言对上,GNMT把PBMT与人工翻译的鸿沟缩小了58%~87%,在某些语言对上可以说接近了人工翻译的水平。但是,说GNMT将取代人工翻译,还为时尚早。
GNMT仍然时不时地会犯一些很傻的错误,论文的最后一页列举了一些,机智的网友们也发现了不少。实际场合的翻译,尤其是书面翻译,对这样的错误容忍度很低。GNMT的贡献主要还是在不为用户所了解的技术方面。
神经网络翻译与PBMT相比,模型「清爽」了许多,一个神经网络搞定一切,只是一直以来在性能和速度方面比不上PBMT。
GNMT把神经网络翻译在性能和速度方面的潜力发挥了出来,我觉得神经网络翻译在不久的将来将成为主流。
Google开源了其第二代深度学习技术TensorFlow——被使用在Google搜索、图像识别以及邮箱的深度学习框架。这在相关媒体圈、工程师圈、人工智能公司、人工智能研究团队里有了一些讨论。
比较有趣的是,微软亚洲研究院立刻向媒体发邮件表示,我们发布了开源分布式机器学习工具包(DMTK)。对于大众来说,这件事让人“困惑”。
从“深度学习”到“分布式系统”,太多概念大众一知半解,现今给出的资料又让人难以理解。而对于“Google开源TensorFlow”这一事件,各个公司、团队、学术权威也是众说纷纭。
因此,出门问问为大家“破雾”,并讲一讲这次开源意味着什么。什么是深度学习?深度学习系统是什么?深度学习理论于2006年被提出,它通过模拟“人脑的神经网络”来解释图像、声音和文本等数据。
但是目前的计算机还达不到模拟人脑数量庞大的神经元(千亿级),因此便有了用到成千上万大型计算机(计算平台集群)来吸收数据对其进行自动分类的“分布式深度学习系统”。
TensorFlow的起源和此次开源事件Google将自家研发的深度学习系统命名为“DistBelief”,它使得Google能够同时处理成千上万台大型计算机的数据,构建更大型的神经网络和大规模训练。
Google的搜索、图像识别及邮箱等均采用了该技术。一般情况下,深度学习系统都需要先设定好feature(特征),再学习如何分辨。
但GoogleDistBelief神奇的地方在于,“GoogleBrain”开发团队“XLab”曾用它在未事先获取“猫的特征描述”信息的情况下,从大量YouTube视频中区分出了哪些是猫的视频。
这意味着深度学习系统“DistBelief”自行总结出了猫的feature(特征)!虽然这个案例的识别范围、识别率有待提高(81.7%),但作为人工智能最经典案例之一,为人工智能翻开了新的篇章。
而“猫”的事件,也让曾经的GoogleBrain开发团队“XLab”的核心人员、现在被李彦宏挖到百度的吴恩达得到了“GoogleBrain”之父的美誉。
不过,时代总是进步,而“DistBelief”有缺陷。Google称,虽然DistBelief非常成功,但它仅仅以神经网络为目的、十分局限,而且很难进行配置。
另外,DistBelief牢牢绑定在Google的内部基础设施上,几乎不可能将代码与外界共享。因此,本文的主角,Google的第二代深度学习系统“TensorFlow”横空出世了。
Google表示,TensorFlow在设计上尤其针对克服DistBelief的短板,灵活、更通用、易使用、更快,而且完全开源。
TensorFlow可以被架设在智能手机这样小的设备上,甚至仅一块电路板上,更灵活;TensorFlow可以被使用在很多计算平台,无论是智能手机还是大型计算机、单个CPU/GPU计算机还是成百上千GPU卡组成的分布式系统,ARM的还是X86的构架,更通用;TensorFlow支持多种编程语言,提供了很多深度学习模型库,易使用;在很多指标上,TensorFlow要比DistBelief要快一倍,更快。
但是,学术界和工程界的一些朋友并不喜欢这个“刚刚闯入”开源界的“小伙子”,判了它“意义不大”的死刑。
“TensorFlow”之所以“开源”却不讨好,是因为TensorFlow不是第一个被开源的深度学习系统,并且目前只开源了“单机版”,而非能够识别猫的“分布式版本”。
除了并非第一以及只开源了单机版代码这两点外,Google开源TensorFlow这件事最被人诟病的地方在于,在“用事实”、“用数据”说话的学术界、工程界,Google并未用“数据对比”证明TensorFlow的“灵活、更通用、易使用”。
对于TensorFlow,出门问问的看法是,TensorFlow对学术界意义不大,但是对工程界意义挺大。
TensorFlow对工程界有意义:其它开源工具虽然众多但对工程界很难有效使用Google这次开源的TensorFlow是一种人工智能(更具体的说是深度学习)编程语言或计算框架,学术界从来都不缺少类似的开源工具,尤其是“单机版工具包”有很多。
但是学术界的工具往往更多专注在核心算法上,在系统和工程方面比较欠缺,工业界很难直接有效的使用,而Google的TensorFlow在架构设计,跨平台可移植性,算法可扩展性等等偏工程方面会做的比较好。
所以,TensorFlow对学术界的帮助比较小,但对工业界的帮助有很大潜在可能性。
比如语音识别、自然语言理解、计算机视觉、广告等等都可以应用这种深度学习算法,Google也因为深度学习系统的应用使得Google语音识别水平提高25%。
有意义归有意义,意义的大小是另一回事了。在这个信息交流频繁的时代,没有公司能随便制造一个具有超大意义的事件或者跨时代的黑科技产品。
对于工程界,TensorFlow有意义但又不是神乎其神的东西,尤其是Google目前开源的“单机版”的TensorFlow意义要小一些。
因为在工程界里,若要完成一整件事,如识别语音,TensorFlow这种通用深度学习框架的存在更多是锦上添花,而非决定根本。
比如说在一个可以应用的语音识别系统里,除了深度学习算法外,还有很多工作是专业领域相关的算法以及海量数据收集和工程系统架构的搭建。其实,对于中国来说,TensorFlow还有一个意义。
在人工智能大潮下许多人和公司想入局,但大都没有能力理解并开发一个与国际同步的深度学习系统,而TensorFlow的存在会大大降低深度学习在各个行业中的应用难度。
至于弄懂TensorFlow要花费大量时间的问题,就像很多公司用Linux或者hadoop(一种分布式系统基础架构)但很少有公司弄懂了所有源代码一样,可以把TensorFlow当成一个黑盒,先快速用起来,之后再根据数据和专业领域知识来调整。
总的来说,如果Google按照其所说的那样,在未来完全开源TensorFlow——包括其“分布式版本”,那么TensorFlow对工程界的影响会更明显些——尤其对中国创业公司来说。
1、Pandas:是一个Python包,旨在通过“标记”和“关系”数据进行工作,简单直观。它设计用于快速简单的数据操作、聚合和可视化,是数据整理的完美工具。
2、Numpy:是专门为Python中科学计算而设计的软件集合,它为Python中的n维数组和矩阵的操作提供了大量有用的功能。
该库提供了NumPy数组类型的数学运算向量化,可以改善性能,从而加快执行速度。3、SciPy:是一个工程和科学软件库,包含线性代数,优化,集成和统计的模块。
SciPy库的主要功能是建立在NumPy上,通过其特定子模块提供有效的数值例程,并作为数字积分、优化和其他例程。
4、Matplotlib:为轻松生成简单而强大的可视化而量身定制,它使Python成为像MatLab或Mathematica这样的科学工具的竞争对手。
5、Seaborn:主要关注统计模型的可视化(包括热图),Seaborn高度依赖于Matplotlib。
6、Bokeh:独立于Matplotlib,主要焦点是交互性,它通过现代浏览器以数据驱动文档的风格呈现。
7、Plotly:是一个基于Web用于构建可视化的工具箱,提供API给一些编程语言(Python在内)。
8、Scikits:是ScikitsStack额外的软件包,专为像图像处理和机器学习辅助等特定功能而设计。
它建立在SciPy之上,中集成了有质量的代码和良好的文档、简单易用并且十分高效,是使用Python进行机器学习的实际行业标准。
9、Theano:是一个Python软件包,它定义了与NumPy类似的多维数组,以及数学运算和表达式。此库是被编译的,可实现在所有架构上的高效运行。
10、TensorFlow:是数据流图计算的开源库,旨在满足谷歌对训练神经网络的高需求,并且是基于神经网络的机器学习系统DistBelief的继任者,可以在大型数据集上快速训练神经网络。
11、Keras:是一个用Python编写的开源的库,用于在高层的接口上构建神经网络。它简单易懂,具有高级可扩展性。
12、NLTK:主要用于符号学和统计学自然语言处理(NLP)的常见任务,旨在促进NLP及相关领域(语言学,认知科学人工智能等)的教学和研究。
13、Gensim:是一个用于Python的开源库,为有向量空间模型和主题模型的工作提供了使用工具。
这个库是为了高效处理大量文本而设计,不仅可以进行内存处理,还可以通过广泛使用NumPy数据结构和SciPy操作来获得更高的效率。
您好,谷歌人工智能的工作原理,“深度学习”是指多层的人工神经网络和训练它的方法。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。
这就像生物神经大脑的工作机理一样,通过合适的矩阵数量,多层组织链接一起,形成神经网络“大脑”进行精准复杂的处理,就像人们识别物体标注图片一样。
最近短短几年的发展,从大数据,深度学习人工智能到虚拟现实,从发现了类地球行星,证实引力波,从Hyperloop,无人驾驶,量子计算,这些魅力无穷的科技让我们对世界的认识上升到新的高度。
现在的人工智能原来越成熟,同时我们也要不断提防着某一天突然人工智能取代人脑的情况。祝您生活愉快~请采纳~。
人工智能的里程碑式的成就。完成这个成就有多难?东方的围棋被认为更加复杂,更加需要棋手难以置信的直觉。
国际象棋中,平均每回合有35种可能,一盘棋可以有80回合;相比之下,围棋每回合有250种可能,一盘棋可以长达150回合。
就博弈的局面来讲,一般认为国际象棋为10的123乘方,而围棋则有10的360乘方以上。这导致软件来不及列举出所有能赢的方案,导致不敌职业棋手。
所以,在此前的比赛中,围棋AI一般和业余段位的棋手比赛,而且人类选手都会让子。但是“阿尔法围棋”的对手是法国国家围棋队教练、欧洲围棋冠军,而且没有让子。阿尔法围棋是怎么做到的?
DeepMind团队表示,“阿尔法围棋”的关键在于使用的深度神经网络。在这样的网络中,如果你将足够多的关于树木的照片输入进去,它们就能学会识别出一棵树。
如果输入足够多的对话,它们就能学会如何进行一段得体的对话。如果输入足够多的围棋走法,它们就能学会下围棋。
实际上,在“阿尔法围棋”中有两种不同的神经网络:“策略网络”(policynetwork)和“值网络”(valuenetwork)。
它们的任务在于合作“挑选”出那些比较有前途的棋步,抛弃明显的差棋,从而将计算量控制在计算机可以完成的范围里,本质上和人类棋手所做的一样。
“阿尔法围棋”利用这两个工具来分析局面,判断每种下子策略的优劣,就像人类棋手会判断当前局面以及推断未来的局面一样。这样“阿尔法围棋”在分析了比如未来20步的情况下,就能判断在哪里下子赢的概率会高。
也有许多专家相信,人类掌握围棋的秘诀在于模式识别——通过棋子组成的图形形状来判断优势和弱点,而不是预测几步棋后的走向。也正是因为这个原因,模式识别算法的最新进展有可能会大大改进计算机的表现。
新算法利用大型的图片数据库,训练深度卷积神经网络(deepconvolutionalneuralnetworks)来识别物体和面孔。这一网络借鉴了人脑的信息处理机制,与人脑的神经结构有相似之处。
因此,可以预想,这样的算法用在围棋棋局自动评估上,也能发挥巨大的作用。根据研发者的介绍,这种神经网络可以自主学习,而非传统的对人工智能进行“监督训练”的算法。
此外,AI很容易通过大量的训练积累足够多的经验。人类或许一年可以下1000局围棋,但AI一天就能玩100万局,不会疲劳。所以理论上来讲,只要“阿尔法围棋”经过足够的训练,就可以击败所有的人类选手。
newff函数建立BP神经网络,历史数据作为样本,例如前n个数据作为输入,输入节点为n。当前数据作为p,输出节点为1。隐层节点根据试凑法得到。
通过matlab的train函数,得到训练好的BP神经网络。再将当前预测点的前n个数据作为输入,输出即为当前的预测值。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。