赞
踩
目前经常使用的深度神经网络模型主要有卷积神经网络(CNN)、递归神经网络(RNN)、深信度网络(DBN)、深度自动编码器(AutoEncoder)和生成对抗网络(GAN)等。
递归神经网络实际.上包含了两种神经网络。
一种是循环神经网络(RecurrentNeuralNetwork);另一种是结构递归神经网络(RecursiveNeuralNetwork),它使用相似的网络结构递归形成更加复杂的深度网络。
RNN它们都可以处理有序列的问题,比如时间序列等且RNN有“记忆”能力,可以“模拟”数据间的依赖关系。卷积网络的精髓就是适合处理结构化数据。
关于深度神经网络模型的相关学习,推荐CDA数据师的相关课程,课程以项目调动学员数据挖掘实用能力的场景式教学为主,在讲师设计的业务场景下由讲师不断提出业务问题,再由学员循序渐进思考并操作解决问题的过程中,帮助学员掌握真正过硬的解决业务问题的数据挖掘能力。
这种教学方式能够引发学员的独立思考及主观能动性,学员掌握的技能知识可以快速转化为自身能够灵活应用的技能,在面对不同场景时能够自由发挥。点击预约免费试听课。
谷歌人工智能写作项目:小发猫
目前经常使用的深度神经网络模型主要有卷积神经网络(CNN)、递归神经网络(RNN)、深信度网络(DBN)、深度自动编码器(AutoEncoder)和生成对抗网络(GAN)等常见的神经网络结构。
递归神经网络实际.上包含了两种神经网络。
一种是循环神经网络(RecurrentNeuralNetwork);另一种是结构递归神经网络(RecursiveNeuralNetwork),它使用相似的网络结构递归形成更加复杂的深度网络。
RNN它们都可以处理有序列的问题,比如时间序列等且RNN有“记忆”能力,可以“模拟”数据间的依赖关系。卷积网络的精髓就是适合处理结构化数据。
关于深度神经网络模型的相关学习,推荐CDA数据师的相关课程,课程以项目调动学员数据挖掘实用能力的场景式教学为主,在讲师设计的业务场景下由讲师不断提出业务问题,再由学员循序渐进思考并操作解决问题的过程中,帮助学员掌握真正过硬的解决业务问题的数据挖掘能力。
这种教学方式能够引发学员的独立思考及主观能动性,学员掌握的技能知识可以快速转化为自身能够灵活应用的技能,在面对不同场景时能够自由发挥。
关注这个问题快一周了,到目前来说还是没发现什么太大的惊喜。我感觉建筑设计界还是要学习一个,不要看到深度学习很火,就弄个大新闻,把这玩意往建筑设计上搬呀。其实深度学习这事儿到底怎么就能和建筑设计挂钩上?
如果单单指“深度学习”,那我的理解是套用了许多层的人工神经网络,这种技术能在建筑设计中扮演什么角色?我目前还真没发现直接用深度学习这种技术来辅助建筑设计的例子。
但是如果把题主提问的概念放宽松一点,变成“如何使用机器学习等算法来帮助建筑设计”,那我想还是有比较好的例子的。机器学习技术是用来让程序的运行性能随着输入量和时间的积累慢慢提高的一种技术。
例如你写了一个程序来预测一栋别墅的房价,这个程序的作用是能根据输入数据的[城市,街道,区位,面积,户型,..]等参数预测房价,为了提高程序预测的准确度,你需要先给程序喂一些已经有了估价结果的数据,程序学习一定的数据以后就能自己预测房价了。
那么,这种程序工作的方式和我们做建筑设计的工作流程有什么联系呢?我们做设计时,同样也是先调研和参考大量同类建筑的案例,积累到一定量以后,才能自己动手开始做设计。
了解了这一点,便可以设想一种利用机器学习来辅助建筑设计的思路:先让程序学习以前的建筑设计方案,然后程序就能自己去做设计了!
这篇2010年的论文Computer-generatedresidentialbuildinglayouts可以说就是以上思路的典范。
作者自称“使用数据驱动的方式设计了能自动创建视觉效果非常好的建筑布局的工具”,但我觉得论文的质量是远远超过了这样谦逊的描述,因为论文实现的思路极大程度借鉴了现实中建筑师开展设计工作的流程,而且用了贝叶斯网络这个非常漂亮的数学模型描述了一个建筑program在空间中的分布,而贝叶斯网络的训练数据全部来自真实的建筑师的设计方案。
个人认为用机器学习的思路去处理建筑布局问题相比于过去十年来ShapeGrammar的那种ProceduralModeling的思路来得更为正确。论文是怎么展开的呢?
首先,作者总结了前人工作,说明了以前基于穷举的算法都行不通,要在3D空间中去穷举这么复杂的空间分配问题就和猴子随意敲键盘得到一部莎士比亚作品的难度差不多。
接着作者又批判了上个世纪90年代Muller搞的ShapeGrammar那一套也不行,因为ShapeGrammar就是图形语法,我们知道,编程语言是是基于有限规则的语法集生成的,而建筑设计中这样的规则条款很难形式化描述,而且会倾向于让语法数量变得无穷多。
顺带一提,几十年前计算机科学家在攻克语音识别和机器翻译难题的时候,也是认为自然语言是完全基于有限的规则生成的,但后来才发现行不通,直到后来改成基于统计的方法进行研究后,才有了突破性进展。
那么shapegrammar不适合建筑设计的另外一点在于,建筑设计不是玩弄图形变换的游戏,每一个建筑空间都有基于功能,心理和效用等因素的考虑。
之前也有过用shapegrammar分析赖特壁炉式住宅的语法规则的论文,但是应用范围实在太窄。所以这条路是走不通的。
论文作者认为,做方案,一定要基于人的舒适和心理需求,习惯和社会关系等因素,将他们综合考量后才会有比较合理的结果。
例如,房间的形状最好是凸包而不要做成凹的,因为在采光上,家具摆放和视线上方正规整的形体都更优;建筑各个功能要形成开放性-私密性的梯度,因为这正反映了建筑被使用的方式。
为了研究更好的方法,作者去找到了一家建筑事务所的建筑师们向他们咨询职业建筑师的工作方式,得到了一个特别有用的结论:建筑师在初期和客户咨询后,在画平面的详图之前,一般都会用泡泡图来思考问题,而泡泡图则反映了一个建筑方案高度浓缩的信息,包括私密性,房间邻接关系,采光,业主喜好和文化习俗。
泡泡图在在建筑师看来是展开方案设计工作的第一步,在计算机科学家看来则是一种复杂的数据结构——图。
从使用者或者任务书弄出一张泡泡图是建筑师专业能力的体现,不管这种能力是基于长期训练的素养也好,还是临时起意的构想也好,我们知道这张图包含的信息量很大就对了。
那现在问题是,如何让计算机来生成这样一张泡泡图呢?这个时候就要轮到本回答开始的机器学习算法登场了。作者用来一个概率图模型——贝叶斯网络来描述建筑师做出来的泡泡图。
用人话说,就是用这玩意来描述建筑方案中每一个部分在空间中的概率分布。
好像说起来还是不太容易懂,但总之,我们知道了,这个模型可以让电脑知道对应一个成功的建筑方案,客厅、卧室和走廊等出现在某些位置的概率比出现在另外一些的位置的概率高,而概率高的位置正是合理的位置,这样就更容易生成好的方案。
针对贝叶斯网络的训练,作者搞了120套住宅建筑方案作为训练数据来喂给程序吃。现在程序总算是知道建筑方案的基本做法了,以下就是基于贝叶斯网络生成的泡泡图:搞定了泡泡图之后,怎么从这玩意生成建筑平面呢?
作者几经周折,最后用了Metropolis算法来搞定。具体的生成过程描述都在论文里面有写,我就不详细写了(其实是看不懂。
)再下一步是生成3D模型,作者比较自豪地说,他搞的这个算法真正实现了多层建筑方案的生成,而以前的基本只能生成单层的平面,作用有限。以下是一些成果:搞定了泡泡图之后,怎么从这玩意生成建筑平面呢?
作者几经周折,最后用了Metropolis算法来搞定。具体的生成过程描述都在论文里面有写,我就不详细写了(其实是看不懂。
)再下一步是生成3D模型,作者比较自豪地说,他搞的这个算法真正实现了多层建筑方案的生成,而以前的基本只能生成单层的平面,作用有限。
以下是一些成果:6张平面有几张是人做的方案,剩下的都是机器做的,大家可以猜一下机器做的是哪几个。答案论文里面有说。6张平面有几张是人做的方案,剩下的都是机器做的,大家可以猜一下机器做的是哪几个。
答案论文里面有说。最后是生成的3D模型,家具是手工布置的。还是颇具真实度呢!作者最后提到,准备把这个东西运用到更多的建筑类型上,例如办公楼等。如果这玩意儿成熟,再也不用担心建筑师不失业了,偶也!
最后我再说说对这玩意的评价吧。
最近几十年知识工作的自动化简直如火如荼地吹遍天南地北的各个行业,许多人都担心低端的劳动职位会不会被取代,例如驾驶汽车,快递,写新闻稿,翻译,速记等等等,这种担心真的不是毫无理由啊!
当优雅简洁的数学模型遇到计算机这个可以暴力计算的机器,结合起来就创造了一类又一类可成规模复制的智能机器,想想还是让人后怕的。
不过也不用太担心就是,建筑设计行业人所占的因素还是很大的,很多时候甲方找人做设计,都是看重设计师本身,出了专业能力外,沟通,人格魅力,背景,执照等的背书也是很重要的,不过未来这种建筑界持续了很久的行业模式会不会被颠覆就不得而知了。
另外,程序也需要吃许多训练数据才能提高自己的设计修养,在目前来看建筑设计的各位同行都把自己搜集的方案当成宝一样藏着,数据量的大而全也很难保证,不知道以后BIM的普及会不会让这方面得到改善。
。
这两个概念实际上是互相交叉的,例如,卷积神经网络(Convolutionalneuralnetworks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(DeepBeliefNets,简称DBNs)就是一种无监督学习下的机器学习模型。
深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
深度学习的概念由Hinton等人于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。
此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。
第一,深度神经网络不是黑盒,个人电脑开机直到神经网络运行在内存中的每一比特的变化都是可以很细微的观察的。没有任何神秘力量,没有超出科学解释的现象发生。
第二,深度神经网络的工作方式是基于传统的电脑架构之上的,就是数据+算法。但人们确实从中窥探到了一种全新的电子大脑方式。所以目前有研究提炼一些常用神经网络算法加速硬件。微软等巨头则在开发量子计算。
第三,深度神经网络是一个很初级的特征自动提取器。说初级因为简单粗暴。以前为了节约算力特征关键模型都是人工亲自设定。而现在这部分工作随着算力的提高可以自动化。
所以从某种意义上来说深度神经网络也是一种自动编程机,但和人们相比,一点点小小的自动化都需要很多很多的计算力支持,这一点也不重要,重要的是,它能工作(手动英文)。那么深度神经网络究竟是什么呢?
它是一个能迭代更新自己的特征提取算法。现在这个算法可是像全自动高级工厂,数据往里一丢,不得了!整个工厂里面所有机器都动了起来。没见过的小伙伴当场就被吓呆瓜了,用流行的话说叫懵住。
几千只机械手把数据搬来搬去,拿出魔方一样的盒子装来装去又倒出来。整个场面就叫一个震撼。算法运行规模也更大了。
深度学习与神经网络关系2017-01-10最近开始学习深度学习,基本上都是zouxy09博主的文章,写的蛮好,很全面,也会根据自己的思路,做下删减,细化。
五、DeepLearning的基本思想假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn=>O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。
信息论中有个“信息逐层丢失”的说法(信息处理不等式),设处理a信息得到b,再对b处理得到c,那么可以证明:a和c的互信息不会超过a和b的互信息。这表明信息处理不会增加信息,大部分处理会丢失信息。
当然了,如果丢掉的是没用的信息那多好啊),保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。
现在回到我们的主题DeepLearning,我们需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设我们设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,…,Sn。
对于深度学习来说,其思想就是对堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。
另外,前面是假设输出严格地等于输入,这个限制太严格,我们可以略微地放松这个限制,例如我们只要使得输入与输出的差别尽可能地小即可,这个放松会导致另外一类不同的DeepLearning方法。
上述就是DeepLearning的基本思想。六、浅层学习(ShallowLearning)和深度学习(DeepLearning)浅层学习是机器学习的第一次浪潮。
20世纪80年代末期,用于人工神经网络的反向传播算法(也叫BackPropagation算法或者BP算法)的发明,给机器学习带来了希望,掀起了基于统计模型的机器学习热潮。这个热潮一直持续到今天。
人们发现,利用BP算法可以让一个人工神经网络模型从大量训练样本中学习统计规律,从而对未知事件做预测。这种基于统计的机器学习方法比起过去基于人工规则的系统,在很多方面显出优越性。
这个时候的人工神经网络,虽也被称作多层感知机(Multi-layerPerceptron),但实际是种只含有一层隐层节点的浅层模型。
20世纪90年代,各种各样的浅层机器学习模型相继被提出,例如支撑向量机(SVM,SupportVectorMachines)、Boosting、最大熵方法(如LR,LogisticRegression)等。
这些模型的结构基本上可以看成带有一层隐层节点(如SVM、Boosting),或没有隐层节点(如LR)。这些模型无论是在理论分析还是应用中都获得了巨大的成功。
相比之下,由于理论分析的难度大,训练方法又需要很多经验和技巧,这个时期浅层人工神经网络反而相对沉寂。深度学习是机器学习的第二次浪潮。
2006年,加拿大多伦多大学教授、机器学习领域的泰斗GeoffreyHinton和他的学生RuslanSalakhutdinov在《科学》上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。
这篇文章有两个主要观点:1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类;2)深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wisepre-training)来有效克服,在这篇文章中,逐层初始化是通过无监督学习实现的。
当前多数分类、回归等学习方法为浅层结构算法,其局限性在于有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定制约。
深度学习可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。
(多层的好处是可以用较少的参数表示复杂的函数)深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。
因此,“深度模型”是手段,“特征学习”是目的。
区别于传统的浅层学习,深度学习的不同在于:1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;2)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。
与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。
七、Deeplearning与NeuralNetwork深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。
深度学习是无监督学习的一种。深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
Deeplearning本身算是machinelearning的一个分支,简单可以理解为neuralnetwork的发展。
大约二三十年前,neuralnetwork曾经是ML领域特别火热的一个方向,但是后来确慢慢淡出了,原因包括以下几个方面:1)比较容易过拟合,参数比较难tune,而且需要不少trick;2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优;所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算法的天下。
但是,一个痴心的老先生Hinton,他坚持了下来,并最终(和其它人一起Bengio、Yann.lecun等)提成了一个实际可行的deeplearning框架。
Deeplearning与传统的神经网络之间有相同的地方也有很多不同。
二者的相同在于deeplearning采用了神经网络相似的分层结构,系统由包括输入层、隐层(多层)、输出层组成的多层网络,只有相邻层节点之间有连接,同一层以及跨层节点之间相互无连接,每一层可以看作是一个logisticregression模型;这种分层结构,是比较接近人类大脑的结构的。
而为了克服神经网络训练中的问题,DL采用了与神经网络很不同的训练机制。
传统神经网络(这里作者主要指前向神经网络)中,采用的是backpropagation的方式进行,简单来讲就是采用迭代的算法来训练整个网络,随机设定初值,计算当前网络的输出,然后根据当前输出和label之间的差去改变前面各层的参数,直到收敛(整体是一个梯度下降法)。
而deeplearning整体上是一个layer-wise的训练机制。
这样做的原因是因为,如果采用backpropagation的机制,对于一个deepnetwork(7层以上),残差传播到最前面的层已经变得太小,出现所谓的gradientdiffusion(梯度扩散)。
这个问题我们接下来讨论。
八、Deeplearning训练过程8.1、传统神经网络的训练方法为什么不能用在深度神经网络BP算法作为传统训练多层网络的典型算法,实际上对仅含几层网络,该训练方法就已经很不理想。
深度结构(涉及多个非线性处理单元层)非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源。
BP算法存在的问题:(1)梯度越来越稀疏:从顶层越往下,误差校正信号越来越小;(2)收敛到局部最小值:尤其是从远离最优区域开始的时候(随机值初始化会导致这种情况的发生);(3)一般,我们只能用有标签的数据来训练:但大部分的数据是没标签的,而大脑可以从没有标签的的数据中学习;8.2、deeplearning训练过程如果对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递。
这会面临跟上面监督学习中相反的问题,会严重欠拟合(因为深度网络的神经元和参数太多了)。
2006年,hinton提出了在非监督数据上建立多层神经网络的一个有效方法,简单的说,分为两步,一是每次训练一层网络,二是调优,使原始表示x向上生成的高级表示r和该高级表示r向下生成的x'尽可能一致。
方法是:1)首先逐层构建单层神经元,这样每次都是训练一个单层网络。2)当所有层训练完后,Hinton使用wake-sleep算法进行调优。
将除最顶层的其它层间的权重变为双向的,这样最顶层仍然是一个单层神经网络,而其它层则变为了图模型。向上的权重用于“认知”,向下的权重用于“生成”。然后使用Wake-Sleep算法调整所有的权重。
让认知和生成达成一致,也就是保证生成的最顶层表示能够尽可能正确的复原底层的结点。
比如顶层的一个结点表示人脸,那么所有人脸的图像应该激活这个结点,并且这个结果向下生成的图像应该能够表现为一个大概的人脸图像。Wake-Sleep算法分为醒(wake)和睡(sleep)两个部分。
1)wake阶段:认知过程,通过外界的特征和向上的权重(认知权重)产生每一层的抽象表示(结点状态),并且使用梯度下降修改层间的下行权重(生成权重)。
也就是“如果现实跟我想象的不一样,改变我的权重使得我想象的东西就是这样的”。2)sleep阶段:生成过程,通过顶层表示(醒时学得的概念)和向下权重,生成底层的状态,同时修改层间向上的权重。
也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念”。
deeplearning训练过程具体如下:1)使用自下上升非监督学习(就是从底层开始,一层一层的往顶层训练):采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,是和传统神经网络区别最大的部分(这个过程可以看作是featurelearning过程):具体的,先用无标定数据训练第一层,训练时先学习第一层的参数(这一层可以看作是得到一个使得输出和输入差别最小的三层神经网络的隐层),由于模型capacity的限制以及稀疏性约束,使得得到的模型能够学习到数据本身的结构,从而得到比输入更具有表示能力的特征;在学习得到第n-1层后,将n-1层的输出作为第n层的输入,训练第n层,由此分别得到各层的参数;2)自顶向下的监督学习(就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调):基于第一步得到的各层参数进一步fine-tune整个多层模型的参数,这一步是一个有监督训练过程;第一步类似神经网络的随机初始化初值过程,由于DL的第一步不是随机初始化,而是通过学习输入数据的结构得到的,因而这个初值更接近全局最优,从而能够取得更好的效果;所以deeplearning效果好很大程度上归功于第一步的featurelearning过程。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。