当前位置:   article > 正文

20200529机器学习在物理学中的应用_机器学习在凝聚态物理的应用

机器学习在凝聚态物理的应用

机器学习在物理学中的应用

0. 前言

本文是我为了完成物理学中的数值方法||课程作业而写下的,作业的要求是“谈一下机器学习方法在你的专业领域(凝聚态物理学)可能的应用”。我认为为了完成该作业,有必要具体学习一下什么是机器学习,因此观看学习了吴恩达老师的机器学习课程1​。本文前半部分是机器学习课程的课程笔记,对机器学习是什么以及机器学习如何运作作了一个简要的介绍。后半部分简要介绍一篇物理学中应用机器学习的文献。

1. 机器学习简介 1 ^1 1

机器学习可以定义为(Tom Mitchell,1998):一个电脑程序在面对某一个目标T(Task),通过经验E(Experience)学习,提升达成目标的能力P(Performance Measure)。在1950年代,Arthur Samuel编写了一个跳棋游戏程序,通过让程序自己对弈上万次,观察何种布局更容易赢,何种布局更容易输(经验E),提升了程序玩跳棋的能力(能力P),使得该跳棋程序学会了玩跳棋(目标T),并最终打败了编写程序的作者本人。机器学习的优势在于可以处理大量数据,从大量数据中寻找规律,并进行预测。

机器学习具体可以分为两类:监督学习(Supervised learning)与无监督学习(Unsupervised learning)。监督学习与无监督学习的区别在于是否有训练样本提供给程序进行学习。监督学习通过学习训练样本得到一个模型,然后用这个模型进行预测,典型的例子有线性回归(Linear Regression)和分类(Classification);无监督学习没有训练过程,给定一些样本数据,让程序利用算法直接对数据进行分析,典型的例子就是分类(Classification)。

2. 监督学习

在此具体考虑监督学习算法,即给定训练样本,通过学习、拟合,寻找最优拟合函数形式。设训练样本个数为 m m m,样本输入变量为 x x x,样本输出变量为 y y y ( x m , y m ) (x^{m},y^m) (xm,ym)代表一个样本数据点。机器学习需要寻找的是输入变量 x x x与输出变量 y y y的函数关系 y = h θ ( x ) y=h_\theta(x) y=hθ(x),其中 h h h称为假设函数(Hypothesis function), θ \theta θ称为参数(在神经网络 θ \theta θ称为权重(Weight))。机器学习的过程就是利用训练样本的数据点不断调整、优化参数 θ \theta θ使得假设函数 h θ ( x m ) − y m ≈ 0 h_\theta(x^m)-y^m\approx 0 hθ(xm)ym0,此时定义代价函数(Cost function)(在神经网络中称为Loss function) J ( θ ) = 1 2 m ∑ m ( h θ ( x m ) − y m ) 2 J(\theta)=\frac{1}{2m}\sum_m (h_\theta(x^m)-y^m)^2 J(θ)=2m1m(hθ(xm)ym)2,因此最优化的过程其实就是寻找参数 θ \theta θ使代价函数 J ( θ ) J(\theta) J(θ)达到最小值,完全拟合时 J ( θ ) = 0 J(\theta)=0 J(θ)=0

在多数情况下输入变量 x x x可以是多维度的即 x 1 , x 2 . . . , x n x_1,x_2...,x_n x1,x2...,xn n n n代表输入变量不同的特征, ( x 1 m , x 2 m , . . . , x n m , y m ) (x^{m}_1,x^{m}_2,...,x^{m}_n,y^m) (x1m,x2m,...,xnm,ym)代表一个样本数据点。此时假设函数就是以 x 1 , x 2 . .

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/79969
推荐阅读
相关标签
  

闽ICP备14008679号