视频1:什么是最优化?
在这一个视频中主要是介绍最优化问题的一些基础概念,什么是最优化问题?什么叫做最优化问题的解?最优化问题的表现形式?有哪些分类?
最优化问题是什么,就涉及最优化的基本含义,简单来说就是在一定的约束下求得一个函数或者一个函数组的最优值,最优化的基本数学模型可以写为:
其中,
其中一个小细节:其中
从此便可以看出一个优化问题必须含有3个要素,决策变量、目标函数、约束函数。
接下来考虑,面对一个最优化问题,决策变量可以从哪些集合中寻找,这就涉及可行域与可行集的概念,对于一个集合当其同时满足等式约束与不等式约束时,称之为可行集,写法如下:
如果
最后再来考虑最后结果的形式,也就是解的定义,对于一个
- 全局最优解:
- 严格全局最优解:
- 局部最优解:
- 严格局部最优解:
全局最优解的结合也就构成了最优解集的定义,通常写作
- 最优解集为空集
- 可行域为空集
- 最优问题的目标函数在可行域上无下界。
需要注意的是,最优问题在实际过程中,目标函数可能取最大值,也有可能取最小值,但在最优化的学习中,只针对最小值学习即可,最大值转化一下符号就行)
此外,对于最优化问题的描述方法还有很多,大同小异:
例如:
还可以直接将可行集写在决策变量处(角标)
最优化问题有很多,对于每一种优化问题会有其最适合的寻优方法,这就涉及到了优化问题的分类,常见的最优化问题分类如下:
- 无约束优化(可行域为全空间)/约束优化
- 线性规划(目标函数与约束函数均为线性)/非线性优化
- 单目标优化(目标函数为实值函数)/多目标优化(目标函数为向量值函数)
- 光滑优化(目标函数与约束函数均是连续可微的)/非光滑优化
- 凸规划(目标函数是凸函数,可行域是凸集)/非凸规划
- 连续优化/离散优化(可行域中有限的点)
等等等等
需要注意的时候,部分优化问题是可以转化优化问题的分类,例如整型的离散优化,可以将其转化为连续型
视频2:基础知识
在这一讲中主要叙述了:
- 向量范数与矩阵范数
- 梯度、海森阵、雅可比阵
- 中值定理、泰勒公式
首先是范数,范数的提出的主要作用就是衡量距离远近,比如在迭代优化求解过程中,最优点为
先来说,向量范数其实就是向量的映射,将一个向量映射到实数域,让其可以直接对比,但是范数并不是一种唯一确定的计算方法,满足下面3个特性的向量映射方法均能称为范数:
1、满足非负性,向量的范数是非负的,并且,当范数为0时,向量必定也是0向量
2、满足正齐次性,一个实数与向量的乘积的范数等于实数与向量范数的乘积,就是
3、满足三角不等式,两个向量和的范数不超过两个向量的范数和,就是:
常用的范数:
1范数:所有项的和,写法:
2范数:平方和再开方,
无穷范数:就是向量中元素最大的项,
通用的范数计算公式,上面的范数其实都符合同一个计算结果,P范数:
此外,椭球范数有时候也会用上:
其中
范数还有一个等价性命题,其实就是说用
然后是矩阵的范数的概念,与向量一样,不过是将矩阵
矩阵的范数其实还有一点不同,矩阵范数的计算方法是需要借助一个诱导向量来实现:
常用的矩阵范数有
- 列范数(由1范数诱导得到):其实就是矩阵先按照列求出每一列的和,然后找到最大的列。
- 行范数(由无穷范数诱导得到):其实就是矩阵先按照行求出每一行的和,然后找到最大的行
- 谱范数(有2范数诱导得到),具体公式先不赘述。
相比于向量范数,矩阵范数的性质多了一个相容性,及两个矩阵乘积的范数小于等于两个矩阵范数的乘积。
以上是用于衡量距离的范数的定义。
在最优化方法中还会涉及到方向问题,那就会涉及
评论
还没有任何评论,你来说两句吧!