跳转至

1697778096

优化基本理论与方法

CS 专业基础 AI 专业基础 IS 专业基础

课程学习内容

课程大部分内容可以概括为凸优化,但并不完全是凸优化,因此称为 “优化基本理论与方法” 也是合理的。课本内容大概可以分为黑箱优化结构优化,但是课程所讲的绝大部分内容都属于黑箱优化。简单概括课程大纲如下:

  • Introduction
    • 优化问题的范式,基本概念和与机器学习的联系
  • 光滑优化基础
    • ( 一阶、二阶 ) 近似,可微函数类
    • / 强凸的定义,凸 / 强凸函数类,光滑凸 / 强凸函数类
  • 下降方法
    • 梯度下降法
    • 牛顿法,共轭梯度法
  • 加速方法
    • 基于光滑凸 / 强凸函数类的一阶局部黑箱优化的下降速率极限
    • Nesterov 加速梯度下降方法 ( 最优算法 ) 及其性能分析
  • 一般凸问题
    • 一般凸函数,闭凸性 / 连续性 / 可微性
    • 分离定理,次梯度 (Subgradient)
    • 次梯度下降,Frank-Wolfe 算法
  • 结构优化
    • 近端梯度下降 (Proximal Gradient Descent)Douglas-Rachford 分离
    • 对偶,Lagrange 对偶以及 Fenchel 共轭
    • 光滑化方法,基于 Bregman 散度的镜像下降 (Mirror Descent)
  • 随机梯度下降
    • 随机取样,随机梯度下降 (Stochastic Gradient Descent)
    • 改进随机梯度下降,随机镜像下降,SVRG / SARAH

尽管看起来内容很多,但是你完全不需要学会,写作业只需要抄书,做 mid-term final report 的时候再精准查查相关资料就行了 () 笔者表示根本没学会

先修要求

  • 数学分析 + 线性代数

应用了大量分析方法,对分析学基础有一些要求;此外这门课研究的都是向量值函数,因此经常涉及向量和矩阵运算,需要具备基础线性代数知识。

这门课也涉及少量概率统计(主要是最后两节课)和机器学习等内容,不过不了解也没啥问题。

课程教材

  • Yurii Nesterov. (2014). Introductory Lectures on Convex Optimization: A Basic Course. Springer.

作者是凸优化领域的大佬。前半学期的内容大部分都来自这里(不要相信书名中的 “basic” :-)

  • Yurii Nesterov. (2018). Lectures on Convex Optimization. Springer.

中文版书名《凸优化教程》,机械工业出版社;前面的内容和上一本差不多,但是许多地方有改动(改正了旧版的一些错误,笔者学习时主要参考的书)。

(PS:虽然这本书是课程的主要教材,但是其内容有些晦涩抽象,越到后面越如此,任何对优化感兴趣的初学者都不应该使用这本书自学

分数构成

考查课,故没有考试。分数构成如下:

  • 作业 (50%)

    包括 4 次普通作业和 1 mid-term,普通作业一次布置 3-6 道题目,大部分都能够在 PPT 或者书上找到答案。 Mid-term 则要求写代码、测试、写报告, 20 级的题目是用普通梯度下降法、拟牛顿法和共轭梯度法在小数据集上实现岭回归。注意作业和报告都是用 LaTeX 写的,会发 LaTeX 的模板,只要配好环境通过编译一关,修改对应的空处就可以快乐完成作业了。如果仔细研究所给的模板,还能学到很多 LaTeX 技巧。如果环境实在配不起来,可以考虑使用 overleaf

  • 报告 (50%)

    同样会给一个 LaTeX 报告模板,按照模板要求写就行了。会给几个研究方向,每个方向给一篇参考论文,选择一个研究方向写一篇报告即可。 20 级所给的三个方向是从 ODE / Geometry / Game Theory 的角度研究 Nesterov 加速梯度下降。或许写成论文翻译,或许写成文献综述,也有真正的大佬疯狂推公式真的在做研究,看你想要做到什么程度。

任课教师

20 级的优化基本理论和方法只有钱徽一人开设。

钱徽是无情的 PPT reader,他会迅速地把他要讲的 PPT 讲下去,想要跟上其思路很难。他的声音毫无感情,虽然对该解释的地方也都会解释,甚至会温馨地画图,但总是毫无波澜,让人没有听的欲望。

可能会出现钱徽的研究生来讲课,声音颇有口音,但是比较洪亮,没有钱徽那么催眠。其讲课风格很有学生特色,相比钱徽容易听懂一些,但是口音听着很难受。

钱徽人非常 nice,也非常忙,可能是低调的隐藏强者,是 2022 年下半年疫情拉扯期各大课程老师中唯一准确判断本学期后续所有课程一直网课的老师。问他问题他总会抽时间耐心地解答(笔者问过几次问题,有的是 PPT 有错,有的是写得不清楚),但是考虑到他很忙,所以有的时候总是保持未读状态(但是一旦已读他一定会快速回复)。钱徽是 20 级大三秋冬专业课唯一给分之神,让几乎所有人都对成绩很满意,100 人的群收到的谢谢老师高达 70+ ,比很多 200+ 人的习概群的谢谢老师还要多。

参考资料

书籍

  • Boyd, S.P., & Vandenberghe, L. (2005). Convex Optimization. Journal of the American Statistical Association, 100, 1097 - 1097.

    作者是优化领域另一著名大佬 Stephen Boyd,这本书是极其经典的凸优化教材,侧重凸分析的基础,一本相当厚的大部头。花了非常长的篇幅介绍函数的凸性、对偶等,不过有人认为介绍的算法非常有限。作者在自己主页挂了这本书的电子版:https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf。清华大学出版社翻译了本书,名字就叫《凸优化》。

    这本书也是斯坦福大学 EE364aEE364b 课程教材。

  • Dimitri P. Bertsekas. (2009). Convex Optimization Theory. Athena Scientific.

    中文名《凸优化理论》,清华大学出版社;个人觉得比较细节,相之于前面的好读很多。

  • Sra, Nowozin, Wright. (2011). Optimization for Machine Learning. MIT Press.

  • R. T. Rockafellar. (1970). Convex Analysis. Princeton.

    Rockafellar 是优化领域绕不开的祖师级人物,不过他的文章有些太难了。他的《凸分析》还有《变分分析(Variational Analysis)》等书感觉更适合数学专业的看……

  • Giuseppe C. Calafiore, \& Laurent El Ghaoui (2014), Optimization Models, Cambridge University Press. 据说难度适中:https://people.eecs.berkeley.edu/~elghaoui/optmodbook.html

  • 这个领域有很多人喜欢直接把自己写的书挂在 arxiv 上,下面几个都是不错的资料:

课程

笔记

学习建议

可以迷迷糊糊地水过这门课,作业抄抄,代码糊糊,论文水水,也会得到钱徽的宽宥,得到还行的成绩。

这门课的知识和机器学习、数据分析和建模等很多学科领域紧密相关,比如梯度下降、随机方法等都可以用于机器学习模型的训练。许多分析结论也很有意义,比如一阶局部黑箱优化理论最优的下降速率,还有光滑化的处理, “次梯度” 的引入也让人耳目一新。

不过,志不在此的同学建议也可以水一些,毕竟要真的学会这门课要花的精力还是不少的,可能以后也用不到。但是想要踏踏实实做研究,想要明白其所以然的同学还是可以认真学一学。