又是一个阴天,不开心。。
早上没开好头,导致一整个上午只听了个报告。鄂维南院士讲 A mathematical perspective of machine learning。他提到了functional approximation过程中包含的三种误差还挺有意思的。分别是由于统计模型导致的approximation error,由于用有限样本来近似所产生的estimation error, 和由于优化问题求解导致的training error。他们的工作很好的刻画并估计了2-layer neural network前两部分的误差,但是Q&A环节他也提到现在最搞不懂的还是第三种training error。为什么那么简单的优化方法,比如GD、SGD,在ML里却能有如此好的表现,达到全局收敛,还是需要进一步探索的。
下午继续看variable metric version的PPA和HPE,发现我本来准备这周要做的工作人家早在2008年就做完了。。。不过下一步可以考虑怎么很好的应用这个方法,搞出具体的形式来。我现在最大的问题是,不知道inexact condition在具体实现的时候究竟应该怎么check。我明白这对具体问题肯定是不一样的,所以要specify到我想做的问题上,提出一个可以计算的inexact condition。另外,下午还有一个新想法,对于2-stage NCP,为什么不写成一个nonsmooth equation来求解呢?具体写出来,怎么能根据结构设计有效的Newton-type method,可以作为下一步要思考的问题。
今天深入思考了一下,这一年多来自己为什么一直没有产出,是因为方向太不明确了。我去学一些东西,是能学懂,但然后呢,自己能沿着这些做点啥呢,是模糊的,于是看似很努力,但是却很难产出可以被量化的成果。这次我要明确问题,每周给自己一个中等的问题,然后拆分成小问题来完成。哪怕问题再小,也一个一个去思考、解决。这样才能积少成多,一步一步的对整体的大问题有更深入更扎实的认识。
P.s. 今天压腿拉筋,虽然过程有点痛,但抻开之后还蛮舒服的~
P.P.s 收到了团的一份牛肉,看起来还不错,分成小块冻冰箱了,这回有肉吃了,赶明整个牛肉抓饭~要是有酱油就更好了。。。