2.1
- \(\Vert f\Vert\geq 0\) obvious
- \(\Vert a-b\Vert=\Vert b-a\Vert\) by definition \(f\in\mathscr A\) then \(-f\in\mathscr A\)
- Triangle Inequality
\(\Vert a+b\Vert \leq \Vert a\Vert+\Vert b\Vert\)
By convexity in linear space \(\mathscr B\), \(\frac{a}{\Vert a\Vert+\Vert b\Vert}+\frac{b}{\Vert a\Vert+\Vert b\Vert}\in\mathscr A\)(as \(\frac{a}{\Vert a\Vert},\frac{b}{\Vert b\Vert}\in\mathscr A\)).
i.e. \(\frac{a+b}{\Vert a\Vert+\Vert b\Vert}\in\mathscr A\), which implies \(\Vert a+b\Vert\leq \Vert a\Vert+\Vert b\Vert\).
2.2
按照Theorem 1.2的证明方法,考虑某个\(f\)在\(\mathscr B\)中的\(\Vert f\Vert\)邻域与\(\mathscr A\)的intersection,也就是:
这个集合是close and bounded的,所以compact,normed linear space有Induced metric,所以可以用Theorem 2.5证.
2.3
证明\(L^4\)-norm的strictly convex,不知道有什么好的方法,我只会暴力展开然后用Young不等式之类的XD
2.4
画图可知,在这些涂红的区域内的best approximation是斜着交点中的一个
在剩下的地方实际上就是\((1,0),(0,1),(-1,0),(0,-1)\)中的一个.
怎么思考呢?可以想象一个以当前点为中心的正方形不断变大,最后和圆相交,在涂红区域的首先是正方形的角相交,在这四个区域的点显然要相交的话肯定也就是和边界相交了.
实际上不知道是不是这样,可能得回头看一眼
2.5
感觉过程基本上就是2.1的,这个continuity condition好像就是前面提到的trick? 考虑-改+然后按照strictly convex,证明不如\(X(f_1-f_2)\)就可以吧.
2.6
使用Theorem 2.4,我们发现我们总能找出至少两个best approximation就行. 考虑\(\beta \sin^{2}x\)是\(f(x)=x\)的best approximation,不难看出\(\Vert x-\beta \sin^{2}x\Vert=\Vert x-(-\beta)\sin^{2}x\Vert\), 另外\(\beta=0\)不可能是best approximation.
2.7
又是一个构造more than one best approximation的=
- 考虑\(f(x)=x^3\),对\(y=x\)对称,所以其实任意折线我们都可以反射过去
2.8
several?
这种时候想象一下各种norm下面的单位圆.
- \(x+y+z=1\)这种就是\(1\)-norm下面的答案
- \(x=1\)这种就是\(\infty\)-norm下面的答案
- \(2\)-norm下面没有,因为\(2\)-norm是strictly convex的xD
2.9
Kinda hard problem
考虑有两个best approximation的点,我们最好是能靠nonconvex来做一个类似于\(x=\frac{1}{2}(a+b)\notin\mathscr A\) where \(a,b\in\mathscr A\),这个时候就显然\(x\)有两个best approximation.
考虑not convex其实也有很多种,比较极端的比如一个convex set加一个孤立点. 我觉得这个题目重点在compact相关可以收敛之类的,构造一个好的数列.
设\(f(x)=\inf_{x\in\mathscr A}\Vert x-a\Vert\), 由于\(\mathscr A\)是compact的,所以\(f(x)\)在\(\mathscr B\)中处处well-defined(意思就是处处的值都能存在,这个显然)且finite(考虑Bounded)
考虑nonconvex我们可以找到\(f(a)=f(b)=0\),且存在\(\theta\in(0,1)\) s.t. \(f(\theta a+(1-\theta)b)>0\). 考虑因为compact所以\(\mathscr A^C\) open,\(t=\theta a+(1-\theta)b\)附近的线段至少有一段是\(\notin \mathscr A\)的.
考虑从\(t\)对应的\(\theta_0\)向上向下找都至少能找到\(\in\mathscr A\)的点,也就是\(f(x)=0\)的点,不妨考虑设为\(\theta^-\)和\(\theta^+\),考虑\(\theta_1=\sup_{\theta>\theta^{-}: \Vert x-(\theta^{-}a+(1-\theta^{-})b)\Vert\leq \Vert x-\alpha \Vert,\forall \alpha\in\mathscr A}\theta\). 由于\(f(\theta^{+}a+(1-\theta^{+})b)=0\), 得 \(\theta_{1}\leq\theta^{+}\). 由于存在上界,也就是说在\(\theta_1\)处已经可以找到另一个\(\alpha\in\mathscr A\) s.t. \(\alpha\) is also best approximation of \(\theta_{1}a+(1-\theta_{1})b\), which completes the proof.
不知道进一步这个investigate该怎么做?
2.10
因为\(\mathscr A\)是strictly convex,所以任意两\(\mathscr L(a)\)不交.
Suppose \(x,y\in\mathscr L(a)\), then for any \(\theta\in(0,1)\)
考虑triangle inequality和normed linear space,\(\Vert t-a\Vert\leq \theta\Vert x-a\Vert+(1-\theta)\Vert y-a\Vert\). 我猜大概应该是这个norm也得convex?
- Approximation 习题 Methods Theory andapproximation习题methods theory approximation theory method and approximation theory method part 习题 分支 结构and approximation approximation numerical chapter notes approximation gradient descent method theory convolutional approximation chebyshev revisited 神经网络 梯度 数值approximation