X*****r 发帖数: 2521 | 1 【 以下文字转载自 EE 讨论区 】
【 原文由 Xfilter 所发表 】
我想找到一个函数的最小值
这个函数不是convex的
也不是concave的
我使用gradient decent 的方法来找到最小值,可是每次这个方法找到的都是
local minimum,而不是global minimum,
请问还有什么方法可以达到那个global optimum?
多谢了 |
f*****p 发帖数: 235 | 2 不一定能找到global optimum.
【在 X*****r 的大作中提到】 : 【 以下文字转载自 EE 讨论区 】 : 【 原文由 Xfilter 所发表 】 : 我想找到一个函数的最小值 : 这个函数不是convex的 : 也不是concave的 : 我使用gradient decent 的方法来找到最小值,可是每次这个方法找到的都是 : local minimum,而不是global minimum, : 请问还有什么方法可以达到那个global optimum? : 多谢了
|
X*****r 发帖数: 2521 | 3 那有没有那种算法可以保证大多数找到global那?
或者相对来说,找到的可能性比较大?
【在 f*****p 的大作中提到】 : 不一定能找到global optimum.
|
f*****p 发帖数: 235 | 4 能不能找到依赖于函数性质。
【在 X*****r 的大作中提到】 : 那有没有那种算法可以保证大多数找到global那? : 或者相对来说,找到的可能性比较大?
|
v******d 发帖数: 1322 | 5 simulated annealing?
【在 X*****r 的大作中提到】 : 那有没有那种算法可以保证大多数找到global那? : 或者相对来说,找到的可能性比较大?
|
v******d 发帖数: 1322 | 6 but i think for continuous domains, SA cannot help |
a*********e 发帖数: 228 | 7 no method can gurantee finding the global optimum. try simulate annealing
【在 X*****r 的大作中提到】 : 【 以下文字转载自 EE 讨论区 】 : 【 原文由 Xfilter 所发表 】 : 我想找到一个函数的最小值 : 这个函数不是convex的 : 也不是concave的 : 我使用gradient decent 的方法来找到最小值,可是每次这个方法找到的都是 : local minimum,而不是global minimum, : 请问还有什么方法可以达到那个global optimum? : 多谢了
|
v*******e 发帖数: 1715 | 8 SA and genetic algorithm are good for global maximum
【在 a*********e 的大作中提到】 : no method can gurantee finding the global optimum. try simulate annealing
|
f*****p 发帖数: 235 | 9 not really.
【在 v*******e 的大作中提到】 : SA and genetic algorithm are good for global maximum
|
v*******e 发帖数: 1715 | 10 ....
【在 f*****p 的大作中提到】 : not really.
|
f*****p 发帖数: 235 | 11 SA is basically a combination of random search and greedy search. At high
temperature it behaves more like random. When temperature is down, it is
closer to greedy. It's a good heuristic. But for global optimum there's no
guarantee. Also whether SA is effective depends on the solution space's
structure.
I don't use GA a lot. But I assume it shouldn't outperform SA much, as they
are often mentioned together.
【在 v*******e 的大作中提到】 : ....
|
f******k 发帖数: 297 | 12 well, the guarantee of SA for convergence to global optimum exists and it is
convergence in
probability, though the major weakness is the speed of convergence, which can
be extremely slow.
【在 f*****p 的大作中提到】 : SA is basically a combination of random search and greedy search. At high : temperature it behaves more like random. When temperature is down, it is : closer to greedy. It's a good heuristic. But for global optimum there's no : guarantee. Also whether SA is effective depends on the solution space's : structure. : I don't use GA a lot. But I assume it shouldn't outperform SA much, as they : are often mentioned together.
|
f*****p 发帖数: 235 | 13 Well, then random search can also reach global optimum if "extremely slow"
is acceptable.
【在 f******k 的大作中提到】 : well, the guarantee of SA for convergence to global optimum exists and it is : convergence in : probability, though the major weakness is the speed of convergence, which can : be extremely slow.
|
p*******e 发帖数: 40 | 14 explore the obj fn more, maybe its a DC problem
【在 X*****r 的大作中提到】 : 【 以下文字转载自 EE 讨论区 】 : 【 原文由 Xfilter 所发表 】 : 我想找到一个函数的最小值 : 这个函数不是convex的 : 也不是concave的 : 我使用gradient decent 的方法来找到最小值,可是每次这个方法找到的都是 : local minimum,而不是global minimum, : 请问还有什么方法可以达到那个global optimum? : 多谢了
|