Autores

2119
304,303,905
2120
304,303,905
2121
304,303,905

Informações:

Publicações do PESC

Título
Uma Nova Classe de Métodos de Ponto Proximal com Métrica Variável para Problemas em Otimização com Restrições de Positividade
Linha de pesquisa
Otimização
Tipo de publicação
Tese de Doutorado
Número de registro
Data da defesa
4/4/2002
Resumo

Neste trabalho introduzimos uma família de métodos interior-proximal com métrica variável para resolver o problema min f(x) s.t.x > 0, onde o passo iterativo é dado por

xkj + l = xkj (1 - Bk - 1 (xkj) r - l [Vf (xk + l)] j)

com Bk convenientemente escolhido, e r > 1. Estebelecemos propriedades de con- vergência similares aquelas conhecidas dos métodos multiplicativos, a saber. con- vergência fraca a um ponto KKT para funções convexas com gradiente Lipschitziano e convergência forte a uma solução para funções estritamente convexas. No caso quadrático, o algoritmo tem uma expressão explícita. Estudamos a taxa de con- vergência deste método. Mostramos que a taxa de convergência é linear quando a função é fortemente convexa no ótimo, e sublinear caso contrário. Uma versão inexata é introduzida e analisada.

 

Abstract

In this work we introduce a family of variable metric interior-proximal methods for the problem min f(x) s.t.x >_ 0, where the iterative step is given by

xkj + l = xkj (1 - Bk - 1 (xkj) r - l [Vf (xk + l)] j)

with, Bk conveniently chosen, and r > 1. We establish convergence properties similar to those known for multiplicative methods, namely weak convergence to a KKT point for convex and gracfient Lipschitzian functions and full convergence to the solution for strictly convex functions. In the quadratic case the algorithm has explicit expression. We study the convergence rate of that method. We show that the rate of convergence is linear when the objective is strongly convex at the optimum, but can be sublinear otherwise. An inexact version is introduced and analyzed.

 

Topo