1.5 Extremos locais

« página anterior: Folha de exercícios da secção 1.4

Retomamos uma discussão iniciada na parte 1 da secção 1.3, acerca de condições suficientes para a existência de extremos locais. Na altura referimo-nos aos quadros de variação usados no caso de funções de uma variável, e na parte 3 da mesma secção chegámos a algo de certo modo correspondente no caso de funções de duas ou três variáveis, através da representação dos campos dos gradientes.

Ainda assim, para que as figuras apresentadas nessa parte tenham alguma utilidade é necessário admitir-se, ou de algum modo conseguir garantir-se, que nas zonas onde o campo de vetores não é representado a tendência é algo intermédia relativamente ao que se representa à sua volta.

Admitindo que é o caso por exemplo na primeira figura aí apresentada, referente ao campo de gradientes da função $f(x,y):=\frac{xy}{\sqrt{x^2+y^2}}$ — a qual se pode provar ser contínua em $\mathbb R^2$ após extensão a $\mathbb R^2$ definindo como sendo $0$ o valor em $(0,0)$ —, pela análise da figura torna-se claro que precisamente o ponto $(0,0)$, sendo um minimizante estrito da função (estendida) restrita à bissetriz dos quadrantes ímpares do plano $x0y$ e um maximizante estrito da função (estendida) restrita à bissetriz dos quadrantes pares do mesmo plano, não pode ser um extremante da função.

Uma representação gráfica da função pode ver-se na figura abaixo, que torna ainda mais clara a conclusão acabada de tirar. E uma vez desconfiando que é o caso também é muito fácil garantir — e agora sem sombra de dúvida, trabalhando com a expressão analítica da função — que é realmente isso que acontece.

Ficheiro gcf para manipular no Graphing Calculator Viewer: xysobresqrt(x^2+y^2).gcf

O que poderá não saltar imediatamente à vista olhando para a figura — mas é uma consequência imediata do cálculo com a expressão analítica dada — é que $(0,0)$ é um ponto de estacionaridade da função estendida. Conjugando isto com a conclusão tirada mais acima, tal ponto é "quase" um exemplo do que se chama um ponto de sela. O que está a faltar aqui para que se consiga classificar desse modo é a diferenciabilidade da função nesse ponto.

Pontos de sela e matriz hessiana

Seja $f : D \subset \mathbb{R}^n \to \mathbb{R}$ diferenciável em $P_0 \in {\rm int} D$. Se $P_0$ for um ponto crítico de $f$ mas não for um seu extremante, diz-se que é um ponto de sela de $f$.

Por exemplo, $(0,0)$ é um ponto de sela da função $f(x,y):=x^3-3xy^2$.

Ficheiro gcf para manipular no Graphing Calculator Viewer: ponto-sela.gcf

Muitos desses pontos podem ser detetados considerando o comportamento da função restrita a direções diferentes : caso numa direção a restrição tenha um mínimo estrito no ponto em causa e numa outra direção tenha um máximo estrito no mesmo ponto, então o ponto em causa é de sela (assumindo que é um ponto de diferenciabilidade da função). E o estudo do comportamento da função restrita a uma certa direção pode fazer-se estudando o comportamento de correspondentes derivadas direcionais.

Seja $f : D \subset \mathbb{R}^n \to \mathbb{R}$ diferenciável numa bola aberta centrada em $P_0 \in {\rm int} D$ e suponhamos que $\nabla f(P_0) = \vec{0}$. Seja $\vec{a} := (a_1,\ldots,a_n)\in \mathbb R^n$ tal que $\| \vec{a} \| = 1$.

Recorda que a derivada direcional $f'_\vec{a}(P_0)$ de $f$ segundo $\vec{a}$ em $P_0$ se pode escrever como $g'(0)$, onde $g$ é a função real de variável real definida, numa vizinhança de $0$, por $g(t) := f(P_0+t\vec{a})$.

Verificando-se que $\nabla f(P_0) =\vec{0}$, então sabemos que $g'(0)=0$1. Do cálculo com funções reais de uma variável real sabe-se que o sinal de $g''(0)$ permitirá (desde que $g''(0)$ exista e seja diferente de zero) dizer se $0$ é um maximizante local ou um minimizante local de $g$, ou seja, se $P_0$ é um maximizante local ou um minimizante local de $f$ quando restrito ao segmento de equação $P:=(x_1,\ldots,x_n) = P_0+t\vec{a}$.

Ora, pela regra da cadeia2 aplicada primeiro a $t \mapsto f(P_0+t\vec{a})$ e depois (assumindo hipóteses adequadas) a cada uma das funções $t \mapsto \frac{\partial f}{\partial x_j}(P_0+t\vec{a})$, $j=1,\ldots,n$ , tem-se, para $t$ numa vizinhança de $0$,

(1)
\begin{align} g'(t) = \sum_{j=1}^n \frac{\partial f}{\partial x_j}(P_0+t\vec{a})\, a_j, \quad g''(t) = \sum_{j=1}^n \sum_{i=1}^n \frac{\partial}{\partial{x_i}}\!\frac{\partial f}{\partial{x_j}}(P_0+t\vec{a}) \, a_i \, a_j, \end{align}

logo

(2)
\begin{align} g''(0) = \sum_{i=1}^n \sum_{j=1}^n \frac{\partial}{\partial{x_i}}\!\frac{\partial f}{\partial{x_j}}(P_0) \, a_j \, a_i = \vec{a}\, H\! f(P_0) \, \vec{a}^\top, \end{align}

onde

(3)
\begin{align} H\! f(P_0) := \Big[ \frac{\partial}{\partial{x_i}}\!\frac{\partial f}{\partial{x_j}}(P_0) \Big]_{i,j=1}^n \end{align}

se diz a (matriz) hessiana de $f$ em $P_0$.

Se escolhermos para $\vec{a}$ um vetor próprio unitário de $H\! f(P_0)$ , o sinal de $g''(0)$ será dado pelo sinal do valor próprio $\lambda$ que lhe estiver associado, pois

(4)
\begin{align} g''(0) = \vec{a}\, H\! f(P_0) \, \vec{a}^\top = \vec{a}\, (\lambda \vec{a}^\top) = \lambda \| \vec{a} \|^2 =\lambda. \end{align}

Assim, no caso de $\lambda > 0$ conclui-se que $f(P_0)$ é um mínimo local de $f$ quando restrita ao segmento de equação $P = P_0+t\vec{a}$, podendo-se mesmo dizer que caso $g''$ seja contínua em $0$ se trata mesmo de um mínimo local estrito daquela restrição de $f$, ou seja, que $f(P_0) < f(P)$ para qualquer $P = P_0+t\vec{a}$ com $t \not= 0$ numa certa vizinhança de $0$. No caso de $\lambda < 0$ obtém-se, por sua vez, em condições análogas, que $f(P_0)$ é um máximo local estrito de $f$ quando restrita ao correspondente segmento de equação $P = P_0+t\vec{a}$. Em conclusão, nas condições explicitadas, se $H\! f(P_0)$ admitir um valor próprio positivo e um outro negativo, então $P_0$ é um ponto de sela de $f$.

Vemos, assim, que o estudo dos vetores e valores próprios da matriz hessiana de $f$ é muito importante pelo menos para a deteção de pontos de sela da função. Antes de prosseguirmos vamo-nos deter um pouco sobre algumas das características dessa matriz.

Derivadas de segunda ordem

As entradas da matriz acima considerada são derivadas parciais ditas de segunda ordem da função $f$ e que, exemplificando para funções $f(x,y)$ de duas variáveis, se denotam da seguinte maneira:

(5)
\begin{align} \frac{\partial^2 f}{\partial x^2} := \frac{\partial}{\partial{x}}\!\frac{\partial f}{\partial{x}}, \quad \frac{\partial^2 f}{\partial y^2} := \frac{\partial}{\partial{y}}\!\frac{\partial f}{\partial{y}}, \quad \frac{\partial^2 f}{\partial y \partial x} := \frac{\partial}{\partial{y}}\!\frac{\partial f}{\partial{x}}, \quad \frac{\partial^2 f}{\partial x \partial y} := \frac{\partial}{\partial{x}}\!\frac{\partial f}{\partial{y}}, \end{align}

ou, respetivamente, por $f''_{x^2}$, $f''_{y^2}$, $f''_{xy}\,$, $f''_{yx}$ (não há engano nas duas últimas: a ordem das variáveis é mesmo a indicada), ou até mesmo abreviando ainda mais esta notação omitindo as plicas.

Sob hipóteses adequadas é sabido que os dois últimos tipos de derivadas de segunda ordem, ditas derivadas mistas, coincidem. Mais precisamente, vale o seguinte

Critério para a igualdade das derivadas mistas

Sejam $f : D \subset \mathbb{R}^n \to \mathbb{R}$ e $P_0 \in {\rm int}\, D$. Sejam $x$ e $y$ duas das variáveis da função $f$. Se as derivadas parciais $f'_x$, $f'_y$ e $f''_{xy}$ existem e são finitas numa bola aberta centrada em $P_0$ e se $f''_{xy}$ é contínua em $P_0$, então $f''_{yx}(P_0)$ existe e
${\displaystyle \qquad f''_{xy}(P_0) = f''_{yx}(P_0)}$.

Teste dos menores principais

Assumiremos aqui na nossa discussão que as nossas condições garantem a aplicabilidade do critério acima, sendo portanto simétrica a nossa matriz hessiana. Nessas condições a álgebra linear diz-nos então que $H\! f(P_0)$ tem $n$ valores próprios, todos reais, e que existe uma base ortonormada de $\mathbb{R}^n$ formada por correspondentes vetores próprios.

Já vimos o que, sob hipóteses adequadas, podemos concluir sobre $P_0$ quando dois desses valores próprios têm sinais contrários. Por outro lado, no caso de todos os valores próprios serem, por exemplo, positivos, argumentando de modo análogo podemos facilmente concluir haver $n$ direções independentes restritas às quais $f(P_0)$ é um mínimo local da função. Mas conseguir a partir daqui, com pouco mais hipóteses, garantir que $f(P_0)$ é mesmo um mínimo local de $f$ é bastante mais complicado, estando fora dos nossos objetivos neste curso, e por isso limitar-nos-emos a enunciar o resultado.

Além disso, em vez de ser em termos de valores próprios, daremos o enunciado em termos dos chamados menores principais de uma matriz. Por um lado, porque os dois conceitos estão relacionados. Por outro lado, porque nesses termos o resultado é de mais fácil aplicação.

Os menores principais de uma matriz $[ a_{ij} ]_{i,j=1}^n$ são os determinantes das submatrizes $[ a_{ij} ]_{i,j=1}^k$, para $k = 1, \ldots, n$.

Teste dos menores principais da hessiana

Sejam $f : D \subset \mathbb{R}^n \to \mathbb{R}$ e $P_0 \in {\rm int}\, D$. Se $\nabla f(P_0) =\vec{0}$, se as derivadas parciais de 2.ª ordem de $f$ existirem e forem contínuas numa bola aberta centrada em $P_0$ e se o determinante ${\rm det}\, H\! f(P_0)$, dito hessiano de $f$ em $P_0$, não for nulo então

  1. se todos os menores principais de $H\! f(P_0)$ forem positivos, $f(P_0)$ é um mínimo local estrito de $f$;
  2. se os menores principais de $H\! f(P_0)$ forem alternadamente negativos e positivos, começando o primeiro por ser negativo, $f(P_0)$ é um máximo local estrito de $f$;
  3. se nenhuma das duas situações anteriores ocorrer, $P_0$ é ponto de sela de $f$.

Exercício

Classifica os pontos críticos da função $f(x,y,z) := x^2+y^2+z^2+xy$, $\; (x,y,z) \in \mathbb{R}^3$.

O caso de funções de duas variáveis

No caso de funções de duas variáveis, o teste anterior dá imediatamente origem ao seguinte:

Teste das derivadas de 2ª ordem para funções de duas variáveis

Sejam $f : D \subset \mathbb{R}^2 \to \mathbb{R}$ e $(x_0,y_0) \in {\rm int} D$. Se $\nabla f(x_0,y_0) =\vec{0}$ e se as derivadas parciais de 2.ª ordem de $f$ existirem e forem contínuas numa bola aberta centrada em $(x_0,y_0)$, então

  1. se $\,{\rm det}\, H\! f(x_0,y_0) > 0\,$ e $\, f''_{x^2}(x_0,y_0) > 0$, $\, f(x_0,y_0)$ é um mínimo local estrito de $f$;
  2. se $\,{\rm det}\, H\! f(x_0,y_0) > 0\,$ e $\, f''_{x^2}(x_0,y_0) < 0$, $\, f(x_0,y_0)$ é um máximo local estrito de $f$;
  3. se $\, {\rm det}\, H\! f(x_0,y_0) < 0$, $\,(x_0,y_0)$ é ponto de sela de $f$.

Exercício

Classifica os pontos críticos da função $f(x,y) := x^3-3x^2+y^2$, $\; (x,y) \in \mathbb{R}^2$.


página seguinte: Folha de exercícios »

Comentários:

Add a New Comment
Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License