Método de aproximaciones sucesivas de Picard

El método de aproximaciones sucesivas de Picard (por Charles Émile Picard, matemático francés que lo desarrolló) es un método iterativo para obtener una solución a una ecuación diferencial.

Para un problema de Cauchy con la ecuación diferencial y = f ( x , y ) {\displaystyle y'=f(x,y)} y condición de contorno y | x = x 0 = y 0 {\displaystyle y|_{x=x_{0}}=y_{0}} donde se puede asegurar la existencia y unicidad de solución para un dominio D : | x x 0 | < a , | y y o | < b {\displaystyle D:{|x-x_{0}|<a,|y-y_{o}|<b}} es posible construir una solución de forma iterativa según la expresión

y n ( x ) = y 0 + x 0 x f ( t , y n 1 ( t ) ) d t {\displaystyle y_{n}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{n-1}(t))dt}

Donde y 0 {\displaystyle y_{0}} se puede elegir arbitrariamente. Lo habitual es elegir y 0 = x 0 {\displaystyle y_{0}=x_{0}} .

La convergencia de esta serie de funciones es demostrable en el intervalo x 0 h < x < x 0 + h {\displaystyle x_{0}-h<x<x_{0}+h} donde h = min ( a , b M ) {\displaystyle h=\min \left(a,{\frac {b}{M}}\right)} con M = max ( x , y ) D | f ( x , y ) | {\displaystyle M=\max _{(x,y)\in D}|f(x,y)|} .

El error del paso enésimo es acotable mediante la desigualdad

| y ( x ) y n ( x ) | M N n 1 n ! h n {\displaystyle |y(x)-y_{n}(x)|\leq {\frac {MN^{n-1}}{n!}}h^{n}}

donde N = max ( x , y ) D | f y | {\displaystyle N=\max _{(x,y)\in {}D}\left|{\frac {\partial f}{\partial y}}\right|} . Con ello es posible programar el algoritmo para que itere hasta una resolución dada.

Ejemplo

Consideramos el problema de Cauchy

{ y = 2 x ( 1 y ) , y ( 0 ) = 2. {\displaystyle {\begin{cases}y'=2x(1-y),\\y(0)=2.\end{cases}}}

En este caso f ( x , y ) = 2 x ( 1 y ) {\displaystyle f(x,y)=2x(1-y)} . Ahora se construirá una solución de forma iterativa según la expresión dada anteriormente.

Definimos y 0 ( t ) 2 {\displaystyle y_{0}(t)\equiv 2} y las iteraciones sucesivas son:

y 1 ( x ) = y 0 + x 0 x f ( t , y 0 ( t ) )   d t = 2 + 0 x 2 t ( 1 2 )   d t = 2 + 0 x 2 t = 2 x 2 {\displaystyle y_{1}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{0}(t))\ dt=2+\int _{0}^{x}2t(1-2)\ dt=2+\int _{0}^{x}-2t=2-x^{2}} ,

y 2 ( x ) = y 0 + x 0 x f ( t , y 1 ( t ) )   d t = 2 + 0 x 2 t ( 1 ( 2 t 2 ) )   d t = 2 x 2 + 1 2 x 4 {\displaystyle y_{2}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{1}(t))\ dt=2+\int _{0}^{x}2t(1-(2-t^{2}))\ dt=2-x^{2}+{\frac {1}{2}}x^{4}} ,

y 3 ( x ) = y 0 + x 0 x f ( t , y 2 ( t ) )   d t = . . . = 2 x 2 + 1 2 x 4 1 6 x 6 {\displaystyle y_{3}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{2}(t))\ dt=...=2-x^{2}+{\frac {1}{2}}x^{4}-{\frac {1}{6}}x^{6}} ,

y, de forma general, podemos expresar y n ( x ) {\displaystyle y_{n}(x)} de la siguiente forma:

y n ( x ) = 1 + ( 1 + ( x 2 ) 1 ! + ( x 2 ) 2 2 ! + ( x 2 ) 3 3 ! + ( x 2 ) 4 4 ! + ( x 2 ) 5 5 ! + . . . + ( x 2 ) n n ! ) {\displaystyle y_{n}(x)=1+{\bigg (}1+{\frac {(-x^{2})}{1!}}+{\frac {(-x^{2})^{2}}{2!}}+{\frac {(-x^{2})^{3}}{3!}}+{\frac {(-x^{2})^{4}}{4!}}+{\frac {(-x^{2})^{5}}{5!}}+...+{\frac {(-x^{2})^{n}}{n!}}{\bigg )}} .

Se puede observar que las aproximaciones son las sumas parciales del desarrollo en serie de potencias de 1 + e x 2 {\displaystyle 1+e^{-x^{2}}} , que es la solución al problema de Cauchy anterior.


Referencias

  • Ecuaciones Diferenciales Ordinarias. M.L.Krasnov, A.I.Kiseliov, G.I.Makárenko. Editorial URSS. ISBN 5-354-01099-3
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q6035912
  • Wd Datos: Q6035912