Ejercicio : 2Eva_IIT2018_T3 EDP
Se indica en el enunciado que b = 0
δ u δ t = δ 2 u δ x 2 + b δ u δ x \frac{\delta u}{\delta t} = \frac{\delta ^2 u}{\delta x^2} + b\frac{\delta u}{\delta x} δ t δ u = δ x 2 δ 2 u + b δ x δ u
simplificando la ecuación a:
δ u δ t = δ 2 u δ x 2 \frac{\delta u}{\delta t} = \frac{\delta ^2 u}{\delta x^2} δ t δ u = δ x 2 δ 2 u
Reordenando la ecuación a la forma estandarizada:
δ 2 u δ x 2 = δ u δ t \frac{\delta ^2 u}{\delta x^2} = \frac{\delta u}{\delta t} δ x 2 δ 2 u = δ t δ u
Seleccione un método: explícito o implícito.
Si el método es explícito, las diferencias finitas a usar son hacia adelante y centrada:
U ′ ( x i , t j ) = U ( x i , t j + 1 ) − U ( x i , t j ) Δ t + O ( Δ t ) U'(x_i,t_j) = \frac{U(x_i,t_{j+1})-U(x_i,t_j)}{\Delta t} + O(\Delta t) U ′ ( x i , t j ) = Δ t U ( x i , t j + 1 ) − U ( x i , t j ) + O ( Δ t )
U ′ ′ ( x i , t j ) = U ( x i + 1 , t j ) − 2 U ( x i , t j ) + U ( x i − 1 , t j ) Δ x 2 + O ( Δ x 2 ) U''(x_i,t_j) = \frac{U(x_{i+1},t_j)-2U(x_{i},t_j)+U(x_{i-1},t_j)}{\Delta x^2} + O(\Delta x^2) U ′ ′ ( x i , t j ) = Δ x 2 U ( x i + 1 , t j ) − 2 U ( x i , t j ) + U ( x i − 1 , t j ) + O ( Δ x 2 )
como referencia se usa la gráfica.
Se selecciona la esquina inferior derecha como 0, por la segunda ecuación de condiciones y facilidad de cálculo. (No hubo indicación durante el examen que muestre lo contrario)
condiciones de frontera U(0,t)=0, U(1,t)=1
condiciones de inicio U(x,0)=0, 0≤x≤1
aunque lo más recomendable sería cambiar la condición de inicio a:
condiciones de inicio U(x,0)=0, 0<x<1
Siguiendo con el tema de la ecuación, al reemplazar las diferencias finitas en la ecuación:
U ( x i + 1 , t j ) − 2 U ( x i , t j ) + U ( x i − 1 , t j ) Δ x 2 = \frac{U(x_{i+1},t_j)-2U(x_{i},t_j)+U(x_{i-1},t_j)}{\Delta x^2} = Δ x 2 U ( x i + 1 , t j ) − 2 U ( x i , t j ) + U ( x i − 1 , t j ) =
= U ( x i , t j + 1 ) − U ( x i , t j ) Δ t = \frac{U(x_i,t_{j+1})-U(x_i,t_j)}{\Delta t} = Δ t U ( x i , t j + 1 ) − U ( x i , t j )
se reagrupan los términos que son constantes y los términos de error se acumulan:
Δ t Δ x 2 [ U ( x i + 1 , t j ) − 2 U ( x i , t j ) + U ( x i − 1 , t j ) ] = U ( x i , t j + 1 ) − U ( x i , t j ) \frac{\Delta t}{\Delta x^2} \Big[U(x_{i+1},t_j)-2U(x_i,t_j)+U(x_{i-1},t_j) \Big] = U(x_i,t_{j+1})-U(x_i,t_j) Δ x 2 Δ t [ U ( x i + 1 , t j ) − 2 U ( x i , t j ) + U ( x i − 1 , t j ) ] = U ( x i , t j + 1 ) − U ( x i , t j )
siendo,
λ = Δ t Δ x 2 \lambda= \frac{\Delta t}{\Delta x^2} λ = Δ x 2 Δ t
e r r o r ≅ O ( Δ t ) + O ( Δ x 2 ) error \cong O(\Delta t) + O(\Delta x^2) e r r o r ≅ O ( Δ t ) + O ( Δ x 2 )
continuando con la ecuación, se simplifica la escritura usando sólo los índices i,j y se reordena de izquierda a derecha como en la gráfica
λ [ U [ i − 1 , j ] − 2 U [ i , j ] + U [ i + 1 , j ] ] = U [ i , j + 1 ] − U ] i , j ] \lambda \Big[U[i-1,j]-2U[i,j]+U[i+1,j] \Big] = U[i,j+1]-U]i,j] λ [ U [ i − 1 , j ] − 2 U [ i , j ] + U [ i + 1 , j ] ] = U [ i , j + 1 ] − U ] i , j ]
λ U [ i − 1 , j ] + ( − 2 λ + 1 ) U [ i , j ] + λ U [ i + 1 , j ] = U [ i , j + 1 ] \lambda U[i-1,j]+(-2\lambda+1)U[i,j]+\lambda U[i+1,j] = U[i,j+1] λ U [ i − 1 , j ] + ( − 2 λ + 1 ) U [ i , j ] + λ U [ i + 1 , j ] = U [ i , j + 1 ]
U [ i , j + 1 ] = λ U [ i − 1 , j ] + ( − 2 λ + 1 ) U [ i , j ] + λ U [ i + 1 , j ] U[i,j+1] = \lambda U[i-1,j]+(-2\lambda+1)U[i,j]+\lambda U[i+1,j] U [ i , j + 1 ] = λ U [ i − 1 , j ] + ( − 2 λ + 1 ) U [ i , j ] + λ U [ i + 1 , j ]
U [ i , j + 1 ] = P U [ i − 1 , j ] + Q U [ i , j ] + R U [ i + 1 , j ] U[i,j+1] = P U[i-1,j]+QU[i,j]+R U[i+1,j] U [ i , j + 1 ] = P U [ i − 1 , j ] + Q U [ i , j ] + R U [ i + 1 , j ]
P = R = λ P=R = \lambda P = R = λ
Q = − 2 λ + 1 Q = -2\lambda+1 Q = − 2 λ + 1
En las iteraciones, el valor de P,Q y R se calculan a partir de λ ≤ 1/2
iteraciones: j=0, i=1
U[1,1] = P*0+Q*0+R*0 = 0
j=0, i=2
U[2,1] = P*0+Q*0+R*0=0
j=0, i=3
U [ 3 , 1 ] = P ∗ 0 + Q ∗ 0 + R ∗ 1 = R = λ = 1 2 U[3,1] = P*0+Q*0+R*1=R=\lambda=\frac{1}{2} U [ 3 , 1 ] = P ∗ 0 + Q ∗ 0 + R ∗ 1 = R = λ = 2 1
iteraciones: j=1, i=1
U[1,2] = P*0+Q*0+R*0 = 0
j=1, i=2
U [ 2 , 2 ] = P ∗ 0 + Q ∗ 0 + R ∗ λ = λ 2 = 1 4 U[2,2] = P*0+Q*0+R*\lambda = \lambda ^2 = \frac{1}{4} U [ 2 , 2 ] = P ∗ 0 + Q ∗ 0 + R ∗ λ = λ 2 = 4 1
j=1, i=3
U [ 3 , 2 ] = P ∗ 0 + Q ∗ 1 4 + R ( λ ) U[3,2] = P*0+Q*\frac{1}{4}+R (\lambda) U [ 3 , 2 ] = P ∗ 0 + Q ∗ 4 1 + R ( λ )
U [ 3 , 2 ] = ( − 2 λ + 1 ) 1 4 + λ 2 = ( − 2 1 2 + 1 ) 1 4 + ( 1 2 ) 2 U[3,2] = (-2\lambda +1) \frac{1}{4}+\lambda^2 = \Big(-2\frac{1}{2}+1\Big) \frac{1}{4}+\Big(\frac{1}{2}\Big)^2 U [ 3 , 2 ] = ( − 2 λ + 1 ) 4 1 + λ 2 = ( − 2 2 1 + 1 ) 4 1 + ( 2 1 ) 2
U [ 3 , 2 ] = 0 1 4 + 1 4 = 1 4 U[3,2] =0\frac{1}{4} + \frac{1}{4} = \frac{1}{4} U [ 3 , 2 ] = 0 4 1 + 4 1 = 4 1
Literal b. Para el cálculo del error:
λ ≤ 1 2 \lambda \leq \frac{1}{2} λ ≤ 2 1
Δ t Δ x 2 ≤ 1 2 \frac{\Delta t}{\Delta x^2} \leq \frac{1}{2} Δ x 2 Δ t ≤ 2 1
Δ t ≤ Δ x 2 2 \Delta t \leq \frac{\Delta x^2}{2} Δ t ≤ 2 Δ x 2
en el enunciado se indica h = 0.25 = ¼ = Δ x
Δ t ≤ ( 1 / 4 ) 2 2 = 1 3 2 \Delta t \leq \frac{(1/4)^2}{2} = \frac{1}{32} Δ t ≤ 2 ( 1 / 4 ) 2 = 3 2 1
e r r o r ≅ O ( Δ t ) + O ( Δ x 2 ) error \cong O(\Delta t) + O(\Delta x^2) e r r o r ≅ O ( Δ t ) + O ( Δ x 2 )
e r r o r ≅ Δ x 2 2 + Δ x 2 error \cong \frac{\Delta x^2}{2}+ \Delta x^2 e r r o r ≅ 2 Δ x 2 + Δ x 2
e r r o r ≅ 3 2 Δ x 2 error \cong \frac{3}{2}\Delta x^2 e r r o r ≅ 2 3 Δ x 2
e r r o r ≅ 3 2 ( 1 4 ) 2 error \cong \frac{3}{2}( \frac{1}{4})^2 e r r o r ≅ 2 3 ( 4 1 ) 2
e r r o r ≅ 3 3 2 = 0 . 0 9 3 7 5 error \cong \frac{3}{32} = 0.09375 e r r o r ≅ 3 2 3 = 0 . 0 9 3 7 5