# Resumen CEDO $1^{\text{er}}$ corte: :::danger ## Definición: Una **ecuación diferencial ordinaria de primer orden** es una ecuación que relaciona la primer derivada de una función $y(x)$ con la función misma y con la variable independiente. Más formalmente una $\text{EDO}$ de $1^{\text{er}}$ orden es una función $y'=F(x,y)$. ::: Ejemplos de $\text{EDO}$s de $1^{\text{er}}$ orden son: - $y'=xy-e^x$ - $y'=cos(x)+x^2$ - $y'=y^3$ Una solución a una $\text{EDO}$ será una función $\phi(x)$ tal que $\phi'(x)\equiv F(x,\phi(x))$ Ahora, veamos un teorema importante, :::info ## Teorema de existencia y unicidad para primer orden: Si las funciones $F(x,y)$ y $\frac{\partial F}{\partial y}$ son continuas en un rectángulo $a<x<b,\ c<y<d$ que contenga al punto $(x_0,y_0)$. Entonces en algún intervalo $x_0-h<x<x_0$ existe una única función $\phi(x)$ tal que $\phi'(x)\equiv F(x,\phi(x))$ y $\phi(x_0)=y_0$. ::: Esto nos permite resolver problemas de valor inicial ($\text{PVI}$). Dependiendo del tipo de ecuación que tratemos, habrán metodos de resolución diferentes. Aquí están las clases más importantes: ## Variables separables: Tienen la forma general $$ y'=\frac{f(x)}{g(y)}$$ Y para resolverlos, primero debemos dejar la ecuación como $$ g(y)y'=f(x) $$ El siguiente paso involucra integrar a ambos lados con respecto $x$ y usar la notación de Lebesgue $$\int g(y)\frac{dy}{dx}dx=\int f(x)dx$$ Por la regla de la cadena, esto es $$\int g(y)dy=\int f(x)dx$$ Y así, al despejar $y$, obtendremos la familia de soluciones a la $\text{EDO}$. Para $\text{PVI}$ se va a tener que $$\int^{\phi(x)}_{y_0} g(y)dy=\int^x_{x_0} f(x)dx$$ Va a ser la solución. ## Ecuaciones exactas: Tienen la forma general $$M(x,y)dx+N(x,y)dy=0$$ Donde además se cumpla que $$\frac{\partial M}{\partial y}=\frac{\partial N}{\partial x}$$ En base a la fundamentación teórica que existe una función solución con la forma $$dF=Mdx+Ndy$$ Así, podemos elegir integrar ya sea con respecto a $x$ (o $y$) para llegar a $$F(x,y)=\int M(x,y)dx+C(y)$$ Donde asumimos que $C(y)$ es una constante de integración que puede depender de $y$, necesitamos despejar $g(y)$ para tener completamente a $F(x,y)$ por lo que $$\begin{align*} C(y)=F(x,y)-\int M(x,y)dx \end{align*}$$ Derivando parcialmente con respecto a $y$ tenemos $$\begin{align*} C'(y)&=\frac{\partial F(x,y)-\int M(x,y)dx}{\partial y}\\ &=\frac{\partial F(x,y)}{\partial y}-\frac{\partial \int M(x,y)dx}{\partial y}\\ &=N(x,y)-\frac{\partial \int M(x,y)dx}{\partial y} \end{align*}$$ Por lo que $$C(y)=\int\left[ N(x,y)-\frac{\partial \int M(x,y)dx}{\partial y}\right] dy$$ La función solución a la $\text{EDO}$ es entonces $$F(x,y)=K$$ Para algún $K$ definido por un $\text{PVI}$. ## Ecuaciones lineales: Son de la forma $$a(x)y'+b(x)y+c(x)=0$$ Donde podemos despejar $y'$ como $$y'+\left(\frac{b}{a}\right)(x)y=-\left(\frac{c}{a}\right)(x)$$ Simplificando notación $$y'+P(x)y=Q(x)$$ Y cuya solución es de la forma $$y=\frac{1}{\mu(x)}\left[\int\mu(x)Q(x)dx+c\right]$$ Donde $$\mu(x)=e^{\int P(x)dx}$$ En $\text{PVI}$ se tiene que $$\mu(x)=e^{\int^x_{x_0}P(x)dx},\ y(x)=\frac{1}{\mu(x)}\left[y_0+\int^x_{x_0}\mu(x)Q(x)dx\right]$$ # Sustituciones y ecuaciones especiales: ## Homogéneas: Si se tiene una una función $y'=F(x,y)$ que se puede reescribir de la forma $$y'=r(1,\frac{y}{x})$$ Entonces se puede hacer la sustitución $u=\frac{y}{x}$ donde $y'=u+xu'$. Tenemos la ecuación $$u+xu'=r(1,u)$$ Que es de variables separables ## Coeficientes lineales Son de la forma $$(a_1x+b_1y+c_1)dx+(a_2+b_2+c_2)dy=0$$ Donde trataremos 3 casos individuales ### Si $a_1b_2=a_2b_1$: Podemos reescribir la ecuación a $$y'=a\frac{x+by+d_1}{x+by+d_2}$$ Dado $a=-\frac{a_1}{a_2},\ b=\frac{b_1}{a_1}=\frac{b_2}{a_2}$ y $d_i=\frac{c_i}{a_i}$. El cambio de variable $u=x+by$ permite $$\frac{1}{b}(u'-1)=a\frac{u+d_1}{u+d_2}$$ Que es de variables separables. ### Si $c_1=0=c_2$ Reescribimos la ecuación como $$\begin{align*} y'&=-\frac{a_1x+b_1y}{a_2x+b_2y}\\ &=-\frac{a_1+b_1\frac{y}{x}}{a_2+b_2\frac{y}{x}} \end{align*}$$ Donde podemos aplicar la técnica de las ecuaciones homogéneas. ### Si $a_1b_2\neq a_2b_1$ Primero debemos el siguiente sistema de ecuaciones $$ \begin{pmatrix}a_{1}&b_{1}\\a_{2}&b_{2}\end{pmatrix}\cdot\begin{pmatrix}x\\y\end{pmatrix}=\begin{pmatrix}c_1\\c_2\end{pmatrix}$$ Como $a_1b_2-a_2b_1\neq0$ sabemos que el determinante de la matriz de coeficientes es distinto de 0 y por tanto, existe una solución al sistema $x=h$ y $y=k$, por lo que podemos hacer la sustición $$x=u+h,\ y=v+k,\ \frac{dy}{dx}=\frac{dv}{du}$$ Que realmente solo es una traslación del plano, así $$\begin{align*} \frac{dv}{du}&=-\frac{a_1(u+h)+b_1(v+k)+c_1}{a_2(u+h)+b_2(v+k)+c_2}\\ &=-\frac{a_1u+b_1v+a_1h+b_1k+c_1}{a_2u+b_2v+a_2h+b_2k+c_2}\\ &=-\frac{a_1u+b_1v}{a_2u+b_2v} \end{align*}$$ Donde podemos aplicar la técnica del caso anterior. ## Ecuación de Bernoulli Es de la forma $$y'+P(x)y=Q(x)y^n$$ Y se puede solucionar con la sustitución $$u=y^{1-n},\ u'=(1-n)y^{-n}y'$$ Reemplazando tenemos $$\frac{y^n}{1-n}u'+P(x)y=Q(x)y^n$$ Dividiendo por $y^n$ $$\frac{1}{1-n}u'+P(x)y^{1-n}=Q(x)$$ Esto es $$\frac{1}{1-n}u'+P(x)u=Q(x)$$ Una ecuación lineal al multiplicar por $(1-n)$. ## Ecuación de Ricatti: Es de la forma $$y'=P(x)+Q(x)y+R(x)y^2$$ Y la podemos resolver sii conocemos una solución particular $$y_1'\equiv P(x)+Q(x)y_1+R(x)y_1^2$$ Empezamos planteando la sustitución $$y=y_1+u,\ y'=y_1'+u'$$ Donde, reemplazando en la ecuación inicial tenemos $$y_1'+u'=P(x)+Q(x)(y_1+u)+R(x)(y_1+u)^2$$ Desarrollando $$y_1'+u'=P(x)+Q(x)y_1+Q(x)u+R(x)y_1^2+2R(x)y_1u+R(x)u^2$$ Usando que $y_1$ es una solución a la $\text{EDO}$ $$\begin{align*} u'&=Q(x)u+2R(x)y_1u+R(x)u^2\\ &=\left[Q(x)+2R(x)y_1\right]u+R(x)u^2 \end{align*}$$ Que es una ecuacion de Bernoulli con $n=2$. ## Ecuación de Lagrange: Es de la forma $$y=g(y')x+f(y')$$ La idea es parametrizar la función con una sustitución $y'=p$ $$y=g(p)x+f(p)$$ Derivando con respecto a $y$ $$p=g'(p)p'x+f'(p)p'$$ Podemos plantear $x$ en términos de $p$ como $$\frac{dx}{dp}-\frac{g'(p)}{p-g(p)}x=\frac{f'(p)}{p-g(p)}$$ Una ecuación lineal que se resuelve dando lugar a una nueva $h(x,p)$ tal que $$h(x,p)=x(p)=\frac{1}{e^{\int-\frac{g'(p)}{p-g(p)}dp}}\left[\int(e^{\int-\frac{g'(p)}{p-g(p)}dp}))\frac{f'(p)}{p-g(p)}+C\right]$$ De lo que sigue $$y(p)=g(p)x(p)+f(p)$$ Y la solución es una curva de la forma $$y=g(p)x+f(p)$$ $$(x(p),y(p))$$ Las aplicaciones son para ingenieros, por tanto, las omito. # $\text{EDOs}$ lineales de orden superior ### Son de la forma $$a_n(x)y^{(n)}+a_{n-1}(x)y^{(n-1)}+...+a_1(x)y'+a_0(x)y=g(x)$$ - Tenemos que si $g(x)\equiv0$, no hay variables libres $x$ y por tanto se denomina **homogénea**. - Si $a_i(x)\equiv a_i\in\mathbb{R},\ 0\leq i \leq n$, es decir, las derivadas de $y$ tienen coeficientes reales, decimos que la ecuación lineal es de **coeficientes constantes**. :::info ## Teorema de existencia y unicidad para órdenes superiores: Sea una $\text{EDO}$ lineal y de orden $n$ de la forma $$a_n(x)y^{(n)}+a_{n-1}(x)y^{(n-1)}+...+a_1(x)y'+a_0(x)y=g(x)$$ Donde $g(x),a_n(x),...,a_0(x)\in C^1(a,b)$ tal que $x_0\in(a,b)$. Entonces para cualesquiera valores iniciales $y_i,\ 0\leq i<n$, existe una única solución $\phi(x)$ en el intervalo que suple $$y^{(i)}(x_0)=y_i,\ 0\leq i<n$$ ### Nota: No se garantiza que la solución $\phi(x)$ sea única en todo el dominio de la ecuación, en cambio se dice que todas las curvas que pasan por $x_0$ tienen un comportamiento idéntico en $(a,b)$ :). ::: :::info ### Teorema: Sea una $\text{EDO}$ lineal, homogénea y de orden $n$. Si $\phi(x)$ es una solución, entonces $\alpha\phi(x)$ es también una solución para todo $\alpha\in\mathbb{R}$. :::spoiler *Demostración:* Por la hipótesis, tenemos que la $\text{EDO}$ es de la forma $$a_n(x)y^{(n)}+a_{n-1}(x)y^{(n-1)}+...+a_1(x)y'+a_0(x)y=0$$ Usando que $\phi(x)$ es solución, sabemos que $$a_n(x)\phi^{(n)}(x)+a_{n-1}(x)\phi^{(n-1)}(x)+...+a_1(x)\phi'(x)+a_0(x)\phi(x)\equiv0$$ Ahora vemos el caso $\alpha\phi(x),\ \alpha\in\mathbb{R}$ $$F(x,\alpha\phi(x))=\sum_{i=0}^na_i(x)[\alpha\phi]^{(i)}(x)$$ Usando que la derivada es un operador lineal, tenemos $$F(x,\alpha\phi(x))=\sum_{i=0}^na_i(x)\alpha\phi^{(i)}(x)$$ Factorizando $\alpha$, $$\begin{align*} F(x,\alpha\phi(x))&=\alpha\left[\sum_{i=0}^na_i(x)\phi^{(i)}(x)\right]\\ &=\alpha[F(x,\phi(x))]\\ &=\alpha\cdot 0\\ &\equiv0 \end{align*}$$ Luego concluimos $\alpha\phi(x)$ también es solución para $\alpha\in\mathbb{R}$. ::: Por este mismo argumento también podemos demostrar que la suma de dos soluciones $\phi_1(x)+\phi_2(x)=\phi_3(x)$ tambien es una solución de una $\text{EDO}$ homogénea de orden $n$. Luego tenemos que el conjunto de todas las soluciones de una $\text{EDO}$ de este tipo es un grupo con respecto a la suma, más aún parece ser un espacio vectorial.