Exemplo:
Input: "x*x; 1". Output: aproximadamente "5.6".
Raio de curvatura (aproximado):
Organização sem fins lucrativos, voltada para a pesquisa e educação em Matemática.
Seja $p \in \mathbb{R}[x]$ e $\alpha \in \mathbb{C} \setminus \mathbb{R}$. Mostre que
$\bullet$ $p(\overline{\alpha}) = \overline{p(\alpha)}$;
$\bullet$ $p(\alpha) = 0\ \Leftrightarrow\ p(\overline{\alpha}) = 0$;
$\bullet$ Se $\alpha$ é raiz de $p$, e $p = x^2 + bx + c$, $p = (x - \alpha)(x - \overline{\alpha})$.
Resolução:
Primeira sentença:
$p(\overline{\alpha}) = \displaystyle\sum_{i=0}^n a_i (\overline{\alpha})^i = \displaystyle\sum_{i=0}^n \overline{a_i}(\overline{\alpha})^i = \displaystyle\sum_{i=0}^n \overline{a_i \alpha^i} = \overline{p(\alpha)}$ ${\Large (I)}$
Segunda sentença:
$p(\alpha) = 0\ \Leftrightarrow\ \underset{\text{Por (I).}}{\underbrace{\overline{p(\alpha)} = p(\overline{\alpha})}} = 0$ ${\Large (II)}$
Terceira sentença:
Por D'Alembert, $p$ é divisível por $(x - \alpha)$; por (II), $p$ também é divisível por $(x - \overline{\alpha})$, logo $x^2 + bx + c = (x - \alpha)(x - \overline{\alpha})q(x)$; comparando os termos em $x^2$, $q(x) = 1$.
Quod Erat Demonstrandum.
Seja $A$ uma $m$ x $n$ matriz, $B$ uma $n$ x $r$ matriz, e $I_n$ a matriz identidade de ordem $n$. Mostre que
$\bullet$ $AI = A$;
$\bullet$ $IB = B$.
Demonstração:
Um elemento na posição $(i, k)$ de $AI$ é $\displaystyle\sum_{j=1}^n a_{ij} \alpha_{jk}$.
Como $\alpha_{jk} = 0$ para $j \neq k$ e $\alpha_{jk} = 1$ para $j = k$, $\displaystyle\sum_{j=1}^n a_{ij} \alpha_{jk} = a_{ik}$.
Analogamente para $IB$.
Quod Erat Demonstrandum.
Se as matrizes $A$ e $B$ podem ser multiplicadas, mostre que
${}^t(AB) = {}^tB {}^tA$.
Resolução:
Sejam $A = (a_{ij})_{m\text{ x }n}$ e $B = (b_{jk})_{n\text{ x }r}$. ${}^tA = (a'_{ji})_{n\text{ x }m}$ e ${}^tB = (b'_{kj})_{r\text{ x }n}$.
O elemento da posição $(k, i)$ de ${}^tB \cdot {}^tA$ é
$\displaystyle\sum_{j=1}^n b'_{kj} a'_{ji}$.
Como $a'_{ji} = a_{ij}$ e $b'_{kj} = b_{jk}$,
$\displaystyle\sum_{j=1}^n b'_{kj} a'_{ji} = \displaystyle\sum_{j=1}^n b_{jk} a_{ij} = \displaystyle\sum_{j=1}^n a_{ij} b_{jk}$,
que é o elemento na posição $(k, i)$ de ${}^t(AB)$.
Quod Erat Demonstrandum.
Seja $A$ uma matriz quadrada não singular e $B$ sua inversa. Ou seja,
$AB = BA = I$.
Vamos supor que exista uma inversa $C$ de $A$.
$C = CI = C(AB) = (CA)B = IB = B$
Sejam $A$, $B$ e $C$ matrizes tais que $A$ e $B$ possam ser multiplicadas, e $B$ e $C$ possam ser multiplicadas. Mostre que
$\bullet$ $A$ e $BC$ podem ser multiplicadas;
$\bullet$ $AB$ e $C$ podem ser multiplicadas;
$\bullet$ $A(BC) = (AB)C$.
Resolução:
Sejam $A = (a_{ij})$ uma $m$ x $n$ matriz, $B = (b_{jk})$ uma $n$ x $r$ matriz, e $C = (c_{kl})$ uma $r$ por $s$ matriz,
$BC$ será uma $n$ por $s$ matriz e $A(BC)$ existirá e será uma $m$ x $s$ matriz;
$AB$ será uma $m$ por $r$ matriz e $(AB)C$ existirá e será uma $m$ por $s$ matriz.
Um elemento da posição $(j, l)$ de $BC$ será $\displaystyle\sum_{k=1}^r b_{jk}c_{kl}$, e um elemento da posição $(i, l)$ de $A(BC)$ será $\displaystyle\sum_{j=1}^n a_{ij}\left(\displaystyle\sum_{k=1}^r b_{jk}c_{kl}\right) = \displaystyle\sum_{j=1}^n \displaystyle\sum_{k=1}^r a_{ij}b_{jk}c_{kl}$.
$\displaystyle\sum_{j=1}^n \displaystyle\sum_{k=1}^r a_{ij}b_{jk}c_{kl}$ será a soma de todos os $a_{ij}b_{jk}c_{kl}$ com $1 \le j \le n$ e $1 \le k \le r$, resultado que igualmente chegaríamos calculando o elemento da posição $(i, l)$ de $(AB)C$.
Quod Erat Demonstrandum.
Seja $\displaystyle\sum_{i=1}^n A_i x_i = 0$, Com $A_i \in \mathfrak{M}_{mx1} (\mathbb{R})$ um sistema com solução não trivial em $\mathbb{C}$, mostre que ele admite solução não trivial em $\mathbb{R}$.
Resolução:
Se o sistema admite solução não trivial complexa, $A_1, ..., A_n$ são linearmente dependentes sobre $\mathbb{C}$, ou seja,
$\displaystyle\sum_{i \in I}A_i z_i = A_j$, com $I = \{1, ..., j-1, j+1, ..., n\}$.
Como $A_j$ tem componentes reais,
$\displaystyle\sum_{i \in I}A_i [Re(z_i)] = A_j$, com $I = \{1, ..., j-1, j+1, ..., n\}$.
Ou seja, $A_1, ..., A_n$ são linearmente dependentes sobre $\mathbb{R}$. Consequentemente o sistema admite solução não trivial em $\mathbb{R}$.
Quod Erat Demonstrandum.
Seja $\displaystyle\sum_{i=1}^n x_i A_i = 0$ um sistema homogêneo, mostrar que todos $X = (x_i)_1^n$, soluções do sistema, formam um espaço vetorial.
Resolução:
Se $A_1, ..., A_n$ são linearmente independentes, teremos como única solução o $O$, e $\{O\}$ é um espaço vetorial. Se são linearmente dependentes, há uma infinidade de soluções; como estas soluções são um subconjunto do espaço vetorial $\mathbb{R}^n$, basta mostrar que
$\bullet$ $O$ pertence ao subconjunto, o que é evidente;
$\bullet$ Sejam $v$ e $w$ dois elementos, $v + w$ também é elemento. De fato, se $v = (v_i)_1^n$ e $w = (w_i)_1^n$, $\displaystyle\sum_{i=1}^n v_i A_i = 0$ e $\displaystyle\sum_{i=1}^n w_i A_i = 0$, $\displaystyle\sum_{i=1}^n (v_i + w_i) A_i = 0$;
$\bullet$ Se $c$ é um escalar e $v = (v_i)_1^n$ é um elemento, $\displaystyle\sum_{i=1}^n cv_i A_i = c\displaystyle\sum_{i=1}^n v_i A_i = 0$.
Quod Erat Demonstrandum.
Sejam $P(a, b)$, $Q(c, d)$, o eixo $\overrightarrow{PQ}$, e uma função $f: I \rightarrow \mathbb{R}$, diferenciável em $I$. Se um móvel desloca-se sobre o gráfico de $f$ com uma velocidade $v$, a velocidade do ângulo entre o eixo e o ponto onde se encontra o móvel é
$\mathcal{V\alpha_A}_{f(x), v}^{[(a, b), (c, d)]} (x) = \dfrac{d}{dx}\left(\mathcal{\alpha_A}_{f(x)}^{[(a, b), (c, d)]}\right) \cdot \dfrac{dx}{dC} \cdot v$. Logo
${\tiny \displaylines{\mathcal{V\alpha_A}_{f(x), v}^{[(a, b), (c, d)]} (x) = \dfrac{[(c - a) + (d - b)f'(x)]\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}} - \dfrac{\{(c - a)(x - a) + (d - b)[f(x) - b]\}[(c - a)^2 + (d - b)^2]\{2(x - a) + 2[f(x) - b]f'(x)\}}{2\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}}{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}} \cdot \\ \cdot \dfrac{v}{\sqrt{1 + [f'(x)]^2}} \cdot \dfrac{-1}{\sqrt{1 - \dfrac{\{(c - a)(x - a) + (d - b)[f(x) - b]\}^2}{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}}}}$.
Exemplo: $\mathcal{V\alpha_A}_{1, 1}^{[(0, 0), (0, 1)]} (1) = 0.5$
Sejam $P(a, b)$, $Q(c, d)$, o eixo $\overrightarrow{PQ}$, e uma função $f: I \rightarrow \mathbb{R}$. O ângulo $\theta$ de um ponto de $f$ com o eixo $\overrightarrow{PQ}$ é tal que $\cos \theta = \dfrac{(c - a)(x - a) + (d - b)[f(x) - b]}{\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}$.
Chamando tal ângulo de Ângulo de Antonio Vandré,
$\mathcal{\alpha_A}_{f(x)}^{[(a, b), (c, d)]} = \arccos \dfrac{(c - a)(x - a) + (d - b)[f(x) - b]}{\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}$.
Exemplo: $f(x) = 0$, $P(0, 1)$, $Q(0, 2)$:
$\mathcal{\alpha_A}_{0}^{[(0, 1), (0, 2)]} = \arccos \dfrac{-1}{\sqrt{x^2 + 1}}$.
Seja $A = (a_{ij})$ e $A + A^t = (s_{kl})$.
Olhemos para a linha $i$ e a coluna $j$ da soma:
$s_{ij} = a_{ij} + a_{ji}$
Olhemos agora para a linha $j$ e a coluna $i$ da soma:
$s_{ji} = a_{ji} + a_{ij}$
Como $s_{ij} = s_{ji}$, a soma é uma matriz simétrica.
Quod Erat Demonstrandum.
Seja $f:\ I \rightarrow \mathbb{R},\ I \subset \mathbb{R}$ e um ponto $P(a, b)$. A distância de $P$ a $f$, $d_{[f(x), (a, b)]}$ é dada de acordo com o seguinte algoritmo:
Consideremos a função $D(x) = \sqrt{(x - a)^2 + [f(x) - b]^2}$.
Sejam $\alpha_1, \alpha_2, ...$ os pontos de descontinuidade de $f$; sejam $\beta_1, \beta_2, ...$ os pontos onde $D$ não é diferenciável; e $\gamma_1, \gamma_2, ..., \gamma_i, ...$ reais tais que $D'(\gamma_i) = 0$.
Construamos o conjunto $\mathcal{D} = \{D(\alpha_1), D(\alpha_2), ..., D(\beta_1), D(\beta_2), ..., D(\gamma_1), D(\gamma_2),...\}$.
$\fbox{$d_{[f(x), (a, b)]} = min\ \mathcal{D}$}$
Sejam dois satélites estacionários, um à longitude $80^o$ e outro à longitude $30^o$. Sabendo que satélites estacionários estão a aproximadamente $42000\ km$ do centro da Terra, qual a distância entre eles?
Resolução:
$cord\ \dfrac{5\pi}{18} = \sqrt{2(1 - \cos \dfrac{5\pi}{18})} \approx 0,85$
Logo distanciam-se de, aproximadamente, $42000 \cdot 0,85 \approx \fbox{$36000\ km$}$.
Sabendo que $arccord\ x = \arccos \left(1 - \dfrac{x^2}{2}\right)$, utilizando a regra da cadeia:
$(arccord\ x)' = \dfrac{x}{\sqrt{1 - \left(1 - \dfrac{x^2}{2}\right)^2}} = \fbox{$\dfrac{2}{\sqrt{4 - x^2}}$}$.
${\large cord\ \alpha = \sqrt{2(1 - \cos \alpha)}}$
Inversa: seja $arccord: \underset{x\ \mapsto\ arccord\ x}{[0, 2] \rightarrow [0, \pi]},\ \fbox{$arccord\ x = \arccos \left(1 - \dfrac{x^2}{2}\right)$}$.
Derivada: $\fbox{$(cord\ \alpha)' = \dfrac{\sin \alpha}{\sqrt{2 - 2\cos \alpha}}$}$.
Observemos que, para $0 \le \alpha \le 2\pi$, $cord\ \alpha = 2\sin \dfrac{\alpha}{2}$.
Logo,
$\fbox{$\displaystyle\int cord\ \alpha\ d\alpha\ =\ -4\cos \dfrac{\beta}{2} + c,\ \alpha = 2k\pi + \beta,\ k \in \mathbb{Z}, 0 \le \beta < 2\pi$}$.
Seja um veículo de massa $1200\ kg$ deslocando-se sobre uma rodovia em forma de $\log x$ com uma velocidade de $20\ m/s$. Determine a força exercida pelos pneus sobre a rodovia para $x = 4$.
Resolução:
$F = \dfrac{1200 \cdot 400}{\mathcal{RC_A}_{[\log x, 4]}} = \dfrac{480000}{\dfrac{17\sqrt{17}}{4}} \approx \fbox{$2,7 \cdot 10^4\ N$}$
O raio de uma curva $f(x)$ em $x = x_0$ é dado por $\mathcal{RC_A}_{[f(x), x_0]} = \sqrt{\sigma^2 + \left( \dfrac{\sigma}{f'(x_0)}\right)^2}$,
$\sigma = \displaystyle\lim_{x \rightarrow x_0} \left\{x_0 - \dfrac{f'(x)[x_0 + f(x_0)f'(x_0)] - f'(x_0)[x + f(x)f'(x)]}{f'(x) - f'(x_0)}\right\}$.
Demonstração:
Sejam duas retas ortogonais não paralelas a $f(x)$:
$\begin{cases}y - f(a) = \dfrac{-1}{f'(a)}(x - a)\ {\Large (I)}\\ y - f(b) = \dfrac{-1}{f'(b)}(x - b)\end{cases}$.
Terão interseção em $x = \delta = \dfrac{f'(b)[a + f(a)f'(a)] - f'(a)[b + f(b)f'(b)]}{f'(b) - f'(a)}$.\\
Calculando a ordenada em (I), substituindo $a$ por $x_0$, $b$ por $x$ e tomando $\sigma = \displaystyle\lim_{x \rightarrow x_0} x - \delta$,
$\fbox{$\mathcal{RC_A}_{[f(x), x_0]} = \sqrt{\sigma^2 + \left(\dfrac{\sigma}{f'(x_0)}\right)^2}$}$.
Exemplo: $f(x) = x^2$ e $x_0 = 1$:
$\sigma = 5\ \Rightarrow\ \mathcal{RC_A}_{[x^2, 1]} = \dfrac{5\sqrt{5}}{2}$.
Seja $U$ a ddp, $R$ a resistência, $i$ a corrente do sistema equivalente, $n$ o número de resistores, e $R_k$ e $U_k$, $1 \le k \le n$, respectivamente a resistência e a ddp de um resistor componente.
$U = Ri\ \Rightarrow\ U = \left(\displaystyle\sum_{k=1}^n R_k\right) i = \displaystyle\sum_{k=1}^n iR_k = \displaystyle\sum_{k=1}^n U_k$
Quod Erat Demonstrandum.
Seja $p$, iniciando por $0$, a ordem do termo segundo as potências decrescentes da primeira parcela do binômio.
$\dfrac{p - 6}{2} + p = 0\ \Rightarrow\ p = 2$
Logo o termo independente é $\displaystyle{6 \choose 2}\left(\dfrac{1}{\sqrt{x}}\right)^{(6 - 2)}(-3x)^2 = \fbox{$135$}$.
Sejam $V = \mathbb{R}^2$, $W$ e $U$ sub-espaços de $V$, $\{(1, 2)\}$ uma base de $W$ e $\{(1, 0)\}$ uma base de $U$, mostre que $V = W \oplus U$.
Resolução:
Seja $v \in V$, basta mostrar que existem únicos $w \in W$ e $u \in U$ tais que $v = w + u$.
Seja $v = (a, b)$, teremos que $\begin{cases}\alpha + \beta = a\\ 2\alpha = b\end{cases}$, que admite solução única para $\alpha , \beta \in \mathbb{R}$, pois $\begin{vmatrix}1 & 1\\ 2 & 0\end{vmatrix} \neq 0$.
Quod Erat Demonstrandum.
Sejam $U$ e $W$ sub-espaços de $V$, mostre que, se $V = U + W$ e $U \cap W = \{O\}$, então $V = U \oplus W$.
Resolução:
Seja $v \in V$, devemos mostrar que existem únicos $u \in U$ e $w \in W$ tais que $v = u + w$.
Vamos supor que existam $u' \in U$ e $w' \in W$ tais que $v = u' + w'$:
$u + w = u' + w'\ \Rightarrow\ \underset{\in U}{\underbrace{u - u'}} = \underset{\in W}{\underbrace{w' - w}}$.
Como o único elemento em comum de $U$ e $W$ é $O$, segue que $u' = u$ e $w' = w$.
Quod Erat Demonstrandum.
Lema: se $\{v_1, ..., v_m\}$ é uma base de $V$, $\{w_1, ..., w_n\}$, com $n > m$ é linearmente dependente.
Se $\{w_1, ..., w_m\}$ é linearmente dependente, o lema já está demonstrado. Caso não, seja
$w_i = a_1 v_1 + ... + a_i v_i + ... + a_m v_m,\ i \le m\ \Rightarrow\ v_i = a_i^{-1} w_i - \displaystyle\sum_{j \neq i} a_i^{-1} a_j v_j,\ i,j \le m,\ a_i \neq 0$.
Donde concluímos que $\{w_i, (v_j)_{j \neq i}\},\ i,j \le m$ gera $V$.
Seja agora $r,\ 1 \le r < m$,
$w_j = \displaystyle\sum_{i=1}^r b_i w_i + \displaystyle\sum_{i=r+1}^m a_i v_i,\ j > r\ \Rightarrow\ v_j = -\displaystyle\sum_{i=1}^r a_j^{-1} b_i w_i - \displaystyle\sum_{i=r+1,i \neq j}^m a_j^{-1} a_i v_i + a_j^{-1}w_j,\ j > r,\ a_j \neq 0$.
Donde concluímos que $w_1, ..., w_m$ gera $V$.
Concluímos também que
$w_j = \displaystyle\sum_{i=1}^m d_i w_i,\ \forall j > m$.
Donde concluímos que $\{w_1, ..., w_n\}$ é linearmente dependente.
Teorema: todas as bases de um espaço vetorial de dimensão finita tem o mesmo número de elementos.
De acordo com o lema anterior, não podemos ter $n > m$ e nem $m > n$, logo $m = n$.
Seja $V$ o espaço vetorial de dimensão infinita gerado por $\{\sin \alpha x\ :\ \alpha \in \mathbb{Z}\}$ e $\langle f, g \rangle = \displaystyle\int_{-\pi}^{\pi} f(x)g(x)\ dx$, mostre que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são linearmente independentes.
Resolução:
Basta mostrar que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são perpendiculares.
De fato, $\displaystyle\int_{-\pi}^{\pi} (\sin mx)(\sin nx)\ dx\ =\ \dfrac{1}{2}\displaystyle\int_{-\pi}^{\pi} \cos (m - n)x - \cos (m + n)x\ dx\ =\ 0$.
Quod Erat Demonstrandum.