$\require{enclose}$ $\newcommand{\avsum}{\mathrel{\displaystyle\int \!\!\!\!\!\! \Delta\ }}$ $\newcommand{\bcancelto}[2]{{\enclose{southeastarrow}{#2}\,}_{\lower.75ex{#1}}}$ $\newcommand{\ordcirc}[1]{\mathrel{[\hspace{-4pt} \circ \hspace{2pt}#1 \hspace{3pt}]\hspace{-4pt}\circ}}$ $\newcommand{\avigual}{\{=\}}$ $\newcommand{\intsup}{{\LARGE \big\uparrow}\displaystyle\int}$ $\newcommand{\intinf}{{\LARGE \big\downarrow}\displaystyle\int}$
Última atualização estrutural do weblog: 07-07-2023.

Este weblog utiliza serviços de terceiros, e os mesmos podem não funcionar adequadamente, o que não depende de mim.

Se as expressões matemáticas não estiverem satisfatoriamente visíveis, você pode alterar as configurações de exibição no menu contextual.

Este weblog pode passar por melhorias. Caso não teve uma boa experiência hoje, futuramente os problemas poderão estar corrigidos.

Em caso de não ser a mim mais possível realizar manutenções, como, por exemplo, devido a falecimento ou desaparecimento, alguns links podem ficar quebrados e eu não responder mais a comentários. Peço compreensão.

quarta-feira, 30 de junho de 2021

Calculadora: raio de curvatura de uma função.

Entre com uma string separada por ponto e vírgula ";", tendo como primeira parte uma função em "x", e a segunda parte um número real para "x" de modo que a função seja duas vezes diferenciável em "x":

Exemplo:

Input: "x*x; 1". Output: aproximadamente "5.6".




Raio de curvatura (aproximado):

Raízes complexas não reais conjugadas.

Seja $p \in \mathbb{R}[x]$ e $\alpha \in \mathbb{C} \setminus \mathbb{R}$. Mostre que

$\bullet$ $p(\overline{\alpha}) = \overline{p(\alpha)}$;

$\bullet$ $p(\alpha) = 0\ \Leftrightarrow\ p(\overline{\alpha}) = 0$;

$\bullet$ Se $\alpha$ é raiz de $p$, e $p = x^2 + bx + c$, $p = (x - \alpha)(x - \overline{\alpha})$.

Resolução:

Primeira sentença:

$p(\overline{\alpha}) = \displaystyle\sum_{i=0}^n a_i (\overline{\alpha})^i = \displaystyle\sum_{i=0}^n \overline{a_i}(\overline{\alpha})^i = \displaystyle\sum_{i=0}^n \overline{a_i \alpha^i} = \overline{p(\alpha)}$ ${\Large (I)}$

Segunda sentença:

$p(\alpha) = 0\ \Leftrightarrow\ \underset{\text{Por (I).}}{\underbrace{\overline{p(\alpha)} = p(\overline{\alpha})}} = 0$ ${\Large (II)}$

Terceira sentença:

Por D'Alembert, $p$ é divisível por $(x - \alpha)$; por (II), $p$ também é divisível por $(x - \overline{\alpha})$, logo $x^2 + bx + c = (x - \alpha)(x - \overline{\alpha})q(x)$; comparando os termos em $x^2$, $q(x) = 1$.

Quod Erat Demonstrandum.

Produtos de $I_n$ por matrizes não quadradas.

Seja $A$ uma $m$ x $n$ matriz, $B$ uma $n$ x $r$ matriz, e $I_n$ a matriz identidade de ordem $n$. Mostre que

$\bullet$ $AI = A$;

$\bullet$ $IB = B$.

Demonstração:

Um elemento na posição $(i, k)$ de $AI$ é $\displaystyle\sum_{j=1}^n a_{ij} \alpha_{jk}$.

Como $\alpha_{jk} = 0$ para $j \neq k$ e $\alpha_{jk} = 1$ para $j = k$, $\displaystyle\sum_{j=1}^n a_{ij} \alpha_{jk} = a_{ik}$.

Analogamente para $IB$.

Quod Erat Demonstrandum.

Transposta do produto de matrizes.

Se as matrizes $A$ e $B$ podem ser multiplicadas, mostre que

${}^t(AB) = {}^tB {}^tA$.

Resolução:

Sejam $A = (a_{ij})_{m\text{ x }n}$ e $B = (b_{jk})_{n\text{ x }r}$. ${}^tA = (a'_{ji})_{n\text{ x }m}$ e ${}^tB = (b'_{kj})_{r\text{ x }n}$.

O elemento da posição $(k, i)$ de ${}^tB \cdot {}^tA$ é

$\displaystyle\sum_{j=1}^n b'_{kj} a'_{ji}$.

Como $a'_{ji} = a_{ij}$ e $b'_{kj} = b_{jk}$,

$\displaystyle\sum_{j=1}^n b'_{kj} a'_{ji} = \displaystyle\sum_{j=1}^n b_{jk} a_{ij} = \displaystyle\sum_{j=1}^n a_{ij} b_{jk}$,

que é o elemento na posição $(k, i)$ de ${}^t(AB)$.

Quod Erat Demonstrandum.

Unicidade da matriz inversa.

Seja $A$ uma matriz quadrada não singular e $B$ sua inversa. Ou seja,

$AB = BA = I$.

Vamos supor que exista uma inversa $C$ de $A$.

$C = CI = C(AB) = (CA)B = IB = B$

Propriedade associativa da multiplicação de matrizes.

Sejam $A$, $B$ e $C$ matrizes tais que $A$ e $B$ possam ser multiplicadas, e $B$ e $C$ possam ser multiplicadas. Mostre que

$\bullet$ $A$ e $BC$ podem ser multiplicadas;

$\bullet$ $AB$ e $C$ podem ser multiplicadas;

$\bullet$ $A(BC) = (AB)C$.

Resolução:

Sejam $A = (a_{ij})$ uma $m$ x $n$ matriz, $B = (b_{jk})$ uma $n$ x $r$ matriz, e $C = (c_{kl})$ uma $r$ por $s$ matriz,

$BC$ será uma $n$ por $s$ matriz e $A(BC)$ existirá e será uma $m$ x $s$ matriz;

$AB$ será uma $m$ por $r$ matriz e $(AB)C$ existirá e será uma $m$ por $s$ matriz.

Um elemento da posição $(j, l)$ de $BC$ será $\displaystyle\sum_{k=1}^r b_{jk}c_{kl}$, e um elemento da posição $(i, l)$ de $A(BC)$ será $\displaystyle\sum_{j=1}^n a_{ij}\left(\displaystyle\sum_{k=1}^r b_{jk}c_{kl}\right) = \displaystyle\sum_{j=1}^n \displaystyle\sum_{k=1}^r a_{ij}b_{jk}c_{kl}$.

$\displaystyle\sum_{j=1}^n \displaystyle\sum_{k=1}^r a_{ij}b_{jk}c_{kl}$ será a soma de todos os $a_{ij}b_{jk}c_{kl}$ com $1 \le j \le n$ e $1 \le k \le r$, resultado que igualmente chegaríamos calculando o elemento da posição $(i, l)$ de $(AB)C$.

Quod Erat Demonstrandum.

Seja $\displaystyle\sum_{i=1}^n A_i x_i = 0$, Com $A_i \in \mathfrak{M}_{mx1} (\mathbb{R})$ um sistema com solução não trivial em $\mathbb{C}$, mostre que ele admite solução não trivial em $\mathbb{R}$.

Seja $\displaystyle\sum_{i=1}^n A_i x_i = 0$, Com $A_i \in \mathfrak{M}_{mx1} (\mathbb{R})$ um sistema com solução não trivial em $\mathbb{C}$, mostre que ele admite solução não trivial em $\mathbb{R}$.

Resolução:

Se o sistema admite solução não trivial complexa, $A_1, ..., A_n$ são linearmente dependentes sobre $\mathbb{C}$, ou seja,

$\displaystyle\sum_{i \in I}A_i z_i = A_j$, com $I = \{1, ..., j-1, j+1, ..., n\}$.

Como $A_j$ tem componentes reais,

$\displaystyle\sum_{i \in I}A_i [Re(z_i)] = A_j$, com $I = \{1, ..., j-1, j+1, ..., n\}$.

Ou seja, $A_1, ..., A_n$ são linearmente dependentes sobre $\mathbb{R}$. Consequentemente o sistema admite solução não trivial em $\mathbb{R}$.

Quod Erat Demonstrandum.

Seja $\displaystyle\sum_{i=1}^n x_i A_i = 0$ um sistema homogêneo, mostrar que todos $X = (x_i)_1^n$, soluções do sistema, formam um espaço vetorial.

Seja $\displaystyle\sum_{i=1}^n x_i A_i = 0$ um sistema homogêneo, mostrar que todos $X = (x_i)_1^n$, soluções do sistema, formam um espaço vetorial.

Resolução:

Se $A_1, ..., A_n$ são linearmente independentes, teremos como única solução o $O$, e $\{O\}$ é um espaço vetorial. Se são linearmente dependentes, há uma infinidade de soluções; como estas soluções são um subconjunto do espaço vetorial $\mathbb{R}^n$, basta mostrar que

$\bullet$ $O$ pertence ao subconjunto, o que é evidente;

$\bullet$ Sejam $v$ e $w$ dois elementos, $v + w$ também é elemento. De fato, se $v = (v_i)_1^n$ e $w = (w_i)_1^n$, $\displaystyle\sum_{i=1}^n v_i A_i = 0$ e $\displaystyle\sum_{i=1}^n w_i A_i = 0$, $\displaystyle\sum_{i=1}^n (v_i + w_i) A_i = 0$;

$\bullet$ Se $c$ é um escalar e $v = (v_i)_1^n$ é um elemento, $\displaystyle\sum_{i=1}^n cv_i A_i = c\displaystyle\sum_{i=1}^n v_i A_i = 0$.

Quod Erat Demonstrandum.

Meme - Montar equações.


 

Meme - Procurando o bug.


 

Velocidade Angular de Antonio Vandré.

Sejam $P(a, b)$, $Q(c, d)$, o eixo $\overrightarrow{PQ}$, e uma função $f: I \rightarrow \mathbb{R}$, diferenciável em $I$. Se um móvel desloca-se sobre o gráfico de $f$ com uma velocidade $v$, a velocidade do ângulo entre o eixo e o ponto onde se encontra o móvel é

$\mathcal{V\alpha_A}_{f(x), v}^{[(a, b), (c, d)]} (x) = \dfrac{d}{dx}\left(\mathcal{\alpha_A}_{f(x)}^{[(a, b), (c, d)]}\right) \cdot \dfrac{dx}{dC} \cdot v$. Logo

${\tiny \displaylines{\mathcal{V\alpha_A}_{f(x), v}^{[(a, b), (c, d)]} (x) = \dfrac{[(c - a) + (d - b)f'(x)]\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}} - \dfrac{\{(c - a)(x - a) + (d - b)[f(x) - b]\}[(c - a)^2 + (d - b)^2]\{2(x - a) + 2[f(x) - b]f'(x)\}}{2\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}}{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}} \cdot \\ \cdot \dfrac{v}{\sqrt{1 + [f'(x)]^2}} \cdot \dfrac{-1}{\sqrt{1 - \dfrac{\{(c - a)(x - a) + (d - b)[f(x) - b]\}^2}{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}}}}$.

Exemplo: $\mathcal{V\alpha_A}_{1, 1}^{[(0, 0), (0, 1)]} (1) = 0.5$




 

Ângulo de Antonio Vandré.

Sejam $P(a, b)$, $Q(c, d)$, o eixo $\overrightarrow{PQ}$, e uma função $f: I \rightarrow \mathbb{R}$. O ângulo $\theta$ de um ponto de $f$ com o eixo $\overrightarrow{PQ}$ é tal que $\cos \theta = \dfrac{(c - a)(x - a) + (d - b)[f(x) - b]}{\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}$.

Chamando tal ângulo de Ângulo de Antonio Vandré,

$\mathcal{\alpha_A}_{f(x)}^{[(a, b), (c, d)]} = \arccos \dfrac{(c - a)(x - a) + (d - b)[f(x) - b]}{\sqrt{[(c - a)^2 + (d - b)^2]\{(x - a)^2 + [f(x) - b]^2\}}}$.

Exemplo: $f(x) = 0$, $P(0, 1)$, $Q(0, 2)$:

$\mathcal{\alpha_A}_{0}^{[(0, 1), (0, 2)]} = \arccos \dfrac{-1}{\sqrt{x^2 + 1}}$.



Seja $A$ uma matriz quadrada, mostre que $A + A^t$ é simétrica.

Seja $A = (a_{ij})$ e $A + A^t = (s_{kl})$.

Olhemos para a linha $i$ e a coluna $j$ da soma:

$s_{ij} = a_{ij} + a_{ji}$

Olhemos agora para a linha $j$ e a coluna $i$ da soma:

$s_{ji} = a_{ji} + a_{ij}$

Como $s_{ij} = s_{ji}$, a soma é uma matriz simétrica.

Quod Erat Demonstrandum.

Distância de um ponto a uma função.

Seja $f:\ I \rightarrow \mathbb{R},\ I \subset \mathbb{R}$ e um ponto $P(a, b)$. A distância de $P$ a $f$, $d_{[f(x), (a, b)]}$ é dada de acordo com o seguinte algoritmo:

Consideremos a função $D(x) = \sqrt{(x - a)^2 + [f(x) - b]^2}$.

Sejam $\alpha_1, \alpha_2, ...$ os pontos de descontinuidade de $f$; sejam $\beta_1, \beta_2, ...$ os pontos onde $D$ não é diferenciável; e $\gamma_1, \gamma_2, ..., \gamma_i, ...$ reais tais que $D'(\gamma_i) = 0$.

Construamos o conjunto $\mathcal{D} = \{D(\alpha_1), D(\alpha_2), ..., D(\beta_1), D(\beta_2), ..., D(\gamma_1), D(\gamma_2),...\}$.

$\fbox{$d_{[f(x), (a, b)]} = min\ \mathcal{D}$}$

Exercício: satélites estacionários; função corda.

Sejam dois satélites estacionários, um à longitude $80^o$ e outro à longitude $30^o$. Sabendo que satélites estacionários estão a aproximadamente $42000\ km$ do centro da Terra, qual a distância entre eles?

Resolução:


$cord\ \dfrac{5\pi}{18} = \sqrt{2(1 - \cos \dfrac{5\pi}{18})} \approx 0,85$

Logo distanciam-se de, aproximadamente, $42000 \cdot 0,85 \approx \fbox{$36000\ km$}$.


Derivada da inversa da função corda.

Sabendo que $arccord\ x = \arccos \left(1 - \dfrac{x^2}{2}\right)$, utilizando a regra da cadeia:

$(arccord\ x)' = \dfrac{x}{\sqrt{1 - \left(1 - \dfrac{x^2}{2}\right)^2}} = \fbox{$\dfrac{2}{\sqrt{4 - x^2}}$}$.

A inversa, a derivada, e a integral da função corda.


${\large cord\ \alpha = \sqrt{2(1 - \cos \alpha)}}$

Inversa: seja $arccord: \underset{x\ \mapsto\ arccord\ x}{[0, 2] \rightarrow [0, \pi]},\ \fbox{$arccord\ x = \arccos \left(1 - \dfrac{x^2}{2}\right)$}$.



Derivada: $\fbox{$(cord\ \alpha)' = \dfrac{\sin \alpha}{\sqrt{2 - 2\cos \alpha}}$}$.



Observemos que, para $0 \le \alpha \le 2\pi$, $cord\ \alpha = 2\sin \dfrac{\alpha}{2}$.

Logo,

$\fbox{$\displaystyle\int cord\ \alpha\ d\alpha\ =\ -4\cos \dfrac{\beta}{2} + c,\ \alpha = 2k\pi + \beta,\ k \in \mathbb{Z}, 0 \le \beta < 2\pi$}$.

Aplicação do raio de curvatura de Antonio Vandré: força centrípeta.

Seja um veículo de massa $1200\ kg$ deslocando-se sobre uma rodovia em forma de $\log x$ com uma velocidade de $20\ m/s$. Determine a força exercida pelos pneus sobre a rodovia para $x = 4$.

Resolução:



$F = \dfrac{1200 \cdot 400}{\mathcal{RC_A}_{[\log x, 4]}} = \dfrac{480000}{\dfrac{17\sqrt{17}}{4}} \approx \fbox{$2,7 \cdot 10^4\ N$}$

Raio de curvatura de Antonio Vandré.

O raio de uma curva $f(x)$ em $x = x_0$ é dado por $\mathcal{RC_A}_{[f(x), x_0]} = \sqrt{\sigma^2 + \left( \dfrac{\sigma}{f'(x_0)}\right)^2}$,

$\sigma = \displaystyle\lim_{x \rightarrow x_0} \left\{x_0 - \dfrac{f'(x)[x_0 + f(x_0)f'(x_0)] - f'(x_0)[x + f(x)f'(x)]}{f'(x) - f'(x_0)}\right\}$.

Demonstração:

Sejam duas retas ortogonais não paralelas a $f(x)$:

$\begin{cases}y - f(a) = \dfrac{-1}{f'(a)}(x - a)\ {\Large (I)}\\ y - f(b) = \dfrac{-1}{f'(b)}(x - b)\end{cases}$.

Terão interseção em $x = \delta = \dfrac{f'(b)[a + f(a)f'(a)] - f'(a)[b + f(b)f'(b)]}{f'(b) - f'(a)}$.\\

Calculando a ordenada em (I), substituindo $a$ por $x_0$, $b$ por $x$ e tomando $\sigma = \displaystyle\lim_{x \rightarrow x_0} x - \delta$,

$\fbox{$\mathcal{RC_A}_{[f(x), x_0]} = \sqrt{\sigma^2 + \left(\dfrac{\sigma}{f'(x_0)}\right)^2}$}$.

Exemplo: $f(x) = x^2$ e $x_0 = 1$:

$\sigma = 5\ \Rightarrow\ \mathcal{RC_A}_{[x^2, 1]} = \dfrac{5\sqrt{5}}{2}$.

Mostre que, em resistores ligados em série, a ddp do sistema equivalente é a soma das ddp's de todos os resistores.

Seja $U$ a ddp, $R$ a resistência, $i$ a corrente do sistema equivalente, $n$ o número de resistores, e $R_k$ e $U_k$, $1 \le k \le n$, respectivamente a resistência e a ddp de um resistor componente.

$U = Ri\ \Rightarrow\ U = \left(\displaystyle\sum_{k=1}^n R_k\right) i = \displaystyle\sum_{k=1}^n iR_k = \displaystyle\sum_{k=1}^n U_k$

Quod Erat Demonstrandum.

Encontre o termo independente de $x$ no desenvolvimento de $\left(\dfrac{1}{\sqrt{x}} - 3x\right)^6$.

Seja $p$, iniciando por $0$, a ordem do termo segundo as potências decrescentes da primeira parcela do binômio.

$\dfrac{p - 6}{2} + p = 0\ \Rightarrow\ p = 2$

Logo o termo independente é $\displaystyle{6 \choose 2}\left(\dfrac{1}{\sqrt{x}}\right)^{(6 - 2)}(-3x)^2 = \fbox{$135$}$.

Sejam $V = \mathbb{R}^2$, $W$ e $U$ sub-espaços de $V$, $\{(1, 2)\}$ uma base de $W$ e $\{(1, 0)\}$ uma base de $U$, mostre que $V = W \oplus U$.

Sejam $V = \mathbb{R}^2$, $W$ e $U$ sub-espaços de $V$, $\{(1, 2)\}$ uma base de $W$ e $\{(1, 0)\}$ uma base de $U$, mostre que $V = W \oplus U$.

Resolução:

Seja $v \in V$, basta mostrar que existem únicos $w \in W$ e $u \in U$ tais que $v = w + u$.

Seja $v = (a, b)$, teremos que $\begin{cases}\alpha + \beta = a\\  2\alpha = b\end{cases}$, que admite solução única para $\alpha , \beta \in \mathbb{R}$, pois $\begin{vmatrix}1 & 1\\ 2 & 0\end{vmatrix} \neq 0$.

Quod Erat Demonstrandum.

Soma direta.

Sejam $U$ e $W$ sub-espaços de $V$, mostre que, se $V = U + W$ e $U \cap W = \{O\}$, então $V = U \oplus W$.

Resolução:

Seja $v \in V$, devemos mostrar que existem únicos $u \in U$ e $w \in W$ tais que $v = u + w$.

Vamos supor que existam $u' \in U$ e $w' \in W$ tais que $v = u' + w'$:

$u + w = u' + w'\ \Rightarrow\ \underset{\in U}{\underbrace{u - u'}} = \underset{\in W}{\underbrace{w' - w}}$.

Como o único elemento em comum de $U$ e $W$ é $O$, segue que $u' = u$ e $w' = w$.

Quod Erat Demonstrandum.

Meme: Séries, saber derivar e integrar.

Meme: Emoções fortes, Matemática.

Meme: Número, escalar.

Meme: Teorema de Pitágoras.

Meme: Vergonha de não saber.

Meme: Ele usa Gnuplot.

Meme: Pode usar calculadoras.

Meme: Quod erat demonstrandum 2.

Meme: Sequência.

Meme: Quod erat demonstrandum.

Meme: Reta.

Meme: Leitores de Matemática.

Meme: Produto escalar, produto interno.

Meme: Pode ser produto escalar.



Meme: Produto escalar.

Meme: Matemática, com quem conversar.

Meme: Estudando Álgebra Linear.

Meme: Matemática salvadora.

Meme: Matemático, mostrando artigos.

terça-feira, 29 de junho de 2021

Teorema: todas as bases de um espaço vetorial de dimensão finita tem o mesmo número de elementos.

Lema: se $\{v_1, ..., v_m\}$ é uma base de $V$, $\{w_1, ..., w_n\}$, com $n > m$ é linearmente dependente.

Se $\{w_1, ..., w_m\}$ é linearmente dependente, o lema já está demonstrado. Caso não, seja

$w_i = a_1 v_1 + ... + a_i v_i + ... + a_m v_m,\ i \le m\ \Rightarrow\ v_i = a_i^{-1} w_i - \displaystyle\sum_{j \neq i} a_i^{-1} a_j v_j,\ i,j \le m,\ a_i \neq 0$.

Donde concluímos que $\{w_i, (v_j)_{j \neq i}\},\ i,j \le m$ gera $V$.

Seja agora $r,\ 1 \le r < m$,

$w_j = \displaystyle\sum_{i=1}^r b_i w_i + \displaystyle\sum_{i=r+1}^m a_i v_i,\ j > r\ \Rightarrow\ v_j = -\displaystyle\sum_{i=1}^r a_j^{-1} b_i w_i - \displaystyle\sum_{i=r+1,i \neq j}^m a_j^{-1} a_i v_i + a_j^{-1}w_j,\ j > r,\ a_j \neq 0$.

Donde concluímos que $w_1, ..., w_m$ gera $V$.

Concluímos também que

$w_j = \displaystyle\sum_{i=1}^m d_i w_i,\ \forall j > m$.

Donde concluímos que $\{w_1, ..., w_n\}$ é linearmente dependente.


Teorema: todas as bases de um espaço vetorial de dimensão finita tem o mesmo número de elementos.

De acordo com o lema anterior, não podemos ter $n > m$ e nem $m > n$, logo $m = n$.

Seja $V$ o espaço vetorial de dimensão infinita gerado por $\{\sin \alpha x\ :\ \alpha \in \mathbb{Z}\}$ e $\langle f, g \rangle = \displaystyle\int_{-\pi}^{\pi} f(x)g(x)\ dx$, mostre que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são linearmente independentes.

Seja $V$ o espaço vetorial de dimensão infinita gerado por $\{\sin \alpha x\ :\ \alpha \in \mathbb{Z}\}$ e $\langle f, g \rangle = \displaystyle\int_{-\pi}^{\pi} f(x)g(x)\ dx$, mostre que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são linearmente independentes.

Resolução:

Basta mostrar que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são perpendiculares.

De fato, $\displaystyle\int_{-\pi}^{\pi} (\sin mx)(\sin nx)\ dx\ =\ \dfrac{1}{2}\displaystyle\int_{-\pi}^{\pi} \cos (m - n)x - \cos (m + n)x\ dx\ =\ 0$.

Quod Erat Demonstrandum.

Meme: Livraria, Matemática, Superior.

Meme: Riemann, Antonio Vandré.

Meme: Eu gosto de taxas de variação.

Meme: Dormir com problema de Matemática.

Meme: Lattes, Facebook.

Meme: Bom artigo.

Meme: Saudades de programar.

Meme: L'Hospital.

Meme: Newton, Coulomb.

Meme: Matemática em tudo.

Meme: O João errou um sinal.

Meme: Lembrei de um erro para corrigir.

Meme: Bob esponja escrevendo Matemática.

Meme: Físicos e matemáticos olhando para o Universo.

Meme: No problema usar somente.

Meme: Deus criando o estudante de Matemática.

Meme: Integral da cossecante.

Meme: Não consigo encontrar esta área.

Meme: Criar e resolver seus próprios problemas.

Meme: Lançar a ansiedade na Matemática.

Meme: Integral, bon appetit.