$\require{enclose}$ $\newcommand{\avsum}{\mathrel{\displaystyle\int \!\!\!\!\!\! \Delta\ }}$ $\newcommand{\bcancelto}[2]{{\enclose{southeastarrow}{#2}\,}_{\lower.75ex{#1}}}$ $\newcommand{\ordcirc}[1]{\mathrel{[\hspace{-4pt} \circ \hspace{2pt}#1 \hspace{3pt}]\hspace{-4pt}\circ}}$ $\newcommand{\avigual}{\{=\}}$ $\newcommand{\intsup}{{\LARGE \big\uparrow}\displaystyle\int}$ $\newcommand{\intinf}{{\LARGE \big\downarrow}\displaystyle\int}$
Última atualização estrutural do weblog: 18-05-2024.

Este weblog utiliza serviços de terceiros, e os mesmos podem não funcionar adequadamente, o que não depende de mim.

Se as expressões matemáticas não estiverem satisfatoriamente visíveis, você pode alterar as configurações de exibição no menu contextual.

Este weblog pode passar por melhorias. Caso não teve uma boa experiência hoje, futuramente os problemas poderão estar corrigidos.

Em caso de não ser a mim mais possível realizar manutenções, como, por exemplo, devido a falecimento ou desaparecimento, alguns links podem ficar quebrados e eu não responder mais a comentários. Peço compreensão.
Mostrando postagens com marcador álgebra. Mostrar todas as postagens
Mostrando postagens com marcador álgebra. Mostrar todas as postagens

terça-feira, 21 de setembro de 2021

Sejam $u$ e $v$ vetores do $\mathbb{C}^n$, $\langle u, v\rangle = \overline{\langle v, u\rangle}$.

Seja $u = (a_j + b_j i)_{j=1}^n$ e $v = (a_j´ + b_j´ i)_{j=1}^n$,

$\langle u, v\rangle = \displaystyle\sum_{j=1}^n [(a_j a_j´ - b_j b_j´) - (a_j b_j´ - b_j a_j´)i] =$


$= \displaystyle\sum_{j=1}^n [(a_j´ a_j - b_j´ b_j) + (a_j´ b_j - b_j´ a_j)i] = \overline{\langle v, u\rangle}$.


Quod Erat Demonstrandum.

sexta-feira, 17 de setembro de 2021

Seja $F: V \rightarrow W$ uma transformação linear de um espaço vetorial $V$ em outro $W$, se $w_1, ..., w_n$ são vetores linearmente independentes de $W$ tais que $F(v_i) = w_i,\ i = 1, ..., n$, $v_i,\ i = 1, ..., n$ elementos de $V$, mostrar que $v_1, ..., v_n$ são linearmente independentes.

Sejam $x_1, ..., x_n$ escalares, $x_1w_1 + ... + x_nw_n = O\ \Leftrightarrow\ x_i = 0,\ i = 1, ..., n$.

$x_1F(v_1) + ... + x_nF(v_n) = O\ \Leftrightarrow\ x_i = 0,\ i = 1, ..., n$.

$F(x_1v_1) + ... + F(x_nv_n) = O\ \Leftrightarrow\ x_i = 0,\ i = 1, ..., n$.

$F(x_1v_1 + ... + x_nv_n) = O\ \Leftrightarrow\ x_i = 0,\ i = 1, ..., n$.

$x_1v_1 + ... + x_nv_n = O\ \Leftrightarrow\ x_i = 0,\ i = 1, ..., n$.


Quod Erat Demonstrandum.

quinta-feira, 16 de setembro de 2021

Desigualdade de Minkowski ou Desigualdade Triangular.

Sejam $u$ e $v$ vetores do $\mathbb{R}^n$, $||u + v|| \le ||u|| + ||v||$.

Como $||u + v||$ e $(||u|| + ||v||)$ são não negativos, basta mostrar que $||u + v||^2 \le (||u|| + ||v||)^2$.


$||u + v||^2 = \langle u, u\rangle + \langle v, v\rangle + 2\langle u, v\rangle$


$(||u|| + ||v||)^2 = \langle u, u\rangle + \langle v, v\rangle + 2||u||||v||$


Pela Desigualdade de Cauchy-Schwarz, $\langle u, v\rangle \le ||u||||v||$.


Quod Erat Demonstrandum.

terça-feira, 14 de setembro de 2021

Sejam $A$, $B$ e $C$ pontos distintos do $\mathbb{R}^n$, se $B - A$ e $C - A$ são linearmente independentes, mostrar que $A$, $B$ e $C$ não são colineares.

Sejam $A$, $B$ e $C$ pontos distintos do $\mathbb{R}^n$, se $B - A$ e $C - A$ são linearmente independentes, mostrar que $A$, $B$ e $C$ não são colineares.

$a(B - A) + b(C - A) = O\ \Leftrightarrow\ a = b = 0$, $a$ e $b$ escalares.


Transladando o sistema de modo a $A$ coincidir com $O$:


$aB + bC = A\ \Leftrightarrow\ a = b = 0$


Logo tomando um escalar $k$ de modo que $a = \dfrac{1}{k}$ com $k \neq 0$ e $k \neq 1$, e $b = 0$:


$\dfrac{B}{k} \neq A\ \Rightarrow B \neq kA$    (I)


Procedendo de modo análogo para com $C$, com $k´ \neq 0$ e $k´ \neq 1$:


$\dfrac{C}{k´} \neq A\ \Rightarrow C \neq k´ A$    (II)


Tomando agora $a = 1$ e $b = \dfrac{-1}{k"}$, com $k" \neq 0$:


$C \neq k" (B - A)$    (III)


Por (I), (II) e (III), $A$, $B$ e $C$ não são colineares.





Quod Erat Demonstrandum.

Exercício. Conjunto convexo.

Seja uma aplicação linear $L: \mathbb{R}^n \rightarrow \mathbb{R}$. Seja $S$ o conjunto de todos os elementos $s$ de $\mathbb{R}^n$ tais que $L(s) \ge 0$. Mostrar que $S$ é convexo.

Basta mostrar que $L (tA + (1 - t)B) \ge 0$, com $A$ e $B$ pertencentes a $S$, e $t$ real com $0 \le t \le 1$.


$L(A) \ge 0\ \wedge\ L(B) \ge 0\ \Rightarrow\ tL(A) \ge 0\ \wedge\ (1-t)L(B) \ge 0\ \Rightarrow$


$\Rightarrow\ tL(A) + (1 - t)L(B) \ge 0\ \Rightarrow\ L(tA + (1 - t)B) \ge 0$.


Quod Erat Demonstrandum.

segunda-feira, 13 de setembro de 2021

Imagem de um quadrado por uma aplicação linear.

Seja $F: \mathbb{R}^2 \rightarrow \mathbb{R}^2$ uma transformação linear. Seja $F(E_1) = (1, 1)$ e $F(E_2) = (-1, 2)$. Mostrar que a imagem, por $F$, do quadrado de vértices $(0, 0)$, $(1, 0)$, $(1, 1)$ e $(0, 1)$ é um paralelogramo.

$F(0, 0) = (0, 0)$    (I)

$F(1, 0) = (1, 1)$    (II)

$F(1, 1) = F(E_1 + E_2) = F(E_1) + F(E_2) = (1, 1) + (-1, 2) = (0, 3)$    (III)

$F(0, 1) = (-1, 2)$    (IV)


Por (I) e (II): $\dfrac{1 - 0}{1 - 0} = 1$.

Por (III) e (IV): $\dfrac{2 - 3}{-1 - 0} = 1$.

Por (I) e (IV): $\dfrac{2 - 0}{-1 - 0} = -2$.

Por (II) e (III): $\dfrac{3 - 1}{0 - 1} = -2$.





Quod Erat Demonstrandum.

Seja $V$ um espaço vetorial sobre $K$, e $F: V \rightarrow W$ uma aplicação linear. Seja $U$ o subconjunto de $V$ dos elementos $u$ tais que $F(u) = O$. Mostrar que $U$ é espaço vetorial.

Seja $V$ um espaço vetorial sobre $K$, e $F: V \rightarrow W$ uma aplicação linear. Seja $U$ o subconjunto de $V$ dos elementos $u$ tais que $F(u) = O$. Mostrar que $U$ é espaço vetorial.

Basta mostrar que $U$ é subespaço de $V$. Para tanto basta mostrar que:


$\bullet$ $O$ pertence a $U$. De fato, se $F$ é linear, $F(O) = O$.


$\bullet$ Seja $k$ um escalar e $u$ um elemento de $U$, $F(ku) = kF(u) = kO = O$.


$\bullet$ Sejam $u$ e $u´$ elementos de $U$, $F(u + u´) = F(u) + F(u´) = O$.


Quod Erat Demonstrandum.

Seja um espaço vetorial $V$ sobre $\mathbb{R}$, e sejam $f: V \rightarrow \mathbb{R}$ e $g: V \rightarrow \mathbb{R}$ duas aplicações lineares. Mostre que $F: V \rightarrow \mathbb{R}^2$ definida por $F(v) \mapsto (f(v), g(v))$ é linear.

Seja um espaço vetorial $V$ sobre $\mathbb{R}$, e sejam $f: V \rightarrow \mathbb{R}$ e $g: V \rightarrow \mathbb{R}$ duas aplicações lineares. Mostre que $F: V \rightarrow \mathbb{R}^2$ definida por $F(v) \mapsto (f(v), g(v))$ é linear.

Seja um escalar $k$. $F(kv) = F(f(kv), g(kv)) = (kf(v), kg(v)) = k(f(v), g(v)) = kF(v)$.


Sejam $v$ e $v´$ elementos de $V$.


$ F(v + v´) = (f(v + v´), g(v + v´)) = (f(v) + f(v´), g(v) + g(v´)) =$

 

$= (f(v), g(v)) + (f(v´), g(v´)) = F(v) + F(v´)$.


Quod Erat Demonstrandum.

Aplicação linear. $T(O)$.

Seja uma aplicação linear $T: V \rightarrow W$ de um espaço vetorial num outro. Mostrar que $T(O) = O$.

Resolução:


Seja um elemento $v$ de $V$:


$T(O) = T(v - v) = T(v) - T(v) = O$.


Quod Erat Demonstrandum.

Exercício: composição de aplicações.

Sejam $F: \mathbb{R} \rightarrow \mathbb{R}^2$ definida por $F(t) \mapsto (t, t^2)$, e $G: \mathbb{R}^2 \rightarrow \mathbb{R}$ dada por$G(x, y) \mapsto xy$ duas aplicações. Encontre $(G \circ F)(z)$.

Resolução:


$(G \circ F)(z) = G(z, z^2) = z \cdot z^2 = z^3$.

Aplicação. Imagem de uma circunferência.

Seja a aplicação $F: \mathbb{R}^2 \rightarrow \mathbb{R}^2$ dada por $F(x, y) \mapsto (2x, 3y)$. Encontre a imagem, por $F$, da circunferência $\lambda,\ x^2 + y^2 = 1$.

Sejam $u = 2x$ e $v = 3y$, $x = \dfrac{u}{2}$ e $y = \dfrac{v}{3}$.

$\left(\dfrac{u}{2}\right)^2 + \left(\dfrac{v}{3}\right)^2 = 1\ \Rightarrow\ \dfrac{u^2}{4} + \dfrac{v^2}{9} = 1$

Logo a imagem, por $F$,  da circunferência $\lambda$ é a elipse $\xi,\ \dfrac{x^2}{4} + \dfrac{y^2}{9} = 1$.



Desigualdade de Schwarz. Demonstração alternativa.

Sejam $u$ e $v$ vetores do $\mathbb{R}^n$.

$\langle u, v\rangle \le ||u|| ||v||$.

Demonstraremos outra afirmação:

Sejam $u = (u_i)_1^n$ e $v = (v_i)_1^n$,

$\langle u, v\rangle \le \displaystyle\sum_{i=1}^n |u_i v_i| \le ||u|| ||v||$. (I)

Se $u = O$ ou $v = O$, a demonstração é imediata. Se não, tomemos $||u|| ||v|| \neq 0$.

$\langle u, v\rangle = \displaystyle\sum_{i=1}^n u_i v_i \le \left|\displaystyle\sum_{i=1}^n u_i v_i\right| \le \displaystyle\sum_{i=1}^n |u_i v_i|$. (II)

Sejam $x$ e $y$ números reais, $0 \le (x - y)^2\ \Rightarrow\ 2xy \le x^2 + y^2$.

Tomando $x = \dfrac{|u_i|}{||u||}$ e $y = \dfrac{|v_i|}{||v||}$:

$2\dfrac{|u_i v_i|}{||u|| ||v||} \le \dfrac{|u_i|^2}{||u||^2} + \dfrac{|v_i|^2}{||v||^2}\ \Rightarrow 2\displaystyle\sum_{i=1}^n \dfrac{|u_i v_i|}{||u|| ||v||} \le \displaystyle\sum_{i=1}^n \left(\dfrac{u_i^2}{||u||^2} + \dfrac{v_i^2}{||v||^2}\right) =$

$= \displaystyle\sum_{i=1}^n \dfrac{u_i^2}{||u||^2} + \displaystyle\sum_{i=1}^n \dfrac{v_i^2}{||v||^2} = \dfrac{||u||^2}{||u||^2} + \dfrac{||v||^2}{||v||^2} = 2\ \Rightarrow\ \displaystyle\sum_{i=1}^n |u_i v_i| \le ||u|| ||v||$. (III)

Por (II) e (III) obtermos (I).

Quod Erat Demonstrandum.

quarta-feira, 30 de junho de 2021

Raízes complexas não reais conjugadas.

Seja $p \in \mathbb{R}[x]$ e $\alpha \in \mathbb{C} \setminus \mathbb{R}$. Mostre que

$\bullet$ $p(\overline{\alpha}) = \overline{p(\alpha)}$;

$\bullet$ $p(\alpha) = 0\ \Leftrightarrow\ p(\overline{\alpha}) = 0$;

$\bullet$ Se $\alpha$ é raiz de $p$, e $p = x^2 + bx + c$, $p = (x - \alpha)(x - \overline{\alpha})$.

Resolução:

Primeira sentença:

$p(\overline{\alpha}) = \displaystyle\sum_{i=0}^n a_i (\overline{\alpha})^i = \displaystyle\sum_{i=0}^n \overline{a_i}(\overline{\alpha})^i = \displaystyle\sum_{i=0}^n \overline{a_i \alpha^i} = \overline{p(\alpha)}$ ${\Large (I)}$

Segunda sentença:

$p(\alpha) = 0\ \Leftrightarrow\ \underset{\text{Por (I).}}{\underbrace{\overline{p(\alpha)} = p(\overline{\alpha})}} = 0$ ${\Large (II)}$

Terceira sentença:

Por D'Alembert, $p$ é divisível por $(x - \alpha)$; por (II), $p$ também é divisível por $(x - \overline{\alpha})$, logo $x^2 + bx + c = (x - \alpha)(x - \overline{\alpha})q(x)$; comparando os termos em $x^2$, $q(x) = 1$.

Quod Erat Demonstrandum.

Propriedade associativa da multiplicação de matrizes.

Sejam $A$, $B$ e $C$ matrizes tais que $A$ e $B$ possam ser multiplicadas, e $B$ e $C$ possam ser multiplicadas. Mostre que

$\bullet$ $A$ e $BC$ podem ser multiplicadas;

$\bullet$ $AB$ e $C$ podem ser multiplicadas;

$\bullet$ $A(BC) = (AB)C$.

Resolução:

Sejam $A = (a_{ij})$ uma $m$ x $n$ matriz, $B = (b_{jk})$ uma $n$ x $r$ matriz, e $C = (c_{kl})$ uma $r$ por $s$ matriz,

$BC$ será uma $n$ por $s$ matriz e $A(BC)$ existirá e será uma $m$ x $s$ matriz;

$AB$ será uma $m$ por $r$ matriz e $(AB)C$ existirá e será uma $m$ por $s$ matriz.

Um elemento da posição $(j, l)$ de $BC$ será $\displaystyle\sum_{k=1}^r b_{jk}c_{kl}$, e um elemento da posição $(i, l)$ de $A(BC)$ será $\displaystyle\sum_{j=1}^n a_{ij}\left(\displaystyle\sum_{k=1}^r b_{jk}c_{kl}\right) = \displaystyle\sum_{j=1}^n \displaystyle\sum_{k=1}^r a_{ij}b_{jk}c_{kl}$.

$\displaystyle\sum_{j=1}^n \displaystyle\sum_{k=1}^r a_{ij}b_{jk}c_{kl}$ será a soma de todos os $a_{ij}b_{jk}c_{kl}$ com $1 \le j \le n$ e $1 \le k \le r$, resultado que igualmente chegaríamos calculando o elemento da posição $(i, l)$ de $(AB)C$.

Quod Erat Demonstrandum.

Seja $\displaystyle\sum_{i=1}^n A_i x_i = 0$, Com $A_i \in \mathfrak{M}_{mx1} (\mathbb{R})$ um sistema com solução não trivial em $\mathbb{C}$, mostre que ele admite solução não trivial em $\mathbb{R}$.

Seja $\displaystyle\sum_{i=1}^n A_i x_i = 0$, Com $A_i \in \mathfrak{M}_{mx1} (\mathbb{R})$ um sistema com solução não trivial em $\mathbb{C}$, mostre que ele admite solução não trivial em $\mathbb{R}$.

Resolução:

Se o sistema admite solução não trivial complexa, $A_1, ..., A_n$ são linearmente dependentes sobre $\mathbb{C}$, ou seja,

$\displaystyle\sum_{i \in I}A_i z_i = A_j$, com $I = \{1, ..., j-1, j+1, ..., n\}$.

Como $A_j$ tem componentes reais,

$\displaystyle\sum_{i \in I}A_i [Re(z_i)] = A_j$, com $I = \{1, ..., j-1, j+1, ..., n\}$.

Ou seja, $A_1, ..., A_n$ são linearmente dependentes sobre $\mathbb{R}$. Consequentemente o sistema admite solução não trivial em $\mathbb{R}$.

Quod Erat Demonstrandum.

Seja $\displaystyle\sum_{i=1}^n x_i A_i = 0$ um sistema homogêneo, mostrar que todos $X = (x_i)_1^n$, soluções do sistema, formam um espaço vetorial.

Seja $\displaystyle\sum_{i=1}^n x_i A_i = 0$ um sistema homogêneo, mostrar que todos $X = (x_i)_1^n$, soluções do sistema, formam um espaço vetorial.

Resolução:

Se $A_1, ..., A_n$ são linearmente independentes, teremos como única solução o $O$, e $\{O\}$ é um espaço vetorial. Se são linearmente dependentes, há uma infinidade de soluções; como estas soluções são um subconjunto do espaço vetorial $\mathbb{R}^n$, basta mostrar que

$\bullet$ $O$ pertence ao subconjunto, o que é evidente;

$\bullet$ Sejam $v$ e $w$ dois elementos, $v + w$ também é elemento. De fato, se $v = (v_i)_1^n$ e $w = (w_i)_1^n$, $\displaystyle\sum_{i=1}^n v_i A_i = 0$ e $\displaystyle\sum_{i=1}^n w_i A_i = 0$, $\displaystyle\sum_{i=1}^n (v_i + w_i) A_i = 0$;

$\bullet$ Se $c$ é um escalar e $v = (v_i)_1^n$ é um elemento, $\displaystyle\sum_{i=1}^n cv_i A_i = c\displaystyle\sum_{i=1}^n v_i A_i = 0$.

Quod Erat Demonstrandum.

Sejam $V = \mathbb{R}^2$, $W$ e $U$ sub-espaços de $V$, $\{(1, 2)\}$ uma base de $W$ e $\{(1, 0)\}$ uma base de $U$, mostre que $V = W \oplus U$.

Sejam $V = \mathbb{R}^2$, $W$ e $U$ sub-espaços de $V$, $\{(1, 2)\}$ uma base de $W$ e $\{(1, 0)\}$ uma base de $U$, mostre que $V = W \oplus U$.

Resolução:

Seja $v \in V$, basta mostrar que existem únicos $w \in W$ e $u \in U$ tais que $v = w + u$.

Seja $v = (a, b)$, teremos que $\begin{cases}\alpha + \beta = a\\  2\alpha = b\end{cases}$, que admite solução única para $\alpha , \beta \in \mathbb{R}$, pois $\begin{vmatrix}1 & 1\\ 2 & 0\end{vmatrix} \neq 0$.

Quod Erat Demonstrandum.

Soma direta.

Sejam $U$ e $W$ sub-espaços de $V$, mostre que, se $V = U + W$ e $U \cap W = \{O\}$, então $V = U \oplus W$.

Resolução:

Seja $v \in V$, devemos mostrar que existem únicos $u \in U$ e $w \in W$ tais que $v = u + w$.

Vamos supor que existam $u' \in U$ e $w' \in W$ tais que $v = u' + w'$:

$u + w = u' + w'\ \Rightarrow\ \underset{\in U}{\underbrace{u - u'}} = \underset{\in W}{\underbrace{w' - w}}$.

Como o único elemento em comum de $U$ e $W$ é $O$, segue que $u' = u$ e $w' = w$.

Quod Erat Demonstrandum.

terça-feira, 29 de junho de 2021

Teorema: todas as bases de um espaço vetorial de dimensão finita tem o mesmo número de elementos.

Lema: se $\{v_1, ..., v_m\}$ é uma base de $V$, $\{w_1, ..., w_n\}$, com $n > m$ é linearmente dependente.

Se $\{w_1, ..., w_m\}$ é linearmente dependente, o lema já está demonstrado. Caso não, seja

$w_i = a_1 v_1 + ... + a_i v_i + ... + a_m v_m,\ i \le m\ \Rightarrow\ v_i = a_i^{-1} w_i - \displaystyle\sum_{j \neq i} a_i^{-1} a_j v_j,\ i,j \le m,\ a_i \neq 0$.

Donde concluímos que $\{w_i, (v_j)_{j \neq i}\},\ i,j \le m$ gera $V$.

Seja agora $r,\ 1 \le r < m$,

$w_j = \displaystyle\sum_{i=1}^r b_i w_i + \displaystyle\sum_{i=r+1}^m a_i v_i,\ j > r\ \Rightarrow\ v_j = -\displaystyle\sum_{i=1}^r a_j^{-1} b_i w_i - \displaystyle\sum_{i=r+1,i \neq j}^m a_j^{-1} a_i v_i + a_j^{-1}w_j,\ j > r,\ a_j \neq 0$.

Donde concluímos que $w_1, ..., w_m$ gera $V$.

Concluímos também que

$w_j = \displaystyle\sum_{i=1}^m d_i w_i,\ \forall j > m$.

Donde concluímos que $\{w_1, ..., w_n\}$ é linearmente dependente.


Teorema: todas as bases de um espaço vetorial de dimensão finita tem o mesmo número de elementos.

De acordo com o lema anterior, não podemos ter $n > m$ e nem $m > n$, logo $m = n$.

Seja $V$ o espaço vetorial de dimensão infinita gerado por $\{\sin \alpha x\ :\ \alpha \in \mathbb{Z}\}$ e $\langle f, g \rangle = \displaystyle\int_{-\pi}^{\pi} f(x)g(x)\ dx$, mostre que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são linearmente independentes.

Seja $V$ o espaço vetorial de dimensão infinita gerado por $\{\sin \alpha x\ :\ \alpha \in \mathbb{Z}\}$ e $\langle f, g \rangle = \displaystyle\int_{-\pi}^{\pi} f(x)g(x)\ dx$, mostre que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são linearmente independentes.

Resolução:

Basta mostrar que $\sin mx$ e $\sin nx$, com $m, n \in \mathbb{Z},\ m \neq n$ são perpendiculares.

De fato, $\displaystyle\int_{-\pi}^{\pi} (\sin mx)(\sin nx)\ dx\ =\ \dfrac{1}{2}\displaystyle\int_{-\pi}^{\pi} \cos (m - n)x - \cos (m + n)x\ dx\ =\ 0$.

Quod Erat Demonstrandum.