Матрицы

5 разделов
от теории до практики
2 примера
Примеры решения задач
видео
Примеры решения задач
Содержание
  1. Определение.
    Начать изучение
  2. Транспонирование матриц.
    Начать изучение
  3. Некоторые виды матриц.
    Начать изучение
  4. Сложение и умножение на число.
    Начать изучение
  5. Линейная зависимость матриц.
    Начать изучение

Определение.

Определение.

Мы будем называть матрицей размеров \(m \times n\) совокупность \(mn\) чисел, расположенных в виде таблицы из \(m\) строк и \(n\) столбцов:
$$
\begin{Vmatrix}
a_{1}^{1}& a_{2}^{1}& \ldots & a_{n}^{1}\\
a_{1}^{2}& a_{2}^{2}& \ldots & a_{n}^{2}\\
\ldots&\ldots&\ldots&\ldots\\
a_{1}^{m}& a_{2}^{m}& \ldots& a_{n}^{m}
\end{Vmatrix}\nonumber
$$
Числа, составляющие матрицу, мы будем называть элементами матрицы. Если число строк в матрице равно числу столбцов, то матрица называется квадратной, а число строк — её порядком. Остальные матрицы носят название прямоугольных.

Можно дать и такое определение матрицы. Рассмотрим два множества целых чисел \(I={1, 2, \ldots, m}\) и \(J={1, 2, \ldots, n}\). Через \(I \times J\) обозначим множество всех пар вида \((i, j)\), где \(i \in I\), a \(j \in J\). Матрицей называется числовая функция на \(I \times J\), то есть закон, сопоставляющий каждой паре \((i, j)\) некоторое число \(a_{j}^{i}\).

Для читателя, знакомого с программированием, заметим, что матрица — это в точности то же, что и двумерный массив.

Две матрицы называются равными, если они имеют одинаковые размеры, и равны их элементы, стоящие на одинаковых местах.

Рассматривая произвольные матрицы, мы будем обозначать их элементы буквами с двумя индексами. Если оба индекса расположены внизу, то первый из них обозначает номер строки, а второй — номер столбца; если один из индексов расположен сверху, как в написанной выше матрице, то этот индекс обозначает номер строки. Не следует путать верхние индексы с показателями степени.

Матрицу размеров \(1 \times n\), состоящую из одной строки, мы будем называть строкой длины \(n\) или просто строкой. Матрицу размеров \(m \times 1\) называют столбцом высоты \(m\) или просто столбцом. Столбцы и строки мы будем обозначать полужирными буквами.

Часто бывает удобно записывать матрицу как столбец из строк или как строку из столбцов. Пусть
$$
\boldsymbol{a}_{1}=\begin{Vmatrix}
a_{1}^{1}\\
a_{1}^{2}\\
\vdots\\
a_{1}^{m}
\end{Vmatrix},\ \boldsymbol{a}_{2}=\begin{Vmatrix}
a_{2}^{1}\\
a_{2}^{2}\\
\vdots\\
a_{2}^{m}
\end{Vmatrix},\ \ldots,\ \boldsymbol{a}_{n}=\begin{Vmatrix}
a_{n}^{1}\\
a_{n}^{2}\\
\vdots\\
a_{n}^{m}
\end{Vmatrix}.\nonumber
$$
Тогда написанную в начале матрицу можно записать в виде
$$
\begin{Vmatrix}
\boldsymbol{a}_{1}& \boldsymbol{a}_{2}& \ldots& \boldsymbol{a}_{n}
\end{Vmatrix}.\nonumber
$$
Аналогично, если \(\boldsymbol{a}^{1}=\begin{Vmatrix} a_{1}^{1}& \ldots& a_{n}^{1} \end{Vmatrix}, \ldots, \boldsymbol{a}^{m}=\begin{Vmatrix} a_{1}^{m}& \ldots& a_{n}^{m} \end{Vmatrix}\) а же матрица записывается в виде
$$
\begin{Vmatrix}
\boldsymbol{a}^{1}\\
\vdots\\
\boldsymbol{a}^{m}
\end{Vmatrix}.\nonumber
$$

Рассмотрим матрицу \(A\) размеров \(m \times n\) и выберем какие-нибудь \(r\) номеров строк \(i_{1}, \ldots, i_{r}\) и \(s\) номеров столбцов \(j_{1}, \ldots, j_{s}\), причем будем предполагать, что номера выбраны в порядке возрастания: \(i_{1} < i_{2} < \ldots < i_{r}\) и \(j_{1} < j_{2} < \ldots < j_{s}\). Матрицу \(A’\) размеров \(r \times s\), составленную из элементов \(A\), стоящих на пересечении выбранных строк и столбцов, мы назовем подматрицей матрицы \(A\). Итак,
$$
A’=\begin{Vmatrix}
a_{j_{1}}^{i_{1}}& \ldots & a_{j_{s}}^{i_{1}}\\
\ldots&\ldots&\ldots\\
a_{j_{1}}^{i_{r}}& \ldots & a_{j_{s}}^{i_{r}}
\end{Vmatrix}.\nonumber
$$
Если матрица квадратная, то множество тех ее элементов \(a_{i}^{i}\), у которых номер строки равен номеру столбца, называется главной диагональю или просто диагональю матрицы.

Транспонирование матриц.

Рассмотрим матрицу
$$
A=\begin{Vmatrix}
a_{11}& a_{12}& \ldots & a_{1n}\\
a_{21}& a_{22}& \ldots & a_{2n}\\
\ldots&\ldots&\ldots&\ldots\\
a_{m1}& a_{m2}& \ldots & a_{mn}\\
\end{Vmatrix}.\nonumber
$$
из \(m\) строк и \(n\) столбцов. Ей можно сопоставить матрицу \(B\) из \(n\) строк и \(m\) столбцов по следующему правилу. Элементы каждой строки матрицы \(A\) записываются в том же порядке в столбцы матрицы \(B\), причем номер столбца равен номеру строки. Эту матрицу
$$
B=\begin{Vmatrix}
a_{11}& a_{21}& \ldots & a_{m1}\\
a_{12}& a_{22}& \ldots & a_{m2}\\
\ldots&\ldots&\ldots&\ldots\\
a_{1n}& a_{2n}& \ldots & a_{mn}\\
\end{Vmatrix}.\nonumber
$$
называют транспонированной по отношению к \(A\) и обозначают \(A^{T}\). Переход от \(A\) к \(A^{T}\) называют транспонированием. Видно, что \(i\)-я строка \(B\) состоит из тех же элементов в том же порядке, что и \(i\)-й столбец \(A\). Ясно также, что \((A^{T})^{T}=A\). Определение транспонированной матрицы можно записать в виде \(mn\) равенств, связывающих элементы матриц \(A\) и \(B\):
$$
b_{ij}=a_{ji}\ (i=1, \ldots, m,\ j=1, \ldots, n).\nonumber
$$

Некоторые виды матриц.

Введем определения некоторых часто употребляемых видов матриц. Все матрицы предполагаются квадратными.

Определение.

Матрица \(A\) называется симметричной или симметрической, если \(A^{T}=A\). Для такой матрицы \(a_{ij}=a_{ji}\) при всех \(i\) и \(j\) — элементы, расположенные симметрично относительно главной диагонали, равны.

Определение.

Матрица \(A\) называется кососимметричной или антисимметричной, если \(A^{T}=-A\). Для такой матрицы \(a_{ij}=-a_{ji}\) при всех \(i\) и \(j\) — элементы, расположенные симметрично относительно главной диагонали, отличаются знаком. Диагональные элементы равны нулю.

Определение.

Матрица \(A\) называется верхней треугольной, если ее элементы, расположенные ниже главной диагонали, равны нулю: \(a_{ij}=0\) при \(i > j\). Аналогично определяется нижняя треугольная матрица: \(a_{ij}=0\) при \(i < j\).

Определение.

Матрица \(A\) называется диагональной, если у нее равны нулю все недиагональные элементы: \(a_{ij}=0\) при \(i \neq j\).

Другие частные виды матриц будем определять по мере необходимости.

Сложение и умножение на число.

Пусть \(A\) и \(B\) — матрицы размеров \(m \times n\). Мы можем сопоставить им третью матрицу \(C\) размеров \(m \times n\), элементы которой \(c_{ij}\) связаны с элементами и матриц \(A\) и \(B\) равенствами
$$
c_{ij}=a_{ij}+b_{ij}\ (i=1, \ldots, m,\ j=1, \ldots, n).\label{ref1}
$$

Определение.

Матрица \(C\), определяемая по \(A\) и \(B\) формулой \eqref{ref1}, называется их суммой и обозначается \(A+B\).

Определение.

Матрица \(C\), элементы которой \(c_{ij}\) равны произведениям элементов \(a_{ij}\) матрицы \(A\) на число \(\alpha\), называется произведением \(A\) на \(\alpha\) и обозначается \(\alpha A\). Мы имеем
$$
c_{ij}=\alpha a_{ij}\ (i=1, \ldots, m,\ j=1, \ldots, n).\label{ref2}
$$

Из свойств сложения и умножения чисел легко вытекает наше первое утверждение.

Утверждение 1.

Для любых матриц \(A, B, C\) и любых чисел \(\alpha\) и \(\beta\) выполнены равенства:

  • \(A+B=B+A\),
  • \((A+B)+C=A+(B+C)\),
  • \(\alpha(A+B)=\alpha A+\alpha B\),
  • \((\alpha+\beta)A=\alpha A+\beta A\),
  • \((\alpha\beta)A=\alpha(\beta A)\).

Матрица, все элементы которой равны нулю, называется нулевой матрицей. Если \(O\) — нулевая матрица размеров \(m \times n\), то для любой матрицы тех же размеров
$$
A+O=A.\nonumber
$$

Матрицу \((-1)A\) называют противоположной матрице \(A\) и обозначают \(-A\). Она обладает тем свойством, что
$$
A+(-A)=O.\nonumber
$$

Сумма матриц \(B\) и \(-A\) называется разностью матриц \(B\) и \(A\) и обозначается \(B-A\). Мы видим, что сформулированные выше свойства линейных операций с матрицами совпадают со свойствами линейных операций с векторами. Используя линейные операции, мы можем составлять из матриц одинаковых размеров \(A_{1}, \ldots, A_{k}\) и чисел \(\alpha_{1}, \ldots, \alpha_{k}\), выражения вида
$$
\alpha_{1}A_{1}+\ldots+\alpha_{k}A_{k}.\nonumber
$$

Такие выражения называются линейными комбинациями матриц. Если какая-то матрица представлена как линейная комбинация других матриц, то говорят, что она по ним разложена.

Пример 1.

Пусть \(\boldsymbol{p}_{1}, \ldots, \boldsymbol{p}_{k}\), — столбцы одинаковой высоты \(n\). Тогда столбец \(\boldsymbol{q}\) той же высоты по ним разложен, если при некоторых коэффициентах \(\alpha_{1}, \ldots, \alpha_{k}\)
$$
\boldsymbol{q}=\alpha_{1}\boldsymbol{p}_{1}+\ldots+\alpha_{k}\boldsymbol{p}_{k},\nonumber
$$
или, в более подробной записи,
$$
\begin{Vmatrix} q^{1}\\
\vdots\\
q^{n}
\end{Vmatrix}=\alpha_{1}
\begin{Vmatrix} p_{1}^{1}\\
\vdots\\
p_{1}^{n} \end{Vmatrix}+\ldots+\alpha_{k} \begin{Vmatrix} p_{k}^{1}\\
\vdots\\
p_{k}^{n} \end{Vmatrix}.\nonumber
$$
В силу определения линейных операций это матричное равенство равносильно \(n\) числовым равенствам
$$
\begin{matrix}
q^{1}=\alpha_{1}p_{1}^{1}+\ldots+\alpha_{k}p_{k}^{1},\\
\ldots\\
q^{n}=\alpha_{1}p_{1}^{n}+\ldots+\alpha_{k}p_{k}^{n}.
\end{matrix}\nonumber
$$

Линейная зависимость матриц.

Какова бы ни была система матриц фиксированных размеров \(m \times n\), нулевая матрица тех же размеров раскладывается по этим матрицам в линейную комбинацию с нулевыми коэффициентами. Такую линейную комбинацию называют тривиальной. Как и для векторов, введем понятие линейной независимости.

Определение.

Система матриц \(A_{1}, \ldots, A_{k}\) линейно независима, если нулевая матрица раскладывается по ней однозначно, то есть из
$$
\alpha_{1}A_{1}+\ldots+\alpha_{k}A_{k}=O.\label{ref3}
$$
следует \(\alpha_{1}=\ldots=\alpha_{k}=0\).

В противном случае, то есть если существуют \(k\) чисел \(\alpha_{1}, \ldots, \alpha_{k}\), одновременно не равных нулю и таких, что выполнено равенство \eqref{ref3}(3), система матриц называется линейно зависимой.

Пример 2.

Столбцы
$$
\boldsymbol{e}_{1}=\begin{Vmatrix} 1\\ 0\\ \vdots\\ 0 \end{Vmatrix},\ \boldsymbol{e}_{2}=\begin{Vmatrix} 0\\ 1\\ \vdots\\ 0 \end{Vmatrix},\ \ldots,\ \boldsymbol{e}_{n}=\begin{Vmatrix} 0\\ 0\\ \vdots\\ 1 \end{Vmatrix}\label{ref4}
$$
(в столбце \(\boldsymbol{e}_{i}\) на \(i\)-м месте стоит 1, а остальные элементы равны нулю) являются линейно независимыми. Действительно, равенство \(\alpha_{1}\boldsymbol{e}_{1}+\ldots+\alpha_{n}\boldsymbol{e}_{n}=\boldsymbol{0}\) можно записать подробнее так:
$$
\alpha_{1} \begin{Vmatrix} 1\\ 0\\ \vdots\\ 0 \end{Vmatrix}+\alpha_{2} \begin{Vmatrix} 0\\ 1\\ \vdots\\ 0 \end{Vmatrix}+\ldots+\alpha_{n} \begin{Vmatrix} 0\\ 0\\ \vdots\\ 1 \end{Vmatrix}=\begin{Vmatrix} \alpha_{1}\\ \alpha_{2}\\ \vdots\\ \alpha_{n} \end{Vmatrix}=\begin{Vmatrix} 0\\ 0\\ \vdots\\ 0 \end{Vmatrix}.\nonumber
$$
Отсюда видно, что \(\alpha_{1}=\alpha_{2}=\ldots=\alpha_{n}=0\).

Это равенство показывает также, что произвольный столбец высоты \(n\) может быть разложен по столбцам \(\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{n}\). Действительно, в качестве коэффициентов линейной комбинации нужно взять элементы раскладываемого столбца.

Определение.

Квадратная матрица порядка \(n\), состоящая из столбцов \eqref{ref4}:
$$
E=\begin{Vmatrix}
1& 0& \ldots& 0\\
0& 1& \ldots& 0\\
\ldots&\ldots&\ldots&\ldots\\
0& 0& \ldots& 1 \end{Vmatrix},\nonumber
$$
называется единичной матрицей порядка \(n\) или просто единичной матрицей, если порядок известен.

Строки единичной матрицы отличаются от ее столбцов только формой записи.

Утверждение 2.

Столбцы (строки) единичной матрицы линейно независимы и обладают тем свойством, что каждый столбец (строка) с тем же числом элементов раскладывается по ним.

Укажем несколько свойств линейно зависимых и линейно независимых систем матриц.

Утверждение 3.

Система из \(k > 1\) матриц линейно зависима тогда и только тогда, когда хотя бы одна из матриц есть линейная комбинация остальных.

Доказательство.

В самом деле, пусть система линейно зависима. По определению выполнено равенство вида \eqref{ref3}, где хотя бы один коэффициент отличен от нуля. Допустим для определенности, что это \(\alpha_{1}\). Тогда мы можем представить первую матрицу как линейную комбинацию
$$
A_{1}=-\frac{\alpha_{2}}{\alpha_{1}}A_{2}-\ldots-\frac{\alpha_{k}}{\alpha_{1}}A_{k}.
$$
Обратно, если одна из матриц разложена по остальным, то это разложение преобразуется к виду \eqref{ref3}, где один из коэффициентов равен 1.

Утверждение 4.

Если некоторые из матриц \(A_{1}, \ldots, A_{k}\) составляют сами по себе линейно зависимую систему, то вся система \(A_{1}, \ldots, A_{k}\) линейно зависима.

Доказательство.

Действительно, пусть существует нетривиальная линейная комбинация некоторых из матриц системы, равная нулевой матрице. Если мы добавим к ней остальные матрицы с нулевыми коэффициентами, то получится равная нулевой матрице нетривиальная линейная комбинация всех матриц.

В частности, если в систему матриц входит нулевая матрица, то система линейно зависима.

Утверждение 5.

Любые матрицы, входящие в линейно независимую систему матриц, сами по себе линейно независимы.

Доказательство.

В самом деле, в противном случае мы пришли бы к противоречию на основании предыдущего утверждения.

Утверждение 6.

Если матрица \(B\) разложена по линейно независимой системе матриц \(A_{1}, \ldots, A_{k}\), то коэффициенты разложения определены однозначно.

Доказательство.

Действительно, пусть мы имеем два разложения
$$
B=\alpha_{1}A_{1}+\ldots+\alpha_{k}A_{k}\ \mbox{и}\ B=\beta_{1}A_{1}+\ldots+\beta_{k}A_{k}.\nonumber
$$
Вычитая одно разложение из другого, мы получаем
$$
O=(\alpha_{1}-\beta_{1})A_{1}+\ldots+(\alpha_{k}-\beta_{k})A_{k}.\nonumber
$$
Матрицы \(A_{1}, \ldots, A_{k}\) линейно независимы, значит, \(\alpha_{i}-\beta_{i}=0\) для всех \(i=1, \ldots, k\). Итак, коэффициенты обоих разложений совпадают.

Оставить комментарий