Собственный вектор матрицы задает направление

Вопрос-Ответ → Раздел «Математика, физика, информатика, экономика» → Тема «Суть собственных векторов»
1. TamarovaEP
2. SafonovaMA2
3. DavydovaLA
4. RogozinVV2
5. NovikovaLV13
6. KarunasKN2
7. NosikovaUV
8. SaromsokovRA
9. RomashkaMU
10. NikolaevaUV5
11. EgorevaEN
12. BulatovaOA
13. SpiridonovaAN
14. MurzinKV
15. MirgorodSV
16. PaninaKA
17. MihailovaEA11
18. TatarinovaEL
19. PavlovAM5
20. ZdorikEV
21. PolikarpovaTV
22. TroshinaOA
23. KaryshevaOS
24. BolychevtsevaLA
25. SkvortsovaAA
26. SmirnovaAV29
27. RazinkovaNA
28. LavrovAV8
29. FilinovaOL
30. TihonovaKI4
31. KelledainSO
32. MyrzaevaAA
33. ZaitsevaDV6
34. IvanovaMP4
35. AbramovVA2
36. MironovichOG
37. TroitskayaTV
38. Анастасия
39. KoshkinaLB
40. SheremetevVV
41. InozemtsevaIV
42. DruzhininaOV3
43. UstenkoOA2
44. TashkinovaLV
45. SolinMV
46. RubtsovaAS
47. GnetnevaTN
48. BalabanovaON2
49. DavydovaAV11
50. OnischenkoNV2
51. FedorchenkoSA
52. SudavnayaOI
53. SemenovaTV5
54. ChausAN
55. HabibulinaLM

Помогите навести порядок с понятием собственного вектора. Формальное определение вроде бы знаю, но совершенно не ощущаю реальную суть. Вопросы сумбурные, пока по другому не могу.

Собственный вектор (СВ) какой то матрицы – тот, кто не изменяет своего направления после воздействия этой матрицы.
Но если мы пишем Ах, то вроде бы как мы никак не меняем вектор х (собственный он не собственный), а всего лишь находим его координаты в базисе А?

Матрица описывает преобразование, т.е. получается, что СВ инвариантен к преобразованию, но тогда получается, что если изменить значения матрицы, то и СВ поменяются?, т.е. СВ инвариантен не к самому преобразованию (например, к вращению ), а к его параметрам? Тогда на каком принципе строятся собственные вектора некоторого образцового изображения и в дальнейшем это изображение находится в любой ориентации, масштабе?

С другой стороны часто встречается понятие СВ корреляционной матрицы. Но корреляционная матрица не является преобразованием, особенно если речь идет о АКМ, просто взяли хх’. Каков физический смысл СВ КМ?

Собственные числа не меняются при переходе к другому базису:

где S- неособая матрица перехода к другому базису. То есть собственные значения подобных матриц равны, но о собственных этого не скажешь. Однако для подобных матриц справедливы интересные свойства, например :

Собственные числа не меняются при переходе к другому базису:

где S- неособая матрица перехода к другому базису. То есть собственные значения подобных матриц равны, но о собственных этого не скажешь. Однако для подобных матриц справедливы интересные свойства, например :

Спасибо за ответы, но к сожаленью они не внесли ясность в мои недопонимания.

Попробую вопрос конкретизировать на одном из материалов, оригинал которого находится по ссылке http://zalil.ru/30405588.

У подобных матриц одни и те же собственные вектора .

Рассмотрим матрицы ((1,0),(0,2)) и ((0,-1),(2,3)) с одинаковыми характеристическими уравнениями:

Несмотря на то, качество моего понимания СВ и СЗ требует дальнейшего длительного совершенствования, сейчас вопросы о СВ и СЗ стоят не абстрактно математически, а в их возможном прикладе (для меня в области сигналов, изображений).
Когда я рассматриваю СВ абстрактно, то проблем то больших нет – есть определение, есть свойства, есть правила и вперед. Но как их к реальным задачам привязать тут полный нуль спэйс.
Например, если в качестве каких-либо выкладок всплывает что-то, что можно представить матрицей и это что-то надо как-то преобразовать, то здесь переход от “первичной” матрицы к ее диагональному представлению через СВ и СЗ и более простые в дальнейшем вычисления вполне логично и понятно. Более менее логично и понятно когда СВ интерпретируются как базис для сжатия.
Но часто встречаются ситуации (типа http://zalil.ru/30405588), когда необходимо решить задачу и кто-то из авторов начинает пользоваться аппаратом СВ и СЗ.
Например, есть смесь сигнала и шума (http://zalil.ru/30405588). Надо определить мощность шума. Обычно я решаю эту задачу просто – окно, Фурье, энергетический спектр ну и т.д. Это мне понятно, я понимаю какой параметр подстроить если что не так, если изменится условие задачи. Автор (да и не только он и не только в этом материале) же в приведенной ссылке каким то шаманским (для меня) чутьем говорит, что ща быстренько найдем минимальное СЗ и оно то и будет оценкой шума. Как я понимаю, максимальное СЗ будет соответствовать сигналу в этом раскладе. Где логическая связка, что при задаче когда S+N будет два СВ и один из них будет соответствовать N, а другой S? , почему он счел возможным привлечь СВ и СЗ, где в условии задачи есть предпосылка намек об этом подходе? А что должно и почему измениться в решении задачи если известно, что смесь состоит из трех гармонических сигналов и АБГШ – в этом случае тоже имеет право подход на разложение по СВ?, почему? Или уже нельзя? А если смесь состоит не из суммы АБГШ и гармонических сигналов, а АБГШ и речевого сигнала – в этом случае опять нам СВ помогут?, почему и какой размерности АКМ необходимо брать тогда? Или здесь аппарат СВ бессилен?
Сколько я не читал литературы, везде либо формальное описание, либо безаппеляционные заявления – а вот давайте возьмем как то сформируем матрицу, а в этой матрице и ранг такой то, и сингулярнасть и симметричность и т.д. Если что то не так то ай ай плохо, затем находим СВ, СЗ и ура задача решена. И нигде не встречается логических рассуждений о том, что именно СВ на самом деле как то соотносятся с каким либо элементом, свойством сигнала, изображения. Почему при решении оценки шума через энергетический спектр совершенно не встают вопросы ни о ранге, ни о сингулярности, ни о симметричности? А как только задачу переводим в эквивалентный матричный вид, то в этом эквивалентном представлении появляется куча головняка, которого в исходном представлении не было?

Читайте также:  Фото прототипа алекса мерсера

С другой стороны другой вопрос непонятен. Рассмотрим плоскость. На ней изображены квадраты, прямоугольники, треугольники, трапеции, окружности разных размеров, ориентаций, расположений. Задача разобрать, разложить квадраты к квадратам, трапеции к трапециям и т.д. По условию задачи вроде бы видно – есть вращение, есть перемещение, есть масштабирование, при этом суть фигур не меняется, т.е. что то похоже на поведение СВ – их преобразуешь, а они кроме масштабирования не поддаются. Вроде бы напрашивается аппарат СВ, но что в этом случае и почему под СВ понимать совершенно непойму.

Из вышеприведенных формул следует также, что для каждого из N собственных значений (не обязательно различных) имеется соответствующий собственный вектор: известно, что если матрица (A – l 1)вырождена, то существует ненулевой вектор, обнуляющий ее при умножении.

Если к обоим частям первого выражения добавить t x, то видно, что собственные значения матрицы могут быть изменены на константу t , или сдвинуты, добавлением к матрице единичной, умноженной на эту константу. Собственные вектора при сдвиге не меняются. Сдвиг является важной частью многих алгоритмов вычисления собственных значений. Отсюда также следует, что нулевые собственные значения не имеют специфического смысла: любое собственное значение может быть сдвинуто до нулевого либо нулевое значение — сдвинуто из нуля.

Определения и основные факты

При поиске собственных значений матрицы, "эрмитовость" является весьма важной концепцией: все собственные значения эрмитовых матриц действительны. С другой стороны, собственные значения действительных несимметричных матриц могут быть либо действительными, либо парами комплексно – сопряженных чисел. Собственные значения комплексной неэрмитовой матрицы в общем случае комплексные.

Концепция "нормальности" важна при поиске собственных векторов. Система собственных векторов нормальной матрицы с невырожденными (несовпадающими) собственными значениями является полным и ортогональным базисом N-мерного векторного пространства. Для нормальной матрицы с вырожденными собственными значениями имеется свобода в определении собственных векторов, соответствующих вырожденным собственным значениям, связанная с заменой их любой линейной комбинацией. Это означает, что мы всегла можем провести процесс ортогонализации Грама – Шмидта и найти полный ортогональный набор собственных векторов, как и в невырожденном случае. Очевидно, что матрица с колонками из ортонормированного множества собственных векторов является унитарной. Для матрицы собственных векторов, полученных из действительной симметричной матрицы, выполняется свойство ортогональности.

Если матрица не является нормальной, как, например, любая действительная несимметричная матрица, то в общем случае нельзя отыскать ортонормированный набор собственных векторов, нельзя даже гарантировать ортогональности любой пары из них (кроме редких случаев). В общем случае эти N собственных векторов будут образовывать неортогональный базис в N-мерном пространстве (но не всегда). Если собственные вектора не образуют N-мерный базис, то матрицу будем называть дефектной.

Левый и правый собственный векторы

Если матрица симметрична, то правый и левый собственные вектора являются транспозицией друг друга, т.е. имеют одни и те же численные компоненты. Точно также, если матрица самосопряженная, то правый и левый вектор взаимно сопряжены по Эрмиту. В общем случае ненормальной матрицы, имеется следующее соотношение. Пусть XR — матрица, состоящая из столбцов правых собственных векторов, XL — из строк левых собственных векторов. По определению собственных векторов имеем: AXR = XRdiag( l 1. l N), XLA = diag( l 1. l N)XL. Умножая первое уравнение слева на XL, а второе справа на XR и вычитая одно из другого, получаем: (XLXR)diag( l 1. l N) = diag( l 1. l N)(XLXR). Это говорит о том, что матрица произведений левых и правых векторов коммутируема с диагональной матрицей из собственных значений. Но в том случае, когда матрица коммутируема с диагональной матрицей, состоящей из несовпадающих элементов, она сама является диагональной. Таким образом, в случае невырожденного набора собственных значений, каждый левый собственный вектор ортогонален всем правым, за исключением соответствующего ему, и наоборот. С помощью нормализации произведение матриц левых и правых векторов всегда можно привести к единичной матрице, для любого невырожденного случая.

Если некоторые из собственных значений вырождены, то либо правые, либо левые собственные векторы, соответствующие этим значениям, должны быть линейно скомбинированы между собой, чтобы в итоге образовался ортогональный базис соответственно правых либо левых собственных векторов. Это всегда можно сделать с помощью процедуры ортогонализации Грама – Шмидта. Затем можно настроить нормализацию, чтобы произведение матрицы правых и левых векторов было единичной матрицей. Если этого сделать нельзя (произведение матриц равно нулю), то система собственных векторов неполна. Заметим, что такие неполные системы могут возникать только тогда, когда набор собственных значений вырожден, но не всегда: в частности, неполные системы собственных векторов никогда не возникают в классе нормальных матриц. См. [1] для дальнейших подробностей.

В обоих случаях, вырожденном или невырожденном, нормализация произведения матриц правых и левых собственных векторов приводит к следующему результату: матрица, строками которой являются левые собственные векторы — обратна к матрице, столбцами которой являются правые собственные векторы, если обратная матрица существует.

Диагонализация матрицы

Для действительных симметричных матриц собственные векторы действительны и ортонормальны, таким образом, трансформирующая матрица является ортогональной. При этом преобразование подобия является ортогональным преобразованием: A -> Z T AZ. Хотя действительные несимметричные матрицы и могут быть диагонализированы "почти во всех" случаях, трансформирующая матрица не обязательно будет действительной. Однако выходит так, что "почти" всю работу в этом случае делает также действительное преобразование подобия. Оно может привести матрицу к системе малых блоков (2 x 2), расположенных по диагонали; все остальные элементы будут нулевыми. Каждый из блоков размера (2 x 2) соответствует комплексно – сопряженной паре собственных чисел. Эта идея будет эксплуатироваться в алгоритмах, помещеных ниже.

Главная стратегия почти всех современных методов расчета собственных векторов и собственных значений заключается в том, что матрица приводится к диагональной формы посредством цепочки преобразований подобия: A -> P1 -1 AP1 -> P2 -1 P1 -1 AP1P2 -> P3 -1 P2 -1 P1 -1 AP1P2P3 и т.д. Если эта цепочка приводит в конце концов к диагональной форме, то матрица правых собственных векторов XR будет представлять из себя произведение матриц: XR = P1P2P3. Иногда не требуется проводить подобное преобразование до диагональной формы. Например, если нас интересуют только собственные значения, а не собственные вектора, то достаточно привести к треугольному виду, при котором нулями являются все элементы над диагональю или под ней. В этом случае диагональные элементы преобразованной матрицы уже будут собственными значениями.

Имеется два существенно различных подхода к осуществлению указанной стратегии. Часто они хорошо работают в комбинации друг с другом, так что большинство современных методов используют оба из их. Первый подход заключается в построении индивидуальных матриц Pi как явных "элементарных" трансформаторов, расчитанных на специфические задачи, например, для обнуления конкретного внедиагонального элемента (преобразование Якоби) или целого столбца или строки (преобразования Хаусхолдера). В общем случае конечная цепочка подобных преобразований диагонализировать матрицу не может. Имеется выбор: либо использовать конечное число трансформаций для прохода большей части пути к диагонализации (например, приведя к трехдиагональной или Гессенберговской форме), а затем завершить операцию на второй стадии с помощью алгоритмов, которые будут указаны ниже. Либо итерациями свести внедиагональные элементы к пренебрежимо малым. Последний подход концептуально является простейшим и будет обсуждаться в следующем разделе, однако при N больших

10 он является примерно в 5 раз менее эффективен.

Другой подход, называемый методами факторизации, более тонкий. Предположим, матрица A может быть разложена в произведение правого FR и левого FL факторов. Тогда = FLFR, или, что эквивалентно, FL -1 = FR. Если мы перемножим эти факторы в обратном порядке и используем вышенаписанное тождество, то будем иметь FRFL = FL -1 AFL, что сразу распознается как преобразование подобия матрицы A с трансформирующей матрицей FL. Эту идею использует метод QR-разложения матрицы.

Методы факторизации также не дают сходимость за конечное число шагов. Но лучшие из них сходятся быстро и надежно, и при использовании хорошего начального состояния матрицы, первично преобразованной элементарными операциями, являются главным выбором.

Готовые прикладные пакеты для решения проблем собственных векторов и значений

Почти все готовые программы, использующиеся сейчас, восходят к алгоритмам, опубликованным в Handbook for Automatic Computation, by Wilkinson & Reinsch, Vol. II, Linear Algebra [2]. Эта великолепная подборка работ различных авторов является своего рода Библией в данной области. Общедоступным пакетом, осуществляющим алгоритмы из этой книги на Фортране, является EISPACK [3]. Программы в этой главе нашей книги являются переводами программ из Handbook или EISPACK, так что понимание приведет вас в значительной мере к пониманию того, как эти канонические пакеты составляются.

Пакеты IMSL [4] и NAG [5] также воспроизводят в основном алгоритмы из Handbook, на Фортране.

"Хороший пакет" по проблеме собственных векторов должен быть представлен отдельными программами, либо отдельными путями цепочек программ для каждой из следующих задач:

  • все собственные значения, без собственных векторов;
  • все собственные значения и некоторые собственные векторы;
  • все собственные значения и векторы.

Целью этого разделения является экономия компьютерного времени и ресурсов; нет смысла вычислять собственные векторы, если они не нужны. Часто интересуются только векторами, соответствующими самым большим собственным значениям, или самым большим по модулю, или только отрицательным. В этом случае метод, который используется для вычисления "некоторых" собственных векторов, обычно более эффективен, чем метод для всех, если вам нужно не более четверти от общего количества.

Хороший пакет также представляет отдельные пути решения для следующих типов матриц:

  • действительная, симметричная, трехдиагональная;
  • действительная, симметричная, ленточная (ненулевыми являются только несколько диагоналей, примыкающих к главной);
  • действительная, симметричная;
  • действительная, несимметричная;
  • комплексная, эрмитова;
  • комплексная, неэрмитова.

Опять, целью этого разделения является экономия времени и ресурсов с помощью использования наименее генерализированной процедуры.

В настоящей главе мы представим программы для следующих случаев:

  • все вектора и значения для действительной, симметричной, трехдиагональной матрицы;
  • все вектора и значения для действительной симметричной матрицы;
  • все вектора и значения для комплексной эрмитовой матрицы;
  • все вектора и значения для действительной несимметричной, матрицы.

Также будет рассмотрено, каким образом получить некоторые собственные векторы несимметричной матрицы методом обратной итерации.

Одно из важных свойств корреляционной матрицы состоит в том, что эта матрица может быть разложена по собственным числам и соответствующим им собственным векторам.

Число X называется собственным числом матрицы Rv, если выполняется условие

где qv^0v — собственный вектор, соответствующий этому собственному числу. Уравнение (3.15) означает, что эрмитова матрица R v осуществляет линейное преобразование вектора qvB вектор Aqv, т.е. в вектор, совпадающий по направлению с исходным непреобразованным вектором, так как далее будет показано, что собственные числа матрицы являются действительными и неотрицательными.

Уравнение (3.15) можно представить как

Уравнение (3.16) является однородным линейным уравнением с неизвестным qv. Оно имеет нетривиальное решение qv^0v, только если определитель

Уравнение (3.17) называется характеристическим уравнением матрицы Rv и представляет собой полином N-й степени, т. е.

Например, при N= 2

а уравнение (3.17) имеет вид

Уравнение (3.18) имеет N корней (не обязательно разных) А. А,2, называемых собственными числами матрицы RY.

Каждый вектор qA,„^0v, где п= 1,2, удовлетворяющий уравнению

называется собственным вектором, соответствующим собственному числу А.п.

Каждый собственный вектор соответствует только одному собственному числу, в то время как одному собственному числу соответствует бесконечное множество собственных векторов. Действительно, если qv„ — собственный вектор, соответствующий собственному числу А.п, то вектор tfqA,„ при аФ0 также является собственным вектором, так как уравнение Rv^q.v» = а Чця после со- кращения параметра а совпадает с уравнением (3.19).

Собственные числа А. и собственные векторы q v „ корреляционной матрицы Rv стационарного дискретного стохастического процесса характеризуются рядом свойств, основные из которых приводятся ниже.

Свойство 1. Если А. А. . XN собственные числа корреляционной матрицы Ry, то для любого целого числа к>0 собственные числа матрицы R a v = Rл R.v • Ry равны А.,’, Х2. А.*.

Доказательство этого утверждения строится на доказательстве справедливости выражения

Это доказательство осуществляется следующим образом. Умножим обе части уравнения (3.19) слева на RY 4 как

Далее, используя уравнения (3.21) и (3.19), можно выполнить последовательность преобразований левой части уравнения (3.20), приводящих к правой части этого уравнения. Действительно,

Свойство 2. Ненулевые собственные векторы qYI, qV2, . q;VjV корреляционной матрицы Rv, соответствующие различным собственным числам Я,, Я2, . Яд,, являются линейно-независимыми.

Векторы qV(t являются линейно-зависимыми, если существуют такие апФ0,

Если равенство (3.23) выполняется только при всех а,= 0, то векторы qV)1 являются линейно-независимыми.

Для доказательства свойства 2 представим уравнение (3.23) как

й,Х!Чли = 0Л,. Затем, умножая N— 1 раз правую часть этого урав- нения на Ял и используя уравнение (3.20), получим систему /Ууравнений

или, используя крайнюю правую часть этих уравнений, получим систему из N уравнений

которая может быть представлена как

Так как согласно определению все собственные числа различны и ненулевые (поскольку собственные векторы ненулевые), то detv>*0, а значит, существует обратная матрица S

Так как каждый столбец матрицы (3.28) a„q,v,„=0,v и q^^O^, то равенство (3.28) выполняется, только если ап = 0. Это согласно уравнению (3.23) свидетельствует о линейной независимости собственных векторов корреляционной матрицы Rv.

Свойство 2 может быть использовано для представления произвольных векторов в виде линейной комбинации собственных векторов. Например,

означает, что собственные векторы qV)i размера Nx 1 могут быть использованы в виде базиса для представления произвольного вектора hAc таким же размером Nx 1.

Если выражение (3.29) умножить слева и справа на матрицу Rv как то, используя уравнение (3.19), получим, что

Уравнение (3.31) показывает, что линейное преобразование (3.30) над вектором hv сводится лишь к масштабированию линейно независимых собственных векторов в уравнении (3.29) собственными числами этих векторов, так как линейная независимость собственных векторов при этом не нарушается.

Свойство 3. Собственные числа А. Х2, . XN корреляционной матрицы Rv являются неотрицательными и действительными.

Для доказательства этого утверждения умножим уравнение (3.19) слева на вектор q“ „, т. е.

Тогда согласно свойству 3 корреляционной матрицы для положительно полуопределенной корреляционной матрицы Rv левая часть уравнения (3.32) q” „Rvqv„ >0. В правой части уравнения (3.32) произведение q“ „q,v„ >0, так как

Поэтому из уравнения (3.32) следует, что

Отношение (3.33) называется отношением Редея. Таким образом, собственные числа корреляционной матрицы всегда положительные и равны соотношениям Релея для ее собственных векторов, соответствующих этим числам.

Свойство4. Собственные векторы qvl, qV2. qV;Vкорреляционной матрицы Rv, соответствующие различным собственным числам Л,, Х2, . XN, являются ортогональными друг другу.

Ортогональность означает, что

Запишем уравнение (3.19) для двух значений индексов пФт, т.е.

Поскольку согласно свойству 1 корреляционной матрицы RV=R”, а собственные числа являются действительными согласно их свойству 3, то эрмитово сопряжение уравнения (3.35) (R,vq,v„) H =(A„q(V„) H приводит к уравнению

Здесь использовано свойство произведения матриц (3.9).

Умножая уравнение (3.37) на вектор qVm справа и умножая уравнение (3.36) на вектор q“ я слева, получим

откуда следует, что

Так как пФ’кт, то равенство (3.40) выполняется, если только qU.„qMm = 0, что согласно равенству (3.34) означает ортогональность собственных векторов qvп и 4,v,m ?

Как уже отмечалось, каждому собственному числу Х„ соответствует бесконечное множество собственных векторов tfq;V„ при я*0. Поэтому без потери общности в дальнейшем будем рассматривать только нормированные собственные векторы, т.е. такие, для которых выполняется условие

для всех n=. N и m=. N. Векторы, удовлетворяющие условию (3.41), на- зы ва ются ортонорм ирова н н ым и.

Свойство 5. Если собственные векторы qvl, qv,, . qv v корреляционной матрицы Rv, соответствующие различным собственным числам Л,, Х2, XN, представить матрицей Q,v=[qAM> q.v.2> ? Ч.ад] ортонормированных векторов (3.41), а собственные числа — диагональной матрицей

то матрица R v может быть приведена к диагональному виду как Qj> R vQ,v = A,v, что доказывается следующим образом.

Условие (3.41) означает, что векторы qiVP qv2. qAIA,образуютортонормиро- ванное множество.

Используя определение матрицы Q v, систему уравнений (3.19) можно представить в виде матричного уравнения

Согласно уравнению (3.41) откуда

Из равенства (3.45) следует, что Q;VQ" = QVQ’V‘ = 1Л,. Комплексная матрица, обладающая свойством (3.45), называется унитарной, а аналогичная действительная матрица — ортонормированной [71].

Если уравнение (3.43) умножить слева на матрицу Q”, т.е. Q“RVQV= = Q!vQ. A,v, то, используя уравнение (3.44), получим, что

Если уравнение (3.43) умножить справа на матрицу Q”, т.е. RAQvQ” =Q. vA,vQ” ,to, используя уравнение (3.44), получим, что

Уравнение (3.47) является спектральным разложением матрицы Rv или разложением по собственным числам и собственным векторам.

Аналогично, используя равенство (3.20) как R A VQW = 0Л.Ад,, можно показать, что

Из (3.47) следует, что среднее значение квадрата модуля выходного сигнала адаптивного фильтра определяется как

т. е. оно равно взвешенной с помощью собственных чисел сумме квадратов модулей скалярных произведений вектора ВК фильтра и собственных векторов корреляционной матрицы его сигналов.

Используя равенство (3.45) и свойство обратимых квадратных матриц [71]

из (3.47) можно также определить обратную матрицу Rv‘ как

Свойство 6. Сумма собственных чисел А. Х2, . XN корреляционной матрицы Rv равна следу этой матрицы.

Следом квадратной матрицы АЛ, называется сумма ее диагональных элемен-

тов tr< AjV> = . Из линейной алгебры известно [71], что

Тогда, используя уравнения (3.46) и (3.44), получим, что

Свойство 7. Произведение собственных чисел А. Х2, XN корреляционной матрицы R v равно определителю этой матрицы.

Из линейной алгебры также известно, что

Тогда используя (3.46) и (3.44), получим, что

Рассмотренные свойства корреляционной матрицы, ее собственных чисел и собственных векторов используются при анализе процессов адаптивной фильтрации сигналов.

Оцените статью
Добавить комментарий

Adblock
detector