Skillnader mellan Singular Value Decomposition (SVD) och Principal Component Analysis (PCA) Skillnad mellan

Anonim

Singular Value Decomposition (SVD) vs Principal Component Analys (PCA)

Differentiering mellan Singular Value Decomposition (SVD) och Principal Component Analysis (PCA) kan ses och diskuteras bäst genom att beskriva vad varje koncept och modell har att erbjuda och förse. Diskussionen nedan kan hjälpa dig att förstå dem.

I studien av abstrakt matematik, som linjär algebra, som är ett område som berörs och är intresserad av studien av countably infinite dimensional vectoral spaces, krävs singular value decomposition (SVD). Vid matrisnedbrytning av en reell eller komplex matris är Singular Value Decomposition (SVD) fördelaktig och fördelaktig vid användning och tillämpning av signalbehandling.

I formell skrivning och artiklar är Singular Value-dekomponeringen av en m × n reell eller komplex matris M en faktorisering av formen

I globala trender, särskilt inom teknikområdet, genetik, och fysik, applikationer av singular value decomposition (SVD) är viktiga för att härleda beräkningar och figurer för pseudouniverset, approximationer av matriser och bestämma och definiera intervallet, nullrummet och rankningen av en viss och specificerad matris.

Singular Value Decomposition (SVD) har också behövts för att förstå teorier och fakta om inversa problem och är till stor hjälp vid identifieringsprocessen för begrepp och saker som Tikhonov. Tikhonovs regularisering är ett hjärnbarn av Andrey Tikhonov. Denna process används i stor utsträckning i metoden som involverar och använder införandet av mer information och data så att man kan lösa och svara på problem som uppstår.

I kvantfysik, särskilt i informativ kvantteori, har begreppen Singular Value Decomposition (SVD) också varit mycket viktiga. Schmidt-sönderdelningen har gynnats eftersom det har möjliggjort att upptäckten av två kvantsystem sönderdelas naturligt och som ett resultat har givit och inrättat sannolikheten för att vara intrasslad i en befordrad miljö.

Sist men inte minst, har Singular Value Decomposition (SVD) delat sin användbarhet för numeriska väderprognoser där det kan användas i enlighet med Lanczos metoder för att göra mer eller mindre exakta uppskattningar om att snabbt utveckla störningar till förutsägelsen av väderutfall.

Å andra sidan är Principal Component Analysis (PCA) en matematisk process som tillämpar en ortogonal transformation för att ändra och senare en uppsättning notabla observationer av förmodligen anslutna och länkade variabler till ett förinställt värde av linjärt okorrelerade element som kallas " huvudkomponenter."

Principal Component Analysis (PCA) definieras också i matematiska standarder och definitioner som en ortogonal linjär transformation där den ändrar eller förändrar eller omvandlar information till ett helt nytt koordinatsystem. Som ett resultat är den största och bästa variationen av varje förmodad projicering av informationen eller data ihopställt med det initiala koordinatet som allmänt känt och kallas "den första huvudkomponenten" och "nästa bästa näst största variansen" på den efterföljande nästa koordinaten. Till följd av detta följer tredje och framåt och de återstående snart.

Karl Pearson hade 1901 ett bra tillfälle att uppfinna Principal Component Analysis (PCA). För närvarande har detta varit allmänt krediterat för att vara mycket användbart och användbart vid analys av exploratory data och för att skapa och montera prediktiva modeller. I verkligheten är Principal Component Analysis (PCA) det enklaste, minst komplexa värdet av det sanna egenvektorbaserade multivariata analyssystemet. I de flesta fall kan operationen och processen antas likna den som avslöjar en interiörstruktur och ett program för information och data på ett sätt som starkt förklarar datavarians.

Vidare är huvudkomponentanalys (PCA) oftast associerad med faktoranalys. I detta sammanhang ses faktoranalys som en vanlig, typisk och vanlig domän som inkorporerar och innefattar antaganden med avseende på den grundläggande och ursprungliga prearrangerade strukturen och lagren för att lösa egenvektorer av en något annorlunda matris.

Sammanfattning:

  1. SVD behövs i abstrakt matematik, matrisnedbrytning och kvantfysik.
  2. PCA är användbar i statistiken, särskilt vid analys av undersökande data.
  3. Både SVD och PCA är användbara i sina respektive grenar av matematik.