Udemy

Principal Component Analysis (PCA) for Reduction and Whitening

Video tutorial gratuito di Ahmed Fathy, MSc
MSc, Machine Learning Tech-Lead @ Smarteye
Valutazione: 4,5 su 5Valutazione dell'insegnante
6 corsi
46.078 studenti
Python Visualization : PCA Dimensionality Reduction & Whitening

Segui il corso completo per saperne di più

College Level Advanced Linear Algebra! Theory & Programming!

Linear Algebra (matlab - python) & Matrix Calculus For Machine Learning, Robotics, Computer Graphics, Control, & more !

35:05:52 di video on-demand • Ultimo aggiornamento: Novembre 2020

Gain Deep Understanding Of Linear Algebra Theoretically, Conceptually & Practically.
Obtain A Very Robust Mathematical Foundation For Machine & Deep Learning, Computer Graphics, And Control Systems.
Learn How To Use Both Python And Matlab For Solving & Visualizing Linear Algebra Problems.
[Matrix Calculus] Learn How To Differentiate & Optimize Complex Equations Involving Matrices.
Learn A Lot About Data Science, Co-variance Matrices, And The PCA.
Learn About Linear Regression, The Normal Equation, And The Projection Matrix.
Learn About Singular Value Decompositions Formally & Conceptually.
Learn About Inverses And Pseudo Inverses.
Learn About Determinants And Positive Definite Matrices.
Learn How To Solve Systems Of Linear, Difference, & Differential Equations Both By Hand And Software.
Learn About Lagrange Multipliers & Taylor Expansion.
Learn About The Hessian Matrix And Its Importance In Multi-variable Calculus & Optimizations.
Learn About Complex Transformation Matrices Like The Matrix To Perform Rotation Around An Arbitrary Axis In 3D.
And Much More ! This is a 34+ hours course !
Italiano [Auto]
Ciao è Ometepe E in questo con te ci sono per mostrarti alcuni programmi Python e alcune visualizzazioni per l'intera sezione c del taccuino delle spezie. Abbiamo il seguente diamante Easy A che ha notato azione e sbiancamento. Vediamo cosa ho fatto qui. Qui sto importando numeri come Metalocalypse. E le parità matematiche quindi definisco la matrice media e covarianza dei miei dati originali. Quindi la varianza nella direzione x è 40 la varianza in One Direction è 20 e la varianza è 10. Qui sto ottenendo la scomposizione automatica di questa matrice di covarianza in due matrici, le metriche regolari e le metriche degli autovettori. Quindi sto generando un po 'di Gurman multivariato casuale la soluzione che è una distribuzione di Gulshan che usa questa media e questa matrice di covarianza e che precede i 10000 punti di dati. Qui sto mettendo i dati originali che sto tracciando i vettori gli autovettori sono le varie metriche e sto anche tracciando i punti dati originali. E da questo blog voglio solo che tu veda come sono orientati i punti dati originali e voglio dimostrare graficamente che gli autovettori sono in realtà le direzioni della massima diffusione. OK. Quindi ecco la prima trama qui. Questi sono i dati. Questo è il primo autovettore. E questo è il secondo autovettore. E infatti l'autovettore è nella direzione della massima velocità dell'altro. Quindi dopo ciò facciamo quanto segue. Voglio eseguire quella B. C una rotazione quindi ho ottenuto i miei punti dati originali palla e trasporre i trasporti non lo è. Inoltre moltiplico i miei assi per la stessa trasposizione della matrice di rotazione perché voglio ruotare contemporaneamente i datapoints e gli assi principali. E in seguito ho sostituito le mie asce e i miei dati dopo Lutetia. Quindi quando vengo qui trovo il gonfio dopo la rotazione sarà qualcosa del genere. Quindi questo dimostra che in effetti ogni trasposizione è la rotazione che dovremmo moltiplicare per rimuovere la varianza nei nostri datapoint. Dopo di che ho avuto modo di eseguire la proiezione o la riduzione della dimensionalità quindi vengo qui e dopo questa rotazione ho fatto una copia dei miei dati in questa variabile e poi ho rimosso il secondo componente da tutti i punti dati. Ho detto a zero il secondo componente per tutti i punti dati, che equivale a rimuovere il secondo componente di tutti i punti dati. E poi ho pregato per ottenere quei dati e i dati proiettati e vedo quanto segue per i dati proiettati. Ho quei punti dati proprio qui. E dopo aver ottenuto il rifiuto del modulo, i secondi componenti risultano essere zero. Proprio come desiderato Subito dopo ho bloccato i dati dopo questa proiezione, quindi tracciamo il grafico dopo la proiezione nello spazio ruotato. Quindi qui invece dei dati ruotati tracciai i dati ruotati proiettati e vediamo il seguente risultato. Hear è una proiezione post-proiezione ed è infatti proiettata sull'asse x che originariamente era l'una e X è il primo asse vettoriale eigen. Dopodiché voglio mostrare i punti di dati rifiutati nello spazio originale in questo spazio qui. Voglio mostrare la proiezione di questi datapoints su questo primo vettore di nuovo. Quindi, per fare questo tutto ciò che riprendi usando quell'E-Matrix in questo modo. Quindi qui moltiplico la palla per proiettare 48 dati educati per ottenere i dati ricostruiti nello spazio originale. E poi ho bloccato i dati ricostruiti nello spazio originale e vedo quanto segue. Ecco il risultato. Ecco i dati proiettati sui primi assi principali come desiderato. Quindi con questo abbiamo performante tutti i passaggi per B. C delicti riduzione. Finalmente eseguiamo B. C. E. sbiancamento. Abbiamo visto prima che il metodo di sbiancamento è uguale a D o negativo 1 cuore moltiplicato per voi trasporre così discutendo questa matrice di sbiancamento proprio qui come in essere la radice quadrata del metodo D. Quindi ottengo l'inverso di questa funzione per avere la tastiera. E poi sono affascinato da questo da ogni trasposizione. Dopo di che sto moltiplicando la matrice di sbiancamento W con i dati originali per ottenere quei dati witen e poi traccio il bianco nei dati negli stati originali e vedo che questo è il risultato. In effetti, questi dati vengono sbiancati proprio come gli utenti ti vedono nell'esposizione.