Corretti errori di ortografia vari e chiarite alcune parti

Leonardo Robol [2009-11-08 18:04]
Corretti errori di ortografia vari e chiarite alcune parti
Filename
AppPageRank.tex
AppVibrazioni.tex
CalcoloScientifico.tex
capitolo3.tex
introduzione.tex
diff --git a/AppPageRank.tex b/AppPageRank.tex
index 3dbfb1f..846473e 100644
--- a/AppPageRank.tex
+++ b/AppPageRank.tex
@@ -1,8 +1,9 @@
 \chapter{Page Rank}
 In questo capitolo ci porremo il problema di calcolare il \emph{page rank} di un determinato
 insieme di pagine Web (o, analogamente, documenti \emph{ipertestuali}). \\
-Con Page Rank intendiamo un ``voto'' che viene dato ad una determinata pagina o documento
-che stima la sua importanza. Un algoritmo derivato da quello che verrà in seguito
+Con Page Rank intendiamo un ``valutazione'' data ad una determinata pagina o documento con lo scopo
+di stimare la sua importanza\footnote{che è ovviamente un concetto poco matematico, ma ci occuperemo
+di formalizzarlo meglio in seguito.}. Un algoritmo derivato da quello che verrà in seguito
 esposto è utilizzato attualmente da Google (\href{http://www.google.it}{http://www.google.it})
 per ordinare i risultati di una query nel suo motore di ricerca, così come da tutti i principali
 \emph{search engine} presenti sul Web.
@@ -11,7 +12,7 @@ per ordinare i risultati di una query nel suo motore di ricerca, così come da t
 Prima di tutto dobbiamo occuparci di definire il modello matematico che vogliamo usare
 per schematizzare la nostra valutazione di importanza. \\
 In generale l'idea che sta alla base del Page Rank è dare importanza ad una pagina
-basandosi sui link\footnote{Un link in una pagina Web, ma anche in un documento PDF come questo
+basandosi sui link\footnote{Un link in una pagina Web, ma anche in un documento PDF come questo,
 è un ``puntatore'' ad un altro documento. In genere l'utente può attivare il puntatore semplicemente
 cliccandoci sopra con il mouse} che in essa sono presenti.

@@ -29,8 +30,8 @@ $1 \ldots N$ (dove $N$ è un numero dell'ordine di $10^{10}$).
 Fissata una certa pagina $j$ consideriamo i link che puntano a lei. Risulta chiaro che non solo
 il \textbf{numero} dei link è importante per valutare la sua importanza, ma a sua volta anche l'\textbf{importanza}
 di questi dovrebbe influire. Per esempio, se la homepage di Yahoo! punta
-alla pagina di una persona, è naturale che questa pagina abbia una certa rilevanza. Viceversa, se sulla
-mia pagina personale io metto un link al sito della stessa persona l'importanza di questo varia di poco\footnote{
+alla pagina di una data persona, è naturale che questa pagina acquisisca una certa rilevanza. Viceversa, se sulla
+mia pagina personale metto un link al sito della stessa persona l'importanza di questo varia di poco\footnote{
 a meno che nel momento in cui voi leggiate queste pagine io non sia diventato una persona con una certa influenza,
 ma questo è probabilmente un caso da scartare}.
 Un'ultima e non meno importante considerazione è che se anche Yahoo! punta al mio sito ma lo fa in una pagina
@@ -38,7 +39,7 @@ con un altro centinaio di link è una faccenda molto diversa dall'essere puntati

 Stiamo quindi arrivando ad un altro modello, in cui le pagine \emph{distribuiscono la loro importanza fra i link al
 loro interno}. Questo modello è molto più ragionevole del precedente, ed è molto meno predisposto a dare
-risultati falsati. Vorremo però avere una sua descrizione matematica precisa.
+risultati falsati. Vorremo però averne una descrizione matematica precisa.

 \section{Un po' di matematica}
 Consideriamo la matrice quadrata $H = (h_{ij})$, che chiameremo \emph{matrice delle connessioni}, definita
@@ -86,7 +87,7 @@ Siamo dunque interessati a calcolare il vettore $W$ dove $w_i$ è l'importanza d
 in modo che rispetti le linee guide definite precedentemente.

 Chiamiamo $d_i$ il numero di link uscenti dalla pagina $i$
-(facilmente calcolabile come visto nell'Osservazione~\ref{os:pageranknumcoll}. Chiameremo inoltre
+(facilmente calcolabile come visto nell'Osservazione~\ref{os:pageranknumcoll}). Chiameremo inoltre
 $D$ la matrice con i $d_i$ sulla diagonale e nulla per i restanti valori.
 Introdotta questa notazione, secondo il nostro modello ogni componente di $W$ dovrebbe rispettare
 la seguente equazione
@@ -105,7 +106,10 @@ domande a cui dobbiamo rispondere prima di procedere oltre.
  ma questo non è garantito a priori;
  \item \label{en:pagerank:b} L'autovalore $1$ fa parte dello spettro delle matrice $M$? Se questo non fosse vero la nostra
  richiesta non ammette soluzione, e quindi possiamo rinunciare in partenza alla nostra idea;
- \item \label{en:pagerank:c} Se l'autovettore $W$ esiste, è unico? (a meno di multipli scalari, ovviamente). Se così non fosse
+ \item \label{en:pagerank:c} Se l'autovettore $W$ esiste, è unico\footnote{In realtà ci stiamo chiedendo se il suo
+autospazio ha dimensione $1$. Siamo ben consci che se ne troviamo uno ogni suo multiplo scalare continuerà
+ad essere un autovettore. Per altro, moltiplicare le valutazioni omogeneamente per lo stesso cofficiente non
+sarebbe in nessun modo un problema}?. Se così non fosse
  sorgerebbero dei seri problemi su come interpretare i risultati ottenuti;
  \item \label{en:pagerank:d} Possiamo scegliere l'autovettore $W$ in modo che $w_i \geq 0$ per ogni $i$? Questo non è necessario,
  a priori, ma sembrerebbe coerente fare in modo che delle votazioni siano numeri positivi;
@@ -114,7 +118,7 @@ domande a cui dobbiamo rispondere prima di procedere oltre.
 Cominciamo col rispondere alla domanda~(\ref{en:pagerank:a}). Ovviamente potrebbe benissimo succedere
 che per qualche $i$ $d_i = 0$. Questi ``nodi'' vengono chiamati \emph{dangling node}, ovvero ``nodi penzolanti'',
 che non portano a niente. Per risolvere questo problema si sostituisce la matrice $H$ con una matrice $\hat H$
-tale che se $h_ij = 0 \: \forall j$ allora $\hat h_{ij} = 1 \: \forall j$, e in caso contrario $h_{ij} = \hat h_{ij}$.
+tale che se $h_{ij} = 0 \: \forall j$ allora $\hat h_{ij} = 1 \: \forall j$, e in caso contrario $\hat h_{ij} = h_{ij}$.
 Questa matrice risolve evidentemente il problema e cambia di poco il modello. Supporre che una determinata pagina
 non distribuisca la sua importanza a nessuno o la distribuisca in maniera analoga a tutti non è un gran cambiamento.

@@ -130,8 +134,8 @@ che non dimostreremo (in questa sede) ottenuto da Perron-Frobenius sulla Teoria
 \end{te}
 \begin{os}
  Sembrerebbe, a priori, che non siamo in grado di determinare il raggio spettrale di $A$. Consideriamo però
- che $1$ è nell spettro e che $||A||_{\infty} = 1$ e ogni norma indotta supera il raggio spettrale. Si può
- quindi concludere che $\rs{A} = 1$ e quindi possiamo applicare il Teorema~\ref{te:PerronFrobenius}.
+ che $1$ è nello spettro e che $||A||_{\infty} = 1$ e ogni norma indotta supera il raggio spettrale. Si può
+ quindi concludere che $\rs{A} = 1$ e applicare il Teorema~\ref{te:PerronFrobenius}.
 \end{os}
 Sfortunatamente si può osservare che, pur con tutte queste buone proprietà, in generale i metodi applicati
 per trovare l'autovettore (il metodo delle potenze) potrebbe non essere convergente, perché gli autovalori
@@ -144,8 +148,9 @@ Introduciamo una definizione che ci permetterà di formalizzare meglio il proble
   Una matrice $A$ si dice \emph{ciclica} se esiste un sottoinsieme dei suoi autovalori $J \subseteq \spe{A}$
   tale che $\forall \lambda,\mu \in J$ si ha che $|\lambda|=|\mu|$.
 \end{de}
-Per superare questa difficoltà si può, ancora una volta, modificare il modello. Consideriamo che il visitatore
-possa in ogni pagina, con probabilità $1-\gamma$, decidere di aprire una pagina a caso. Potremmo rappresentare
+Per superare questa difficoltà si può, ancora una volta, modificare il modello. Fissiamo $\gamma > 0$ e consideriamo
+che il visitatore
+possa in ogni momento, con probabilità $1-\gamma$, decidere di aprire una pagina a caso. Potremmo rappresentare
 questa nuova situazione sostituendo $M$ con la matrice
 \[
  A = \gamma M + (1-\gamma) \left[ \begin{array}{c}
@@ -157,7 +162,7 @@ questa nuova situazione sostituendo $M$ con la matrice
 ovvero con una combinazione convessa della matrice $M$ con la matrice di soli $1$. Il valore di $\gamma$ si può
 scegliere a piacimento; Google usa un valore $\gamma = 0.85$. In questo caso la matrice $A$ non ha elementi nulli
 e quindi è irriducibile e non è ciclica\footnote{La condizione di ciclicità è quella che crea problemi
-con gli autovalori di modulo uguale al raggio spettrale}. Possiamo infine utilizzare un'ultima versione del Teorema~\ref{te:PerronFrobenius}
+con gli autovalori di modulo uguale al raggio spettrale}. Possiamo infine utilizzare un'altra versione del Teorema~\ref{te:PerronFrobenius}
 che dice
 \begin{te}
  Sia $A$ una matrice con elementi strettamente positivi. Allora per ogni suo autovalore $\lambda \neq \rs{A}$ si ha
@@ -177,7 +182,7 @@ Sappiamo che esiste la forma di Jordan di $A$ ed in particolare una matrice $S$
                                   \end{array} \right]
 \]
 Osserviamo ora che $e_1$ è autovettore destro di $J$ ed anche autovettore sinistro. Entrambi sono relativi
-al'autovalore $1$. Sappiamo quindi che $e = Se_1$ è autovalore destro di $A$ e quindi è il vettore
+all'autovalore $1$. Sappiamo quindi che $e = Se_1$ è autovalore destro di $A$ e quindi è il vettore
 con tutte le componenti uguali ad $1$, mentre $\trasp{w} = \trasp{e_1}S^{-1}$ è autovettore sinistro di $A$,
 ovvero il vettore che stiamo cercando.
 In particolare quanto visto nella precedente sezione ci assicura che $\rs{\hat J} < 1$ e quindi possiamo osservare
@@ -206,8 +211,10 @@ che
 In questo modo siamo scesi da una complessità $O(n^3)$ ad una $O(n^2)$.
 \end{os}
 Sfortunatamente $O(n^2)$ nel nostro caso continua ad essere un numero troppo grande; arrivati a questo
-punto ci possiamo rendere conto che possiamo sfruttare la particolarità di $A$, che non è assolutamente
-una matrice qualsiasi!
+punto ci accorgiamo che possiamo sfruttare la particolarità di $A$, che non è assolutamente
+una matrice qualsiasi! Sappiamo infatti che è composta quasi esclusivamente di zeri, e quindi una
+memorizzazione efficiente ci permetterebbe anche un'implementazione efficiente dei procedimenti
+di moltiplicazione.
 %% TODO: QUalcosa di più sull'implementazione del metodo

 \subsection{Note tecniche}
@@ -252,6 +259,13 @@ la matrice. In realtà possiamo usare un algoritmo di questo tipo
  END DO
 \end{lstlisting}

+\begin{os}
+ L'aver scelto questo tipo di memorizzazione per la matrice non solo non complica i generali procedimenti
+ di moltiplicazione, ma riduce addirittura la complessità di questi perché iteriamo sugli elementi diversi da
+ $0$ invece che su tutti.
+\end{os}
+
+
 \section{Una prima implementazione}
 In questa sezione ci occuperemo di presentare una prima implementazione della soluzione al problema.
 Non ci preoccuperemo troppo di ottimizzare il codice, compito che affronteremo in seguito.
diff --git a/AppVibrazioni.tex b/AppVibrazioni.tex
index 90a1c19..ea43267 100644
--- a/AppVibrazioni.tex
+++ b/AppVibrazioni.tex
@@ -2,12 +2,14 @@

 In questo capitolo ci occuperemo di capire come si comporta un sistema elastico, ovvero
 un sistema di masse collegate da mollle. In questo modo potremo modellizzare, ad esempio,
-strumenti musicali (come le corde di una chitarra o un tamburo) o %TODO: Inserire qualche altro esempio pratico
+strumenti musicali (come le corde di una chitarra o un tamburo) o un generale sistema
+dinamico costituito da masse e molle.  %TODO: Inserire qualche altro esempio pratico

 \section{Molle e masse}
 \subsection{L'oscillatore armonico}
 Il nostro scopo sarà, principalmente, risolvere sistemi complicati la cui soluzione esatta non
-si riesce a calcolare (o non si riesce a farlo agevolmente), ma per capire di cosa ci occuperemo
+si riesce a calcolare (o non si riesce a farlo agevolmente) direttamente con un foglio ed una penna,
+ma per capire di cosa ci occuperemo
 è utile cominciare con un esempio noto. \\
 \begin{wrapfigure}{l}{70mm}
 \begin{tikzpicture}[scale=0.8]
@@ -32,7 +34,7 @@ si riesce a calcolare (o non si riesce a farlo agevolmente), ma per capire di co
 \end{scope}

 \end{tikzpicture} \caption{L'oscillatore armonico} \label{fig:vib:oscarm}\end{wrapfigure}
-Consideriamo dunque il sistema costituito da una massa $m$ attaccata tramite una molla di costante
+Consideriamo il sistema costituito da una massa $m$ attaccata tramite una molla di costante
 elastica $K$ e lunghezza a riposo nulla ad una parete (tralasciando la gravità), ovvero il sistema
 in Figura~\ref{fig:vib:oscarm}.\\
 Questo è un problema di cui conosciamo la soluzione esatta anche se introduciamo una dissipazione proporzionale
diff --git a/CalcoloScientifico.tex b/CalcoloScientifico.tex
index 656850d..00c83fb 100644
--- a/CalcoloScientifico.tex
+++ b/CalcoloScientifico.tex
@@ -227,6 +227,7 @@
 \newpage

 %% \input qualche introduzione, quando verrà il giorno
+\include{introduzione}

 %%
 %% Di nuovo un'altra pagina per metterci l'indice
@@ -240,8 +241,6 @@

 \newpage

-\include{introduzione}
-
 %%
 %% Da qui in poi useremo la numerazione araba
 %%
diff --git a/capitolo3.tex b/capitolo3.tex
index d844e6f..cba2bc6 100644
--- a/capitolo3.tex
+++ b/capitolo3.tex
@@ -63,14 +63,14 @@ ottiene lo stesso risultato di prima:
  \hat Rx = w_1
 \]
 e quindi si ha l'unicità della soluzione e la risolubilità del sistema lineare. In generale però, il calcolo
-di $\trasp AA$ potrebbe esserer oneroso e, soprattutto, nessuno ci garantisce in una situazione generale
+di $\trasp AA$ potrebbe essere oneroso e, soprattutto, nessuno ci garantisce in una situazione generale
 che il rango di $A$ sia massimo.

 \subsection{Teorema di decomposizione in valori singolari}
 Possiamo pensare di voler migliorare l'idea delle equazioni normali. In altre parole, vogliamo trovare il
 modo di evitare il calcolo di $\trasp AA$. Consideriamo dunque il seguente
 \begin{te}[Decomposizione in valori singolari]
-Sia $A \in \matr{\R}{m}{n}$. Esistono $U \in \matr{\R}{m}{n}$ e $V \in \mat{\R}{n}$ ortogonali e
+Siano $m \geq n$ e $A \in \matr{\R}{m}{n}$. Esistono $U \in \matr{\R}{m}{n}$ e $V \in \mat{\R}{n}$ ortogonali e
 $\Sigma \in \matr{\R}{m}{n}$ tali che
 \[
  \Sigma = \left[ \begin{array}{cccc}
@@ -133,23 +133,26 @@ colonna di} \ U
 \]
 Ora possiamo ricordare che $x = Vz$ e quindi se $A$ è di rango massimo
 \[
- x = Vz = \sum_{k=1}^{n} \frac{V_kU_kb}{\sigma_k} = \underbrace{\left( \sum_{k=1}^{n} \frac{V_kU_k}{\sigma_k} \right)}_{A^+} b
+ x = Vz = \sum_{k=1}^{n} \frac{V_k\trasp U_kb}{\sigma_k} = \underbrace{\left( \sum_{k=1}^{n} \frac{V_k\trasp U_k}{\sigma_k} \right)}_{A^+} b
 \]
 e chiamiamo $A^+$ \emph{pseudo-inversa} di $A$. Più precisamente
 \[
  A^+ = V \Sigma^{-1} \trasp U
 \]
-Si verifica subito infatti che $AA^+ = I$ e $A^+A = I$\footnote{ma attenzione! Non è vero che $AA^+ = A^+A$ perchè
-queste sono addirittura due matrici di ordine diverso. Il loro prodotto dà sempre l'identità, ma non dello stesso
-spazio.}.
+% TODO: Controllare che le uguaglianze scritte sull'inversa abbiano senso. Una è giusta di sicuro,
+% ma quale?
+Si verifica subito infatti che e $A^+A = I$. % \footnote{ma attenzione! Non è vero che $AA^+ = A^+A$ perchè
+% queste sono addirittura due matrici di ordine diverso. Il loro prodotto dà sempre l'identità, ma non dello stesso
+% spazio.}.
 Questa pseudo-inversa di chiama anche \emph{inversa di Moore-Penrose}.

 Se $A$ non è di rango massimo possiamo ugualmente definire la pseudo-inversa ``fermando'' la somma
 a $k$ dove $k$ è il rango di $A$. Abbiamo dunque
 \[
- A^+ = \sum_{j=1}^{k} \frac{V_jU_j}{\sigma_j}
+ A^+ = \sum_{j=1}^{k} \frac{V_j\trasp U_j}{\sigma_j}
 \]
-e ancora una volta vale l'eguaglianza $x = A^+b$ dove $x$ è il vettore di rango minimo che risolve (nel modo migliore)
+e ancora una volta vale l'eguaglianza $x = A^+b$ dove $x$ è il vettore di rango minimo che risolve (nel senso
+che minimizza il valore della norma)
  il problema lineare ai minimi quadrati.

 \subsection{Interpolazione polinomiale}
@@ -269,4 +272,6 @@ Per fare un esempio pratico supponiamo $n = 1024$, ovvero un'immagine da 1 Megap
 (supponendo che sia in bianco e nero a 256 colori) $1 MB$. Decidendo di comprimerla con una matrice di rango $15$
 avremmo invece una dimensione di $15 KB$! Ovviamente l'immagine risultante darebbe solamente un'idea di quella originale,
 ma si potrebbe pensare di trovare un punto d'incontro fra dimensione e qualità\footnote{e magari di raffinare anche
-il metodo di compressione, ma questo lo vedremo in seguito}.
\ No newline at end of file
+il metodo di compressione, ma questo lo vedremo in seguito}.
+
+% TODO: Inserire un esempio di immagine compressa tramite SVD magari con varie opzioni per il rango
\ No newline at end of file
diff --git a/introduzione.tex b/introduzione.tex
index 612fed8..5c40723 100644
--- a/introduzione.tex
+++ b/introduzione.tex
@@ -55,5 +55,10 @@ spiegati e poi usati in seguito. Per la maggior parte sono ovvi, ma \ldots giust
  il Capitolo~\ref{ch:svd} intenderemo il condizionamento generailzzato, ovvero $||A||_2 \cdot ||A^{+}||_2$ \\
  \hline \hline
 \end{tabular} \\[15pt]
+In generale chiameremo $D$ le matrici diagonali, $Q$ ed $U$\footnote{Anche se talvolta anche le matrici triangolari
+superiori prenderanno il nome $U$.} le matrici unitarie, $R$ le matrici triangolari
+superiori, $L$ quelle traiangolari inferiori, $H$ quelle in forma di Hessenberg superiore e $T$ le matrici
+tridiagonali hermitiante. Questo varrà in generale, anche se non sono certo che riuscirò a mantenere sempre
+questo impegno. \\
 Ci sono probabilmente altri simboli che ho usato, non sono ovvi, eppure mi sono dimenticato di elencare qui.
 Potete segnalarmelo a \verb-robol@poisson.phc.unipi.it-.
ViewGit