Come si confrontano due matrici?
Perdonate la mia ignoranza...
Se io ho due matrici A e B, in base a che posso affermare che A sia maggiore di B? in particolar modo se le matrici in questione sono diagonali basta confrontar le relative tracce?
Se io ho due matrici A e B, in base a che posso affermare che A sia maggiore di B? in particolar modo se le matrici in questione sono diagonali basta confrontar le relative tracce?
Risposte
Sinceramente non ho mai sentito parlare di una matrice maggiore di un'altra.
In che ambito hai incontrato questa definizione? Per far che? Hai qualche riferimento bibliografico?
Ora mi hai messo un po' di curiosità
In che ambito hai incontrato questa definizione? Per far che? Hai qualche riferimento bibliografico?
Ora mi hai messo un po' di curiosità

Può voler dire tante cose... l'interpretazione più matematicamente utile che mi viene in mente è dotare lo spazio $M_(m,n)(K)$ di una norma, per esempio la norma operatoriale, e confrontare le rispettive norme delle matrici.
Comunque ripeto, detto così non vuol dire nulla a meno che non definisci te cosa vuol dire $\geq$ (per esempio, può anche essere una relazione di ordine parziale dove $A \geq B$ se $a_(ij) \geq b_(ij)$ o una relazione di ordine totale come il confronto tra la somma delle tracce che hai detto te. Oppure il confronto tra i determinanti, o tante altre cose...).
Comunque ripeto, detto così non vuol dire nulla a meno che non definisci te cosa vuol dire $\geq$ (per esempio, può anche essere una relazione di ordine parziale dove $A \geq B$ se $a_(ij) \geq b_(ij)$ o una relazione di ordine totale come il confronto tra la somma delle tracce che hai detto te. Oppure il confronto tra i determinanti, o tante altre cose...).
Sono d'accordo con Gatto che si possa definire una norma e da quella definire implicitamente un ordine parziale...
Let us consider an estimation problem where the unknown parameter x belongs $R^n$ and
a number N of measures have been realized. Assume that the measurement error epsilon
belongs $R^n$ is gaussian with zero mean; moreover let us assume that each component $epsilon_i$,
with i = 1; : : :N, has a variance $(lambda_i)^2$
and they are uncorrelated.
Prove that the the estimation error covariance matrix P of the BLUE is a decreasing
function of N. In particular, indicate with P1 the error covariance matrix evaluated
on an initial set N1 of measures; then indicate with P2 the error covariance matrix
evaluated on the initial set N1 of measures plus an additional set of measures N2
and show that P1 > P2.
Hint: consider the information matrix I = inv(P) and show that I1 < I2
a number N of measures have been realized. Assume that the measurement error epsilon
belongs $R^n$ is gaussian with zero mean; moreover let us assume that each component $epsilon_i$,
with i = 1; : : :N, has a variance $(lambda_i)^2$
and they are uncorrelated.
Prove that the the estimation error covariance matrix P of the BLUE is a decreasing
function of N. In particular, indicate with P1 the error covariance matrix evaluated
on an initial set N1 of measures; then indicate with P2 the error covariance matrix
evaluated on the initial set N1 of measures plus an additional set of measures N2
and show that P1 > P2.
Hint: consider the information matrix I = inv(P) and show that I1 < I2
Certo che puoi spendere due parole di più, hai ricopiato la traccia del tuo problema.
Tu cosa hai pensato? Hai qualche pensiero in proposito?
Per esempio $I="inv"(P)$ è l'inversa di $P$?
Se sì, questa ipotetica relazione d'ordine $\le$ fra matrici dovrà essere tale che $P_1\le P_2\ \Rightarrow\ P_2^{-1}\le P_1^{-1}$.
Questo esclude una delle ipotesi di Gatto, cioè che fosse $A\le B$ se $a_{ij}\le b_{ij}\ \forall i,j$.
Dovresti pensare a qualche altra norma fra matrici.
Non so, per adesso non mi viene niente in mente. Passo la palla a qualcun altro.

Tu cosa hai pensato? Hai qualche pensiero in proposito?
Per esempio $I="inv"(P)$ è l'inversa di $P$?
Se sì, questa ipotetica relazione d'ordine $\le$ fra matrici dovrà essere tale che $P_1\le P_2\ \Rightarrow\ P_2^{-1}\le P_1^{-1}$.
Questo esclude una delle ipotesi di Gatto, cioè che fosse $A\le B$ se $a_{ij}\le b_{ij}\ \forall i,j$.
Dovresti pensare a qualche altra norma fra matrici.
Non so, per adesso non mi viene niente in mente. Passo la palla a qualcun altro.
Se deve essere invariante per inversione io proporrei il numero di condizionamento di una matrice [tex]K(A) = \parallel A \parallel \parallel A^{-1} \parallel[/tex] dove [tex]\parallel \cdot \parallel[/tex] è una norma.
http://en.wikipedia.org/wiki/Condition_number
http://en.wikipedia.org/wiki/Condition_number
no no sto proprio studiando queste cose... il testo è in inglese perché sto per andare al politecnico di new york e mi è stato assegnato un homework.
In realtà la matrice in questione è un'informazione (ma non quella di Fisher che se non erro è relativa solo al rumore con varianza uguale per ogni campione).
Il problema che non riesco a risolvere è dovuto al fatto che devo dimostrare che all'aumentare delle misurazioni diminuisce la covarianza dell'errore di stima... ottieniamo proprio il limite di cramer rao nel caso in cui la varianza è costante, ma come facciamo ad ottenere una stima consistente se la varianza cambia ad ogni passo? chi mi dice che aggiungendo nuove misurazioni non ottengo campioni con una varianza di rumore decisamente più alta?
Inoltre, sebbene sia banale ma ammetto di non saperlo, come faccio a confrontare la grandezza di due matrici?
La prima cosa che avevo pensato, siccome le matrici sono diagonali, è tener conto della traccia visto che rappresenta la somma delle varianze... ergo se diminuisce diminuirà anche l'errore di stima...
quindi per fare il confronto devo utilizzare la norma?
In realtà la matrice in questione è un'informazione (ma non quella di Fisher che se non erro è relativa solo al rumore con varianza uguale per ogni campione).
Il problema che non riesco a risolvere è dovuto al fatto che devo dimostrare che all'aumentare delle misurazioni diminuisce la covarianza dell'errore di stima... ottieniamo proprio il limite di cramer rao nel caso in cui la varianza è costante, ma come facciamo ad ottenere una stima consistente se la varianza cambia ad ogni passo? chi mi dice che aggiungendo nuove misurazioni non ottengo campioni con una varianza di rumore decisamente più alta?
Inoltre, sebbene sia banale ma ammetto di non saperlo, come faccio a confrontare la grandezza di due matrici?
La prima cosa che avevo pensato, siccome le matrici sono diagonali, è tener conto della traccia visto che rappresenta la somma delle varianze... ergo se diminuisce diminuirà anche l'errore di stima...
quindi per fare il confronto devo utilizzare la norma?
[mod="Martino"]Dico una cosa che mi sembra non appaia troppo evidente: quando si propone un problema o si espongono dubbi bisogna contestualizzarli in maniera totale. Non si può prendere la singola riga che non si capisce ed inserire quella. Bisogna ricordare che la gente ha notazioni, definizioni e abitudini diverse dalle proprie. Inoltre, è fondamentale capire qual è l'ambito generale in cui nasce il problema. Detto questo, sposto in statistica.[/mod]