Domanda di teoria sull'immagine
Ciao, vorrei riproporre un dubbio per cui non ho avuto aiuto, forse ho peccato di rendere lo scritto troppo lungo e volevo provare a ripostare, togliendo dal principio alcune domande e lasciandone UNA.
Vorrei basarmi su un esempio, una applicazione lineare, ma il dubbio è teorico e non di un esercizio.
Io so che per definizione
data $f: V->W$ ad esempio come matrice $L=((2,4),(1,2))$ (nel nostro caso avremo gli insiemi $V=RR^2=W$)
l'immagine è l'insieme così definito: $Im(f):={w in W : ∃v in V t.c f(v)=w}$
Mi trovo subito con una domanda, quando si vuole trovare l'immagine di L si procede così:
si prende un vettore qualsiasi di $R^2$ cioè $x in V$ (scrivo V perché più facile distinguere dominio e codominio così, invece di chiamarlo $RR^2$) e si applica $L$ a $x$: Lx, ottengo facendo i conti: $w:=(2x_1+4x_2,x_1+2x_2)$ e quindi si dice che $Im(L)={(2x_1+4x_2,x_1+2x_2) : x_1, x_2 in RR}$.
Ora, a me sembra di aver fatto questo procedimento:
- ho preso un qualunque (per ogni) vettore di V $v=x=(x1,x2)$
- ho trovato che $L(x)=w in W$.
Ma questo procedimento sfrutta un per ogni x e non un esiste x=(x1,x2) come richiede la definizione data; ho appunto usato un per ogni $vecx$ e mostro che ho un w da questo x tale che L(x)=w. Ma la definizione non chiede questo! Non capisco quindi come far tornare le cose.
Spero in qualche aiuto e ringrazio molto.
Vorrei basarmi su un esempio, una applicazione lineare, ma il dubbio è teorico e non di un esercizio.
Io so che per definizione
data $f: V->W$ ad esempio come matrice $L=((2,4),(1,2))$ (nel nostro caso avremo gli insiemi $V=RR^2=W$)
l'immagine è l'insieme così definito: $Im(f):={w in W : ∃v in V t.c f(v)=w}$
Mi trovo subito con una domanda, quando si vuole trovare l'immagine di L si procede così:
si prende un vettore qualsiasi di $R^2$ cioè $x in V$ (scrivo V perché più facile distinguere dominio e codominio così, invece di chiamarlo $RR^2$) e si applica $L$ a $x$: Lx, ottengo facendo i conti: $w:=(2x_1+4x_2,x_1+2x_2)$ e quindi si dice che $Im(L)={(2x_1+4x_2,x_1+2x_2) : x_1, x_2 in RR}$.
Ora, a me sembra di aver fatto questo procedimento:
- ho preso un qualunque (per ogni) vettore di V $v=x=(x1,x2)$
- ho trovato che $L(x)=w in W$.
Ma questo procedimento sfrutta un per ogni x e non un esiste x=(x1,x2) come richiede la definizione data; ho appunto usato un per ogni $vecx$ e mostro che ho un w da questo x tale che L(x)=w. Ma la definizione non chiede questo! Non capisco quindi come far tornare le cose.
Spero in qualche aiuto e ringrazio molto.
Risposte
Infatti il tuo non è un "procedimento", è una maniera goffa di imporre la condizione per cui [l'applicazione lineare associata a] $L$ sia suriettiva.
Dico goffa soprattutto perché l'hai girata: la suriettività di $L$ dice che per ogni elemento $y$ del codominio esiste un elemento $x$ del dominio con la proprietà $Lx=y$. Tu invece hai scritto... qualcosa che non è nemmeno ben formato: cos'è $w$? Ti rendi conto che "per ogni $x$, $Lx=w$" significa gran poco? Trattando $w$ come una costante, questo significherebbe che $L$ è costante. Di certo non quello che vuoi, dato che, essendo $L$ lineare, può solo essere costante in 0 (perché deve mandare il vettore nullo in zero, e siccome è costante deve mandarci anche tutti gli altri).
Invece, determinare l'immagine di una applicazione lineare, scritta in una base opportuna, è molto semplice: prendi la matrice $L$, e determina qual è il sottospazio che le sue colonne generano.
Dico goffa soprattutto perché l'hai girata: la suriettività di $L$ dice che per ogni elemento $y$ del codominio esiste un elemento $x$ del dominio con la proprietà $Lx=y$. Tu invece hai scritto... qualcosa che non è nemmeno ben formato: cos'è $w$? Ti rendi conto che "per ogni $x$, $Lx=w$" significa gran poco? Trattando $w$ come una costante, questo significherebbe che $L$ è costante. Di certo non quello che vuoi, dato che, essendo $L$ lineare, può solo essere costante in 0 (perché deve mandare il vettore nullo in zero, e siccome è costante deve mandarci anche tutti gli altri).
Invece, determinare l'immagine di una applicazione lineare, scritta in una base opportuna, è molto semplice: prendi la matrice $L$, e determina qual è il sottospazio che le sue colonne generano.
Invece, determinare l'immagine di una applicazione lineare, scritta in una base opportuna, è molto semplice: prendi la matrice L, e determina qual è il sottospazio che le sue colonne generano.sì, questo mi è chiaro. Ma infatti non è in questo procedimento il dubbio.
Il mio dubbio sorge perché l'esercizio è svolto come indicavo sopra, in molti esempi che trovo. E la cosa strana è che funziona e non capisco il motivo.
Inoltre non è tanto sulla suriettività, quanto su voler trovare l'insieme l'immagine, è qui che pongo la domanda.
Come dicevo la definizione di immagine è $Im(f):={w in W : ∃v in V t.c f(v)=w}$
E la soluzione proposta (non da me, ma da varie fonti) è questa:
si prende un vettore qualsiasi di $R^2$ cioè $x in V$ (scrivo V perché più facile distinguere dominio e codominio così, invece di chiamarlo $RR^2$) e si applica $L$ a $x$: Lx, ottengo facendo i conti: $w:=(2x_1+4x_2,x_1+2x_2)$ e quindi si dice che $Im(L)={(2x_1+4x_2,x_1+2x_2) : x_1, x_2 in RR}$.mi sembra che anche tu condividi non essere molto corretto come metodo? Non ho capito se mi dai ragione.
Facendo come quotato, infatti:
- si prende un qualunque (per ogni) vettore di V $v=x=(x1,x2) in V=RR^2$
- si trova che che $L(x)=w in W$.
Ma così facendo a me pare che prendo un "qualunque" $x in V$, mentre la richiesta dice che "esiste" un x preso un $w in W $ per cui valga Lx=w. E' questo utilizzo del per ogni sul vettore x che mi manda in crisi in tutta onestà.
D'altra parte leggevo una risposta di un utente del forum, Martino, che non so se sia ancora attivo che forse fa al caso nostro e dice che
quando definisco l'insieme:
[tex]K = \{b : \exists a \in \mathbb{R} \hspace{.3cm} b=fa\}[/tex]
vuol dire che l'elemento $g$ è in $K$ se e solo se esiste $a in RR$ tale che $g=fa$
che vuol anche dire due cose assieme:
1) Per ogni $g in K$ esiste $a in RR$ tale che $g=fa$.
2) Per ogni $a in RR$ si ha $fa in K$
e a sua volta scrivere $K={fa:a∈R}$
A me pare che rileggendola in questo modo io posso scrivere: $Im(f):={w in W : ∃v in V t.c f(v)=w}={f(v) in W|v in V}$ che si può quindi leggere come 2): per ogni $v in RR$ si ha $L(v)=f(v) in Im(f)$, e questo è esatttamente il procedimento nel primo dei miei due quote di questo messaggio, no?
Il motivo è che i due insiemi
${w in W\ :\ ∃v in V\ t.c.\ f(v)=w}$
${f(v)\ :\ v in V}$
sono uguali tra loro.
${w in W\ :\ ∃v in V\ t.c.\ f(v)=w}$
${f(v)\ :\ v in V}$
sono uguali tra loro.
Ciao Martino.
Come ho scritto sopra nel mio messaggio, me ne sono reso conto solo ieri dopo molti giorni in cui la domanda era rimasta lì; cercando di capire a tutti i costi, ho letto ovunque e ho trovato appunto:
Vorrei però chiederti come dimostro che "il motivo è che i due insiemi sono uguali tra loro" che hai scritto come risposta ieri sera? Non capisco come sparisca il tale che e come mai siano in definitiva uguali. Credo dovrei sfruttare il quote ma non ho idee su come riadattarlo al mio caso.
Come ho scritto sopra nel mio messaggio, me ne sono reso conto solo ieri dopo molti giorni in cui la domanda era rimasta lì; cercando di capire a tutti i costi, ho letto ovunque e ho trovato appunto:
quando definisco l'insieme:Era un caso che mi ha ricordato molto il mio e mi pare che riconfermi quello che intravisto. Il motivo è quello del quote giusto?
[tex]K = \{b : \exists a \in \mathbb{R} \hspace{.3cm} b=fa\}[/tex]
vuol dire che l'elemento $g$ è in $K$ se e solo se esiste $a in RR$ tale che $g=fa$
che vuol anche dire due cose assieme:
1) Per ogni $g in K$ esiste $a in RR$ tale che $g=fa$.
2) Per ogni $a in RR$ si ha $fa in K$
e a sua volta scrivere $K={fa:a∈R}$
Vorrei però chiederti come dimostro che "il motivo è che i due insiemi sono uguali tra loro" che hai scritto come risposta ieri sera? Non capisco come sparisca il tale che e come mai siano in definitiva uguali. Credo dovrei sfruttare il quote ma non ho idee su come riadattarlo al mio caso.
Due insiemi sono "uguali" se ciascuno è un sottoinsieme dell'altro.
${w in W\ :\ ∃v in V\ t.c.\ f(v)=w}$Prova a dimostrare che sono uguali, è facile. Non hai mai fatto esercizi in cui devi dimostrare che due insiemi sono uguali?
${f(v)\ :\ v in V}$
Certo, ma in questo caso ho:
$A={w in W\ :\ ∃v in V\ t.c.\ f(v)=w}$
$B={f(v)\ :\ v in V}$
i quali per me volevano dire la stessa cosa, ossia io avrei dimostrato l'uguaglianza scrivendo: appartenenza di elemento a 2 implica appartenenza a 1, infatti
$f(v) in B$ se e solo se esiste v t.c $f(v)=w$, ma questo equivale alla 1, infatti è paro-paro la richiesta perché appartenga ad A: $f(v)=w in A$.
Il viceversa è identico appartenenza 1=>2.
E in questi casi la doppia inclusione è piuttosto ovvia!
Invece qua mi sembra di star scoprendo che $B={f(v)\ :\ v in V}$ vuol dire "per ogni $v in V$ si ha $f(v)inB$"
EDITO: stavo rispondendo a megas_archon ma vedo che vale anche per l'ultimo consiglio.
$A={w in W\ :\ ∃v in V\ t.c.\ f(v)=w}$
$B={f(v)\ :\ v in V}$
i quali per me volevano dire la stessa cosa, ossia io avrei dimostrato l'uguaglianza scrivendo: appartenenza di elemento a 2 implica appartenenza a 1, infatti
$f(v) in B$ se e solo se esiste v t.c $f(v)=w$, ma questo equivale alla 1, infatti è paro-paro la richiesta perché appartenga ad A: $f(v)=w in A$.
Il viceversa è identico appartenenza 1=>2.
E in questi casi la doppia inclusione è piuttosto ovvia!
Invece qua mi sembra di star scoprendo che $B={f(v)\ :\ v in V}$ vuol dire "per ogni $v in V$ si ha $f(v)inB$"
EDITO: stavo rispondendo a megas_archon ma vedo che vale anche per l'ultimo consiglio.
Non ho capito (cerca di lavorare sulla chiarezza), ti sei convinto che sono uguali o no?
Ok, scusami. A caldo mi sembrava un discorso chiaro ma sono stato pasticcioso.
Mi spiego meglio, o meglio, prima credo di dover capire una cosa, quando scrivi: $B={f(v) : v∈V}$ tu come lo leggi?
Perché io lo leggevo come "un elemento g è in B se e solo se esiste v tale che g=f(v)", quindi non vi è alcuna differenza di lettura con quello che chiamavo A. Insomma l'inclusione vista così sarebbe ovvia e non c'è molto di dimostrare: è la stessa definizione degli elementi dell'insieme per $A={w∈W : ∃v∈V t.c. f(v)=w}$ (che leggo nello stesso modo).
Tuttavia, leggevo che $B={f(v) : v∈V}$ vuol invece dire due cose:
1) Per ogni b∈B esiste v∈V tale che b=f(v). [correzione]
2) Per ogni v∈V si ha f(v)∈B
se è questa seconda interpretazione va in effetti dimostrato. Credo la mia confusione nasca da qui per ora, poi posso ragionarci dopo che sono sicuro di cosa si intenda.
Mi spiego meglio, o meglio, prima credo di dover capire una cosa, quando scrivi: $B={f(v) : v∈V}$ tu come lo leggi?
Perché io lo leggevo come "un elemento g è in B se e solo se esiste v tale che g=f(v)", quindi non vi è alcuna differenza di lettura con quello che chiamavo A. Insomma l'inclusione vista così sarebbe ovvia e non c'è molto di dimostrare: è la stessa definizione degli elementi dell'insieme per $A={w∈W : ∃v∈V t.c. f(v)=w}$ (che leggo nello stesso modo).
Tuttavia, leggevo che $B={f(v) : v∈V}$ vuol invece dire due cose:
1) Per ogni b∈B esiste v∈V tale che b=f(v). [correzione]
2) Per ogni v∈V si ha f(v)∈B
se è questa seconda interpretazione va in effetti dimostrato. Credo la mia confusione nasca da qui per ora, poi posso ragionarci dopo che sono sicuro di cosa si intenda.
"nestor":
se è questa seconda interpretazione va in effetti dimostrato.
Cosa va dimostrato?
La doppia inclusione, in quel caso va dimostrata, ossia va dimostrato che le proposizioni coincidono.
Dalla tua domanda capisco che forse non mi sono ancora spiegato e probabilmente è perché la mia domanda è tanto scema che non riesco a farla capire del tutto. Però non ho davvero capito. Provo a spiegare pedantemente:
$A={w∈W : ∃v∈V t.c. f(v)=w}, B={f(v) : v∈V}$
Io fino a che non mi avete risposto ieri ho sempre letto questi due nello stesso modo, quindi pensavo fossero una notazione diversa per dire la stessa cosa, questa: "un elemento g è in B/A se e solo se esiste v tale che g=f(v)". Se quindi sono due "notazioni" diverse per dire la stessa cosa non c'è da dimostrare nulla.
Siccome questa cosa non mi tornava con l'esercizio che prendeva un "per ogni v" ho iniziato a cercare e cercare e ho letto che:
$A={w∈W : ∃v∈V t.c. f(v)=w}$ si legge
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
mentre B no, scrivere: $B={f(v) : v∈V}$ vuol dire due cose assieme:
1) Per ogni b∈B esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈B
Io stavo chiedendo ora se è corretto questo, perché in tale caso vorrebbe dire che devo dimostrare una equivalenza tra (a) e (1 con 2). Questo in pratica dimostrerebbe che sto definendo lo stesso oggetto.
Dalla tua domanda capisco che forse non mi sono ancora spiegato e probabilmente è perché la mia domanda è tanto scema che non riesco a farla capire del tutto. Però non ho davvero capito. Provo a spiegare pedantemente:
$A={w∈W : ∃v∈V t.c. f(v)=w}, B={f(v) : v∈V}$
Io fino a che non mi avete risposto ieri ho sempre letto questi due nello stesso modo, quindi pensavo fossero una notazione diversa per dire la stessa cosa, questa: "un elemento g è in B/A se e solo se esiste v tale che g=f(v)". Se quindi sono due "notazioni" diverse per dire la stessa cosa non c'è da dimostrare nulla.
Siccome questa cosa non mi tornava con l'esercizio che prendeva un "per ogni v" ho iniziato a cercare e cercare e ho letto che:
$A={w∈W : ∃v∈V t.c. f(v)=w}$ si legge
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
mentre B no, scrivere: $B={f(v) : v∈V}$ vuol dire due cose assieme:
1) Per ogni b∈B esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈B
Io stavo chiedendo ora se è corretto questo, perché in tale caso vorrebbe dire che devo dimostrare una equivalenza tra (a) e (1 con 2). Questo in pratica dimostrerebbe che sto definendo lo stesso oggetto.
Ok ho capito. D'altra parte dimostrare l'equivalenza tra (a) e (1)+(2) è facile. Hai provato?
Hai provato?no esatto, non ho ancora provato. Perché prima volevo capire se avessi ben formulato e capito il problema. Cosa di cui non ero assolutamente sicuro.
Con i precedenti messaggi stavo chiedendo se avevo ben interpretato la situazione seguente proprio per poterla dimostrare se fosse così:
$A={w∈W : ∃v∈V t.c. f(v)=w}$ si leggecosì è corretto? se è in questi termini ci provo a dimostrare[nota]non garantisco di riuscire
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
mentre B no, scrivere: $B={f(v) : v∈V}$ vuol dire due cose assieme:
1) Per ogni b∈B esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈B
Si dimostri che le due formulazioni sono equivalenti: a <=> 1+2


Comunque ora mi sorge una domanda: siccome non intendevi di dimostrare questo (del quote) nei tuoi precedenti post. Allora mi chiedo: non ho capito bene cosa mi indicavi di dimostrare

D'altra parte dimostrare l'equivalenza tra (a) e (1)+(2) è facile. Hai provato?Ho provato a fare la dimostrazione ma non riesco, o meglio, riesco ma solo a patto che a priori io già sappia che gli insiemi A e B sono A=B, si veda nel seguito del post.
Io sono partito dal fatto che
$A={w∈W : ∃v∈V t.c. f(v)=w}$ si legge
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
mentre scrivere: $A={f(v) : v∈V}$ vuol dire due cose assieme:
1) Per ogni b∈A esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈A
Si dimostri che le due formulazioni sono equivalenti: a <=> 1+2
Nota che se fosse:
$A={w∈W : ∃v∈V t.c. f(v)=w}$ si leggenon funzionerebbe più però la dimostrazione qui sotto. Quindi è come se dovessi già partire sapendo che A=B e quindi devo aver già dimostrato la doppia inclusione credo.
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
mentre B no, scrivere: $B={f(v) : v∈V}$ vuol dire due cose assieme:
1) Per ogni b∈B esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈B
Dimostraz.:
a implica 2
Prendo un qualsiasi $v in V$ e definisco $b=f(v)$, questo è fattibile per definizione di funzione che copre tutto il suo dominio che garantisce esista per ogni v un b di questo tipo. Sfrutto a questo punto la a) nella sua implicazione (<=) la quale mi garantisce che $b in A$ da cui $b=f(v)∈A$
2 implica a (dimostra a nella sua parte "<=")
se per ipotesi esiste $v$ tale che $b=f(v)$, dato che vale 2) per hp, allora $f(v)=b in A$, che era ciò che volevamo
1 implica (a nella parte "=>")
ovvio, infatti è esattamente la riscrittura di a) nell'implicazione "=>"
Rimangono però come dicevo solo due dubbi
- il primo è che
a) è qualcosa tipo (A <=> B)
2) è C
1) è D
io mostro nei tre passaggi che: (A <=> B)=>C, poi che C=>(A <= B) e D=>(A => B)
Non sono del tutto convinto che l'unione di queste tre porti a: (A <=> B)<=>(C & D) che mi sembra invece quello che serve. Però intuitivamente i 3 punti mi sembrano invece giusti. Mi sapresti aiutare a capire perché dimostro proprio (A <=> B)<=>(C & D)?
- il secondo dubbio che mi pongo è però come dimostro che A⊆B e B⊆A? Perché come dicevo io sto già assumendo che l'insime è lo stesso infatti sfrutto la stessa appartenenza ad "A" per dimostrare l'uguaglianza delle espressioni. Detto in altro modo io con il procedimento sopra ho detto che un certo insieme A si può descrivere sia con (a) che con (1)+(2), altra cosa invece è dimostrare che A e B sono lo stesso insieme con la doppia inclusione. Questo non ci riesco.
Madoooooo e quanto la stai facendo complicata?! Manco la bibbia ci mette tanto ad arrivare agli squartamenti
Se un elemento b è della forma f(a) per qualche a, è chiaro che esiste a, tale che f(a) = b.
Viceversa, se esiste un a tale che b=f(a), allora b è della forma f(a).
Se un elemento b è della forma f(a) per qualche a, è chiaro che esiste a, tale che f(a) = b.
Viceversa, se esiste un a tale che b=f(a), allora b è della forma f(a).
Ma infatti ti manca da dimostrare che (a) implica 1, poi hai finito.
Madoooooo e quanto la stai facendo complicata?! Manco la bibbia ci mette tanto ad arrivare agli squartamentimi ha fatto sorridere il tuo urlo disperato. Lo so hai ragione, non è che io sia molto furbo e me ne scuso, ma ormai mi sono incastrato in questo discorso e credo di doverne uscire
Se un elemento b è della forma f(a) per qualche a, è chiaro che esiste a, tale che f(a) = b.
Viceversa, se esiste un a tale che b=f(a), allora b è della forma f(a).

Ma infatti ti manca da dimostrare che (a) implica 1, poi hai finito.posso chiederti una cosa su questo?
La cosa che mi fa strano è che non mi ci ritrovo, perché se anche dimostro "(a) implica 1", cioè che
(A <=> B)=>D, sai che non torna?
Io ho messo assieme le (A <=> B)=>C, poi che C=>(A <= B), D=>(A => B) e ora (A <=> B)=>D come suggerisci, ma non è equivalente a (A <=> B)<=>(C & D). Cosa che invece mi serve per concludere. Penso quindi di sbagliare qualche interpretazione ma da solo non capisco proprio che cosa.
"nestor":Non è equivalente, ma lo implica. È questo che ti serve mostrare.
Io ho messo assieme le (A <=> B)=>C, poi che C=>(A <= B), D=>(A => B) e ora (A <=> B)=>D come suggerisci, ma non è equivalente a (A <=> B)<=>(C & D).
Cioè
(A <=> B)=>C &
C=>(A <= B) &
D=>(A => B) &
(A <=> B)=>D
implica
(A <=> B)<=>(C & D)
(E non viceversa.)
Se non ci credi basta che fai una tavola di verità.
Ho capito solo grazie a quello che hai appena scritto come andava vista la cosa. Io ero convinto di dimostrare per prima (A <=> B)=>(C & D) e poi con le altre due che (C & D)=> (A <=> B) e quindi che valeva il <=>, e non mi usciva.
Invece sono partito dalle ipotesi A <=> B)=>C & C=>(A <= B) & D=>(A => B) & (A <=> B)=>D e ho dimostrato che questo implica (A <=> B)<=>(C & D)
Questa osservazione mi sta insegnando un modo di dimostrare che mi sfuggiva, in pratica se io devo dimostrare un P=>Q, posso, anziché partire da P e mostrare che implica Q fare una cosa del genere: dimostro che per una ipotesi A, vale che A=>(P=>Q), parto cioè da delle ipotesi A che mi dimostrano che P=>Q vale, a quel punto ho dimostrato P=>Q?
Mi sembra questo il gioco fatto. Mi sembra fattibile come modo di dimostrare, vero? Se è giusto è molto utile per il futuro
Detto questo rimane quel dubbio che esprimevo prima. La cosa che non mi torna molto è che nel messaggio dove ho scritto le dimostrazioni (quelle in arancione), io sto mostrando qualcosa di questo tipo:
Dati A$={w∈W:∃v∈Vt.c.f(v)=w}$ e A$={f(v):v∈V}$
Dimostro che:
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
è equivalente a
1) Per ogni b∈A esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈A
Però io sto mostrando che dato un medesimo insieme A, posso leggere A come "a" o come "1 & 2", ma non sto dimostrando che A$={w∈W:∃v∈Vt.c.f(v)=w}$=B$={f(v):v∈V}$.
[ot]Avrei in questo caso
Dati A$={w∈W:∃v∈Vt.c.f(v)=w}$
"un elemento b è in A se e solo se esiste v tale che b=f(v)"
e B$={f(v):v∈V}$
1) Per ogni b∈B esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈B[/ot]
Invece sono partito dalle ipotesi A <=> B)=>C & C=>(A <= B) & D=>(A => B) & (A <=> B)=>D e ho dimostrato che questo implica (A <=> B)<=>(C & D)
Questa osservazione mi sta insegnando un modo di dimostrare che mi sfuggiva, in pratica se io devo dimostrare un P=>Q, posso, anziché partire da P e mostrare che implica Q fare una cosa del genere: dimostro che per una ipotesi A, vale che A=>(P=>Q), parto cioè da delle ipotesi A che mi dimostrano che P=>Q vale, a quel punto ho dimostrato P=>Q?
Mi sembra questo il gioco fatto. Mi sembra fattibile come modo di dimostrare, vero? Se è giusto è molto utile per il futuro

Detto questo rimane quel dubbio che esprimevo prima. La cosa che non mi torna molto è che nel messaggio dove ho scritto le dimostrazioni (quelle in arancione), io sto mostrando qualcosa di questo tipo:
Dati A$={w∈W:∃v∈Vt.c.f(v)=w}$ e A$={f(v):v∈V}$
Dimostro che:
a)"un elemento b è in A se e solo se esiste v tale che b=f(v)"
è equivalente a
1) Per ogni b∈A esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈A
Però io sto mostrando che dato un medesimo insieme A, posso leggere A come "a" o come "1 & 2", ma non sto dimostrando che A$={w∈W:∃v∈Vt.c.f(v)=w}$=B$={f(v):v∈V}$.
[ot]Avrei in questo caso
Dati A$={w∈W:∃v∈Vt.c.f(v)=w}$
"un elemento b è in A se e solo se esiste v tale che b=f(v)"
e B$={f(v):v∈V}$
1) Per ogni b∈B esiste v∈V tale che b=f(v)
2) Per ogni v∈V si ha f(v)∈B[/ot]
a implica 2infatti qui sfrutto la a) che dice b∈A da cui b=f(v)∈A, ma devo sapere a priori che A=B, perché altrimenti avrei b=f(v)∈A ma per avere la 2) dovrei dimostrare che f(v)∈B e qui sarei bloccato.
Prendo un qualsiasi v∈V e definisco b=f(v), questo è fattibile per definizione di funzione che copre tutto il suo dominio che garantisce esista per ogni v un b di questo tipo. Sfrutto a questo punto la a) nella sua implicazione (<=) la quale mi garantisce che b∈A da cui b=f(v)∈A
"nestor":Certo che no. Se dimostri che A=>(P=>Q) non puoi dedurre che P=>Q. È ovvio che per dedurre che P=>Q devi prima dimostrare A, non ti sembra?
se io devo dimostrare un P=>Q, posso, anziché partire da P e mostrare che implica Q fare una cosa del genere: dimostro che per una ipotesi A, vale che A=>(P=>Q), parto cioè da delle ipotesi A che mi dimostrano che P=>Q vale, a quel punto ho dimostrato P=>Q?
Sul resto che scrivi, stai facendo tantissime costruzioni mentali superflue. Devi dimostrare che A=B con le due inclusioni. Basta che ti ci metti con calma.
È difficile lavorare sulla decostruzione delle tue strutture superflue. Ci devi pensare un po'.