Aiuto per dimostrazioni

ninjaska
Buona sera a tutti!
Ho delle affermazioni che devo dimostrare e confutare ma con questo genere di esercizi non mi trovo molto a mio agio.

Dimostrare o confutare.
(a) Se una funzione continua $f : RR → RR$ è puntualmente crescente in un punto $x_0$,
esiste un intorno di $x_0$ su cui è crescente. (Una funzione $f$ si dice puntualmente
crescente nel punto $x_0$ se esiste $δ > 0$ tale che $x_0 − δ < a < x_0 < b < x_0 + δ$
implichi $f(a) ≤ f(x0) ≤ f(b)$.)
(b) Se un polinomio $P$ (di grado almeno 2) non ha radici reali, allora $P'$ ha almeno
una radice reale.

Per la prima non so dove mettere le mani mentre per la seconda ho pensato di fare una discussione generale del tipo:
$P(x)=ax^2+bx+c$ con $a,b,cinRR $ e $ a!=0$ se non ha radici reali allora $Delta<0 rArr b^2-4ac<0 rArr -2sqrt(ac) Ora $P'(x)=2ax+b$ che ha radici del tipo $x=-b/(2a)$
Poi però non ho idee su come proseguire, ho fatto un paio di prove con polinomi di secondo grado che non hanno soluzioni reali e derivandoli trovo sempre che hanno una soluzione reale quindi intuitivamente credo che l'affermazione sia vera però non so come dimostrarlo in maniera rigorosa e soprattutto se valga anche per polinomi di grado superiore al secondo.

Spero davvero che qualcuno riesca ad aiutarmi con queste due affermazioni, sono possibili domande per l'orale che ho a breve ma non riesco a capire come rispondere a questi due quesiti!
Vi ringrazio in anticipo per la disponibilità!

Risposte
gugo82
Per la seconda, quali sono i polinomi che possono non avere radici reali?

ninjaska
Ciao gugo!
Questo è il testo di un esercizio che ci aveva assegnato in un tema di esame, tutto quello che so è scritto nella traccia.
Immagino che voglia dire "un polinomio del tipo $P(x)=ax^n+bx^(n-1)+cx^(n-2)+...$ definito su $RR$ con $n>=2$".
Ieri sera ho continuato a pensarci e forse ho sbagliato approccio nel tentare di dimostrare il secondo punto.
Posso dire che poiché tutti i polinomi sono continui e derivabili su $RR$ allora , dato che $RR$ è un insieme compatto, tutti i polinomi, per il teorema di Weierstrass, ammettono massimo e minimo assoluti. Perciò per il teorema di Fermat (Sia $f:(a,b)->RR$ e sia $x_0in(a,b).$ Se $x_0$ è un estremante relativo e $f$ è derivabile in $x_0$, allora $f'(x_0)=0$.) ho almeno una radice per la derivata del polinomio?
Mi sembra quadrare ma dato che sono poco avvezzo alle dimostrazioni potrei aver detto qualche stupidaggine o essere arrivato a conclusioni in modo troppo affrettato..
Per esempio una cosa di cui non sono sicuro è il fatto che in Weierstrass parla di estremanti assoluti mentre in Fermat di estremanti relativi.
Spero che possiate aiutarmi a fugare questi dubbi e magari abbiate anche qualche suggerimento per il primo quesito!
Vi ringrazio ancora per la disponibilità!

Ernesto011
I limiti di un polinonio devono essere entrambi infiniti (basta fare il limite). Se fossero discordi allora per il teorema dei valori intermedi il polinomio ha un radice. Questo contraddirebbe le ipotesi.

Quindi sono entrambi infiniti e concordi. Per comodità tratto il caso $+oo$, l'altro é identico. Il polinomio non può essere monotono in tutto $RR$, infatti dato che i limiti sono infiniti è facile trovare $x_0<0$ e $x_1>0$ tali che $f(x_0)>f(0)$ e $(f(x_1)>f(0)$.


Quindi esiste almeno un punto in cui la funzione cambia monotonia, e in quel punto vale sicuramente $P'(x)=0$ dato che $P'" è continua,e considerato il rapporto fra segno della derivata e monotonia della funzione.

ninjaska
Ciao Ernesto! Grazie mille per la risposta!
Ho capito quello che vuoi dire e fila tutto ma la seconda parte non equivale al teorema di Weierstrass?
Per chiarire le idee riusciresti a spiegarmi cosa ho sbagliato nella dimostrazione che ho proposto?
Inoltre, scusa se ne approfitto :), per caso hai qualche idea su come impostare la dimostrazione del primo quesito?
Grazie ancora per la disponibilità!

francicko
Sì potrebbe fare così?
Un polinomio che non ha radici reali sicuramente deve assumere valori che sono strettamente positivi(negativi), per ogni valore $x $ $in $ $R $, detto questo , se assume valori strettamente positivi, essendo che $lim_(x->+infty)P (x)=+infty $ ed $lim_(x->-infty)P (x)=+infty$ sicuramente esisterà almeno una retta $y=k $, con un certo $k $ $in $ $R^+$, che interseca la funzione polinomio $P (x) $ in almeno due punti $x_1$ ed $x_2$, tali che risulti $P(x_1)=P(x_2) $, possiamo applicare il teorema di Rolle all'intervallo $(x_1,x_2) $, pertanto esisterà almeno un $phi $ interno a tale intervallo tale che risulti $P'(phi )=0$, cioè quanto volevamo dimostrare; si procede analogamente nel caso in cui il polinomio assume valori strettamente negativi.

Ernesto011
Giusto, con rolle è più immediato.

Il problema della tua dimostrazione con weierstrass è che un sottoinsieme di $RR$ è compato se e solo se è chiuso e limitato, $RR$ non è limitato quindi ti cade la compattezza, e non puoi applicare weierstrass.

Se lo applichi ad un sottoinsieme $I=[a,b]$ allora $P(x)$ ha sicuramente un minimo su $I$ e questo potrebbe tentarti di affermare che $P'(x)=0$ in quel punto, però purtroppo non è possibile. Questo è vero solo se quel punto è interno ad $I$ (cioè diverso da $a$ e $b$) ma questa strategia di dimostrazione si morde un po' la coda.

ninjaska
Giustissimo francicko! Grazie davvero per la risposta!!
E grazie anche a te Ernesto! Hai perfettamente ragione sugli insiemi compatti! Avevo completamente travisato il teorema di Heine-Borel!
Perfetto! Quindi mi manca di dimostrare solo il secondo punto.
Per confutarlo mi basta fare un esempio in cui il teorema non vale?
Stavo pensando che nei punti angolosi o nelle cuspidi, per esempio, il teorema non è verificato.
Ovvero "poco" prima e "poco" dopo dei punti angolosi o delle cuspidi si riesce a trovare un punto $x_0$ dove $f$ è puntualmente crescente ma subito dopo (o prima) non avrei più che la funzione è crescente..
Per voi ha senso oppure sto vaneggiando di nuovo? :D
Grazie ancora!!

gugo82
Si può fare ancora più semplice... Bastano un fatto algebrico noto (o comunque semplice da dimostrare), i.e.:
Se un polinomio reale $p$ ha una radice complessa $\zeta$, allora anche il coniugato \(\overline{\zeta}\) è una radice di $p$; in altri termini \(p(\zeta)=0\ \Rightarrow\ p(\overline{\zeta})=0\).

Conseguentemente, se il polinomio reale $p$ ha una radice complessa, allora $p$ è divisibile per un opportuno polinomio a coefficienti reali di secondo grado con $\Delta<0$.

(da cui segue che le radici complesse vanno sempre "a coppie"), un fatto analitico banale:
Ogni polinomio reale di grado dispari ha almeno una radice reale.

(che si dimostra col Teorema degli Zeri) ed il:
Teorema Fondamentale dell'Algebra:

Ogni polinomio reale ha almeno una radice (e quindi tutte le sue radici) in $\CC$.


Se $p$ non ha radici reali, esso ha tutte radici complesse; dunque $p$ ha grado pari e $>= 2$ (per ipotesi).
La derivata prima di $p$ è un polinomio di grado dispari, dunque essa ha almeno una radice reale.

ninjaska
Grazie gugo! Anche questa potrebbe essere una strada ma dato che i numeri complessi non fanno parte del programma "mi sento più a mio agio" con la dimostrazione con Rolle.
Per il secondo punto credo di aver sbagliato anche nel confutare la tesi infatti con $f(x)=abs(x)$ è vero solo che non è crescente in tutti gli intorni di $x_0$ ma non che non ne esiste nessuno in cui è crescente.
Mi sto ricredendo e a questo punto penso che la tesi sia vera.
In un intorno in cui la funzione cresce, anche se $x_0$ si trova poco prima di un massimo o poco dopo un minimo (o punti angolosi e cuspidi), posso trovare un intorno prima di $x_0$ nel caso di massimo o prima di $x_0$ per un minimo in cui la funzione è comunque crescente. Giusto?
Mi sta sfuggendo qualcosa? Scusate per le mille domande ma sono una frana con le dimostrazioni!

ninjaska


No vabbè sto impazzendo! Facendo un disegno mi sono riconvinto che il teorema si confuta :lol: .
Con un punto angoloso non credo che il teorema sia verificabile.
Per esempio se prendo $f(x)=abs(x)$ è una funzione continua e se faccio tendere $x_0->0^+$ $x_0$ rimane puntualmente crescente con $delta->0$ ma in ogni intorno con raggio $epsilon>delta$ trovo degli $x_1,x_2$ appartenenti a tale intorno con $x_2>x_1$ per cui $f(x_1)>f(x_2)$ quindi in quell'intorno non è sempre crescente.
Che ne pensate? Può funzionare?

Ernesto011
Il tuo ragionamento è sbagliato.
Devo far vedere che esiste un $delta>0$ per cui vale la condizione, quindi se prendo $delta=x_0/2$ facendo riferimento al tuo disegno non puoi confutare la monotonia in $I=[x_0 -delta/2,x_0 +delta/2]$

ninjaska
Ok ma quindi secondo te il teorema è vero? Si riesce a dimostrare?
L'esempio che mi hai fatto vuol dire che anche se $x_0->0^+$ posso trovare sempre un intorno di raggio $epsilon>delta$ per cui la funzione è crescente?

gugo82
"ninjaska":
Grazie gugo! Anche questa potrebbe essere una strada ma dato che i numeri complessi non fanno parte del programma "mi sento più a mio agio" con la dimostrazione con Rolle.
Per il secondo punto credo di aver sbagliato anche nel confutare la tesi infatti con $f(x)=abs(x)$ è vero solo che non è crescente in tutti gli intorni di $x_0$ ma non che non ne esiste nessuno in cui è crescente.
Mi sto ricredendo e a questo punto penso che la tesi sia vera.
In un intorno in cui la funzione cresce, anche se $x_0$ si trova poco prima di un massimo o poco dopo un minimo (o punti angolosi e cuspidi), posso trovare un intorno prima di $x_0$ nel caso di massimo o prima di $x_0$ per un minimo in cui la funzione è comunque crescente. Giusto?
Mi sta sfuggendo qualcosa? Scusate per le mille domande ma sono una frana con le dimostrazioni!

L'esempio col valore assoluto è concettualmente sbagliato.

Prova a considerare la funzione:
\[
f(x) := \begin{cases}x+x^2\ \sin \frac{1}{x^2} &\text{, se } x\neq 0\\ 0 &\text{, se } x=0\end{cases}
\]
intorno a $x_0=0$.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.