Unterschied Differenzierbarkeit und Stetigkeit

Neue Frage »

Andreas Walther Auf diesen Beitrag antworten »
Unterschied Differenzierbarkeit und Stetigkeit
Hallo,

ich bekomme irgendwie den Unterschied zwischen der formalen Definition von Diffbarkeit und Stetigkeit nicht auf die Reihe.

Stetigkeit:

Diffbarkeit


D.h. doch das in beiden Fällen der Grenzwert existieren muss, also wo ist nun der Unterschied?

Ich verstehe ja die "mündliche" Erklärung mit Stetigkeit heisst kein "Sprung" und Differenzierbarkeit kein "Knick" (damit man nur eine(!) Tangente anlegen kann)

Der Hintergrund ist, ich frage mich wie ich Diffbarkeit wirklich Beweise.

Ich kann schließlich auch funktionen ableiten die vielleicht nicht diffbar sind..

Vielen Dank für die Hilfe, Google und andere Forenposts haben mir leider nicht wirklich den Unterschied verdeutlicht.
Mazze Auf diesen Beitrag antworten »

Zitat:
Ich kann schließlich auch funktionen ableiten die vielleicht nicht diffbar sind..


Das kannst Du sicherlich nicht, denn der Grenzwert des Differentialquotienten wird als Ableitung bezeichnet. Und wenn der Grenzwert nicht exisitiert, ist die Funktion nicht differenzierbar und die Ableitung nicht existent.

Zitat:
Der Hintergrund ist, ich frage mich wie ich Diffbarkeit wirklich Beweise.


Eine Möglichkeit ist den Grenzwert



auszurechnen. Allerdings gibt es eine äquivalente Formulierung die man öfter benutzt



Zitat:
wo ist nun der Unterschied?


Du siehst schon das dass zwei gänzlich verschiedene Grenzwerte sind ?
Jacques Auf diesen Beitrag antworten »
RE: Unterschied Differenzierbarkeit und Stetigkeit
Hallo,

Die Definitionen sind doch vollkommen unterschiedlich:

Bei der Steitigkeit muss der Grenzwert



existieren, bei der Differenzierbarkeit der Grenzwert



(soweit hattest Du das ja schon aufgeschrieben)


Das mit dem „Knick“, „Sprung“ u. s. w. sind ja nur vereinfachte „Definitionen“. Stetigkeit und Differenzierbarkeit haben (zunächst) gar nichts miteinander zu tun.



Zitat:
Original von Andreas Walther

Der Hintergrund ist, ich frage mich wie ich Diffbarkeit wirklich Beweise.


Indem Du eben zeigst, dass der Grenzwert existiert -- oder die Ableitungsregeln benutzt: Die Summe, das Produkt u. s. w. zweier differenzierbarer Funktionen sind wieder differenzierbar.



Zitat:
Original von Andreas Walther

Ich kann schließlich auch funktionen ableiten die vielleicht nicht diffbar sind..


Nein, das wäre doch unlogisch! „Ableiten“ ist nur ein anderes Wort für „differenzieren“. Und man kann eine Funktion natürlich nur dann differenzieren, wenn sie differenzierbar ist.



// zu spät
Andreas Walther Auf diesen Beitrag antworten »

Mh, dann versuche ich das mal an der Betragsfunktion durchzugehen:

Frage 1: Ist die Betragsfunktion stetig?

Überprüfung (bei x->0):

Ist der Links- und Rechtsseitige Grenzwert gleich?
x | f(x)=|x|
-0,5 | 0,5
-0,4 | 0,4
-0,3 | 0,3
-0,2 | 0,2
-0,1 | 0,1
0 | 0
0,1 | 0,1
0,2 | 0,2
0,3 | 0,3
0,4 | 0,4





=>

Da die beiden Grenzwerte gleich sind, ist die Funktion stetig.

Frage 2: Ist die Funktion Differenzierbar?






Die Ableitung (?) ist unterschiedlich. (Ich würde hier jetzt eigentlich sagen, links und rechtsseitiger Grenzwert sind unterschiedlich - aber das hatten wir doch schon bei stetigkeit ?!)
Jacques Auf diesen Beitrag antworten »

Hast Du bei der Berechnung von



und



einfach eine Wertetabelle mit in der Nähe liegenden Funktionswerten gemacht? Das funktioniert natürlich nicht, die Tabelle ist höchstens als (sehr grobe) Orientierung geeignet, wie der Grenzwert vermutlich lautet, aber Grenzwerte berechnen kann man damit nicht.

Kennst Du die Definition des Grenzwerts einer Funktion?

Übrigens: Selbst wenn die Methode stimmen würde, hättest Du nur die Stetigkeit bei x = 0 nachgewiesen.



Bei der Differenzierbarkeit hast Du die Rechnungen formal nicht korrekt aufgeschrieben. Du untersuchst ja (sinnvollerweise) wieder links- und rechtsseitigen Grenzwert, schreibst aber bei beiden Fällen einfach



Korrekt wäre einmal



und einmal




Das „x“ im Zähler müsste außerdem ein „x_0“ sein.



Zitat:
Original von Andreas Walther

Die Ableitung (?) ist unterschiedlich. (Ich würde hier jetzt eigentlich sagen, links und rechtsseitiger Grenzwert sind unterschiedlich - aber das hatten wir doch schon bei stetigkeit ?!)


Ja, aber da ging es doch um einen vollkommen anderen Grenzwert, oder? verwirrt

Mir ist noch nicht ganz klar, warum Du die beiden Grenzwerte offenbar als dasselbe ansiehst.
Andreas Walther Auf diesen Beitrag antworten »

Also die Definitions des Grenzwertes einer Funktion kenne ich.
Eine Funktion hat einen Grenzwert wenn nur endlich viele ausserhalb, aber unendlich viele Funktionswerte einer Funktion innerhalb einer"e" Umgebung liegen.


Allerdings hat die Funktion ja keinen Grenzwert sondern divergiert uneigentlich. (für )

Somit dachte ich mir, dass ich den "kritischen" Punkt der Funktion überprüfe (mit der Annahme, dass grundsätzlich alle gewöhnlichen Funktionen und ihre Verknüpfungen stetig sind ).

Dieser ist ja hier in dem Fall 0 und bei anderen Funktionen würde ich normalerweise bei Nullstellen im Nenner (falls gebrochen-rational) oder falls die Funktion je nach x-Wert unterschiedlich definiert ist, an den Übergangspunkte überprüfen.

Wie würdest du es denn machen?


Ja, das mit den formalen Fehlern war nur ein versehen smile

Also um es nochmal in Worte zu fassen:
Bei der Differenzierbarkeit überprüft man auf den Grenzwert des Differenzquotienten? (und ein Grenzwert existiert dann, wenn Links- und Rechtsseitiger GW gleich sind )
 
 
Jacques Auf diesen Beitrag antworten »

Zitat:
Original von Andreas Walther

Also die Definitions des Grenzwertes einer Funktion kenne ich.
Eine Funktion hat einen Grenzwert wenn nur endlich viele ausserhalb, aber unendlich viele Funktionswerte einer Funktion innerhalb einer"e" Umgebung liegen.


Nein, das ist die Definition des Grenzwerts einer Folge. Die Definition für einen Funktions-Grenzwert ist komplizierter:

Eine reelle Zahl lambda ist genau dann Grenzwert einer Funktion f für x --> x0, wenn für jede gegen x0 konvergierende Folge von Stellen die zugehörige Folge der Funktionswerte gegen lambda konvergiert.

Oder in Formeln:



gilt genau dann, wenn für jede Folge

mit den Eigenschaften für alle und

das Folgende gilt:





Zitat:
Original von Andreas Walther

Allerdings hat die Funktion ja keinen Grenzwert sondern divergiert uneigentlich. (für )


Auch da verwechselst Du wieder Folgen- und Funktions-Grenzwert. Bei Funktionen gibt es gar nicht den Grenzwert, sondern immer nur einen Grenzwert für x --> ...



Zitat:
Original von Andreas Walther

Somit dachte ich mir, dass ich den "kritischen" Punkt der Funktion überprüfe (mit der Annahme, dass grundsätzlich alle gewöhnlichen Funktionen und ihre Verknüpfungen stetig sind ).


Was heißt schon „gewöhnlich“? Augenzwinkern

Und wenn Du die Stetigkeit zeigen sollst, kannst Du sie natürlich schlecht voraussetzen...



Zitat:
Original von Andreas Walther

Wie würdest du es denn machen?


Sei x_0 eine reelle Zahl, und sei eine Folge reeller Zahlen, die gegen x_0 konvergiert.

Zu zeigen ist, dass



existiert (wenn das der Fall ist, dann ist |x0| der Grenzwert).

Es muss also für alle ein geben, sodass für alle gilt:




Nach der Dreiecksungleichung:



Weil (x_n) nach Voraussetzung gegen x_0 konvergiert, gibt es für eine beliebige positive reelle Zahl epsilon eine natürliche Zahl N, sodass |x_n - x_0| kleiner als Epsilon ist, wenn n mindestens so groß wie N ist. Also:



Und damit auch:



Damit ist bewiesen, dass



existiert (denn der Grenzwert ist |x_0|)


Das ist leider ziemlich kompliziert, vor allem wenn Ihr die Grundlagen nicht so ausführlich besprochen habt. Aber ich wüsste sonst keine einfachere Möglichkeit.



Zitat:
Original von Andreas Walther

Also um es nochmal in Worte zu fassen:
Bei der Differenzierbarkeit überprüft man auf den Grenzwert des Differenzquotienten? (und ein Grenzwert existiert dann, wenn Links- und Rechtsseitiger GW gleich sind )


Ganz genau! Freude
Andreas Walther Auf diesen Beitrag antworten »

Okay, Folgenkonvergenz hab ich nun glaube ich nach deiner Definition verstanden. Es müssen alle Folgen um einen Punkt mit ihren Bildfolge gegen den Funktionswert von x_o (du nanntest ihn Lambda) konvergieren, nur dann ist es ein Grenzwert. (Gegenbeispiel z.B. sin(1/x) bei 0 wegen oszillierendem Graphen)


Prost

Ich verstehe deinen Beweis nicht ganz, zum einen warum nimmst du die Dreiecksungleichung - also was hast du dadurch gewonnen?

Zum anderen verstehe ich bei diesem (und bei den meisten) Beweisen nicht die aussagekraft, du hast hier zum Schluss geschrieben, dass der Abstand zwischen x und x_o < e ist.
Aber wo ist denn der tatsächliche Beweis dafür, dass dies ab einem bestimmten N gilt?

Für mich liest sich das wie eine einfache Behauptung (womit ich nicht sagen will, dass dies der Fall wäre ...)

Edit: Aber vielen, vielen Dank schonmal für die ausführliche Hilfe smile
Jacques Auf diesen Beitrag antworten »

Zitat:
Original von Andreas Walther

Okay, Folgenkonvergenz hab ich nun glaube ich nach deiner Definition verstanden. Es müssen alle Folgen um einen Punkt mit ihren Bildfolge gegen den Funktionswert von x_o (du nanntest ihn Lambda) konvergieren, nur dann ist es ein Grenzwert. (Gegenbeispiel z.B. sin(1/x) bei 0 wegen oszillierendem Graphen)


Das stimmt -- nur eine kleine Korrektur: lambda ist nicht zwangsläufig mit dem Funktionswert an x_0 identisch bzw. eben nur bei stetigen Funktionen. Man kann aber beispielsweise auch den Grenzwert für eine Definitionslücke bilden, und in diesem Fall existiert der Funktionswert an der Stelle ja gar nicht.

Als Beispiel:



Hier könnte man den Grenzwert für x --> 1 bilden, und dieser existiert auch wirklich. Aber er kann natürlich nicht mit f(1) übereinstimmen, denn bei 1 ist die Funktion nicht definiert.



Zitat:
Original von Andreas Walther

Ich verstehe deinen Beweis nicht ganz, zum einen warum nimmst du die Dreiecksungleichung - also was hast du dadurch gewonnen?


Man muss ja zeigen:

Der Abstand von |x_n| und |x_0| wird kleiner als jede positive reelle Zahl epsilon, wenn der Index n nur mindestens so groß ist wie eine gewisse natürliche Zahl N_0.

Also man gibt ein epsilon vor und muss dann ein N_0 angeben, sodass



gilt für alle n größer/gleich N_0. Dabei darf man ausnutzen, dass |x_n - x_0| kleiner als epsilon wird, wenn n größer/gleich als eine gewisse, als bekannt vorausgesetze Zahl N ist. Denn die Folge (x_n) konvergiert ja nach Voraussetzung gegen x_0, also gibt es diese Zahl N.

Über die Dreiecksungleichung kann man eine „Brücke“ zwischen ||x_n| - |x_0||, um das es ja eigentlich geht, und |x_n - x_0| herstellen:

||x_n| - |x_0|| ist grundsätzlich kleiner/gleich |x_n - x_0|, also



Und zu |x_n - x_0| „kennt“ man ja bereits eine Zahl N, sodass |x_n - x_0| kleiner wird als epsilon, wenn n größer/gleich N ist:



Weil sich die Kleiner-Relation ja „überträgt“ (aus a < b und b < c folgt a < c), hat man mit N auch die gesuchte Zahl N_0 gefunden:





Zitat:
Original von Andreas Walther

Zum anderen verstehe ich bei diesem (und bei den meisten) Beweisen nicht die aussagekraft, du hast hier zum Schluss geschrieben, dass der Abstand zwischen x und x_o < e ist.
Aber wo ist denn der tatsächliche Beweis dafür, dass dies ab einem bestimmten N gilt?


Kannst Du nochmal die genaue Stelle sagen? Also dass



gilt, setzt man voraus, denn man hat festgelegt, dass die Folge (x_n) gegen x_0 konvergiert. Das obige ist einfach eine Folgerung aus der Definition der Konvergenz:

Es gilt



genau dann, wenn es für alle positiven reellen Zahlen epsilon eine natürliche Zahl N gibt, sodass für alle n größer/gleich N gilt:



Das ist genau dasselbe wie Deine obige Definition mit den epsilon-Umgebungen, nur etwas anders aufgeschrieben. Ein Folgenglied a_n ist genau dann Element einer Epsilon-Umgebung von a, wenn |a_n - a| < epsilon; also ist |a_n - a| < epsilon bloß eine andere Schreibweise für a_n Element U_epsilon (a).



Zitat:
Original von Andreas Walther

Für mich liest sich das wie eine einfache Behauptung (womit ich nicht sagen will, dass dies der Fall wäre ...)


Du hast wahrscheinlich Schwierigkeiten damit, dass nirgendwo eine konkrete Zahl auftaucht und immer nur abstrakt argumentiert wird?

Der Beweis funktioniert aber tatsächlich. Du musst beachten, dass man gar kein konkretes „N“ kennen muss, es reicht, wenn man die Existenz dieser Zahl nachweist. Bei einem so allgemeinen Beweis -- nicht einmal die untersuchte Stelle x_0 ist zahlenmäßig vorgegeben -- geht es auch gar nicht anders.

Aber man könnte jederzeit konkrete „x-Werte“ untersuchen, z. B. den Grenzwert der Betragsfunktion für x --> 2:

Eine mögliche gegen 2 konvergierende Folge ist



Man zeigt dann, dass die Folge (|x_n|) gegen |2| = 2 konvergiert. Man muss also für jede positive reelle Zahl epsilon ein N_0 finden, sodass



wenn



Man fängt an mit der Ungleichung











(so war x_n gerade definiert)





(da x_n immer positiv ist, kann man die inneren Betragsstrich weglassen)





(einfach den Bruch ausgerechnet)





(die Bruchstriche können wieder weggelassen werden)






Man hat festgestellt:



gilt dann, wenn



Also hat man die gesuchte Zahl N_0 gefunden, man wählt z. B.



Dabei sind die Aufrundungsklammern, die 1/epsilon auf die nächstgrößere ganze Zahl bringen.

Für n größer/gleich N_0 gilt dann ||x_n| - 2| < epsilon.


Auch hier kannst Du natürlich wieder konkrete Zahlenbeispiele einsetzen:

Sei z. B.

Dann ergibt sich



Also sollte



wahr sein für n = 2, 3, 4, 5, ...

Und das ist tatsächlich der Fall, wie Du durch „Stichproben“ untersuchen kannst.
Andreas Walther Auf diesen Beitrag antworten »

Wow! Freude

Okay, ich glaube ich habe das jetzt so halbwegs verstanden mit dem Stetigkeitsbeweis - man nimmt an, dass es gilt und versucht es dann nachzuweisen.
Und nicht man versucht nachzuweisen, dass irgendwas gilt.

Ich hab gerade leider kaum Zeit, aber hab mir das nun ein paar mal durchgelesen, allerdings ganz unten bei deinem Beispiel bin ich etwas stutzig.

Das Ergebnis ist, dass sein muss.
Dann definierst du als allerdins müsste dann doch nach der Voraussetzung sein, was 10 + 1 und damit 11 wäre? (die Aufrundungsfunktion kommt hier ja sowieso nicht zur Geltung - also falls ich Recht habe, wenn nicht wird natürlich auf 1 aufgerundet)

Und wenn ich n = 2, 3,4 ... Einsetze geht die Folge nicht aufm bei n=2 kommt z.b. raus, was ja offensichtlich falsch ist, bei

Bei n > 11 ist die Ungleichung allerdings richtig, was meine obige Vermutung zumindest bestätigt - oder ich schaffe es tatsächlich meinen Denkfehler durch die halbe Gleichung zu ziehen Hammer

Ich würde das gerne selbst hier nochmal versuchen, hättest du ein Beispiel für eine stetige und unstetige Funktion die relativ einfach nachzuweisen sind? Gott


Ach und was mir noch einfällt, wo ist eigentlich das geblieben?
Gibt es nicht noch die Definition nach dem Motto:




Beste Grüße,
Andreas
Jacques Auf diesen Beitrag antworten »

Zitat:
Original von Andreas Walther

Okay, ich glaube ich habe das jetzt so halbwegs verstanden mit dem Stetigkeitsbeweis - man nimmt an, dass es gilt und versucht es dann nachzuweisen.
Und nicht man versucht nachzuweisen, dass irgendwas gilt.


Das kann man so nicht sagen. Man darf eine zu beweisende Behauptung nicht als wahr voraussetzen – es sei denn, man zeigt bei jedem Schluss, dass auch die umgekehrte Richtung gilt.

Aber bei dem obigen Stetigkeitsbeweis hat man gar nicht die Behauptung „probehalber“ als wahr angenommen, sondern einen ganz gewöhnlichen Beweis gemacht, also mit einer Kette von Schlüssen die Richtigkeit der Behauptung nachgewiesen.

Wobei natürlich von Anfang an klar war, dass der Beweis gelingen würde, denn die Betragsfunktion ist ja in jedem Fall stetig – man muss nur an den Graphen denken: Dort gibt es weder „Sprünge“ noch eine extrem starke Oszillation.



Zitat:
Original von Andreas Walther

Dann definierst du als allerdins müsste dann doch nach der Voraussetzung sein, was 10 + 1 und damit 11 wäre? (die Aufrundungsfunktion kommt hier ja sowieso nicht zur Geltung - also falls ich Recht habe, wenn nicht wird natürlich auf 1 aufgerundet)


Vollkommen richtig. Freude

Da habe ich mich vertan – also Deine Korrektur stimmt genau. Entsprechend gilt die Ungleichung auch tatsächlich erst ab einschließlich n = 11.



Zitat:
Original von Andreas Walther

Ich würde das gerne selbst hier nochmal versuchen, hättest du ein Beispiel für eine stetige und unstetige Funktion die relativ einfach nachzuweisen sind? Gott


Du könntest allgemein die Stetigkeit einer Polynomfunktion



nachweisen. Benutze vollständige Induktion und die Grenzwertsätze (Summe, Produkt ... zweier konvergenter Folgen sind wieder konvergent, wobei sie gegen die Summe bzw. das Produkt ... der Grenzwerte konvergieren)

Du könntest außerdem die Stetigkeit der trigonometrischen Funktionen nachweisen, aber das ist, glaube ich, etwas schwieriger.


Einfache unstetige Funktionen:



(unstetig bei x = 0; Du kannst einfach die Folgen (a_n) = (0) und (b_n) = (1/n) wählen und zeigen, dass die entsprechenden Funktionswertefolgen (f(a_n)) und (f(b_n)) gegen verschiedene Grenzwerte konvergieren; damit ist schon gezeigt, dass lim(x --> 0) sgn(x) nicht existiert; denn der Grenzwert existiert ja nur dann, wenn bei allen gegen 0 konvergierenden Urbildfolgen die zugehörigen Bildfolgen gegen dieselbe Zahl konvergieren.)


Du kannst auch selbst unstetige Funktionen aufstellen: Definiere die Funktion abschnittsweise, sodass der Graph an der Übergangsstelle einen „Sprung“ macht. Z. B.:



Hier kannst Du entweder zeigen, dass sich links- und rechtsseitiger Grenzwert unterscheiden – oder Du wählst wie oben zwei gegen 1 konvergierende Urbildfolgen, bei denen die Bildfolgen gegen unterschiedliche Zahlen konvergieren.



Zitat:
Original von Andreas Walther

Ach und was mir noch einfällt, wo ist eigentlich das geblieben?
Gibt es nicht noch die Definition nach dem Motto:



Das ist eine alternative Definition bzw. ein alternatives Kriterium. Das „Epsilon-Delta-Kriterium“ ersetzt das obige „Grenzwert-Kriterium“.

Also es gibt zwei gleichwertige Definitionen bzw. Kriterien:

Eine Funktion f ist genau dann an einer Stelle x_0 des Definitionsbereichs stetig, wenn der Grenzwert lim(x --> x_0) f(x) existiert [dieser Grenzwert ist dann notwendigerweise mit f(x_0) identisch]

Eine Funktion f ist genau dann an einer Stelle x_0 des Definitionsbereichs stetig, wenn es für alle positiven reellen Zahlen epsilon eine positive reelle Zahl delta gibt, sodass für alle Zahlen x des Definitionsberichs gilt: |x - x_0| < delta => |f(x) - f(x_0)| < epsilon
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »