Warum ist Null hoch Null undefiniert?

9 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Hör mal nicht auf die Argumente mit dem Nichts. Null ist nicht Nichts, sondern nur eine besondere Zahl mit bestimmten Eigenschaften. Gerade beim Multiplizieren ist ein so genanntes leeres Produkt gerne mal vom Wert 1.

Du kannst auch 0 * 0 = 0 multiplizieren, nur umkehrt geht es nicht.
x / 0 ist verboten, weil die Rückrechnung nicht sinnvoll möglich ist.
2 * 3 = 6       zurück:      6 : 3 = 2
0 * 4 = 0       zurück:      0 : 4 = 0           das geht auch noch
4 * 0 = 0       zurück:      0 : 0 = ?           denn das könnte jetzt jede Zahl sein

Mit 0º ist es ähnlich.

Aber wie gesagt, möglich ist die Menge { 0 },
erst die Menge {  } ist wirklich leer!

---

0º unterscheidet sich von x/0 insofern, als das zweite wirklich verboten ist. 0º ist nur undefiniert. Das hat zur Folge, dass es mathematische Untersuchungen gibt, bei denen 0º doch definiert wird, manchmal als 0, manchmal als 1. Das hat dann bestimmte Vereinheitlichungszwecke, muss aber dazudefiniert werden.

Woher ich das weiß:Eigene Erfahrung – Unterricht - ohne Schulbetrieb

Alles hoch Null ist per Definition 1.

Allerdings wird Null hoch jeder beliebigen, natürlichen (!) Zahl größer als 1 immer Null bleiben, da eine Multiplikation immer Null ergibt.

Das Problem, das hierbei entsteht ist, dass hoch 1, ja bedeutet, die Zahl ist einmal vorhanden. Hoch null würde bedeuten, dass die Zahl Null mal vorhanden ist. Bei jeder anderen Zahl ist aber ein Wert vorhanden, deshalb auch die Definition mit 1 (was dann auch den Übergang zu negativen Potenzen sehr einfach macht).

Wenn Nichts (Null) Null mal vorhanden ist, hast du aber ein mathematisches Schwarzes Loch. Also undefiniert.

Genauso wie eben eine Division durch Nichts (null) undefiniert ist ;)


Das hat weder was mit einem "Zählanfang" noch mit "nichts" zu tun.

Es ist leicht zu sehen, dass a^0=1 ist (bzw so definiert werden sollte), denn:

1 = a^n / a^n = a^(n-n) = a^0

Dies Argument gilt natürlich nur für a ungleich 0, sonst hätten wir oben eine 0 im Nenner.

Das schließt natürlich noch nicht aus, dass es evt einen anderen Weg geben könnte, aber:

0^b = 0  für alle b ungleich 0.

a^0 = 1 für alles a ungleich 0

Man kann hier schon ahnen, dass es zumindest problematisch ist, im Ausdruck a^b sowohl a als auch b gleich 0 zu setzen (bzw gegen 0 gehen zu lassen).

Tatsächlich kann man nachweisen, dass a^b jeden beliebigen Wert annehmen kann, wenn a und b beide gegen 0 gehen. Das wieder heißt, dass 0^0 ein sog. unbestimmter Ausdruck ist.

(Zuweilen wird 0^0 dennoch definiert, aber nur aus Gründen der Zweckmäßigkeit, an und für sich ist 0^0 unbestimmt)


0^b = 0  für alle b ungleich 0.

Muss natürlich heißen:

0^b = 0  für alle b größer als 0.

0

y = a ^ b

b = log _ a (y)

log _ a (y) = ln(y) / ln(a)

b = ln(y) / ln(a)

Wenn a = 0 wäre, dann würde es ln(0) heißen, aber der logarithmus naturalis, oder der logarithmus zu einer anderen Basis, ist für Null nicht definiert.

Man könnte den rechtsseitigen Limes betrachten und käme dann auf - ∞

b wäre dann b = 0

Das Problem dabei wäre, dass b = 0 für mehrdeutige / vielfältige Werte von y den Wert b = 0 annehmen würde.

Das ist ganz einfach! Der Zählanfang in der Punktrechnung beginnt bei 1! Null ist der Zählanfang in der Strichrechnung! Deswegen werden auch in der Strichrechnung Erweiterungen mit 0 gemacht (quadratische Ergänzung) und in der Punktrechnung mit 1 (Bruch wird mit 1 erweitert z.B. 3/3 = 1) !!

Was möchtest Du wissen?