+0  
 
0
1108
2
avatar

warum darf man durch " 0 " nicht teilen ?

 26.05.2014
 #1
avatar+14538 
0

Versuch es doch mal sebst herauszubekommen. Teile  1   durch immer kleiner werdende Zahlen:

duch  1 ,   0.1   , 0.001   ,  0.0001  ,  0.00001 ,  0.0000000000001  ,....

Du merkst sicher, dass es vernünftig ist, das Teilen durch  Null  zu untersagen.

Man sagt: Das  Dividieren durch Null ist nicht definiert.

Gruß radix 

$${\frac{{\mathtt{1}}}{{\mathtt{0.000\: \!000\: \!001}}}} = {\mathtt{1\,000\,000\,000}}$$

$${\frac{{\mathtt{1}}}{{\mathtt{0}}}} = \underset{{\tiny{\text{Error: DivByZero}}}}{{\frac{{\mathtt{1}}}{{\mathtt{0}}}}}$$

 26.05.2014
 #2
avatar
0

Ein Beispiel:

(Setze für x und y eine beliebige Zahl ein)

 

x/0 = y

x = 0y

x = 0

 

Egal was man einsetzt, es folgt immer eine Unwahrheit.

 12.06.2014

2 Benutzer online

avatar