![](https://images.gutefrage.net/media/user/pxxl95/1444744832_nmmslarge.jpg?v=1444744832000)
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Antwort
Ohne viel Reden: a^0 = a^(k-k)=(a^k)/(a^k)= 1, k "beliebig außer 0".
Deshalb wird a^0 als 1 DEFINIERT. Mit der üblichen Anschauung "0 Faktoren" kommt man nicht weiter.
EXTRA: Für a = 0 wird es problematisch, da im Nenner 0^k = 0 stehen würde. Im Taschenrechner kann man schnell sehen, dass x^x gegen 1 konvergiert, wenn man für x Zahlen sehr nahe an 0, also z.B. 0,000001 nimmt. Deshalb DEFINIERT man 0^0 =1. Gruß Thomas Castella