Wie bereits gesagt wurde, lässt sich dieselbe Zahl unterschiedlich darstellen. Wenn du 13 Äpfel vor dir liegen hast, und versuchst die Anzahl in der Dezimaldarstellung auszudrücken, wirst du "13" sagen. Wenn du versuchst, das in Hexadezimaldarstellung auszudrücken, dann wirst du "0xD" sagen. Wenn du versuchst das in der Binärdarstellung auszudrücken, dann wirst du "0b1101" sagen.
Wenn jemand mit Kenntnis der Hexadezimaldarstellung zu dir kommt, und behauptet "Da liegen 0xD Äpfel", dann kannst du das bestätigen.
Wenn jemand mit Kenntnis der Binärdarstellung zu dir kommt, und behauptet "Da liegen 0b1101 Äpfel", dann kannst du das bestätigen.
Zwei unterschiedliche Behauptungen mit "unterschiedlichen Zahlenangaben" wurden gemacht, und trotzdem sind beide richtig. Wie kann das sein? Weil "0xD" und "0b1101" die Darstellung ein und derselben Zahl sind. Die Zahl, die die Anzahl Äpfel, die da liegen, angibt. Die verändert sich ja nicht, nur weil jemand den Wert anders ausdrückt.
Compiler kennen meistens sowohl Hexadezimal-, Dezimal- und teilweise auch Binärdarstellung. Deswegen ist es absolut egal, wie du es ihm sagst, weil er den Zahlenwert aus der Darstellung ermitteln kann. Also es ist egal, welche Darstellung du für den Programmcode nimmst, weil der Computer mit dem Zahlenwert arbeitet und nicht mit der Darstellung der Zahl. Ich nehme meist die Hexadezimaldarstellung, weil sie übersichtlicher als die Binärdarstellung ist.
Zusammengefasst also: Wenn jemand beispielsweise "Hexadezimalzahl" sagt, meint er "Hexadezimaldarstellung einer Zahl", und die Darstellung hat keinen Einfluss auf den Wert, sondern dient nur als Mittel zur Kommunikation.