zur Sammlungsübersicht

Real-Enzyklopädie (8/1): Parität - Zahlen, Zifferen, Einheiten

Geschrieben von dottore am 21. Juli 2001 17:10:20


Guten Tag!

Das Folgende wird zur aufmerksamen Lektüre empfohlen. Es bringt Gewinn, weil es uns hilft die Welt der Wirtschaft besser zu verstehen und sich sicherer darin zu bewegen.

Heute sind uns Zahlen so vertraut wie Wasser und Luft. Sie werden nicht hinterfragt. Das allerdings ist ein schwerer Fehler, was sich schon beim Betrachten unseres Geldes zeigt.

Wir haben Münzen oder Banknoten in der Hand, aber auf den Münzen oder Noten erscheinen Zahlen, die ganz andere Zahlen sind als die Zahl des Geldes, das wir in der Hand haben.

Eine Banknote kann die Zahl 10 oder 100 zeigen und jedes Mal ist es aber nur eine Banknote. Wir können die Zahl 5 mit 5 Münzen auf denen jeweils die Zahl 1 erscheint ausdrücken oder nur mit einer Münze, auf der die Zahl 5 erscheint.

Noch skurriler wird es, wenn wir gebuchte Zahlen nehmen. Mit einer Buchung kann ich jede Zahl ausdrücken, so dass wir die Zahl 1 Million mit der Zahl 1 Buchung ausdrücken können. Würde beides zahlenmäßig aufeinander "passen", müssten wir 1 Million mal 1 Buchung über 1 Einheit ausführen, um die Summe 1 Million darzustellen.

Es ist unmöglich, eine Parität zwischen beiden Zählungen zu konstruieren, so dass zehn Münzen oder Scheine (als Menge) immer auch die Summe 10 ergibt. Wir zählen Mengen zwar nicht anders als Summen (1, 2, 3, 4, 5 usw.), aber damit allein kommen wir nicht weiter.

Aus der Identität der Zählungen resultiert übrigens die Verwechslung von "Geldmenge" mit "Geldsumme", die hier schon en detail diskutiert wurde. Es gibt eine klar zählbare Menge von Banknoten und Münzen, aber die Summe dieser Menge hat nichts mit der Summe zu tun, die auf den Banknoten und Münzen selbst festgehalten ist, was jedem sofort einleuchtet. Man kann Brautschuhe, die 100 kosten (Summe) mit einer Buchung zu 100 bezahlen, aber auch mit fünf Noten zu je 20, oder auch mit zehntausend kleinen Münzen zu je 0,01.

Auch wenn wir uns frühere Formen der Buchhaltung anschauen, wo tatsächlich jedes Mal jede Zahl einzeln gebucht wurde, dann sind wir nur in der nächsten Kalamität, nämlich jener der Einheit dessen, was gebucht wurde.

Hier sehen wir die Buchhaltung einer Alpgenossenschaft, wobei jeder Querstrich zunächst eine Einheit Milch bezeichnet.



Um welche Einheit Milch es sich bei dieser Einheit "Einkerbung" handelt, lässt sich auch ermitteln (jeweils ein genormter, kleiner Zuber). Aber damit haben die Älpler Mengeneinheiten gezählt. Es gibt also eine Parität (par = lat. gleich) zwischen einem bestimmten Hohlmaß und einer Kerbe. Doch über den Preis der Milch, auszudrücken in anderen Preisen anderer Waren oder gar über eine Parität zwischen dem Gewicht der Milch und anderen Gewichten, z.B. Metall erfahren wir durch die Kerbung nichts.

Selbst klügste Wissenschaftler verlieren sich hoffnungslos in dem Gestrüpp. Dem aus Marokko stammenden Mathematikprofessor Georges Ifrah verdanken wir das erstaunliche Buch "Universalgeschichte der Zahlen" (1986), das in jede Bibliothek gehört. Die Originalausgabe (1981) trägt allerdings den Titel "Histoire Universelle des Chiffres".

Ziffern sind freilich etwas ganz anderes als Zahlen. Ziffern sind Zeichen für Zahlen, aber nicht die Zahlen selbst. Jeder kann zählen: Ein Schaf, zwei Schafe, drei Schafe, usw. - Ziffern braucht er dazu nicht.

Im Kopf erscheinen immer nur Schafe, niemals die Ziffern 1 oder 2 oder 3. Die können zwar auch erscheinen, aber dann erscheinen nicht Schafe.

Ifrah beginnt sein großes Werk mit diesem Passus:

"Eines Tages stellen mir meine Schüler eine so einfache Frage, daß es mir die Sprache verschlug: ‚Herr Lehrer, wo kommen die Ziffern eigentlich her? Wann hat man das Zählen gelernt? Was ist der Ursprung der Zahlen?'"

Wir sehen sofort, dass schon hier alles durcheinander geht: Ziffern, Zählen, Zahlen. Die Zeitschrift "Liberation" schreibt in ihrer Besprechung lt. Klappentext:

"Der Mensch hat vor 5000 Jahren die Zahlen erfunden, um sein Herdenvieh abzählen zu können."

Das klingt irgendwie gut, stimmt aber leider überhaupt nicht. Schon der Mensch der frühen Steinzeit vor 50.000 Jahren konnte zwischen Eins und Zwei unterscheiden, also zählen: ein Büffel, zwei Büffel. Selbst Tiere können zählen, wie wir wissen: Jedes Muttertier weiß ganz genau, ob ein Junges fehlt und beginnt es zu suchen.

Eine kleine Herde lässt sich immer zählen und die Zahl ist dann im Kopf. Erst wenn die Herde groß und unübersichtlich geworden ist, muss der Mensch zu Hilfsmitteln greifen, weil er sich ab einer gewissen Menge von Einheiten nicht mehr auskennt. Vermutlich spätestens ab zwölf, weshalb wohl auch die 13 als "Unglückszahl" gilt, weil ab dann die genaue Menge der Einheiten verschwimmt.

Interessanterweise sind die meisten frühen Zahl- und Gewichtssysteme auf der Zwölf aufgebaut, so war der berühmte Shekel 1/60 einer Mine also 5 mal 12 Shekel eine Mine.

Wie diese jüdischen Prägungen, die Shekel bzw. halbe Shekel sind und ca. 14 bzw. ca. 7 g wiegen:



Die Umschrift liest sich als "Shekel von Israel, Jahr 2", i.e. Jahr 67 unserer Zeitrechnung, auf der Rs. erscheint ein Stamm mit drei Blüten mit der Schrift "Jerusalem, die Heilige".

Eine Mine mit 60 mal 14 g ist natürlich niemals ausgeprägt worden, so dass sich die Zahl 1 mit der Vorstellung eines Shekels verbunden hat. Eine Mine war nur ein gedachtes Vielfaches dieser Zahl.

Interessanterweise erscheint auf den Shekeln auch eine Ziffer (der zweite Buchstabe des Alphabets "beth" = 2) aber er bezeichnet nicht ein Mehrfaches der Einheit Shekel, sondern des Jahres 1.

Es gibt auch Shekel, die 1/50 einer Mine waren, was zeigt, dass für das einfache Zählen (und dabei nicht zu vergessen, wie viel man gezählt hat) irgendwo zwischen 10 bis 12 die ganz natürliche Grenze war.

Die Zehner- und Zwölfersysteme haben sich im Geldwesen bis in die Gegenwart erhalten, man erinnere sich an das alte britische Pfund/Pence-System (Duodezimal-System mit 1 pound = 240 pence, dann erst das heutige Dezimalsystem) oder daran, das in Berlin z.T. noch immer die 5-Pfg.-Münze ein "Sechser" genannt wird, was auf den Graumannschen Münzfuss von 1750 zurückgeht, wo schon die Taler in Drittel, Sechstel und Zwölftel eingeteilt wurden; auch war ein Groschen dann 1/24 Taler, usw.).

Der Mensch hat also vor 5000 Jahren nicht die Zahlen erfunden, sondern Ziffern (einzelne unterschiedliche oder mehrfach wiederholte), um mehr als 10 (oder 12) Einheiten bezeichnen zu können.

Dass auch diese Zeichen nicht nach oben offen waren, zeigt dieses schöne Beispiel (aus Conway/Guy, "Zahlenzauber. Von natürlichen, imaginären und anderen Zahlen", 1997):



Die Römer waren mit ihren 10 mal 100.000 am Ende, weil sie das m (M = mille = 1000) auch nicht weiterführen konnten (1000 - 10.000 - 100.000, jeweils mit zusätzlichen Bögen), weil sie wiederum nicht weiter als bis 10 Ziffern auf ein Mal zählen konnten oder wollten.

Und die Ägypter schnallten bei hohen Ziffern einfach ab: ein Männchen hebt hilflos die Arme hoch und läuft davon. Noch zur Lutherzeit war der Begriff "eine Million" gleichbedeutend mit "unendlich".

Es geht also immer um Einheiten bzw. um ein Vielfaches von Einheiten. Womit aber nicht gelöst ist, was die Einheit selbst darstellen soll und was eine Einheit überhaupt ist.

Das wird uns in Teil 2 beschäftigen. Eben so wie das Probem der "Stabilität", also von Einheiten zueinander über die Zeit.

Gruß

d.