Wie sich erst Jahrzehnte später herausstellte, war Louis
Bachelier seiner Zeit weit voraus: in seiner Arbeit operierte er
schon mit dem Wiener Prozess, fünf Jahre
bevor Albert Einstein diesen – zum zweiten Mal – entdeckte. Auch
gab Bachelier explizite Preisformeln für Standard-
(Put- und Call-) Optionen und Barrier-Optionen an,
73 Jahre bevor dies Black und Scholes gelang. Basierend auf
seinen Arbeiten errichteten Wirtschaftswissenschaftler eine
ausgefeilte und umfassende Theorie der Finanzmärkte und des
Risikomanagements, d. h. wie Kurse sich
ändern, wie Investoren denken und wie
man Risiko als die ruhelose Seele des
Marktes versteht.
Louis Bachelier (* 11. März 1870 in Le Havre, † 26. April 1946 in
St-Servan-sur-Mer)
Als Geburtsstunde der modernen Finanzmathematik gilt heute
das Jahr 1900, da in diesem Jahr Louis Bachelier (* 11. März
1870 in Le Havre, † 26. April 1946 in St-Servan-sur-Mer)
seine Dissertation "Théorie de la spéculation"
veröffentlichte. Im Jahr 1900 stand Louis Bachelier vor
seinem Doktovater Henri Poincaré – dem zur damaligen Zeit
wohl berühmtesten Mathematiker, Physiker und Philosophen –
und musste seine letzten Prüfungen absolvieren. Die
Ausbildung des jungen Mathematikers Bachelier war zuvor
bestenfalls mittelmäßig gewesen, was vor allem damit
zusammenhing, dass er im Alter von 19 Jahren Vater und Mutter
verlor und im Geschäft seiner Familie arbeiten musste.
Die erste Prüfung war ein mündliches Examen zu einem vorher
gewählten und genehmigten Standardthema. Bachelier hatte sich
für Fragen rund um die Mechanik von Flüssigkeiten
entschieden. Geprüft wurden sowohl seine rhetorischen als
auch seine fachlichen Fähigkeiten. Dem Abschlussbericht des
Prüfungsgremiums zufolge hatte Bachelier das Thema
"tiefgreifend erfasst". Der zweite und wesentliche Teil
seines Examens beschäftigte sich mit seinem eigenen
Forschungsgebiet, der "Théorie de la spéculation", einer
Untersuchung des Handels von Regierungsanleihen an der
Pariser Börse. Zur damaligen Zeit hatte der Handel bzw. das
Glücksspiel mit Wertpapieren in Frankreich einen eher
fragwürdigen Ruf. Erst 15 Jahre zuvor waren dort
Termingeschäfte mit Währungen legalisiert worden.
Leerverkäufe, also der Verkauf geliehener Wertpapiere in der
Hoffnung, von fallenden Preisen zu profitieren, war absolut
tabu. Und insgesamt wurde zur damaligen Zeit die akademische
Welt Frankreichs von einer elitären Institution beherrscht,
in der Außenseiter und Querdenker – als der Louis Bachelier
galt – kaum geduldet wurden.
Aktienkurse folgen einem unvorhersagbaren
Zick-Zack
In seinen Arbeiten behauptete Bachelier, dass Aktienkurse
rein zufällig verlaufen: Wie ein Betrunkener, dessen Schritte
zufällig nach rechts oder nach links vom Weg abweichen,
bewegen sich Aktienkurse in einem unvorhersagbaren Zick-Zack.
Im Durchschnitt – genau wie beim Münzwurf – gelangt er
nirgendwohin. Wenn man also nur
den Mittelwert betrachtet, bleibt sein
zufallsbestimmter Spaziergang für immer auf den Ausgangspunkt
beschränkt. Und das wäre auch die bestmögliche Vorhersage für
seine künftige Position zu jedem beliebigen Zeitpunkt. Dieser
sogenannte "Random Walk" der Aktienkurse
schockierte zur damaligen Zeit die Welt der Ökonomen. Wie
kann es sein, dass Aktienkurse, welche doch durch rationale
Investitionsentscheidungen determiniert werden, rein zufällig
sind?
Auch der Kurs einer Anleihe wird – sofern neue
Marktinformationen fehlen, die den Kurs in die eine oder
andere Richtung treiben – im Durchschnitt um seinen
Ausgangspunkt schwanken. Kurzum: Der heutige Kurs ist die
beste Vorhersage. Keine Kursänderung hängt mit der
vorhergehenden zusammen. Die Kursänderungen bilden eine Reihe
unabhängiger und gleichverteilter Zufallsvariablen. Bachelier
zeichnete alle Änderungen der Anleihenkurse über einen Monat
bzw. ein Jahr auf und kam zu dem Ergebnis, dass sie die Form
der Gauß’schen Glockenkurve annahmen,
das heißt kleine Änderungen häufen sich im Zentrum der
Glocke, die wenigen großen Änderungen liegen an den Rändern.
Und so kam es, dass die von Gauß
entwickelte Normalverteilung – basierend
auf den Untersuchungen von Bachelier – auf die Finanzmärkte
angewendet wurde.
Bereits viele Jahre zuvor, im Jahr 1827, hatte der
schottische Botaniker Robert Brown die Beobachtungen gemacht,
dass sich Blütenstaubkörner oder andere kleine Teilchen, die
in Wasser gelegt wurden, durch "Zittern" bewegten. Diese
Bewegung wird durch zufällige Zusammenstösse von Teilchen
ausgelöst. Im Bereich der Finanzwirtschaft werden
Kursentwicklungen nicht durch physische, sondern durch
informative Zusammenstösse induziert. Gute Nachrichten führen
zu Kurssteigerungen und vice versa. Heute ist diese
Erkenntnis unter der Terminus "Brownsche Bewegung"
bekannt.
Bachelier baute das Fundament für die moderne
Finanztheorie
Wie sich erst Jahrzehnte später herausstellte, war Louis
Bachelier seiner Zeit weit voraus: in seiner Arbeit operierte
er schon mit dem Wiener Prozess, fünf
Jahre bevor Albert Einstein diesen – zum zweiten Mal –
entdeckte. Auch gab Bachelier explizite Preisformeln für
Standard-
(Put- und Call-) Optionen und Barrier-Optionen an,
73 Jahre bevor dies Black und Scholes gelang. Basierend auf
seinen Arbeiten errichteten Wirtschaftswissenschaftler eine
ausgefeilte und umfassende Theorie der Finanzmärkte und des
Risikomanagements, das heißt wie Kurse sich ändern, wie
Investoren denken und wie man Risiko als
die ruhelose Seele des Marktes versteht.
Bacheliers Lehren fanden an der Wall Street bereitwillig
Schüler und wurden "zum Katechismus für das, was man heute
als ‚moderne’ Finanztheorie bezeichnet", so der Mathematiker
und Erfinder der fraktalen Geometrie, Benoît B. Mandelbrot.
Ihre breiter gefassten Grundsätze definieren immer noch den
Rahmen, in dem ein großer Teil der Geldströme auf der Welt
dargestellt wird. Der Wirtschaftswissenschaftler Paul H.
Cootner merkt in diesem Kontext an, das Bacheliers Werk so
herausragend war, "dass wir sagen können, die Untersuchung
spekulativer Kurse habe ihren größten Moment in dem
Augenblick erlebt, als sie konzipiert wurde."
So geht auch der Ansatz
des CAPM (Capital Asset Pricing
Model), der in den frühen sechziger Jahren
von William F. Sharpe entwickelt wurde, auf die
Ansätze von Bachelier zurück. Ebenfalls zu den von Bachelier
angeregten Werkzeugen gehört die
Moderne Portfoliotheorie, das in den
fünfziger Jahren von Harry M. Markowitz entwickelt
wurde.
Der Ansatz von Bachelier wurde später – im Jahr 1956, das
heußt zehn Jahre nach seinem Tod – von P. A. Samuelson
aufgegriffen und in exponentieller Form als geometrische
Brownsche Bewegung zur Beschreibung von Aktienkursen
etabliert. Auch das in der Finanzwirtschaft benutzte
Optionsbewertungsmodell von Black und Scholes geht davon aus,
dass die Aktienpreisprozesse mit dem Bachelier-Modell
modellierbar sind. Robert C. Merton revolutioniert anfangs
der siebziger Jahre die Finanzmarkttheorie durch Einführung
zeitstetiger stochastischer Prozesse –
basierend auf den Erkenntnissen Bacheliers. Dies führt zu
einem Durchbruch in diversen Bereichen der Finanzmärkte,
u.a. bei der
Portfolioselektion, beim Design
dynamischer Hedging-Strategien sowie der
Arbitragebewertung von Optionen.
Viele der heute üblichen Techniken im Bereich der modernen
Finanztheorie wurden von Bachelier zum ersten Mal
beschrieben. Seine Ideen wurden zum Leitprinzip für viele der
Standardwerkzeuge im modernen Finanzwesen. Daher trägt die
internationale finanzmathematische Gesellschaft zu seinen
Ehren heute den Namen Bachelier Society.
"Die Wahrscheinlichkeitsberechnung kann zweifellos niemals
auf die Aktivitäten des Marktes angewandt werden, und die
Dynamik der Börse wird nie zu einer exakten Wissenschaft
werden. Es ist aber möglich, den Zustand des Marktes in einem
bestimmten Augenblick mathematisch zu untersuchen – das
heisst, die Gesetze
der Wahrscheinlichkeit von
Kursänderungen so zu formulieren, die der Markt in diesem
Moment diktiert."
Bachelier, L. (1900): Théorie de la Spéculation, Annales
Scientifiques de l’Ecole Normale Supérieure, 3rd. Ser. 17,
21-88. (Translated in: The Random Character of Stock Market
Prices, edited by Paul Cootner (1964),
Cambridge/Massachusetts).
Bachelier, L./Samuelson, P. A./Davis,
M. et al. (2006): Louis Bachelier's Theory of
Speculation: The Origins of Modern Finance, Princeton NJ
2006.
De Bondt, W./Thaler, R. (1985): Does the Stock Market
Overreact?, in: Journal of Finance, 40, S.
793-805.
Mandelbrot, B. B./Hudson, R. L. (2004): The (mis)Behavior
of Markets – A Fractal View of Risk, Ruin and Reward, New York
2004.
Samuelson, P. A. (1965):
Rational theory of warrent pricing. Industrial Managment
Review 6, S. 13-32.
Nicht nur die Risikomanager wissen, dass
es die weissagende Kristallkugel nicht gibt. Der Verlauf des
Lebens lässt sich nicht vorhersagen. Trotz alledem wollten
Menschen schon immer wissen, wie hoch
die Wahrscheinlichkeit ist, dass ein
bestimmtes Ereignis eintritt?
Wie hoch ist etwa die Wahrscheinlichkeit, dass
ein Schiff nach langer und risikoreicher Seefahrt wieder in den
Heimathafen zurückkehrt.
Das Gesetz des großen Zahlen
Das Gesetz des großen Zahlen lässt sich sehr einfach an
einem Würfel erklären: Welche Augenzahl im Einzelfall
gewürfelt wird ist immer zufällig. So kann
die Wahrscheinlichkeit, dass eine Sechs
gewürfelt wird, als ein Sechstel angegeben werden. Auf
Dauer fällt jedoch jede Zahl gleich häufig. Bernoulli sagt
nicht anderes, als dass ich die Treffer auf Dauer
gleichmäßig verteilen. In seinem Werk "Ars conjectandi"
beschreibt Bernoulli das "Gesetz der großen
Zahlen" auf eine sehr
anschauliche Art:
"[...] So sind zum Beispiel bei Würfeln die Zahlen der
Fälle bekannt, denn es giebt für jeden einzelnen Würfel
ebensoviele Fälle als er Flächen hat; alle diese Fälle sind
auch gleich leicht möglich, da wegen der gleichen Gestalt
aller Flächen und wegen des gleichmässig vertheilten
Gewichtes des Würfels kein Grund dafür vorhanden ist, dass
eine Würfelfläche leichter als eine andere fallen sollte,
was der Fall sein würde, wenn die Würfelflächen
verschiedene Gestalt besässen und ein Theil des Würfels aus
schwererem Materiale angefertigt wäre als der andere Theil.
So sind auch die Zahlen der Fälle für das Ziehen eines
weissen oder eines schwarzen Steinchens aus einer Urne
bekannt und können alle Steinchen auch gleich leicht
gezogen werden, weil bekannt ist, wieviele Steinchen von
jeder Art in der Urne vorhanden sind,
und weil sich kein Grund augeben lässt, warum dieses oder
jenes Steinchen leichter als irgend ein anderes gezogen
werden sollte. […] Man muss vielmehr noch Weiteres in
Betracht ziehen, woran vielleicht Niemand bisher auch nur
gedacht hat. Es bleibt nämlich noch zu untersuchen, ob
durch Vermehrung der Beobachtungen beständig auch
die Wahrscheinlichkeit dafür wächst,
dass die Zahl der günstigen zu der Zahl der ungünstigen
Beobachtungen das wahre Verhältniss erreicht, und zwar in
dem Maasse, dass
diese Wahrscheinlichkeit schliesslich
jeden beliebigen Grad der Gewissheit übertrifft, oder ob
das Problem vielmehr, so zu sagen, seine Asymptote hat,
d. h. ob ein
bestimmter Grad der Gewissheit, das wahre Verhältniss der
Fälle gefunden zu haben, vorhanden ist, welcher auch bei
beliebiger Vermehrung der Beobachtungen niemals
überschritten werden kann, zum Beispiel dass wir niemals
über 1/2, 2/3 oder 3/4, der Gewissheit
hinaus Sicherheit erlangen können, das
wahre Verhältniss der Fälle ermittelt zu haben. [...]“
Ein mit schwarzen und weißen Kieseln gefüllter Krug
Ausgangspunkt von Bernoullis Untersuchungen
zur Wahrscheinlichkeitsrechnung war
die Vorstellung eines mit schwarzen und weißen Kieseln
gefüllten Kruges, wobei das Verhältnis von schwarzen zu
weißen Kieseln oder gleichbedeutend das Verhältnis der
Anzahl der schwarzen zur Gesamtanzahl der Kiesel im
Krug, p:1, unbekannt sei. Es ist
offensichtlich, dass die Methodik des Abzählens sehr
aufwendig ist. Daher war Bernoulli auf der Suche nach einem
empirischen Weg das tatsächliche Verhältnis von schwarzen
und weißen Kieseln im Krug zu ermitteln. Hierzu wird ein
Kiesel aus dem Krug genommen, bei einem schwarzen die Zahl
1, bei einem weißen die Zahl 0 notiert, und der Kiesel
wieder in den Krug zurückgelegt. Offenbar sind die
Ziehungen Xk unabhängig voneinander, und wir können davon
ausgehen, dass die
A-priori-Wahrscheinlichkeit P([Xk =
1]), dass ein Kiesel bei einer beliebigen Ziehung schwarz
ist, gerade p ist, also P([Xk =
1]) = p. Bernoulli schließt nun, dass mit einer
hohen Wahrscheinlichkeit das
Verhältnis der
Anzahl der gezogenen schwarzen Kiesel zur Gesamtzahl der
Ziehungen von dem tatsächlichen, aber unbekannten
Verhältnis p nur geringfügig abweicht, sofern nur die
Gesamtzahl der Ziehungen hoch genug ist. Diese von
Bernoulli entdeckte Gesetzmäßigkeit wird heute als das
"schwache Gesetz der großen Zahlen"
bezeichnet und lautet formal
wobei ε eine beliebig kleine positive Zahl sei. Obwohl sich
das von Bernoulli gefundene Resultat noch weiter
verschärfen lässt zu dem sogenannten
"starken Gesetz der großen Zahlen", welches
besagt, dass das arithmetische Mittel mit
wachsendem Wert n fast sicher gegen die gesuchte
Verhältnisgröße p konvergiert, wohnt diesen Gesetzen ein
großer Nachteil inne – wir wissen fast nichts über die Güte
der betrachteten Stichprobe.
Ars Conjectandi wurde 1713 in Basel veröffentlicht
Kunst der Vermutung
Schließlich fasst Jakob Bernoulli Stochastik nicht
nur als Glücksspielrechnung, sondern als Kunst der
Vermutung (so lautet auch der lateinischee Titel von "Ars
Conjectandi") auf:
"[...] Wenn also alle Ereignisse durch alle Ewigkeit
hindurch fortgesetzt beobachtet würden (wodurch
schliesslich die Wahrscheinlichkeit in
volle Gewissheit übergehen müsste), so würde man finden,
dass Alles in der Welt aus bestimmten Gründen und in
bestimmter Gesetzmässigkeit eintritt, dass wir also
gezwungen werden, auch bei noch so zufällig erscheinenden
Dingen eine gewisse Nothwendigkeit, und sozusagen ein Fatum
anzunehmen. Ich weiss nicht, ob hierauf schon Plato in
seiner Lehre vom allgemeinen Kreislaufe der Dinge
hinzielen wollte, in welcher er behauptet, dass Alles nach
Verlauf von unzähligen Jahrhunderten in den ursprünglichen
Zustand zurückkehrt. [...]"
Mit anderen Worten: Die scharfsinnige "Kunst des Vermutens"
sollte dann eingesetzt werden, wenn unser Denken nicht mehr
ausreicht, um uns die ausreichende Gewissheit bei einem zu
Grunde liegenden Sachverhalt zu vermitteln.
In den Jahren 1676 bis 1682 reiste Jakob Bernoulli durch
Deutschland, England, Frankreich, Holland und durch die
Schweiz, um sich mit bedeutenden Naturforschern (wie etwa
J. Huddle, R.
Boyle und R. Hooke) zu treffen. Nach seiner Rückkehr hielt
er Vorlesungen in Basel über Experimentalphyik. Als im Jahr
1687 der Lehrstuhl für Mathematik an der Universität Basel
frei wurde, übertrug man diesen Jakob Bernoulli, den er bis
zu seinem Tode innehatte.
Grabstein von Jakob Bernoulli mit Inschrift "eadem mutata
resurgo" (Bildquelle: Wladyslaw Sojka)
Verwandelt kehr ich als dieselbe wieder
Fasziniert war Jakob Bernoulli bis zu seinem Tod
insbesondere von den Eigenschaften einer logarithmischen
Spirale. Hierbei handelt es sich um eine Spirale, die mit
jeder Umdrehung den Abstand von ihrem Mittelpunkt, dem Pol,
um den gleichen Faktor vergrößert. In umgekehrter
Drehrichtung schlingt sich die Kurve mit abnehmendem Radius
immer enger um den Pol.
Noch heute kann man im Kreuzgang des Münsters zu Basel eine
Spirale auf dem Grabstein von Jakob Bernoulli sehen. Der
Erzählung nach war es ein Wunsch Jakob Bernoullis, dass
seine geliebte logarithmische Spirale mit der Inschrift
"eadem mutata resurgo" ("Verwandelt kehr ich als dieselbe
wieder" auf seinen Grabstein eingemeißelt werden sollte.
Bei genauerer Betrachtung des Grabsteins fällt jedoch auf
(siehe Abbildung oben), dass es sich nicht um eine
logarithmische Spirale, sondern vielmehr um eine
Archimedische Spirale handelt. Vermutlich wusste der
Steinmetz es nicht besser.
Bernoulli, J.
(1899): Wahrscheinlichkeitsrechnung (Ars
conjectandi), Dritter und vierter Theil. Übers. und hrsg.
von R. Haussner (Ostwalds Klassiker der exakten
Wissenschaften), Leipzig 1899.
Romeike, F./Hager, P. (2013):
Erfolgsfaktor Risk
Management 3.0 – Methoden,
Beispiele, Checklisten: Praxishandbuch für Industrie und
Handel, 3. Auflage, Wiesbaden 2013.
Augustin Louis Cauchy (* 21. August 1789 in Paris; † 23. Mai 1857
in Sceaux) war ein französischer Mathematiker und gilt als
Pionier der Analysis. So führte er u. a. die strenge
Beweisführung in die Analysis ein. Nach ihm wurde die
Cauchy-Verteilung (oder auch t-Verteilung, Lorentz-Verteilung
bzw. Breit-Wigner-Verteilung bekannt) benannt, die als Prototyp
einer Verteilung gilt, die
weder Erwartungswert noch Varianz oder Standardabweichung besitzt,
da die entsprechenden Integrale nicht definiert sind.
Louis Cauchy (* 21. August 1789 in Paris; † 23. Mai
1857 in Sceaux)
Augustin Louis Cauchy entstammt einer streng katholischen
Familie. Sein Vater Louis-François war zur Zeit der
Erstürmung der Bastille am 14. Juli 1789 die rechte Hand
des Lieutenant Général der Polizei von Paris, Louis Thiroux
de Crosne. Wenige Wochen nach den turbulenten Zeiten in den
Straßen von Paris – aber immer noch mitten in den
turbulenten Zeiten der französischen Revolution – wurde
Augustin Louis geboren. Nachdem im April 1794 Thiroux de
Crosne nach Paris zurückkehrte, sofort verhaftet und zum
Tode verurteilt wurde, floh Louis-François mit seiner
Familie nach Arcueil, wo sie auf dem Land in Armut und
Hunger lebten. Als Kind der Revolution zahlte er der
Freiheit und Gleichheit seinen Tribut und wuchs
unterernährt auf. Der Hunger und die bittere Armut
hinterließen bei Augustin Louis eine lebenslange Abneigung
gegen Revolutionen. Im Landhaus in dem Dorf Arcueil
kümmerte sich Cauchy senior um die Ausbildung seiner Kinder
und schrieb u. a. seine
eigenen Lehrbücher. Ein großer Teil der Lektionen galt der
sorgfältigen religiösen Unterweisung, wobei ihn die Mutter
tatkräftig unterstützte.
"Eines Tages wird dieser Junge uns simple Geometer
alle übertreffen."
Arcueil grenzte an die stattlichen Güter des Marquis Laplace.
Während des Aufenthalts in Arcueil stattete Laplace von Zeit
zu Zeit dem Häuschen seines Freundes Cauchy einen Besuch ab.
Dabei fiel ihm auch der junge Cauchy auf, der körperlich zu
schwach war, um herumzutollen, und stattdessen wie ein
büßender Mönch über seinen Büchern und Papieren saß. Laplace
erkannte bald die phänomenale mathematische Begabung
des Knaben und riet ihm, mit seinen Kräften hauszuhalten.
Schon ein paar Jahre später lauschte Laplace besorgt Cauchys
Darlegungen über unendliche Reihen, weil er fürchten musste,
die Entdeckungen des kühnen jungen Mannes über die Konvergenz
könnten möglicherweise das Riesengebäude seiner eigenen
Himmelsmechanik zum Einsturz bringen. Nachdem in Paris wieder
Ruhe eingekehrt war, kehrte die Familie nach Paris zurück und
Vater Louis-François wurde zum 1. Januar 1800 Generalsekretär
des Senats. Dies führte zu einer engen Bekanntschaft mit dem
damaligen Innenminister Pierre-Simon Laplace und dem Senator
Joseph-Louis Lagrange, zwei bedeutenden Mathematikern. Sein
Amtssitz war im Palais du Luxembourg. Der junge Cauchy durfte
in einer Ecke des Büros seinen Studien nachgehen. So kam es,
dass er häufig Lagrange begegnete, der damals Professor an
der Polytechnique war. Auch er erkannte recht früh das
mathematische Talent des Sohns, so soll etwa Lagrange gesagt
haben: "Eines Tages wird dieser Junge uns simple Geometer
alle übertreffen."
Lagrange gab Cauchy senior einige vernünftige Ratschläge,
weil er fürchtete, der zarte Knabe könnte sich vorzeitig
erschöpfen: "Lassen Sie ihn kein Mathematikbuch anrühren,
bevor er siebzehn ist." Lagrange meinte damit vor allem die
höhere Mathematik. Er fuhr fort: "Wenn Sie Augustin nicht
bald eine solide Allgemeinbildung geben, wird seine Neigung
ihn fortreißen; er wird ein großer Mathematiker sein, aber
unfähig, seine eigene Sprache zu schreiben." Der Vater nahm
sich diesen Rat des größten Mathematikers seiner Zeit zu
Herzen und verschaffte seinem Sohn eine gute literarische
Bildung.
So besuchte Augustin Louis ab dem Jahr 1802 zwei Jahre lang
die École Centrale du Panthéon, wo er besonders in Latein und
Griechisch glänzte. Daraufhin entschied er sich, die
Ingenieurslaufbahn einzuschlagen, und nahm ab 1804
Mathematikunterricht, der ihn für die Aufnahmeprüfung an der
jungen École Polytechnique vorbereiten sollte. Im Jahr 1805
trat er im Alter von sechzehn Jahren als zweitbester Bewerber
in die Polytechnique ein. Von der Polytechnique wechselte
Cauchy im Jahr 1807 in die staatliche Ingenieurschule (École
Nationale des Ponts et Chaussées) und konzentrierte sich auf
Straßen- und Brückenbau. Auch hier war er unter den Besten
und durfte in seinem Praktikum unter Pierre Girard am
Ourcq-Kanal mitarbeiten. Nach zwei Pflichtstudienjahren
verließ er die Universität im Januar 1810 als
aspirant-ingénieur.
Der Ingenieur Napoleons
Zu jener Zeit hoffte Napoleon immer noch, England durch eine
Invasion in die Knie zwingen zu können. Dazu brauchte es aber
eine gewaltige Flotte. Diese musste jedoch erst gebaut
werden. Befestigte Häfen zum Schutz der Schiffswerften waren
die vordringlichste Notwendigkeit für diese hochfliegenden
Pläne. Daher wurde Cauchy im Februar 1810 den Auftrag, beim
Bau des Hafens Port Napoléon in Cherbourg mitzuhelfen.
Ziel war die
Vorbereitung der Invasion Englands. Die Arbeiten waren
umfangreich, und in seiner knappen Freizeit beschäftigte er
sich mit der Mathematik. Cauchy blieb ungefähr drei Jahre in
Cherbourg. In einem Brief vom 3. Juli 1811 schreibt er:
"Ich stehe um vier Uhr auf und bin vom Morgen bis zum
Abend tätig […] Die Arbeit ermüdet mich jedoch nicht. Im
Gegenteil, sie kräftigt mich, und ich bin bei bester
Gesundheit." Die militärischen Rückschläge vor
Moskau im Jahr 1812 und bei Leipzig im Jahr 1813 lenkten
Napoleon von seinem Traum einer Invasion Englands ab und
ließen die Arbeiten in Cherbourg erlahmen. Im Jahr 1813
kehrte daher Cauchy nach Paris zurück. Er war erst 24 Jahre
alt, hatte aber bereits die führenden Mathematiker
Frankreichs durch seine glänzenden Forschungen auf sich
aufmerksam gemacht, insbesondere durch die Abhandlungen
über Polyeder und über symmetrische Funktionen. So reifte
auch recht schnell sein Entschluss, eine wissenschaftliche
Laufbahn einzuschlagen.
Mit seiner 1814 erschienenen Abhandlung über bestimmte
Integrale mit komplexen Zahlen als Grenzen stieg Cauchy in
die Reihe der führenden Mathematiker seiner Zeit auf. Der
einzig ernsthafte "Konkurrent" war der schweigsame Gauß,
zwölf Jahre älter als er, der 1811 zu diesem grundlegenden
Satz gelangt war, drei Jahre vor Cauchy. Im Jahr 1815 erregte
Cauchy Aufsehen, als er einen der großen Sätze bewies, die
Fermat einer ratlosen Nachwelt hinterlassen hatte: Jede
positive ganze Zahl ist die Summe von drei "Dreiecken", vier
"Quadraten", fünf "Fünfecken", sechs "Sechsecken" et cetera,
wobei Null in jedem Fall als Zahl der
betreffenden Art mitgezählt
wird.
Professor an der École Polytechnique
Die endgültige Niederlage Napoleons im Jahr 1815 verschaffte
Cauchys Karriere einen rasanten Auftrieb. Ludwig XVIII. wurde
jetzt König von Frankreich, und mit ihm gelangten reaktionäre
Kräfte an die Macht. Augustin Louis erhielt im November 1815
eine Stelle als Assistenzprofessor an der École Polytechnique
und bereits im Dezember eine volle Professur. Im März 1816
wurde die Académie des Sciences vom König selbst umgestaltet,
zwei liberale Mitglieder entfernt und die freiwerdenden
Plätze durch erzkonservative Wissenschaftler wie Cauchy
besetzt, der den Platz von Gaspard Monge einnahm.
Seine Schaffenskraft als Mathematiker war unfassbar. Nicht
selten unterbreitete er in einer einzigen Woche der Akademie
zwei volle Abhandlungen. Zusätzlich zu seinen eigenen
Forschungen schrieb er zahllose Berichte über Abhandlungen,
die von anderen der Akademie vorgelegt wurden. Zwischendurch
fand er noch Zeit zu einer fast ununterbrochenen Folge von
kurzen Aufsätzen über so gut wie alle Gebiete der
Mathematik.
Im Juli 1830 wurde der reaktionäre König Karl X. gestürzt und
durch den liberalen Bürgerkönig Louis Philippe ersetzt. Die
Studenten der École Polytechnique spielten eine nicht
unbedeutende Rolle in den
Pariser Straßenkämpfen. Für Cauchy war dies alles zu viel.
Und so verließ er im September die Stadt und ließ seine
Familie zurück. Zunächst ging er in die Schweiz, nach
Freiburg im Üechtland, einer Hochburg der Jesuiten. Bald
darauf erfuhr der König von Sardinien, dass der berühmte
Cauchy ohne Stelle war, und machte ihn zum Professor für
theoretische Physik in Turin. Rasch lernte Cauchy die
italienische Sprache und hielt Vorlesungen. Bereits im Jahr
1833 verließ er die Stadt, um sich Karl X. auf dem Hradschin
in Prag anzuschließen, und wurde Hauslehrer dessen Enkels
Heinrich, des Herzogs von Bordeaux. Cauchy wurde aufgrund
seiner wissenschaftlichen Meriten und seiner Nähe zu den
Jesuiten ausgewählt, den Prinzen in Mathematik und den
Naturwissenschaften, insbesondere Chemie und Physik, zu
unterrichten. Der Prinz jedoch zeigte keinerlei Interesse
oder Begabung für Mathematik und er verstand von dem, was
Cauchy ihm erzählte, herzlich wenig. Bis zu seinem 18.
Lebensjahr, als seine Ausbildung beendet wurde, entwickelte
er eine ausgiebige Abneigung gegen Mathematik. Cauchy zeigte
als Lehrer keinerlei Autorität, und der verwöhnte
Bourbonenprinz tanzte ihm nach Belieben auf der Nase rum und
trieb derbe Späße mit ihm.
800 Artikel und diverse Bücher
Karl X. belohnte ihn für seine Dienste mit dem Titel eines
Barons, auf den Cauchy ab da viel Wert legte. Aufgrund der
schlechten Gesundheit seiner Mutter, die dann auch 1839
starb, kehrte er wieder nach Paris zurück. Cauchy war nun in
der schwierigen Situation, dass er wegen seiner Weigerung,
den Treueid auf den König zu schwören, keine Professur mehr
innehatte. Zwar war er weiterhin Mitglied der Académie des
Sciences und konnte so am wissenschaftlichen Leben teilhaben
und publizieren, allerdings konnte er sich auf keine neue
Stelle bewerben. Eine Ausnahme war das Bureau des Longitudes,
in dem der Treueid nicht so eng gesehen wurde, weswegen er
sich entschloss, sich dort auf eine freiwerdende Stelle zu
bewerben. Cauchy setzte sich auch Ende 1839 durch, allerdings
stellte sich die Regierung quer: ohne Eid keine formelle
Einstellung. Die nächsten vier Jahre wurde dies am Bureau
geflissentlich ignoriert. Cauchy war nun also wieder
Professor, allerdings ohne Salär.
Damit begann eine seiner schaffensreichsten Perioden. In Prag
hatte Cauchy so gut wie nichts veröffentlicht, allerdings
über vieles nachgedacht, und die reifen Ideen brachte er
jetzt zu Papier. Zwischen 1839 und Februar 1848
veröffentlichte er über 300 Artikel. Rechnet man ein, dass er
1844 nicht forschte, so bleibt fast ein Artikel die Woche,
eine unglaubliche Schaffensgeschwindigkeit. Sein Gesamtwerk
umfasst 789 Arbeiten und zahlreiche Bücher.
Die Februarrevolution brachte nicht, wie von Cauchy erhofft,
seinen ehemaligen Schüler Henri auf den Thron, sondern
Napoléon III. Auch diesem wollte Cauchy keinen Treueid
schwören. Die neue Regierung machte aber für Frankreichs
größten Mathematiker eine Ausnahme. So erhielt er 1849 eine
Professur.
Im Gegensatz zu vielen seiner Vorgänger, die ihre Anregungen
aus der praktischen Anwendung der Mathematik empfingen,
entwickelte Cauchy seine Theorien um ihrer selbst willen,
ohne zu fragen, ob das von ihm Erdachte anwendbar war, und
sei es auch, nur auf andere Gebiete der Mathematik. Er drang
tiefer ein, sah die Verfahren und die Gesetze ihrer
Zusammenhänge hinter den algebraischen Formeln, isolierte sie
und gelangte so zur Gruppentheorie. Heute ist diese
elementare und dennoch verwickelte Theorie in vielen Gebieten
der reinen und der angewandten Mathematik von grundlegender
Bedeutung, von der Theorie algebraischer Gleichungen bis zur
rechnerischen Darstellung des Atomaufbaus. Sie liegt auch der
Geometrie der Kristalle zugrunde, um nur eines ihrer
Anwendungsgebiete zu nennen. Ihre späteren
Weiterentwicklungen reichen weit in die höhere Mechanik und
in die moderne Theorie der Differentialgleichungen hinein.
Augustin Louis Cauchy starb 1857 in Sceaux bei Paris im Kreis
seiner Familie.
"[...] Ich bemühte mich, den Methoden (der
Analysis) die ganze Strenge zu geben, die in der Geometrie
verlangt wird, indem ich mich nie auf die Gründe verließ, die
sich aus der Allgemeinheit der Algebra ergeben. […] Auch ist
zu beachten, dass man dazu neigt, algebraischen Formeln
unbeschränkte Gültigkeit beizumessen, während in Wirklichkeit
die Mehrzahl dieser Formeln nur unter gewissen Bedingungen
und für gewisse Werte der in ihnen vorkommenden Größen
gelten. [...]"
Pierre de Fermat (* Ende 1607 oder Anfang 1608 in
Beaumont-de-Lomagne; † 12. Januar 1665 in Castres) war ein
französischer Mathematiker und Jurist sowie (Mit-)entwickler
der Wahrscheinlichkeitsrechnung. Das mit Abstand
wichtigste Instrument des modernen Risikomanagements ist
die Wahrscheinlichkeitsrechnung. Eine der ersten
Universalgelehrten, die über den Tellerrand der Spieltische
hinausschauten und die methodischen und theoretischen Grundlagen
der Wahrscheinlichskeitstheorie formulierten, waren die drei
Franzosen Blaise Pascal, Antoine Gombaud und Pierre de
Fermat.
Pierre de Fermat (* in der zweiten Hälfte des Jahres 1607 in
Beaumont-de-Lomagne, Tarn-et-Garonne; † 12. Januar 1665 in
Castres)
Pierre de Fermat wurde zum Jahreswechsel 1607/08 in der
südwestfranzösischen Stadt Beaumont de Lomagne geboren. Nach der
Schulzeit studierte Fermat – auf Drängen seines Vaters – in den
Jahren 1623 bis 1626 Zivilrecht an der Universität Orléans. Im
Sommer 1626 schloss er das Studium mit dem "baccalaureus juris
civilis" ab und ließ sich als Anwalt am "parlement de Bordeaux"
nieder. Schließlich kaufte er das Amt eines "conseiller au
parlement de Toulouse" und wurde am 14. Mai 1631 in diesem Amt
vereidigt.
Vom Glücksspiel zur Wahrscheinlichkeitsrechung
Fermat galt als ein Mensch mit einer geradezu erschreckenden
Gelehrsamkeit. So sprach er alle wichtigen europäischen
Sprachen, schrieb Gedichte in mehreren Sprachen und verfasste
zahlreiche Kommentare zu Werken der griechischen und
lateinischen Literatur. Er hat als Universalgelehrter
wesentlich zur frühen Entwicklung der Integralrechnung
beigetragen, im Alleingang die analytische Geometrie
entwickelt, Forschungen zur Messung des Gewichts der Erde
betrieben und im Bereich Lichtbrechung und Optik gearbeitet.
In seiner Freizeit widmete sich Fermat vor allem der
Mathematik, insbesondere der algebraischen Zahlentheorie und
der Wahrscheinlichkeitsrechnung. Im Laufe
seiner umfangreichen Korrespondenz mit Pascal hat er
wesentliche Impulse zur Entstehung
der Wahrscheinlichkeitsrechnung geleistet.
Insbesondere die Lösung des "Teilungsproblems", an der Fermat
und Pascal arbeiteten, bildet einen Eckstein des modernen
Versicherungswesens und anderer Bereiche des Risikomanagements.
Blaise Pascal, beschrieb am 29. Juli 1654 in einem Brief an
seinen Kollegen de Fermat zwei Probleme, die er bereits mit
seinem Freund Chevalier de Méré, diskutiert hatte (seither als
De-Méré- oder Würfelproblem und Teilungsproblem (problème de
partis) bekannt).
Das Teilungsproblem behandelt ein fiktives Spiel
(beispielsweise einen Münzwurf) über mehrere Runden. Der
Ausgang des Spieles ist in jeder Runde unabhängig vom Ausgang
in den anderen Runden und in jeder Runde gewinnt Spieler A
mit Wahrscheinlichkeit p ∈ [0,1]. Die
Spieler vereinbaren, dieses Spiel über so viele Runden zu
spielen, bis einer der beiden Spieler n mal gewonnen hat.
Dieser erhält dann den Gewinn S ausbezahlt. Bei einem
Spielstand von N−k gewonnen Spiele für A und N−l gewonnen
Spiele für B müssen die beiden Spieler jedoch das Spiel
abbrechen. Wie wird der Gewinn S gerecht unter den Spielern
aufgeteilt? Pierre de Fermat in einem Antwortschreiben: "Mein
Herr, wenn ich versuche, eine bestimmte Augenzahl mit einem
einzigen Würfel in acht Würfen zu erreichen [das heißt
beispielsweise eine Sechs spätestens im achten Wurf], und wir,
nachdem das Geld eingesetzt ist, übereinkommen, dass ich den
ersten Wurf nicht ausführen werde, dann steht mir nach meinem
Prinzip 1/6 des Gesamteinsatzes als Entschädigung zu auf Grund
des besagten ersten Wurfes. Wenn wir danach noch übereinkommen,
dass ich den zweiten Wurf nicht ausführen werde, muss ich zu
meiner Entschädigung ein Sechstel des Restes [des Einsatzes]
nehmen, das sind 5/36 [nämlich 1/6 von 5/6] des Gesamteinsatzes
[...]"
Pascal und Fermat näherten sich der Lösung von verschiedenen
Standpunkten. Fermat konzentrierte sich vor allem auf die reine
Algebra. Pascal hingegen nutze eine geometrische Anordnung, um
in die zugrundeliegende algebraische Struktur Transparenz zu
bringen. So griff Pascal auf das "Pascalsche Dreieck" zurück,
das die rekursive Bestimmung der Binomialkoeffizienten
gestattet. Sie sind im Dreieck derart angeordnet, dass ein
Eintrag die Summe der zwei darüberstehenden Einträge ist. Der
Name geht auf Blaise Pascal zurück, obgleich das Pascalsche
Dreieck bereits im Jahr 1303 im Manuskript des chinesischen
Mathematikers Chu Shih-chieh abgebildet wurde.
Experten interpretieren den Briefwechsel als Epochenereignis in
der Geschichte der Mathematik
und Wahrscheinlichkeitsrechnung bzw. als
Geburtsstunde der Stochastik.
Fermats Letzter Satz
Der große fermatsche Satz (Fermats letzter Satz bzw. Fermats
letztes Theorem) wurde um das Jahr 1637 von Pierre de Fermat
formuliert, aber erst viele Jahre später, im Jahr 1993 bzw.
1998, von dem britischen Wissenschaftler Andrew Wiles
zusammen mit seinem Schüler Richard Taylor bewiesen.
Fermats Letzter Satz besagt, dass die n-te Potenz einer Zahl,
wenn n > 2 ist, nicht in die Summe zweier Potenzen des
gleichen Grades zerlegt werden kann. In diesem Kontext sind
ganze Zahlen ≠ 0 und natürliche Potenzen gemeint. Formaler
gesagt bedeutet dies:
Die Gleichung an +
bn = cn besitzt für
ganzzahlige a, b, c ≠ 0 und
natürliche Zahlen n > 2 keine Lösungen. Oder anders
formuliert: Ist es möglich, dass eine Summe von zwei
n-Potenzzahlen wieder eine n-Potenzzahl ist?
In diesem Kontext ist die Forderung wichtig, dass die
gesuchten Lösungen a, b, c ganze,
positive Zahlen sein sollen. Verzichtet man auf die
Ganzzahligkeit und wählt man a, b als
beliebige positive Zahlen, so erhält man offenbar stets eine
Lösung indem man setzt.
Seilspanner und ihre mathematische Ableitung
Die Gleichung an +
bn = cn für n = 2 kennt
jeder Schüler im Zusammenhang mit einem der fundamentalen Sätze
der euklidischen Geometrie, dem Satz des Pythagoras: In einem
rechtwinkligen Dreieck mit den Seitenlängen a, b, c gilt obige
Gleichung (wobei a und b die beiden
Katheten sind und c die Hypothenuse).
Bzw. umgekehrt: Aus obiger Gleichung folgt, wenn a, b, c > 0
angenommen wird, dass a, b, b die Seiten
eines rechtwinkligen Dreiecks sind. Der nach Pythagoras von
Samos benannte Satz ist theoretischer Ausdruck für die von
ägyptischen, babylonischen und indischen Baumeistern und
Priestern entwickelte Fähigkeit, bei Abmessungen von Feldern
und Bauten mit Hilfe von Seilen präzise rechte Winkel zu
erzielen. So erzielten die ägyptischen Seilspanner mit Hilfe
von Zwölfknotenschnüren genaue rechte Winkel, indem sie 12
gleiche Teile eines langen Seils durch Knoten im Verhältnis
5:3:4 unterteilten und aus dem Seil mit Hilfe von Pflöcken ein
Dreieck bildeten: es muss und wird sich auf diese Weise immer
ein rechter Winkel ergeben (Pythagoreisches Tripel).
Die Frage lautet also: Gibt es rechtwinklige Dreiecke, deren
Seitenlängen a, b, c ganzzahlig
sind? Wir erkennen an den nachfolgenden Beispielen, dass es in
der Tat rechtwinklige Dreiecke gibt, bei denen die Seitenlängen
ganzzahlig sind.
32 + 42 = 52
82 + 62 = 102
52 + 122 = 132
152 + 82 = 172
49612 + 64802 = 81612
Die zu beantwortende Frage ist nun, ob sich alle ganzzahligen,
positiven Lösungen der pythagoräschen Gleichung (siehe oben)
eine Systematik finden lässt? Hier hilft die Lektüre eines
Buches des griechischen Mathematikers Diophantos von
Alexandrien, der irgendwann im Zeitraum von 100 vor Chr. und
350 nach Chr. gelebt hat.
Titelbild der 1621 verlegten Arithmetika
Diophants Werk "Arithmetika" (siehe Abbildung oben) bestand
aus insgesamt 13 Büchern, war jedoch lange Zeit verschollen
und tauchte erst im 16. Jahrhundert in Europa wieder auf.
Im sechsten Buch fand Pierre de Fermat die Lösung der
pythagoräischen Gleichung:
Berühmt wurde das Theorem (heute bekannt als Fermatsche
Vermutung bzw. Großer Fermatscher Satz) dadurch, dass
Fermat in einer Randnotiz seines Exemplars der Arithmetica
behauptete, dafür einen "wahrhaft wunderbaren" Beweis
gefunden zu haben, für den aber "auf dem Rand nicht genug
Platz" sei. Die Randbemerkung findet sich exakt an der
Stelle, an der Diophant den Fall n = 2 diskutiert.
Mit anderen Worten: Fermat stellte sich die offensichtliche
Frage, was aus der pythagoräischen Gleichung (siehe
oben) wird, wenn man den Exponenten 2 durch 3 oder durch
irgendeine natürliche Zahl n > 2 ersetzt. Besitzt die
entstehende Gleichung ebenfalls ganzzahlige, positive
Lösungen?
Fermat fand nun heraus, dass für n > 2 ganz andere
Verhältnisse herrschen als für n = 2. Denn die Randnotiz
von Fermat lautete wie folgt:
"Cubum autem in duos cubos aut quadrato quadratum in
duos quadrato quadratos et generaliter nullam in infinitum
quadratum potestatem in duos eiusdem nominis fas est
dividere. Cuius rei demonstrationem mirabilem sane detexi.
Hanc marginis exiguitas non caperet."
[Deutsche Übersetzung: Es ist nicht möglich, einen Kubus in
zwei Kuben oder ein Biquadrat in zwei Biquadrate und
allgemein eine Potenz, höher als die zweite, in zwei
Potenzen mit demselben Exponenten zu zerlegen. Ich habe
hierfür einen wahrhaft wunderbaren Beweis, doch ist der
Rand hier zu schmal, um ihn zu fassen.]
Mehr als 350 Jahre knobelten Mathematiker an diesem
Problem. Selbst Größen wie Gauß oder Euler bissen sich die
Zähne aus (siehe unten).
Der britische Wissenschaftler Andrew Wiles bewies im Jahr
1993 bzw. 1998 (die Beweisführung war im Jahr 1993 noch
lückenhaft) endgültig den letzten Satz von Fermat.
Demzufolge gibt es keine Zahl n, die die Gleichung an +
bn = cn erfüllt.
Die Schlüsselidee zum Beweis stammt von dem deutschen
Mathematiker Gerhard Frey. Im Jahr 1986 fand in Paris
eine internationale Mathematiker-Tagung statt. Dabei
stellte Frey seine Ideen über den Zusammenhang zwischen dem
Fermat-Problem und der Taniyama-Vermutung vor. Die
Zahlentheoretiker waren beeindruckt. Plötzlich erhob sich
einer der Teilnehmer und erklärte, dies sei wohl der
richtige Weg zum Beweis der Fermat-Vermutung. Der Name
dieses Teilnehmers war Andrew Wiles. Nach der Tagung in
Paris arbeitete Wiles sieben Jahre lang intensiv an der
Lösung der Fermatschen Vermutung. Mit Hilfe der
Iwasawa-Theorie und der Kolywagin-Flach-Methode gelang es
schließlich Wiles, die Fermatsche Vermutung zu beweisen.
Unter Mathematikern gilt der Beweis von Andrew Wiles als
einer der bedeutendsten des 20. Jahrhunderts. Heute nimmt
man an, dass sich Fermat geirrt hat und er wohl später
bemerkt hat, dass sein "wunderbarer Beweis" nicht
stichhaltig war, versäumte es jedoch, seine Randbemerkung
entsprechend zu korrigieren. Dafür spricht, dass Fermat in
späteren Briefen dieses Problem nur in den Fällen n = 3 und
n = 4 erwähnt.
Exkurs: Die Suche nach dem Beweis
Paul Friedrich Wolfskehl (* 30. Juni 1856 in Darmstadt; † 13.
September 1906 in Darmstadt) war Arzt und litt an Multiples
Sklerose und konnte daher seinen Beruf nicht ausüben. Daher
entschloss er sich Mathematik zu studieren. So studierte er
einige Jahre bei Ernst Eduard Kummer (siehe unten) in Berlin
und begegnete dort das erste Mal Fermats letztem Theorem.
Offenbar war er von dem mathematischen Rätsel so fasziniert,
dass er in seinem Testament die – für damalige Zeiten
beachtliche Summe – von 100.000 Goldmark für die Person
stiftete, der das Fermat-Problem vollständig lösen würde.
Eine andere Legende erzählt, dass seine Liebe zu einer Frau
von dieser nicht erwidert wurde, so dass er den Entschluss
fasste, sein Leben zu beenden. Der Zeitpunkt seines Freitodes
setzte er auf Mitternacht fest und vertrieb sich die Zeit bis
dorthin mit dem Fermat-Problem. Die Legende berichtet weiter,
dass er bei dieser Arbeit derart gefesselt war, dass er über
ihr die Zeit vergaß. Wolfskehl überlebte wohl aus diesem
Grund die Nacht und ließ von seinen Selbstmordgedanken ab.
Gleich darauf änderte er aus Dank sein Testament.
Nach der Satzung der Stiftung sollte die Summe von der
Göttinger Akademie der Wissenschaften verwaltet werden, die
auch die Richtigkeit der eingegangenen Lösungen zu prüfen
hatte. Nach Ablauf von etwa 100 Jahren (Einsendeschluss: 23.
September 2007) sollten die 100.000 Goldmark an die Akademie
fallen, wenn sich bis zu diesem Zeitpunkt niemand mit einer
richtigen Lösung gemeldet hatte. Im Jahr 1997 wurde der Preis
an Andrew Wiles ausbezahlt.
Beweis(-versuche) der Fermatschen Vermutung
Pierre de Fermat (1607/08–1665)
1637: Problemstellung, Beweis für n = 4, und später
andeutungsweise für n = 3.
Leonhard Euler (1707–1783)
n = 3, Beweis unvollständig
Johann Carl Friedrich Gauß (1777–1855)
n = 3: vollständiger Beweis
Johann Peter Gustav Lejeune Dirichlet
(1805–1859)
n = 5: Dirichlets Beweis war zunächst unvollständig; nach
Kritik durch Legendre gab er einen Ansatz zur
Vervollständigung; dieser wurde 1828 in Crelles Journal
ausführlich publiziert
Johann Peter Gustav Lejeune Dirichlet
n = 14: 1832 in Crelles Journal
Gabriel Lamé (1795–1870)
n = 7: 1839 in Liouvilles Journal
Gabriel Lamé
beliebig: 1841 in Liouvilles Journal (Beweis erschien
unvollständig; Kritik durch Liouville)
Ernst Eduard Kummer (1810–1893)
1844 in der Festschrift für das Königsberger
Universitätsjubiläum: Die Lücke im Beweis bei Lamé kann nicht
geschlossen werden! Der Beweisversuch von Lamé ist also
endgültig als falsch zu bewerten. Kummers monumentales
Theorem: 1850 in Crelles Journal: Beweis für alle
Primzahlexponenten n = p, bei denen p eine sogenannte
"reguläre" Primzahl ist.
Andrew Wiles (* 1953)
Im Jahr 1994 gelang es dem britischen Mathematiker Andrew
Wiles zusammen mit seinem Schüler Richard Taylor, die
Fermatsche Vermutung zu beweisen. Die Zahlentheoretiker
gerieten in Aufruhr, denn mit Fermat war auch eine von dem
Japaner Yutaka Taniyama 1954 veröffentlichte
Strukturbeschreibung elliptischer Kurven bestätigt. Der
Beweis der Taniyama-Vermutung ist die große Leistung Andrew
Wiles, aber die Verknüpfung zweier durch 350 Jahre getrennter
Theorien ist die große Leistung von Gerhard Frey.
Barner, K. (2001): How old did Fermat become?, in: Das
Leben Fermats, Mitteilungen der Deutschen
Mathematiker-Vereinigung, Heft 3, 9(2001), Berlin, S. 209–228.
Renyi, A. (1972): Briefe über
die Wahrscheinlichkeit, Berlin 1972.
Roquette, Peter (1998): Zum Fermat-Problem, Vortrag im
Mathematischen Institut der Universität Heidelberg am
24.1.1998.
Singh, S. (2000): Fermats letzter Satz, München 2000.
Wiles, A. (1995): Modular Elliptic Curves and Fermat's last
theorem. Annals of Mathematics 141 (1995), 443–551
Die ersten Ansätze einer rudimentären Versicherung bzw. der
ersten Risikoportfolien konnte man bereits im Altertum,
insbesondere in Griechenland, Kleinasien und Rom finden. So
schlossen sich bereits etwa um 3000 v. Chr. phönizische Händler
zu Schutzgemeinschaften zusammen und ersetzten ihren Mitgliedern
verloren gegangene Schiffsladungen.
Hammurabi, erste Ansätze einer Risikosteuerung
Hammurabi (1728 bis 1686 v. Chr., nach anderer Chronologie 1792
bis 1750 v. Chr.)
Ein Gesetzbuch des babylonischen Königs Hammurabi (1728
bis 1686 v. Chr., nach anderer Chronologie 1792 bis 1750
v. Chr.), der Codex Hammurabi, enthielt einen Prolog, der
282 Gesetzesparagraphen und den Epilog auf einer etwa
2,25 m hohen Stele aus Diorit festgehalten hat. Diese
Stele wurde 1902 bei Ausgrabungen in Susa, der Hauptstadt
des Reiches Elam, gefunden. Ihr ursprünglicher Standort
ist unbekannt. Historiker gehen jedoch davon aus, dass
sie vermutlich von einem Eroberer aus einer babylonischen
Stadt geraubt wurde. Heute befindet sich die Stele von
Susa in der früheren französischen Königsresidenz Louvre
in Paris. Hammurabi schuf in seinem Reich
sozialstaatliche Ansätze, die mit
Eigenvorsorgeeinrichtungen kombiniert wurden.
Hammurabi
kodifizierte das Straf-, Zivil- und Handelsrecht. So
heißt es beispielsweise in dem Text: „Wenn ein Bürger das
Auge eines anderen Bürgers zerstört, so soll man ihm ein
Auge zerstören. Wenn er einen Knochen eines Bürgers
bricht, so soll man ihm einen Knochen brechen. (...) Wenn
ein Bürger einen ihm ebenbürtigen Bürger einen Zahn
ausschlägt, so soll man ihm einen Zahn ausschlagen. Wenn
er einem Palasthörigen einen Zahn ausschlägt, so soll er
ein Drittel Mine Silber zahlen.“ Unter gesellschaftlich
gleichstehenden Personen galt in Babylonien ein
Talionsrecht: Gleiches wird mit Gleichem vergolten, die
Strafe entspricht der Tat. "[...] So sollen die
Teilnehmer einer Karawane sich vertraglich verpflichten,
dass der dem einzelnen, während der Reise durch Raub oder
Überfall entstandene, Schaden gemeinsam getragen werde.
[...]"
Bei gesellschaftlich tiefer stehenden Personen wird eine
Kompensation durch Zahlung ermöglicht. Der Kodex des
Hammurabi enthielt außerdem 282 Paragraphen zum Thema
"Bodmerei". Bodmerei war ein Darlehensvertrag bzw. eine
Hypothek, die von dem Kapitän bzw. Schiffseigentümer zur
Finanzierung einer Seereise aufgenommen wurde. Ging das
Schiff verloren, so musste das Darlehen nicht
zurückgezahlt werden. Somit handelte es sich bei Bodmerei
um eine Frühform der Seeversicherung.
Insbesondere in Griechenland und Ägypten halfen
kultbezogene Vereine ihren Mitgliedern bei Krankheit und
sorgten für ein würdiges Begräbnis. Dies war auch die
Grundlage für die Gründung erster Sterbekassen. Die
Mitglieder einer solchen Sterbekasse hatten Anspruch auf
ein würdiges Begräbnis, auf das Schmücken des Grabes und
kultische Mahlzeiten, die die überlebenden Mitglieder
einnahmen. Deshalb wurden die Mitglieder auch "sodales ex
symposio" (Mitglieder an der gemeinsamen Essenstafel)
genannt. Andere Sterbekassen (etwa in Rom) versprachen
ihren Mitgliedern einen Urnenplatz in unterirdischen
Gewölben (Columbaria). Die Mitglieder zahlten eine
Grundgebühr sowie einen regelmäßigen jährlichen Beitrag.
Erst dann bekam man Anrecht auf einen Platz in der
Gewölbeanlage, die durch die Beiträge finanziert,
gepflegt und verwaltet wurde.
Andrei Nikolajewitsch Kolmogorow, auch Andrej Nikolaevič
Kolmogorov (* 25. April 1903 nach dem gregorianischen Kalender in
Tambov/Russland; † 20. Oktober 1987 in Moskau/Russland) war einer
der bedeutendsten und vielseitigsten Mathematiker des 20.
Jahrhunderts. Kolmogorow leistete wesentliche Beiträge auf vielen
mathematischen Gebieten, insbesondere im Bereich
der Wahrscheinlichkeitstheorie. Er gilt als der
Gründer der Algorithmischen Komplexitätstheorie
(auch Kolmogorow-Komplexität genannt;
hierbei versteht man anschaulich die Länge eines kürzesten
binären Programms, aus dem sich die Zeichenkette effektiv
rekonstruieren lässt).
Andrej Nikolaevič Kolmogorov (* 12. April 1903 nach dem
julianischen Kalenders, * 25. April 1903 nach dem
gregorianischen Kalender in Tambov/Russland; † 20.
Oktober 1987 in Moskau/Russland)
Die wissenschaftlichen Leistungen von Andrei
Nikolajewitsch Kolmogorow lassen sich in seinen mehr
als 300 wissenschaftlichen Veröffentlichungen,
Herausgebertexten und Monographien erahnen.
Kolmogorow war in fast allen mathematischen Gebieten
unterwegs, bis auf die Zahlentheorie. Die meiste Zeit
verbrachte Kolmogorow mit dem Ziel, den
Mathematikunterricht in der vormaligen Sowjetrepublik
zu verbessern, begabte Schüler zu fördern und
spezialisierte Internate für den mathematischen
Nachwuchs aufzubauen.
Seine bekanntesten mathematischen Leistungen waren
die Axiomatisierung
der Wahrscheinlichkeitstheorie und
seine Arbeiten zur Theorie stochastischer Prozesse,
die er Anfang der 30er Jahre geschrieben hat. Weitere
wichtige Beiträge betrafen die Theorie der reellen
Funktionen, die Topologie, die Statistik und die
Maßtheorie. Im Jahr 1941 veröffentlichte er zwei
einflussreiche Arbeiten zur Theorie der Turbulenzen,
die unter anderem die moderne Chaostheorie
vorbereiteten.
Am 25. April 1903 wurde Kolmogorow in Tambov, einer
russischen Stadt im fruchtbaren Oka-Don-Becken, rund
420 km südöstlich
von Moskau, geboren. Seine Mutter Mariya Yakovlevna
Kolmogorowa starb bei seiner Geburt und sein Vater
verließ ihn, so dass er von der Schwester seiner
Mutter, Vera Yakovlevna Kolmogorowa, großgezogen
wird. Sie wird als unabhängige Frau beschrieben, die
hohe soziale Ideale verfolgt. Diese Eigenschaft
überträgt sie auch auf ihren Neffen Andrei
Nikolajewitsch, der in einem Umfeld von sozialer
Verantwortlichkeit, Eigenständigkeit, Intoleranz
gegenüber Trägkeit und Faulheit aufwächst und die
Fähigkeit erlangt, Dingen auf den Grund zu gehen und
sie zu verstehen und sie nicht nur abzuspeichern.
Für Kolmogorow war Vera bis zu ihrem Tod im Jahr 1950
im Alter von 87 Jahren seine Mutter. Nach der
Schulzeit und dem Umzug nach Moskau schrieb
Kolmogorow sich in die Matrikel der
Physikalisch-mathematischen Fakultät der Universität
Moskau ein. Hier lehrten Dmitri Fjodorowitsch Jegorow
(1869-1931) und sein bedeutendster Schüler Nikolai
Nikolajewitsch Lusin (1883-1950), welche die berühmte
Moskauer Schule der Theorie reeller Funktionen
begründet hatten. Während der ersten beiden
Studienjahre hörte Kolmogoroff Vorlesungen bei Lusin
zur Theorie analytischer Funktionen, bei Alexej
Konstantinowitsch Wlassow (1868-1922) über projektive
Geometrie und bei Pawel Samuelowitsch Uryson
(1898-1924) sowie bei Pawel Sergejewitsch Alexandrow
(1896-1982) über kombinatorische Topologie und
deskriptive Mengenlehre. Mit letzterem verband
Kolmogoroff seit dem Jahr 1929 eine enge
Freundschaft, die auf einer gemeinsamen mehrwöchigen
Reise auf der Wolga und durch den Kaukasus begann und
ein ganzes Leben lang währte.
Produktive Lehr- und Wanderjahre
Die Lehr- und Wanderjahres des jungen
Wissenschaftlers in den Zwanzigern sind besonders
produktive Jahre. Im Jahr 1922 veröffentlichte
Kolmogorow seine ersten Ergebnisse in der
Mengentheorie. Im Jahr 1923 folgten
Veröffentlichungn in der Fourieranalysis (Zerlegen
eines beliebigen periodischen Signals in eine Summe
von Sinus- und Kosinusfunktionen). In der Folge
erlangt er internationale Bekanntheit und
veröffentlicht acht Arbeiten über
Integrationstheorie, Fourieranalyse sowie erstmals
über Wahrscheinlichkeitstheorie.
Nach seinem Studienabschluss im Jahr 1925 beginnt
er seine ("kleine") Promotion bei Nikolai N. Lusin,
die er 1929 beendet.
Im Juni 1930 begab sich Kolmogorow auf eine
neunmonatige Forschungsreise nach Deutschland und
Frankreich. In Göttingen legte Kolmogorow seine
Arbeit "Über die analytischen Methoden
in der Wahrscheinlichkeitsrechnung"
dem deutschen Mathematiker David Hilbert
(1862-1943) vor, der sie im Jahr 1931 in den
Annalen publizierte. In München diskutierte er mit
Constantin Carathéodory über Maß- und
Integrationstheorie. In Sanary-sur-Mer trafen sie
den französischen Mathematiker Maurice René
Fréchet, der sich gerade mit Markowschen Ketten in
diskreter Zeit beschäftigte. Schließlich besuchte
Kolmogorow Anfang März in Berlin den
österreichischen Mathematiker Richard Edler von
Mises.
Im Jahr 1931 wird er als ordentlicher Professor an
die Universität Moskau berufen. Im Jahr 1933
erscheint Kolmogorows Lehrbuch "Grundbegriffe
der Wahrscheinlichkeitsrechnung" in
deutscher Sprache, in dem er seine Axiomatisierung
der Wahrscheinlichkeitstheorievorstellt.
Kolmogorow schreibt im Vorwort seines Werkes
"Grundbegriffe
der Wahrscheinlichkeitsrechnung",
dass die "neuen Fragestellungen", die durch ein
maßtheoretisches Konzept
der Wahrscheinlichkeitsrechnung erfasst
werden können und diese zu
einer Wahrscheinlichkeitstheorie erst
machen "notwendigerweise aus einigem ganz konkreten
physikalischen Fragestellungen entstanden sind." In
einer Fußnote verweist er auf die Brownsche
Bewegung und damit implizit auf Einstein,
Smoluchowski und Wiener. Insgesamt jedoch
konzentrieren sich Kolmogorows Quellen zu den
"analytischen Methoden
in der Wahrscheinlichkeitsrechnung"
im Wesentlichen auf die Arbeit von Bachelier.
Im Jahr 1934 veröffentlicht Kolmogorow seine Arbeit
über Kohomologie (ein Begriff aus der Topologie)
und erreicht über die "große" Promotion den
Doktorgrad in Mathematik und Physik. 1939 wird er
Mitglied der russischen Akademie der
Wissenschaften, später auch Mitglied zahlreicher
ähnlicher Institutionen in Rumänien, England,
Deutschland, USA, Indien, Holland und
Frankreich.
Bekannt ist Kolmogorow vor allem durch das
Kolmogorowsche Axiomensystem. Die axiomatische
Einführung des Wahrscheinlichkeitsbegriffs nach
Kolmogorow gehört heute zum Allgemeingut auch jeden
Nicht-Mathematikers und hat auch hohe Relevanz
im Risikomanagement:
Girlich, H.-J. (2003): A. N.
Kolmogoroff (1903-1987) und die Ursprünge der Theorie
stochastischer Prozesse,
Universität Leipzig, Mathematisches Institut.
Kolmogorov, A. N. (1973): Grundbegriffe
der Wahrscheinlichkeitsrechnung, Berlin,
Heidelberg, New York, 1973.
Tikhomirov, M. V. (1993): A. N. Kolmogorov, in: S.
Zdravkovska and P. A. Duren
(eds.), Golden Years of Moscow Mathematics (Providence R.I.,
1993), 101-127.
Tikhomirov, M. V. (1988): The life and work of Andreii
Nikolaevich Kolmogorov, Russian Math. Surveys 43 (6) (1988),
1-39.
Ähnlich wie Demokrit schrieb mehr als 2000 Jahre später der
französische Mathematiker und Astronom Pierre Simon de Laplace (*
28. März 1749 in Beaumont-en-Auge in der Normandie; † 5. März
1827 in Paris), dass die Menschen "in Unkenntnis ihres
Zusammenhanges mit dem Weltganzen" Ereignisse, die ohne sichtbare
Ordnung eintreten, stets vom Zufall abhängen lassen.
Pierre Simon de Laplace (* 28. März 1749 in
Beaumont-en-Auge in der Normandie; † 5. März 1827 in
Paris)
Die Theorie des Zufalls
"Die Theorie des Zufalls (des hasards) besteht darin, alle
Ereignisse derselben Art auf eine
gewisse Anzahl gleich möglicher Fälle zurückzuführen, das
heißt auf solche, über deren Existenz wir in gleicher Weise
im Unklaren sind, und dann die Zahl der Fälle zu bestimmen,
die dem Ereigniss,
dessen Wahrscheinlichkeit man sucht,
günstig sind. Das Verhältniss dieser Zahl zu der aller
möglichen Fälle ist das Maass
dieser Wahrscheinlichkeit, die also nur ein
Bruch ist, dessen Zähler die Zahl der günstigen Fälle, und
dessen Nenner die Zahl aller möglichen Fälle ist.", so
Laplace in seinem im Jahr 1814 erschienenen Werk
"Philosophischer Versuch über die Wahrscheinlichkeiten".
"Der hier gegebene Begriff
der Wahrscheinlichkeit setzt voraus,
dass, wenn man die Zahl der günstigen Fälle und die aller
möglichen Fälle in gleichem Verhältnis wachsen lässt,
die Wahrscheinlichkeit dieselbe bleibt.
Um sich davon zu überzeugen, stelle man sich zwei Urnen A und
B vor, von denen die erste vier weisse und zwei schwarze
Kugeln enthält, und die zweite nur zwei weisse und eine
schwarze Kugel einschliesst. Nun denke man sich, dass die
zwei schwarzen Kugeln der ersten Urne an einen Faden gebunden
sind, der in dem Momente reisst, wo man die eine von ihnen
ergreift, um sie herauszuziehen, und dass die vier weissen
Kugeln zwei ähnliche Systeme bilden. Alle Chancen, welche
bewirken, dass eine der Kugeln des schwarzen Systems
ergriffen wird, werden eine schwarze Kugel herausbringen.
Wenn man sich jetzt vorstellt, dass die Fäden, welche die
Kugeln verbinden, nicht reissen, so ist klar, dass die Zahl
aller möglichen Chancen sich ebenso wenig ändern wird als die
dem Herausziehen schwarzer Kugeln günstigen Chancen; nur wird
man aus der Urne zwei Kugeln auf einmal herausziehen;
die Wahrscheinlichkeit, eine schwarze Kugel
aus der Urne herauszuziehen, wird also dieselbe sein wie
früher. Aber dann hat man augenscheinlich den Fall der Urne B
mit dem einzigen Unterschiede, dass die drei Kugeln dieser
letzteren Urne ersetzt sind durch drei Systeme von je zwei
Kugeln, die unveränderlich mit einander verbunden sind."
Wie ein Virtuose beherrschte Laplace den Kalkül der
Infinitesimalrechnung. So untersuchte er partielle
Differentialgleichungen 2. Ordnung auf ihre
Lösungsmöglichkeit, ersann die Kaskadenmethode – ein
Lösungsverfahren für hyperbolische Differentialgleichungen –
und befasste sich mit partiellen Differenzengleichungen.
Außerdem entwickelte Laplace eine Kapillartheorie für
Flüssigkeiten, leitete eine Formel für die
Ausbreitungsgeschwindigkeit des Schalls in der Luft ab und
verbesserte die barometrische Höhenformel.
Innenminister bei Napoleon
Im Jahr 1794 übernahm Laplace eine Professur für Mathematik
an der École Polytechnique, der neu gegründeten technischen
Hochschule in Paris. Wenige Jahre später, im Jahr 1799,
berief ihn Napoleon zum Innenminister und später in den
Senat. Mit dem Amt des Innenministers war er jedoch schnell
überfordert und wurde nach nur sechs Wochen von einem
Bruder Napoleons abgelöst. Napoleon berief ihn – quasi zum
Trost – in den Senat. Im Jahr 1803 wurde Laplace
Vizepräsident des Senats und verdiente während dieser Zeit
ein kleines Vermögen. Als Vorsitzender der Kommission für
Maße und Gewichte hatte er außerdem wesentlichen Anteil an
der Einführung eines einheitlichen dezimalen Maßsystems.
Im Jahr 1806 – nachdem Laplace von Napoleon zum Grafen
geadelt wurde – zog Laplace in der Pariser Vorort Arceuil und
wurde Nachbar des Chemikers Bartholet. Gemeinsam mit im
gründete er die Société d’Arceuil, in der
die beiden mit anderen Wissenschaftlern, unter anderem auch
mit dem Naturforscher und Entdecker Alexander von Humboldt,
Experimente durchführten.
Im Jahr 1815 wurde Laplace von König Ludwig XVIII zum Pair
von Frankreich und 1817 zum Marquis (Markgraf) ernannt. Im
Jahr 1816 legte Laplace seine Arbeit an der Ecole
Polytechnique nieder und wurde Mitglied der 40 Unsterblichen
der Académie française.
de Laplace, P. S. (1886):
Philosophischer Versuch über die Wahrscheinlichkeiten.
Übersetzt von Norbert Schwaiger, Leipzig 1886.
Gottwald, S. u. a. (1990):
Lexikon bedeutender Mathematiker. Bibliographisches Institut,
Leipzig 1990.
Romeike, F./Müller-Reichart, M.
(2004): Risiko-Management in
Versicherungsunternehmen - Grundlagen, Methoden,
Checklisten und Implementierung, Weinheim 2004.
Romeike, F. (2007): Pierre-Simon (Marquise de) Laplace
(Köpfe der Risk-Community),
in: RISIKO MANAGER, Ausgabe 3/2007, Seite
20.
von Mises, R. (1998): Philosophischer Versuch über
die Wahrscheinlichkeit von Simon de
Laplace, Frankfurt am Main 1998, S. 1-4.
Wussing, H., Arnold, W. (1985): Biographien bedeutender
Mathematiker. Verlag Volk und Wissen, Berlin 1985.
Adrien-Marie Legendre (* 18. September 1752 in Paris; † 10.
Januar 1833 in Paris) war ein französischer Mathematiker und
wurde bekannt für seine Arbeiten über die elliptischen Integrale
und die Methoden der
euklidischen Geometrie. Im Jahr 1806 entdeckte er, unabhängig von
Carl Friedrich Gauß, die Methode der kleinsten Quadrate.
Adrien-Marie Legendre (* 18. September 1752 in Paris; †
10. Januar 1833 in Paris)
Als Sohn reicher Eltern wurde Adrien-Marie Legendre im Jahr
1752 in Paris geboren (andere Quellen behaupten aber auch,
dass er in Toulouse geboren wurde). Daher erwarb Legendre
eine exzellente Schulausbildung – u. a. am Collège
Mazarin – und konnte im Alter von 18 Jahren sich auf seine
Karriere als Wissenschaftler konzentrieren. Im Jahr 1782
beteiligte sich Legendre an einer Ausschreibung der Berliner
Akademie, bei der es darum ging die Flugbahn von
Kanonenkugeln bei Luftwiderstand zu untersuchen. Legendre
gewann diese Ausschreibung und wurde in der "scientific
community" mit einem Schlag bekannt.
Der italienische Mathematiker und Astronom Joseph Louis
Lagrange (* 25. Januar 1736 in Turin; † 10. April 1813 in
Paris), der damalige Direktor der Preußischen Akademie der
Wissenschaften in Berlin, wurde auf den jungen Legendre
aufmerksam. Im Jahr 1783 übernahm Legendre schließlich den
Assistenposten seines Freundes Pierre-Simon Laplace in der
Pariser Académie des sciences. Im Jahr 1784 veröffentliche er
seine Arbeit "Sur la figure des planetes", in der erstmals
seine "Legendre-Polynome" erwähnte. Hierbei handelt es sich
um spezielle reelle oder komplexe Polynome, die ein
orthogonales Funktionensystem bilden. Insbesondere in der
Elektrodynamik und in der Quantenmechanik spielen die nach
Legendre benannten Polynome eine große Rolle. Des
weiteren beschäftigte sich Legendre in dieser Zeit mit
Arbeiten zur Zahlentheorie und Untersuchungen zur Theorie der
elliptischen Funktionen.
Im Jahr 1793 begann für Legendre eine schwierige Zeit, da die
Academie des Science geschlossen wurde und er sein Vermögen
und sein gesichertes Einkommen verlor. Zwei Jahre später – im
Jahr 1795 – wurde die Académie des sciences unter dem neuen
Namen "Institut National des Science et des Arts"
wiedereröffnet. Während dieser Zeit veröffentlichte Legendre
– basierend auf Euklids berühmten Grundsätzen der Geometrie –
sein Buch "Elements de geometrie", daß für etwa 100 Jahre zum
Standardwerk in diesem Gebiet werden sollte. So weist
Legendre nach, das π irrational ist und er gibt den ersten
Beweis dafür, daß auch π2 irrational ist.
Außerdem beschäftigte sich Legendre während dieser Zeit mit
der Erstellung von trigonometrischen und Logarithmentafeln
(gemeinsam mit Gaspard de Prony).
Im Jahr 1806 veröffentlichte er ein Buch über
Kometenbewegungen. Dort beschreibt er auch die Methode der
kleinsten Quadrate bzw. der kleinsten Fehlerquadrate. Heute
wird die Entdeckung der Methode der kleinsten Quadrate primär
Johann Carl Friedrich Gauß (* 30.
April 1777 in Braunschweig; † 23. Februar 1855 in Göttingen)
zugeschrieben, der seine Version aber erst im Jahr 1809
puplizierte. Gauß erwähnte die Arbeit von Legendre, sah die
Urheberrechte doch bei sich selbst, was Legendre sehr
erzürnte. Im Jahr 1825 gelang Legendre der Beweis des
Großen Fermatschen Satzes für den Spezialfall n =
5.
Tragisch entwickelte sich jedoch vor allem die letzte Periode
seines Lebens. Da er sich weigerte bei einer Wahl am Institut
National den Kanditaten der Regierung seine Stimme zu geben,
stellte die Regierung seine Pension ein. Legendre starb am
10. Januar 1833 verarmt in Paris.
Paul Pierre Lévy (* 15 . September 1886 in Paris, † 15 . Dezember
1971 in Paris) war ein französischer Mathematiker. Er hat ganz
wesentlich
die Wahrscheinlichkeitstheoriemitentwickelt und
gilt als Wegbereiter von "stabilen Verteilungen". Daher werden
stabile Verteilungen häufig als Lévy-stabile Verteilungen
bezeichnet.
Paul Pierre Lévy (* 15. September 1886 in Paris, † 15.
Dezember 1971 in Paris)
Paul Pierre Lévy stammte aus einer Familie jüdischer Händler
und Akademiker. Sein Vater Lucien lehrte an der École
Polytechnique, sein Großvater war Professor. Lévy schloss sein
Studium an der École Polytechnique und der École des Mines ab.
Im Jahr 1912 promovierte er mit einer Arbeit über
Funktionalanalysis. Seine Lehrer waren bekannte Wissenschaftler
wie u. a. Émile Picard,
Henri Poincaré und Jacques Hadamard. Im Jahr 1913 wurde er
Professor an der École des Mines und wechselte im Jahr 1920 an
die École Polytechnique, an der er bis zum Jahr 1959 lehrte.
Paul Pierre Lévy war unter anderem Lehrer des
Mathematikers Benoît B. Mandelbrot. "Für Studenten in den
hinteren Reihen des Hörsaals – zu denen ich gehörte – war er
fast nicht zu hören, und seine lange, graue und gepflegte
Erscheinung ähnelte auf merkwürdige Artder
etwas eigenwilligen Form, in der er das Symbol für ein Integral
∫ an die Tafel zeichnete", so Mandelbrot in seinem Buch
"The (mis)behavior of Markets – A Fractal View of Risk, Ruin
and Reward".
Erst mit seiner Anstellung an der École Polytechnique befasste
sich Lévy intensiver
mit Wahrscheinlichkeitstheorie und Stochastik und
gehörte bereits nach kurzer Zeit zu den größten
Wahrscheinlichkeitstheoretikern. Gleichzeitig wurde er von
seinen Mathematikerkollegen weitgehend ignoriert. Mandelbrot
weist als Begründung darauf hin, dass Lévy bei schriftlichen
Beweisen und wissenschaftlichen Veröffentlichungen eher
nachlässig war, so dass sich in der Eile nicht selten Fehler
einschlichen. Einige seiner ausgefallensten Ideen hat er
hingegen nie veröffentlicht. Später wies er darauf hin, dass
diese Erkenntnisse und Ideen zu offensichtlich waren, als das
es sinnvoll gewesen wäre, diese zu publizieren.
Ein Besucher von einem anderen Planeten
Man gestattete Lévy eher widerwillig, dass er Vorlesungsreihen
an der Universität von Paris halten durfte. Mandelbrot erinnert
sich, dass er am Ende einer solchen Vorlesungsreihe sein
einziger Hörer war. Erst im Alter von 87 Jahren wurde Lévy in
die Akademie der Wissenschaften Frankreichs gewählt – eine
späte Ehre für einen genialen Wissenschaftler. Der Mathematiker
John von Neumann (auch János von Neumann
zu Margitta, * 1903 in Budapest, † 8. Februar 1957 in
Washington, DC) wird mit dem Satz zitiert, dass er Lévy als
einen Besucher von einem anderen Planeten wahrgenommen hat. "Um
zur Wahrheit zu gelangen, scheint er seine eigenen privaten
Verfahren zu haben, die mir Unbehagen bereiten."
Kurz nach dem Zweiten Weltkrieg wurde Lévy gebeten, Vorlesungen
über Zielfehler bei Schusswaffen zu halten. Wenig später
veröffentlichte er – basierend auf seinen Analysen – erste
Arbeiten zu "stabilen" Verteilungen. In diesem Zusammenhang
bedeutet stabil, dass man ein solches Objekt
(Wahrscheinlichkeitsverteilung) beispielsweise drehen,
verkleinern oder etwas hinzufügen kann, wobei die
Grundeigenschaften unverändert bleiben. Auch
die Gaußsche Glockenkurve ist in diesem
Sinne stabil. "Addiert man die Treffer des blinden
Bogenschützens zu denen eines, sagen wir, blinden
Gewehrschützens, genügen die beiden Datensätze gemeinsam nach
wie vor Cauchys Formel (Anmerkung: Die Cauchy-Verteilung
ist ein Spezialfall der Levy Verteilungen, μ=1). Auch sie ist
stabil", so Mandelbrot.
Die Standard-Lévy-Verteilung
gehört (wie die Normalverteilung und die
Cauchy-Verteilung) zur übergeordneten Familie der
alpha-stabilen Verteilungen, das heißt sie erfüllt die
Bedingung X1+X2 ...
+Xn ≈ n1/α X wobei
X1+X2 ... + Xn, X
unabhängige Standard-Lévy-Variablen
sind (hier ist α = 1/2).
Die Lévy-Verteilung besitzt weder einen
endlichen Erwartungswert noch eine
endliche Varianz, denn E(|X|)=∞. Die
Lévy-Verteilung gehört daher zu den so genannten heavy-tailed
distributions (auch fat oder long tail genannt), die vor allem
dazu verwendet werden, extreme Ereignisse (etwa einen
Börsencrash) zu modellieren.
Brownsche Bewegung als Grenzfall von Irrfahrten
Nehmen wir an, wir würden auf der Straße einen betrunkenen
Mann beobachten: Er geht vielleicht drei Schritt nach links,
drei Schritte nach rechts, vier Schritt rückwärts und zwei
vorwärts. Einige Sekunden später geht er fünf Schritte nach
rechts, drei vorwärts und einen rückwärts. Er bewegt sich
sozusagen auf einem ziellosen, gezackten Pfad vor-, seit- und
rückwärts. Ergebnis: Im Durchschnitt gelangt er nirgendwohin.
Sein Spaziergang bleibt auf den Ausgangspunkt beschränkt.
Eine ähnliche Beobachtung machte der schottische Botaniker
Robert Brown im Jahr 1827 als er Pollen in einem
Wassertropfen untersuchte. Unter dem Mikroskop erkannte er
zuckende Bewegungen, die durch die Moleküle des
Wassertropfens verursacht wurden. Diese stießen permanent und
von allen Seiten gegen die größeren, sichtbaren
Pollenteilchen. Dieser als Brownsche Bewegung (bzw. Brownsche
Molekularbewegung) bekannte Prozess ist in
der Stochastik auch als Wiener Prozess bekannt.
Dieser zeitstetige stochastische Prozess, der
normalverteilte, unabhängige Zuwächse hat, wurde nach dem
US-amerikanischen Mathematiker Norbert Wiener (* 1894 in
Columbia, Missouri; † 1964 in Stockholm) benannt.
In der Praxis ist die Brownsche Bewegung für Mathematiker ein
nützliches Instrument: Als "Grenzprozess" von Irrfahrten,
überbrückt er die Kluft zwischen schrittweise und
kontinuierlich. Angeregt durch die Untersuchung von
Finanzspekulationen arbeitete der
Franzose Bachelier eine erste Theorie der
Brownschen Bewegung aus. In seiner Arbeit operierte er schon
mit dem Wiener Prozess, fünf
Jahre bevor Albert Einstein diesen – zum zweiten Mal –
entdeckte. Auch gab Bachelier explizite Preisformeln für
Standard-
(Put- und Call-) Optionen und Barrier-Optionen an,
73 Jahre bevor dies Black und Scholes gelang. Basierend auf
seinen Arbeiten errichteten Wirtschaftswissenschaftler eine
ausgefeilte und umfassende Theorie der Finanzmärkte und des
Risikomanagements, das heißt wie Kurse sich ändern, wie
Investoren denken und wie man Risiko als
die ruhelose Seele des Marktes versteht. Bacheliers Lehren
fanden an der Wall Street bereitwillig Schüler und wurden
"zum Katechismus für das, was man heute als 'moderne'
Finanztheorie bezeichnet", so Benoît B. Mandelbrot.
Bedeutende Fortschritte macht in der Folge aber vor allem
Paul Lévy. Denn die Brownsche Bewegung ist ein spezieller
Lévy-Prozess. Jeder
Lévy-Prozess mit
stetigen Pfaden ist eine Brownsche Bewegung mit geeigneter
Driftrate μ und Volatilität σ. Der
begnadete Wissenschaftler untersuchte erstmals Martingale und
Lévy-Flüge. Nach ihm benannt sind des weiteren Lévy-Prozesse, das
Lévy-Maß und die Lévy-Fläche. "He was a very modest man
while believing fully in the power of
rational thought. [...] whenever I pass by the Luxembourg
gardens, I still see us there strolling, sitting in the sun
on a bench. I still
hear him speaking carefully his thoughts. I have known
a great man",
erinnert sich der Mathematiker Michel Loève.
"[...] Paul Lévy was a painter in the
probabilistic world. Like the very great painting geniuses,
his palette was his own and his paintings transmuted forever
our vision of
reality... His three main, somewhat overlapping, periods
were: the limit laws period, the great
period of additive processes and of martingales painted in
pathtime colours, and the Brownian pathfinder period.
[...]" Michel Loève, Mathematiker (* 1907 in Jaffa,
Israel, † 1979 in Berkeley, USA).
Gemeinsam mit dem Neurologen Dmitry Repin analysierte Andrew W.
Lo, wie stark Kursausschläge das Nervensystem von Händlern im
täglichen Börsengeschäft beeinflussen. Muskelspannungen, Puls,
Körpertemperatur oder Atmung und weitere physiologische
Reaktionen, die vor allem vom Unterbewusstsein gesteuert werden,
wurden von den Wissenschaftlern in ihren Testreihen erfasst. Das
Ergebnis war eindeutig: Selbst bei den professionellsten Händlern
ergab sich eine hohe Korrelation zwischen
außergewöhnlichen Marktbewegungen und erhöhter Pulsfrequenz oder
Körpertemperatur.
Andrew Wen-Chuan Lo, Charles E. and Susan T. Harris
Professor of Finance at the MIT Sloan School of Management
[Bildquelle: David Shankbone / Wikipedia]
"[...] When you look at hedge funds, you see
that the rate of innovation, evolution, competition, adaption,
births, and deaths, the whole range of evolutionary phenomena,
occurs at an extraordinary rapid clip. […] Hedge
funds are the Galapagos Islands of finance. […] When
we think about biology, we rarely think about economics, but
the fact is, economic transactions […] are essentially outcomes
of an evolutionary process in much
the same way that certain kinds of chimpanzees will use little
bits of straw to ‘fish’ out termites from rotting wood in order
to get their food. [...]"
In den vergangenen Jahren konnten wir nicht selten Hektik,
Krisenstimmung und riesige Handelsumsätze an den Börsen in
Frankfurt, New York und London beobachten: Die Hypothekenkrise
in den USA versetzt die Märkte in Alarmstimmung, teilweise auch
Panik. Handeln so rational denkende Menschen à la Homo
Oeconomicus? Die jüngsten Beobachtungen lassen zu Recht daran
bezweifeln, dass Investoren so kühl berechnend denken und
handeln, wie Ökonomen es gerne annehmen. Um die Gemüter zu
beruhigen betrieben die Zentralbanken – unter anderem die
Europäische Zentralbank (EZB) und die US-Notenbank (Fed)
– Risikomanagement und
pumpten massiv Geld in den Markt - über eine höhere
Liquiditätsversorgung sollte die Lage stabilisiert
werden.
Im theoretischen Modell der
Betriebswirtschaftslehre lernen wir einen Menschen kennen, der
seine Handlungen allein auf der Basis der ihm vorliegenden
Informationen rational ausrichtet und seine Entscheidungen nach
dem ökonomischen Prinzip
zur Maximierung seines persönlichen
Nutzens trifft. Die Realität sieht nicht selten anders aus.
Abschied vom Homo Oeconomicus
Mit der Entwicklung der experimentellen Wirtschaftsforschung
wurde das Konzept des Homo Oeconomicus in den vergangen
Jahrzehnten immer häufiger mit Experimenten überprüft und
nicht selten widerlegt. So wird beispielsweise in
der Spieltheorie das Modell des Homo
Oeconomicus angepasst, da dieser nun zum strategisch
handelnden Wirtschaftssubjekt wird, das auch kurzfristige
Verluste in Kauf nimmt, wenn dies der Verfolgung eines
langfristigen Ziels dient. Die Verhaltensökonomik (engl.
Behavioral Economics) geht davon aus, dass das beobachtete
Verhalten in der Regel der Annahme des rationalen
Nutzenmaximierers widerspreche und sucht Erklärungen für
irrationales Verhalten. Kritiker, so auch Andrew W. Lo
behaupten hingegen, dass auch Behavioral
Finance (bzw. Economics) "nur" eine Sammlung von
Anomalien sei, als ein echter Zweig der Finanztheorie. Er ist
der Ansicht, dass es sich dabei nicht um eine echte Theorie
handele, aber eine Theorie benötigt werde, um eine andere
Theorie zu widerlegen.
Schließlich werden in der Neuen Institutionenökonomik bzw.
der Transaktionskostentheorie Faktoren wie asymmetrische
Informationen, beschränkte Rationalität und Opportunismus
berücksichtigt, um so der Realität etwas näher zu kommen.
Finanzmärkte und Biologie
Gemeinsam mit dem Neurologen Dmitry Repin analysierte Andrew
W. Lo, wie stark Kursausschläge das Nervensystem von Händlern
im täglichen Börsengeschäft beeinflussen. Muskelspannungen,
Puls, Körpertemperatur oder Atmung und weitere physiologische
Reaktionen, die vor allem vom Unterbewusstsein gesteuert
werden, wurden von den Wissenschaftlern in ihren Testreihen
erfasst. Das Ergebnis war eindeutig: Selbst bei den
professionellsten Händlern ergab sich eine
hohe Korrelation zwischen
außergewöhnlichen Marktbewegungen und erhöhter Pulsfrequenz
oder Körpertemperatur.
In weiteren Versuchen wurden Daytrader in einen
Kernspintomografen gelegt, von dem aus sie eine
Handelssoftware bedienen konnten. Über die Analyse der
Aktivitäten der unterschiedlichen Gehirnregionen erhalten die
Forscher ein besseres Verständnis darüber, wie finanzielle
Entscheidungen getroffen werden. Lo und sein Team kamen zu
dem Ergebnis, dass es wohl keinen Gehirnbereich gibt, der nur
für komplexe Finanzthemen und
-entscheidungen reserviert ist. Daraus schließen die
Forscher, dass die Menschen für wirtschaftliche
Entscheidungen nicht ideal ausgestattet sind. "Unsere
Denkroutinen sind für die physische Welt gedacht.
Dementsprechend sollte man bei finanziellen Entscheidungen
auch lieber langsamer vorgehen", so Lo.
Kein Widerspruch zwischen Emotion und
Rationalität
Lo ist davon überzeugt, dass Emotion und Rationalität sich
nicht gegenseitig ausschließen, sondern sich vielmehr beide
ergänzen können. Gefühle ließen sich durch Training positiv
nutzen, "wie etwa bei erfolgreichen Sportlern, die fähig
sind, Stress zum eigenen Ansporn zu nutzen, statt sich
dadurch hemmen zu lassen." So kommen die Wissenschaftler zu
dem Ergebnis, dass bestimmte Emotionen bei weniger erfahrenen
Händlern deutlich stärker ausfallen als bei den Profis, die
offenbar ihre Gefühle besser steuern können. Kurzum: Es kommt
nicht darauf an, dass Emotionen per se zu Gunsten größter
Rationalität unterdrückt werden. "Am besten wäre es
natürlich, wenn wir schon unsere Kinder
in Wahrscheinlichkeitstheorie und Risikomanagement unterrichten
würden", ergänzt Lo.
Psychohistory
Während seines Studiums an der Bronx School of Science ("the
single most important educational experience of my life") las
Andrew W. Lo das Buch "Psychohistory" des wohl bekanntesten
Science-Fiction-Schriftstellers und Biochemikers Isaac
Asimov. "Psychohistory" basiert auf dem Gedanken, dass man
zwar nicht vorhersagen könne, was ein einzelner Mensch tue.
Je größer allerdings die Bevölkerung sei, desto eher sei eine
Vorhersage möglich, da nun die Vorhersagen auf statistischen
Methoden
basierten ("Gesetz der großen Zahlen").
Lo war von Asimovs Ausführungen so fasziniert, dass er
nachweisen wollte, dass sie auch in der realen (Finanz-)welt
Gültigkeit besitzen. Während seiner Zeit in Harvard traf er
eine Ex-Kommilitonin der Bronx School of Science, die ihn
motivierte eine Vorlesung von Robert C. Merton am MIT zu
besuchen. "This single course changed my life. I found that
more of my intellectual thirst was slaked by Merton’s
lectures. This was finally what I had been searching for.
Exactly 25 years later, I can still tell you exactly which
lecture contained the notion of arbitrage,
the idea of replicating options by dynamic trading, and the
formula for Markowitz’s concept of optimizing mean/variance
portfolios." Lo war davon überzeugt, dass "Finance" der
einzige Bereich der Ökonomie sei, der wirklich
funktioniere.
Lo betrachtete den Finanzsektor durch einen Prisma, in dem
die Finanztheorie nur eine Perspektive war. Die weiteren
Perspektiven waren Mathematik, Physik, Geschichte, Biologie,
Soziologie, Psychologie und Evolutionstheorie.
Adaptive Market Hypothesis
Eine der Kernfragen für Andrew W. Lo war die Suche nach
den Treibern von Veränderung und Dynamik. Lo fand die
Antwort in Darwins Evolutionstheorie. Der von Darwin
skizzierte Evolutionsprozess folgt einer gewissen "Trial
and Error"-Logik. Bei bestimmten Einheiten bilden sich im
Laufe der Zeit – und klarer Zielrichtung insgesamt –
komplexe Eigenschaften heraus, die ihre Reproduktion
begünstigen, während in jeder Generation auch ein Teil
verdrängt wird (d. h.
ausstirbt). Teilweise können Eigenschaften auch
an Komplexität verlieren, wenn der
entsprechende Selektionsdruck nachlässt oder sich eine
weniger komplexe Eigenschaft als vorteilhafter
durchsetzt.
Einen parallelen Prozess von
Evolution fand Lo auf den Kapitalmärkten und nannte seine
Theorie "Adaptive Market Hypothesis". In diesem Kontext
verglich er auch Hedge Funds mit den
"Galapagos Islands of Finance", da dort ein hoher Grad an
Innovation, Evolution, Wettbewerb, Anpassungen, Geburten
und Todesfällen beobachtet werden könne.
Bernstein, P. L./Capital
Ideas Evolving, Hoboken 2007.
Camerer, C. F./Loewenstein, G./ Rabin, R. (eds.):
Advances in Behavioral Economics, 2003.
Kahneman, D./Tversky, A.: Prospect
theory: An analysis of decision under risk,
Econometrica, Vol. 47, No. 2/1979, S. 263-291.
Kirchgässner, G.: Homo oeconomicus - Das ökonomische
Modell
individuellen Verhaltens und seine Anwendung in den
Wirtschafts- und Sozialwissenschaften. Tübingen 1991.
Lo, A. W./Repin, D.: The Psychophysiology of
Real-Time
Financial Risk Processing, in: NBER Digest, March 2002
(www.nber.org/papers/w8508)
Lo, A. W./ Chan, N./Getmansky, M./ Haas, S. M.:
Do Hedge Funds Increase Systemic
Risk?, in Federal Reserve Bank of Atlanta Economic Review
2006, Q4, p. 49-80.
Shleifer, A.: Inefficient Markets: An Introduction
to Behavioral Finance, Oxford 1999.
Geboren wurde Harry M. Markowitz am 24. August 1927 in der
Industriestadt Chicago. Der junge Markowitz interessierte sich
schon recht früh für Physik, Astronomie und Philosophie. Nach
seinem Bachelor-Abschluss studierte er an der Universität in
Chicago Wirtschaftswissenschaften. Grundstein für sein Interesse
an den Themen Risiko und Unsicherheit waren
die Publikationen von Morgenstern, von Neumann und
Friedman-Savage.
Harry Max Markowitz (* 24. August 1927 in Chicago,
Illinois) [Source: MarketsWiki)
Geboren wurde Harry Max Markowitz am 24. August 1927 in der
Industriestadt Chicago. Seine Eltern Morris und Mildred
Markowitz führten dort ein kleines Lebensmittelgeschäft. Der
junge Markowitz interessierte sich schon recht früh für
Physik, Astronomie und Philosophie. Nach seinem
Bachelor-Abschluss studierte er an der Universität in Chicago
Wirtschaftswissenschaften. Grundstein für sein Interesse an
den Themen Risiko und Unsicherheit waren
die Publikationen von Morgenstern, von Neumann und
Friedman-Savage. Zu dieser Zeit wurde Markowitz von der
"Cowles Commission for Research in Economics", welche diverse
Nobelpreisträger hervorgebracht hat, als studentisches
Mitglied aufgenommen.
In seiner Doktorarbeit befasste sich Markowitz mit der
Anwendung mathematischer Methoden auf
Aktienmärkten. Bei den Recherchearbeiten stieß er auf er John
Burr Williams "Theorie of Investment Value" und entwarf das
Grundkonzept der modernen Portfoliotheorie.
Im Jahr 1952 wechselte er von der Chicagoer Universität zur
RAND Corporation. Dort lernte er William F. Sharpe kennen. Im
gleichen Jahr erschien auch sein Artikel über die "Portfolio
Selection" (The Journal of Finance, Vol. VII, No. 1, March
1952). In den folgenden Jahren war er u.a. an der
University of California in Los Angeles (1968 bis 1969),
der Arbitrage Management Company (1969
bis 1972) sowie IBM’s T.J. Watson
Research Center (1974 bis 1983) tätig.
Im Jahr 1989 wurde Markowitz mit dem "Von Neumann Preis
in Operations Research Theory" der
"Operations Research Society of America" und
des "Institute of Management Sciences" ausgezeichnet. Im Jahr
1990 wurde ihm – gemeinsam mit William F. Sharpe und Merton
M. Miller – der Nobelpreis für Wirtschaftswissenschaften
verliehen.
Wie sieht ein effizientes Portfolio aus?
Seit Markowitz
die Portfoliotheorie "erfunden" hat,
beschäftigt Anleger und Finanzforscher die Frage, wie sie ein
sinnvolles beziehungsweise optimales Verhältnis von
Renditechance zu Risiko erreichen
können. Quintessenz für die optimale Zusammensetzung eines
(Aktien-)Portfolios ist nach der Markowitz’schen Theorie,
dass die Renditeentwicklung der einzelnen Vermögenswerte in
guten und schlechten Börsenzeiten möglichst wenig korreliert
(= effizientes Portfolio).
Es ist offensichtlich, dass jeder Anleger das Ziel verfolgt,
eine hohe Rendite bei möglichst
geringem Risiko zu erlangen. Oft
beinhalten aber gerade Anlageprodukte mit hohen
Renditechancen auch ein hohes Risiko. Die
höhere Gewinnchance muss sich ein Investor mit dem Eingehen
eines höheren Risikos "erkaufen" (Fortes fortuna adiuvat,
"wer wagt, gewinnt"). Risiken sind die aus der
Unvorhersehbarkeit der Zukunft resultierenden, durch
"zufällige" Störungen verursachten Zielabweichungen. Risiken
können daher auch als "Streuung" um einen Erwartungs- oder
Zielwert betrachtet werden. Mögliche Abweichungen von den
geplanten Zielen stellen Risiken dar – und zwar sowohl
negative ("Gefahren") wie auch positive Abweichungen
("Chancen").
Kursschwankungen determinieren Risiko
Als Risikomaß wird heute beispielsweise die
als Varianz oder Standardabweichung gemessene
Schwankungsbreite der Erträge um
Ihren Erwartungswert verwendet. Ist die
Schwankungsbreite niedrig, so wird eine Anlage als weniger
riskant angesehen. Eine Anlage, deren Ergebnisse eine große
Streuung aufweisen, ist als deutlich riskanter
einzustufen.
Auf diesen Zusammenhang setzt die
moderne Portfoliotheorie auf. Markowitz
stellte im Zusammenhang mit der Entwicklung der
modernen Portfoliotheorie erstmals die
folgende Frage: "Welche Ertragsaussichten sollen mit welchem
Risikopotential erkauft werden?"
Die Antwort ist trivial:
Bei gegebenem Ertrag ist
das Risiko zu minimieren.
Bei gegebenem Risiko ist der Ertrag
zu maximieren.
Um den Zusammenhang zwischen Risiko und
Renditeerwartung abzubilden, können beide Parameter
im Risiko-/Performance-Diagramm (siehe
Abbildung) dargestellt werden. Die Performance ist auf der
Ordinate, das Risiko auf der Abszisse
abgebildet. Das bedeutet: je weiter links, desto risikoärmer
ist die Anlage, je weiter oben, desto höher ist die
Performance. In diesem Kontext beschreiben die "Performance"
die Renditechance und das "Risiko" das potenzielle
Verlustrisiko einer Anlage.
Das Risiko einer Anlage lässt sich an
den Kursschwankungen erkennen.
Abbildung: Beispiel
eines Risiko-/Performance-Diagramms
Portfolioidee eigentlich nichts Neues
Markowitz erkannte vor allem, dass Vermögensanlagen nicht
isoliert, sondern stets aus einer Portfoliosicht zu
beurteilen sind. Diese Erkenntnis ist nicht neu: Die ersten
Ansätze einer rudimentären Versicherung und des
Portfoliogedankens entstanden bereits im Altertum,
insbesondere in Griechenland, Kleinasien und Rom. So
schlossen sich bereits etwa um 3.000 v. Chr. phönizische
Händler zu Schutzgemeinschaften zusammen und ersetzten ihren
Mitgliedern verloren gegangene Schiffsladungen [vgl. Romeike
2005, S. 27]. Im Mittelalter bildeten sich Vereinigungen von
Kaufleuten (Gilden), Schiffsbesitzern und Handwerkern
(Zünfte), deren Mitglieder sich unter Eid zu gegenseitiger
Hilfe etwa bei Brand, Krankheit oder Schiffbruch
verpflichteten.
Die ersten Versicherungsverträge – die alle auf den
Grundgedanken der
modernen Portfoliotheorie basierten –
sind vor allem sehr eng mit der Seefahrt und der Entstehung
des modernen Risikobegriffs verbunden und wurden Ende des 14.
Jahrhunderts in Genua und anderen Seeplätzen Italiens
geschlossen [Romeike 2005, S. 29]. Mit derartigen
Versicherungsverträgen konnten Schiffseigentümer sich gegen
Verlust ihrer Schiffe durch Sturm und Piraten schützen. Auf
Grund der über einen längeren Zeitraum erstreckten
Beobachtungen der Unfälle von Handelsschiffen wurde eine
Prämie von beispielsweise 12 bis 15 Prozent zur Abdeckung des
Risikos verlangt. Aus dieser Zeit stammt auch das folgende
Zitat: "Seit Menschengedenken ist es unter Kaufleuten üblich,
einen Geldbetrag an andere Personen abzugeben, um von ihnen
eine Versicherung für seine Waren, Schiffe und andere Sachen
zu bekommen. Demzufolge bedeutet der Untergang eines Schiffes
nicht den Ruin eines einzelnen, denn der Schaden wird von
vielen leichter getragen als von einigen wenigen."
Reduzierung der Wertschwankungen durch
Risikostreuung
In der modernen Portfoliotheorie spielt
vor allem die Messung
der Korrelation eine wesentliche
Rolle. Die
Abhängigkeit zwischen einzelnen Parametern (beispielsweise
Risiken) wird mit dem Korrelationskoeffizienten gemessen, der
Werte zwischen -1 und 1 annehmen kann.
Für ein Portfolio ist es – aus der Perspektive der
Risikostreuung – nicht effizient, wenn die unterschiedlichen
Depotwerte sich gleich verhalten bzw. Ereignisse bei
einzelnen Werten zu Kettenreaktionen führen
(Korrelation: +1). Umgekehrt ist es aus der
Perspektive der Risikostreuung ineffizient, wenn die
verschiedenen Anlagen eines Portfolios sich gegenläufig
entwickeln. Beispielsweise steigt aufgrund eines Ereignisses
die Hälfte der Depotwerte und die andere Hälfte sinkt
(Korrelation: –1). Ziel einer
effizienten Portfolioselektion und eines
adäquaten Risikomanagement ist
es, die Wertschwankungen der einzelnen Anlagen durch
Risikostreuung zu reduzieren. Um dieses Ziel zu
erreichen, sollen die verschiedenen Anlageformen sich weder
gegenläufig noch entgegengesetzt entwickeln, sondern
voneinander unabhängige Entwicklungen realisieren
(Korrelation: 0).
Efficient frontier curves
Im Risiko-/Performance-Diagramm können nun
alle durch Diversifikation möglichen Portfolien abgebildet
werden. Die obere Grenze nennt man "efficient frontier curve"
(siehe Abbildung). Punkte oberhalb der Effizienzlinie sind
nicht realisierbar, Punkte unterhalb dieser Linie sind
ineffizient. Die Effizienzlinie ist der geometrische Ort
aller optimalen Ertrags-Risiko-Kombinationen.
Ab einem bestimmten Punkt ist die Diversifikation des Depots
in Hinblick auf eine erhöhte Rendite nur noch unter
Inkaufnahme eines gleichzeitig steigenden Risikos möglich. In
diesem Kontext wird ein Depot dann als effizient bezeichnet,
wenn es – durch Diversifikation – auf der Effizienzgrenze
liegt. Effiziente Portfolien haben bei einem
bestimmten Risiko die höchste
Performanceerwartung, das heißt, es existiert kein anderes
Portfolio, das bei mindestens gleichem Ertrag ein
geringeres Risiko aufweist, oder
umgekehrt, es existiert kein Portfolio, das bei
gleichem Risiko einen höheren Ertrag
bietet.
Merton Howard Miller (* 16. Mai 1923 in Boston, Massachusetts; †
3. Juni 2000 in Chicago) war ein US-amerikanischer Ökonom und hat
gemeinsam mit Harry Markowitz und William Sharpe im Jahr 1990 den
Preis für Wirtschaftswissenschaften der schwedischen Reichsbank
in Gedenken an Alfred Nobel für seine grundlegenden
wissenschaftlichen Beiträge zur Theorie der Unternehmensfinanzen
erhalten.
Merton Howard Miller (* 16. Mai 1923 in Boston,
Massachusetts; † 3. Juni 2000 in Chicago)
"[...] In particular I will argue, first, that the highly
visible losses and defaults on junk bondsdo not
mean that overleveraging did in fact occur; second, paradoxical
as it may sound, that increased leveraging by corporations does
not imply increased risk for the economy as a whole; third,
that the financial distress being suffered by some highly
leveraged firms involves mainly private, not social costs; and
finally, that the capital markets have built-in controls
against overleveraging - controls, moreover, very much in
evidence at the moment. [...]"
Merton Howard Miller (* 16. Mai 1923 in Boston, Massachusetts;
† 3. Juni 2000 in Chicago) war ein US-amerikanischer Ökonom und
hat gemeinsam mit Harry Markowitz und William
Sharpe im Jahr 1990 den Preis für
Wirtschaftswissenschaften der schwedischen Reichsbank in
Gedenken an Alfred Nobel für seine grundlegenden
wissenschaftlichen Beiträge zur Theorie der
Unternehmensfinanzen erhalten.
Merton H. Miller folgte den Fußstapfen seines Vaters, einem
Rechtsanwalt, und studierte in den Jahren 1940 bis 1943 an der
renommierten und ältesten Universität in den Vereinigten
Staaten, der Harvard University in Cambridge, Massachusetts,
Rechts- und Wirtschaftswissenschaften.
Seine eigentlichen Interessen konzentrierten sich jedoch eher
auf die Wirtschaftswissenschaft und nur sekundär auf die
Rechtswissenschaften. Während seiner Zeit in Cambridge traf er
auch seinen Kommilitonen Robert M. Solow, der im Jahr 1987 den
Nobelpreis für Wirtschaftswissenschaften für seine Arbeiten
über ökonomische Wachstumstheorien erhielt.
Während der Kriegsjahre arbeitete Miller im
US-Finanzministerium und im Zentralbank-System der
Vereinigten Staaten (Federal Reserve System). Im Jahre
1949 entschied sich Miller wieder zurück in die Wissenschaft zu
gehen und schloss an der Johns Hopkins University in Baltimore
seine Promotion ab. In den anschließenden Jahren lehrte Miller
an der London School of Economics und am Carnegie Institute of
Technology (heute: Carnegie-Mellon University). Hier lerne er
auch neben dem deutschstämmigen Herbert Simon, der im Jahr 1978
den Nobelpreis für Wirtschaftswissenschaften "für seine
bahnbrechende Erforschung der Entscheidungsprozesse in
Wirtschaftsorganisationen" erhielt, auch Franco
Modigliani kennen. Franco Modigliani erhielt im Jahr 1990
den Preis für Wirtschaftswissenschaften der schwedischen
Reichsbank in Gedenken an Alfred Nobel für seine grundlegende
Analyse über das
Sparverhalten der Finanzmärkte. Gemeinsam mit ihm
veröffentlichte er im Jahr 1958 den vielfach zitierten und
diskutierten Artikel "The Cost of Capital, Corporation Finance
and the Theory of Investment" in der American Economic
Review.
Die Frage nach der optimalen Kapitalstruktur
In ihrer Analyse hatten
sie die Frage untersucht, in welchem Verhältnis
sinnvollerweise Eigen- und Fremdkapital zueinander sehen
sollten (Kapitalstrukturproblem). Erstmal hatten sie im
Rahmen ihrer betriebswirtschaftlichen Analyse einen
Bezug zum Kapitalmarkt hergestellt. So konnten sie zeigen,
dass der Wert eines Unternehmens in einem funktionierenden
Markt nicht von der Kapitalstruktur, sondern ausschließlich
von der erwirtschafteten Rendite auf das eingesetzte
Gesamtkapital abhängt. Da dieselben Effekte, die die
Unternehmensleitung durch Veränderung in der Verschuldung des
Unternehmens auf die Risiko-Renditen-Position
der Aktionäre bewirken kann, auch von den Aktionären
kostenlos im Rahmen ihrer privaten Veranlagungen erwirkt
werden können, sind sie ohne Einfluss auf ihre
Wohlfahrtsposition. Die in der Betriebswirtschaftslehre lange
diskutierte Frage nach der optimalen Kapitalstruktur stellt
somit überhaupt kein Problem dar: Für die Bewertung eines
Unternehmens ist die Kapitalstruktur irrelevant. Damit ist
auch jede andere Annahme über die vom Markt
geforderte Eigenkapitalrendite als die,
dass sie linear mit steigender Verschuldung zu wachsen habe,
mit grundlegenden Prinzipien einer marktwirtschaftlichen
Ordnung (law of one price) nicht vereinbar.
Im Jahr 1961 verliess Miller Carnegie und wechselte zur
Graduate School of Business an der
Universiät in Chicago. Dort forschte und lehrte Miller als
Professor für Bankwesen und Finanzen und wird der Chicagoer
Schule zugeordnet.
Leg nicht alle Eier in einen Korb
Im Jahr 1990 wurde Miller – zusammen mit Merton H. Miller
und William F. Sharpe – mit dem Preis der schwedischen
Reichsbank für Wirtschaftswissenschaften in Gedenken an
Alfred Nobel für seine Forschungen auf dem Gebiet der
Preisbildungstheorie im Kapitalmarkt ausgezeichnet. Kern
des Portfolio-Selekton-Modells war die empirische
Beobachtung, dass Anleger ihr Vermögen nicht nur in einem
Anlagetitel investieren, sondern es auf mehrere Anlagetitel
aufteilen. Sie folgen quasi der Grundregel des
Risikomanagements: Leg nicht alle Eier in einen Korb. Eine
Diversifikation des Portfolios ist aber nur dann sinnvoll,
wenn die Anleger nicht nur die Rendite, sondern auch
das Risiko in ihrer Anlageenscheidung
berücksichtigen. Würden die Anlager ausschließlich die
Rendite betrachten, so käme nur der Titel mit der höchsten
Rendite in das Portfolio.
Ein Portfolio gilt erst dann als effizient, wenn sich kein
anderes Portfolio finden lässt das bei gleichem Ertrag ein
geringeres Risiko aufweist oder bei
gleichem Risiko einen höheren Ertrag
erwarten lässt. Mit anderen Worten: Jede andere Kombination
der Einzelanlagen zu einem Portfolio ist für den Anleger
ungünstig, weil entweder
bei gegebenem Ertrag
das Risiko noch weiter reduziert
werden kann oder
bei gegebenem Risiko die
Ertragsmöglichkeiten nicht voll ausgeschöpft werden.
Markowitz konnte – gemeinsam mit seinen Kollegen – zeigen,
dass es nicht nur ein einziges effizientes Portfolio gibt,
sondern sehr viele. Die effizienten Portfolios liegen auf
einer Linie, die man als die Effizienzkurve bezeichnet
(siehe Abbildung).
Effizienzkurve im Risiko-Ertrag-Diagramm
In der Abbildung ist auf der horizontalen Achse
das Risiko in Form
der Volatilität und auf der vertikalen
Achse der Ertrag in Form der Rendite aufgetragen. Die
Effizienzkurve weist typischerweise einen gekrümmten Verlauf
auf. Alle Portfolios die sich aus einer gegebenen Menge von
Einzelanlagen zusammenstellen lassen, liegen auf oder
unterhalb der Effizienzkurve.
Portfolios die unterhalb dieser Effizienzkurve liegen (Punkte
C und D) sind nicht effizient und kommen bei freier Auswahl
für keinen Anleger in Betracht. Die Effizienzkurve stellt
also unter dem Risiko-Ertrags Aspekt die
für alle Anleger gleichermaßen gültige Menge der wählbaren
Portfolios im Sinne wirtschaftlich sinnvoller
Entscheidungsalternativen dar. Die Abbildung verdeutlicht
daher sehr anschaulich, wie durch die Bildung effizienter
Portfolios im Sinne der Diversifikation das Verhältnis
von Risiko und Ertrag verglichen mit den
Einzel-Anlagen deutlich verbessert werden kann. Die
Effizienzkurve umfasst Portfolios mit
geringem Risiko im linken Teil (Punkt E)
bis zu Portfolios mit sehr viel
höherem Risiko und dafür höheren
Ertragschancen im rechten Teil (Punkt B).
Aufbauend auf den Erkenntnissen
der Portfoliotheorie entwickelte William
F. Sharpe das Capital Asset Pricing
Model (CAPM). Das Modell geht davon
aus, dass Risiko explizit in Form einer
vom Markt determininierten, zusätzlich geforderten Rendite
berücksichtigt wird. Nach CAPM hängt der
Wert einer Aktie von ihrem Risikobeitrag
zum Portefeuille ab. Kritisch muss
angemerkt werden, dass CAPM von Annahmen
ausgeht, die häufig realitätsfern sind. So werden etwa homogene
Erwartungen unterstellt. Dies setzt voraus, dass alle
Investoren die gleichen bewertungsrelevanten Informationen
besitzen.
Plötzlich erlebt ein halb vergessener Ökonom eine Renaissance:
Entsprechend Hyman P. Minskys Theorien
sind Finanzkrisen und heftige Marktbewegungen als systembedingte
Folgen des Verhaltens von Marktteilnehmern zu betrachten und
werden im Zusammenhang mit
der Subprime-Krise intensiv diskutiert. Im
Kern entwickelte Minsky eine Theorie dazu, wie Finanzblasen
entstehen und irgendwann platzen. Die finanzorientierte
Argumentation Minskys wird oft auch als "Wall
Street-Keynesianismus" bezeichnet.
Hyman P. Minsky
(* 23. September 1919 in Chicago, † 4. Oktober 1996 in
Rhinebeck, N.Y.)
Hyman P. Minsky (* 23.
September 1919 in Chicago, † 4. Oktober 1996 in Rhinebeck,
N.Y.), US-amerikanischer Ökonom, widmete sich insbesondere
der Fragilität von Finanzmärkten und der Hypothese
finanzieller Instabilität (Financial Instability Hypothesis).
"[...] Während das Experimentieren mit dem Ausdehnen des
Schuldverhältnisses jahrelang weitergehen kann und ein
Prozess des
schrittweise Herantastens an die Grenzen des Marktes ist,
kann die Umbewertung akzeptabler Schuldenstrukturen sehr
plötzlich und schnell stattfinden. [...]"
Plötzlich erlebt ein halb vergessener Ökonom eine
Renaissance: Entsprechend Hyman P. Minskys
Theorien sind Finanzkrisen und heftige Marktbewegungen als
systembedingte Folgen des Verhaltens von Marktteilnehmern zu
betrachten und werden im Zusammenhang mit
der Subprime-Krise intensiv diskutiert.
Im Kern entwickelte Minsky eine Theorie dazu, wie
Finanzblasen entstehen und irgendwann platzen. Die
finanzorientierte Argumentation Minskys wird oft auch als
"Wall Street-Keynesianismus" bezeichnet.
Minsky fand während seiner Zeit als Wissenschaftler nur wenig
Gehör, da die neoliberale Schule der Ökonomie, die in
Reaktion auf die Theorien von John Maynard Keynes entstanden
war, über alle Querdenker dominierte. Die meisten
neoliberalen Wirtschaftswissenschaftler waren zur damaligen
Zeit davon überzeugt, dass die Finanzmärkte "effizient"
seien. Hyman Minsky sah dies anders: Erfolg führe zu größeren
Wagnissen. Wenn etwas funktioniere, dann probiere man es
immer weiter, immer extremer aus, bis es nicht mehr
funktioniert. Stabilität führe damit notwendig zu
Instabilität.
Nicht der Blick in den Rückspiegel ist
entscheidend
In der Retrospektive ist es erstaunlich, dass nur wenige
Marktteilnehmer und Wissenschaftler seine Überlegungen ernst
nahmen. Denn seine Grundüberlegungen leuchten ein und sind
auch mit einem gesunden Menschenverstand nachvollziehbar: Die
freien Kapitalmärkte führen dazu, dass die Akteure in guten
Zeiten immer höhere Risiken eingehen. Immer mehr
Marktteilnehmer gehen davon aus, dass es im nächsten Jahr
nicht anders gehen wird als in den vergangenen Jahren.
Marktteilnehmer verhalten sich wie der Autofahrer, dessen
Frontscheibe beschlagen ist und der deshalb mit Hilfe des
Rückspiegels fährt. Was sagen Zahlen, die gestern ermittelt
wurden und vorgestern aufgrund von Ereignissen von
vorvorgestern zustande kamen denn über die Situation von
Morgen aus? Die Zukunft ist ungewiss und lässt sich nicht mit
einem Blick in den Rückspiegel erkennen. Kein Bauer käme auf
die Idee, aus der Ernte des Vorjahres auf die Ernte des
kommenden Jahres zu schließen. Unvorhersehbare Katastrophen –
Sturm, Hagel, Überschwemmung, Heuschreckenschwärme oder
Pestilenz – verhindern einen scharfen Blick in die Zukunft.
Risikoprämien sinken
Doch zurück zu den Finanzmärken: Minsky war der Auffassung,
dass Erfolg zu größeren Wagnissen führe. Mit der Zeit wachsen
dann die Schulden (beispielsweise als Unternehmenskredite
oder Hypotheken) bis zu einem Punkt, an dem die Cashflows der
Marktteilnehmer die wachsenden Kosten des Schuldendienstes
nicht mehr tragen können. Parallel zu der wachsenden
Verschuldung verändern Kreditgeber, Aufsichtsbehörden
und Rating-Agenturen ihre Risikowahrnehmung.
Die Folge ist, dass die Papierwerte an den Finanzmärkten
immer mehr steigen und sich von den realen Werten lösen.
Gleichzeitig sinken die Risikoprämien in den Keller. Und
irgendwann kommt der Punkt, an dem die fragilsten Schuldner
ihren Verpflichtungen nicht mehr nachkommen können. Die
Kreditgeber ziehen die Notbremse und die Marktteilnehmer
sitzen mitten in einer Kreditklemme. Kurzum: Die Blase
platzt. An diesem Punkt befinden wir uns heute, so die
Meinung vieler Ökonomen. Was Ökonomen aber heute besonders
beunruhigt, ist die Tatsache, dass die Kreditblase weltweit
besteht und die Schuldenpyramide die bisher größte überhaupt
ist. Die Domino-Rallye führt dazu, dass auch Schuldner mit
guter Bonität mitgerissen werden und die Werte von Aktien,
Immobilien, Rohstoffen etc. sinken. Schlussendlich kann der
Dominoeffekt auch zu einem "Minsky-Meltdown" führen.
Zwei grundsätzliche Erklärungsansätze für
Finanzkrisen
Die ökonomische Theorie bietet im Prinzip zwei
Erklärungsansätze für Finanzkrisen:
In einem ersten Erklärungsansatz werden Finanzkrisen
durch exogene Schocksverursacht. Anhänger dieser
Interpretation gehen in ihren Modellen normalerweise von den
Hypothesen rationaler Erwartungen und der Homogenität der
wirtschaftlichen Akteure aus.
In einem zweiten Erklärungsansatz werden Finanzkrisen
durch endogene
Einflussfaktoren hervorgerufen. Diese Strömung
verwirft die oben genannten Hypothesen. Die ultimative
Ursache von Finanzkrisen liegt in der Massenpsychologie bzw.
im Herdenverhalten der wirtschaftlichen Akteure. Die
Hypothesen rationaler Erwartungen und der Homogenität der
Wirtschaftsakteure sind für sie nichts anderes als
realitätsfremde Arbeitshypothesen.
Die endogenen Erklärungen von Finanzkrisen lassen auch Platz
für exogene Schocks, die in diesem Fall aber eher als
Katalysator der Krise auftreten. Minskys "Financial
Instability Hypothesis" ist den endogenen Krisentheorien
zuzuordnen. Seiner Meinung nach ist der kapitalistische
Marktmechanismus inhärent instabil, indem
Ungleichgewichtssituationen und Arbeitslosigkeit zum
Normalzustand gehören. Als Ursache hierfür hat Minsky primär
das hoch entwickelte Finanzsystem identifiziert. Ein solches
System ist
inhärent instabil, das heißt es verhält sich zyklisch und
kann nur beschränkt gelenkt werden.
Diese Argumentation widerspricht dem Mainstream-Ansatz, dass
Geld "neutral" den Waren und Dienstleistungen gegenüber sei
(John Maynard Keynes hat mit seiner General Theory im Jahr
1936 die Mehrzahl der Ökonomen davon überzeugen können, dass
es nicht wirklich eine Trennung zwischen Realwirtschaft und
Geld gibt. Die Neutralität galt nicht mehr, bis Milton
Friedman im Jahr 1956 behauptete, dass Geld allenfalls
kurzfristig Einfluss auf die Realwirtschaft ausübe,
langfristig sich jedoch neutral verhalten würde.). Außerdem
widerspricht Minskys Hypothese der Logik, dass die
Kapitalstruktur für den Marktwert eines Unternehmens
irrelevant sei (Modigliani-Miller-Theorem) bzw. dass das
deficit spending der Regierung keine Auswirkung auf die
Privatwirtschaft habe (Ricardianisches Äquivalenz-Theorem).
Die Gier nach mehr
Auf den heutigen Finanzmärkten findet der Betrachter eine
schier unendliche Vielfalt von Instrumenten, die sich
aus Swaps, Optionen und
teilweise recht exotischen Strukturierungen zusammensetzen.
Im Kern verfolgen aber alle Instrumente ein Ziel, nämlich die
Steuerung bzw.
das Management von Risiken.
In den vergangenen Jahren ist das Emissionsvolumen quasi im
Gleichschritt mit den Fortschritten in der
Modellierungstechnik von (Kredit-)risiken stark angestiegen.
Strukturierte Finanzinstrumente können, wie andere Formen des
Kreditrisikotransfers – etwa Credit Default
Swaps (CDS) oder Pass-Through-Verbriefungen – dazu
eingesetzt werden, Kreditrisiken zwischen Finanzinstituten
und Sektoren zu verschieben. Pool- und Tranchenbildung sind
nicht nur die wesentlichen Quellen für den Wert von
strukturierten Finanzprodukten, sie sind auch die
Hauptfaktoren hinter dem, was als "Komplexität"
dieser Instrumente bezeichnet werden kann. Was die
Poolbildung betrifft, so erfordert die Bewertung
von Risiko und Ertrag eines
strukturierten Finanzinstruments die Modellierung der
Verlustverteilung des zugrunde liegenden Forderungspools.
Die schnelle Weiterentwicklung der strukturierten
Finanzmärkte und das Wachstum der Volumina führt als Resultat
jedoch nicht zu einer Reduzierung des Gesamtrisikos (was zu
erwarten wäre), sondern vielmehr zu immer höheren Wetten und
einer steigenden Gier, da die Marktteilnehmer Risiken
ausblenden und nur die eine Seite der Chancen-/Risikomedaille
sehen. Aufgrund der
zunehmenden Komplexität der Produkte, der
Pool- und Tranchenbildung lassen sich die Risiken nur noch
mit komplexen mathematischen Methoden
identifizieren und bewerten. In der Folge tritt als weiteres
Problem ein Modellrisiko auf, das eng
mit der Komplexität strukturierter
Produkte und der
Reagibilität des Tranchenrisikos auf unterschiedliche, in den
Schätzungen der Verlustverteilung des Forderungspools
enthaltene Annahmen verbunden ist. Kurzum: Beim Handel mit
strukturierten Instrumenten besteht eine nicht zu
unterschätzende Wahrscheinlichkeit, dass die
Risiken nicht adäquat bewertet wurden.
Allerdings lassen sich die elementaren Grundmechanismen der
Märkte nicht ausschalten:
Geringeres Risiko führt zu geringeren
Renditen und vice versa. Was tun? Geringere Renditen müssen
durch höhere Risiken, das heißt Schulden, aufgebessert
werden. Die Finanzwelt hat also nur eine Wahl: Sie muss die
Stabilität so lange auszunutzen, bis sie in Instabilität
verfällt.
Fazit
Die modernen Methoden des
Risikomanagements und der Finanztheorie können einen Faktor
nicht ausschalten: Die Gier nach mehr und die daraus folgende
Instabilität. Das ist im Kern das Grundgesetz von Hyman
Minsky.
Emunds, B. (2001): Der Finanzkeynesianismus in der Tradition
Hyman Minskys, in: PROKLA 123, 31. Jg., Nr. 2, Juni 2001, S.
245 ff..
Clement, R./Terlau, W./Kiy, M. (2004): Grundlagen der
angewandten Makroökonomie, München 2004.
Keynes, J. M. (1936): The
General Theory of Employment, Interest, and Money, New York
1936.
Kindleberger, C. (1978): Manias, Panics and Crashes. New York
1978.
Lahart, J. (2007): In
Time of Tumult,
Obscure Economist Gains Currency, in: The Wall Street
Journal, 18. August 2007.
Minsky, H. P. (1975): John
Maynard Keynes, Columbia University Press 1975.
Minsky, H. P. (1977): Die
Hypothese der finanziellen Instabilität, Challenge, White
Plains, N. Y. 1977, S. 20 ff.
Minsky, H. P. (1986):
Stabilizing An Unstable Economy, Yale University Press 1986.
Minsky, H. P. (1982): Can
"It" Happen Again? Essays on Instability and Finance. New
York 1982.
Schnyder, M. (2002): Die Hypothese finanzieller Instabilität
von Hyman P. Minsky - Ein
Versuch der theoretischen Abgrenzung und Erweiterung,
Dissertation vorgelegt der Wirtschafts- und
sozialwissenschaftlichen Fakultät der Universität Freiburg in
der Schweiz, Freiburg 2002.
Gemeinsam mit Merton Miller formulierte er das Modigliani-Miller
Theorem, welches den Einfluss des Verschuldungsgrades eines
Unternehmens auf dessen Kapitalkosten beschreibt. Das erste
Theorem von Modigliani und Miller basiert auf der Aussage, dass
es keine Steuern, keine Insolvenzkosten, keine asymmetrischen
Informationen und einen vollkommenen Kapitalmarkt gibt, über den
ein Unternehmen finanziert ist, dann ist der Marktwert des
Unternehmens unabhängig von der Finanzierungsform des
Unternehmens.
Franco Modigliani (* 18. Juni 1918 in Rom; † 25. September
2003 in Cambridge, Massachusetts)
Modigliani wurde im Jahr 1918 als Sohn eines jüdischen
Physikers in Italien geboren. Vor dem Hintergrund der
faschistischen Entwicklungen in Europa wanderte er im Jahr 1939
in die USA aus. Im Jahr 1944 erhielt er seinen Ph.D. von der
New School for Social Research. Im Jahr 1948 wechselte er zur
University of Illinois, später dann als Professor an die
Carnegie Mellon University. Während dieser Zeit beeinflusste er
die Wirtschaftswissenschaften mit zwei bahnbrechenden
Forschungsergebnissen:
Gemeinsam mit Merton Miller formulierte er das
Modigliani-Miller Theorem, welches den Einfluss des
Verschuldungsgrades eines Unternehmens auf dessen Kapitalkosten
beschreibt. Das erste Theorem von Modigliani und Miller basiert
auf der Aussage, dass es keine Steuern, keine Insolvenzkosten,
keine asymmetrischen Informationen und einen vollkommenen
Kapitalmarkt gibt, über den ein Unternehmen finanziert ist,
dann ist der Marktwert des Unternehmens unabhängig von der
Finanzierungsform des Unternehmens – aber insbesondere auch
unabhängig vom Verschuldungsgrad des Unternehmens. Da diese
Voraussetzungen in der Praxis nie zutreffen, kann hieraus
abgeleitet werden, dass man den Einfluss der oben skizzierten
Determinanten überprüfen muss, wenn die Kapitalstruktur des
Unternehmens optimiert werden soll. Das zweite Theorem baut auf
dem ersten auf. Wenn das erste Theorem gilt und ein wir uns ein
Unternehmen anschauen, dessen Passiva lediglich aus Passiva
vorrangigen Fremdkapitals und nachrangigem Eigenkapital
bestehen, dann ist der Eigenkapitalkostensatz des Unternehmens
vom Verschuldungsgrad dieses Unternehmens linear abhängig. Des
weiteren ist der Fremdkapitalkostensatz des Unternehmens vom
Verschuldungsgrad dieses Unternehmens unabhängig und der
Gesamtkapitalkostensatz des Unternehmens vom Verschuldungsgrad
dieses Unternehmens unabhängig. Kurzum: Für Unternehmen gibt es
keinen optimalen Verschuldungsgrad.
Zum zweiten war Modigliani der Ideengeber der "life-cycle"
Hypothese, welche die Sparrate in einer Volkswirtschaft
erklärt. Nach der "Life-Cycle Hypothesis of Saving" (LCH)
sparen rationale Akteure, um ihre verfügbaren Ressourcen
gleichmäßig über die Lebenszeit zu verteilen. Optimal ist in
Abhängigkeit von Zeitpräferenz und Realzins eine
Konsumglättung über die gesamte Lebenszeit. Nach dieser Logik
sparen Akteure während ihrer Erwerbsphase, um in der
Rentenphase diese Ersparnisse dann vollständig zu
verbrauchen. Akteure, die im Sinne der LCH sparen, betreiben
also einen echten Konsumverzicht.
Im Jahr 1962 wechselte er zum MIT und leitete dort ein Institut
(MIT Sloan School of Management and MIT Department of
Economics) und blieb dort bis zu seinem Tot im Jahr 2003.
Bereits im Jahr 1985 erhielt Modigliani den Preis der
schwedischen Reichsbank für Wirtschaftswissenschaften in
Gedenken an Alfred Nobel "for his pioneering analyses of saving
and of financial markets".
"[...] What accounts for the observed flow of
bequests? One can distinguish two main motives which may
also interact. The first is the precautionary motive
arising from the uncertainty of the time of
death. Indeed, in view of the practical impossibility of
having negative net worth, people tend to die with some
wealth, unless they can manage
to put all their retirement reserves
into life annuities. […] Undoubtedly, ‘adverse
selection’, causing an unfavorable payout, and the fact
that some utility may be derived from bequests are an
important part of the answer. In the absence of
annuities, the wealth left behind will reflect risk
aversion and the cost of running out of wealth.
[...]"
Gottfried Wilhelm Leibnitz gilt als einer der letzten
Universalgelehrten und war wahrscheinlich der umfassendste Kopf,
der an der Wende zum 17. zum 18. Jahrhundert forschte und
philosophierte. Er hat sich mit statistischen und demographischen
Fragestellungen beschäftigt und legte mit seinen Arbeiten den
Grundstein zur heutigen Theorie der Entscheidungen unter
Ungewissheit. Im Jahr 1682 begründete er die
Kapitalwertberechnung.
Gottfried Wilhelm Freiherr von Leibniz (* 1. Juli 1646
in Leipzig; † 14. November 1716 in Hannover)
Gottfried Wilhelm Leibnitz gilt als einer der letzten
Universalgelehrten und war wahrscheinlich der umfassendste
Kopf, der an der Wende zum 17. zum 18. Jahrhundert forschte
und philosophierte. Er hat sich mit statistischen und
demographischen Fragestellungen beschäftigt und legte mit
seinen Arbeiten den Grundstein zur heutigen Theorie der
Entscheidungen unter Ungewissheit. Im Jahr 1682 begründete
er die Kapitalwertberechnung.
Leibniz wurde am 21. Juni (nach dem Gregorianischen
Kalender erst am 1. Juli) 1646 in Leipzig geboren. Als
Sechsjähriger verlor er seinen Vater Friedrich Leibniz, der
Jurist und Professor für Moralphilosophie war, und wurde
fortan von seiner Mutter erzogen. Er war eines der
Wunderkinder, mit denen seine Zeit zu renommieren
versuchte: Der achtjährige Leibniz soll anhand der
umfangreichen väterlichen Bibliothek autodidaktisch die
lateinische und die griechische Sprache gelernt haben. Im
zarten Alter von zwölf Jahren soll er beim Durchdenken
logischer Fragestellungen die Anfänge einer mathematischen
Zeichensprache entwickelt haben. Nach der Schulzeit in
Leipzig immatrikulierte er sich im Jahr 1661 an der
Leipziger Universität und studierte dort und ab dem Jahr
1663 in Jena Philosophie sowie Rechts- und
Naturwissenschaften. In Jena beschäftigte er sich – unter
Anleitung des Mathematikers, Physikers und Astronomen
Erhard Weigel – mit Pythagoras. An der Universität Altdorf
bei Nürnberg erwarb er im Jahr 1667 mit 20 Jahren den
Doktor der Rechte, weil er der Leipziger Fakultät zu jung
war. Direkt im Anschluss an seine Promotion trat er – auf
Empfehlung des Mainzer Diplomaten und Bibliothekars Johann
Christian von Boineburg – in die Dienste des Mainzer
Kurfürsten und späteren Mainzer Erzbischofs Johann Philipp
von Schönborn. Dieser sandte ihn im Jahr 1672 nach Paris,
wo Leibniz die führenden europäischen Intellektuellen
kennen lernte. So lerne er bei Huygens die Methoden der
modernen Mathematik. Es wird auch berichtet, dass er dem
"Sonnenkönig" Ludwig XIV. einen Plan für einen
kreuzzugsähnlichen Eroberungsfeldzug gegen Ägypten
unterbreitete ("Consilium Aegyptiacum"), um die
militärischen Energien Frankreichs nach Ägypten abzuleiten.
Der König lehnte diesen Plan ab – über
hundert Jahre später jedoch setzte Napoléon Bonaparte ihn
dann doch um.
Während dieser Zeit entwickelte Leibnitz auch eine
Rechenmaschine, die multiplizieren, dividieren und die
Quadratwurzel ziehen konnte. Nach seiner Rückkehr
beschäftigte er sich verstärkt mit der Mathematik Pascals
und Descartes’ und entwickelte – unabhängig von Isaac
Newton – die Differential- und Integralrechnung. Isaac
Newton hatte sein Prinzip der Infinitesimalrechnung bereits
im Jahr 1666 entwickelt, jedoch nicht veröffentlicht.
Leibniz veröffentlichte sein System im Jahr
1684, woraufhin Newton 1687 folgte, doch setzte sich das
Leibnizsche Zeichensystem durch. So stammt von Leibniz die
immer noch gebräuchliche Notation in
Differentialschreibweise und das Integralzeichen
∫dx .
Im Jahr 1676 trat er in die Dienste des Herzogs von
Hannover und wurde Hofrat und Hofbibliothekar. Dieses Amt
sollte er bis zu seinem Lebensende behalten. Als Jurist
ordnete und disponierte er die Gesetze des Herzogtums neu.
Ab dem Jahr 1685 reiste Leibnitz durch Europa, da er im
Auftrag des Welfenhauses eine Geschichte der Welfen
schreiben sollte. In den Jahren 1678/79 setzte er sich mit
den Fragen auseinander, wie das Wasser aus den Bergwerken
im Harz gepumpt werden könne. Als Universalgelehrter
beschäftigte er sich unter anderem mit Plänen für ein
Unterseeboot, der Verbesserung der Technik von
Türschlössern, einem Gerät zur Bestimmung der
Windgeschwindigkeit, der Gründung einer Witwen- und
Waisenkasse sowie dem Beweis für das Unbewusste des
Menschen.
Im Jahr 1700 wurden nach Verhandlungen mit dem
brandenburgischen Kurfürsten Friedrich III., dem späteren
König Friedrich I., Pläne für eine Preußische Akademie der
Wissenschaften nach englischem und französischem Vorbild in
die Tat umgesetzt. Leibnitz wurde ihr erster Präsident und
lieferte in der Folge bedeutende Beiträge zu Philosophie.
Mit der Entdeckung, dass jede Zahl mit den Ziffern 0 und 1
dargestellt werden kann, lieferte er die Basis für das
Dualsystem. Leibnitz entdeckte, dass sich Rechenprozesse
viel einfacher mit einer binären Zahlencodierung
durchführen lassen und verknüpfte die Prinzipien der
Arithmetik mit den Prinzipien der Logik.
Geboren wurde William Forsyth Sharpe am 16. Juni 1934 in
Cambridge (Massachusetts, USA). Seine Schulausbildung schloss er
in Riverside (Kalifornien) ab: "I benefitted there from
stimulating teachers and challenging curricula." Im Jahr 1951
schrieb sich Sharpe an der University of California in Berkeley
ein, um Medizin zu studieren.
William Forsyth Sharpe (* 16. Juni 1934 in Cambridge,
Massachusetts, USA)
Geboren wurde William Forsyth Sharpe am 16. Juni 1934 in
Cambridge (Massachusetts, USA). Seine Schulausbildung schloss er
in Riverside (Kalifornien) ab: "I benefitted there from
stimulating teachers and challenging curricula." Im Jahr 1951
schrieb sich Sharpe an der University of California in Berkeley
ein, um Medizin zu studieren. Nach einem Jahr in Berkeley stellte
er jedoch fest, dass seine Präferenzen wohl woanders lagen. So
wechselte er an die University of California nach Los Angeles und
begann ein Studium der Betriebswirtschaft.
Im ersten Semester beschäftigte sich Sharpe vor allem mit
Rechnungswesen und Volkswirtschaftslehre, wobei es ihm der
letztere Bereich offensichtlich mehr angetan hatte. So sagte er
beispielsweise zu den beiden Fächern: "Both had a major influence on
my career. The accounting course dealt primarily with
bookkeeping, while the economics course focused on microeconomic
theory. I found bookkeeping tedious and light on intellectual
content. But I was greatly attracted to the rigor and relevance
of microeconomic theory."
How to concentrate on essential elements and abstract
from secondary ones
Im Jahr 1956 schloss Sharpe sein Studium mit einem "Master of
Arts" ab. Insbesondere zwei Lehrer hatten einen maßgeblichen
Einfluss auf die Karriere von William Sharpe. Zum einen
J. Fred Weston,
ein Finanz-Professor an der Business School,
bei dem er Kurse besuchte und für den er als
Forschungsassistent arbeitete. Weston brachte ihm vor allem
die Arbeiten von Harry Markowitz näher, welche die gesamte
Finanzwelt revolutionären sollten. Des Weiteren hatte Armen
Alchian, ein Ökonomie-Professor in Los Angeles einen großen
Einfluss auf Sharpe. "He taught his students to question
everything; to always begin an analysis with first
principles; to concentrate on essential elements and abstract
from secondary ones; and to play devil's advocate with one's
own ideas. In his classes we were able to watch a first-rate mind
work on a host of
fascinating problems."
Nachdem er einige Jahre bei der US-Armee war, wechselte er
schließlich im Jahr 1956 als Volkswirt zur RAND Corporation.
Die RAND Corporation ("Research ANd Development") ist eine
Denkfabrik in den USA, die nach Ende des Zweiten Weltkriegs
gegründet wurde, um die Streitkräfte der USA zu beraten.
"RAND was an almost ideal place for anyone interested in
performing research that was both aesthetically pleasing and
also pragmatic. During this period path-breaking work in
computer science, game theory, linear
programming, dynamic programming and applied economics was
being done at RAND, both by permanent staff and visitors from
major universities."
Doktorarbeit zur Portfolioanalyse
Während seiner Zeit bei RAND schloss Sharpe im Jahr 1961 sein
PhD in Economics an der Universität von Kalifornien ab. Fred
Weston schlug vor, dass er vielleicht Harry Markowitz, der
damals ebenfalls bei RAND, irgendwelche Ideen für gemeinsame
Projekte hätte. In der Tat hatte Markowitz offensichtlich
solche Ideen und Sharpe machte sich daran, zusammen mit ihm
an der Portfolio-Theorie zu arbeiten.
In seiner Doktorarbeit beschäftige sich Sharpe dann auch mit
verschiedenen Aspekten der Portfolioanalyse – basierend auf
einem Modellansatz von Markowitz. Er nannte den Ansatz
"single index model", heute eher bekannt unter dem Terminus
"one-factor model". "Key is the assumption that security
returns are related to each other solely through responses to
one common factor. In the dissertation I addressed both
normative and positive results. The final chapter (A Positive
Theory of Security Market Behavior), included a result similar
to that now termed the security market line relationship of
the Capital Asset Pricing Model, but was
obtained in the limited environment in which returns are
generated by a one-factor
model."
Nobelpreis gemeinsam mit Merton H. Miller und Harry
M. Markowitz
Im Jahr 1961 wechselte Sharpe nach Seattle an die "School of
Business" der
University of Washington. Während dieser Zeit schrieb er
einige Fachaufsätze – basierend auf den Ergebnissen seiner
Doktorarbeit. So reichte er unter anderem bei der Redaktion
des "Journal of Finance" einen Fachbeitrag ein, der jedoch
zunächst abgelehnt wurde.
Schließlich wurde der Beitrag im September 1964 doch
veröffentlicht (Capital Asset Prices – A Theory of Market
Equilibrium Under Conditions of Risk, in: The Journal of
Finance, Vol. XIX, No. 3, September 1964, pp. 425-442.).
Dieses Papier lieferte die Basis für das Capital
Asset Pricing Model (CAPM).
Das CAPM ist ein
Kapitalmarktgleichgewichtsmodell, das
die Portfoliotheorie um die Frage
erweitert, welcher Teil des Gesamtrisikos eines
Investitionsobjekts nicht durch Diversifikation zu beseitigen
ist und erklärt, wie risikobehaftete Anlagemöglichkeiten im
Kapitalmarkt bewertet werden.
Im Jahr 1970 wechselte Sharpe an die Stanford University
Graduate School of Business. Später
sagte er über diese Zeit: "My years at Stanford have been all
that anyone with interests in both research and teaching
could have desired. Throughout, I have had the benefit of
stimulating colleagues and students. Much of my knowledge of
finance was gained when I participated in ateam of three,
teaching the first PhD seminar in the field at Stanford in
the early 1970's. Alan Kraus, Bob Litzenberger and I shared
not only our experience and knowledge but also an interest in
sailing – a sport in which
we indulged fairly frequently." Im Jahr 1973 wurde Sharpe zum
"Timken Professor of Finance" ernannt, im Jahr 1989 wurde er
dann "Timken Professor Emeritus of Finance".
Sharpe erhielt im Jahre 1990 gemeinsam mit Merton H. Miller
und Harry M. Markowitz den Preis der schwedischen
Reichsbank für Wirtschaftswissenschaften in Gedenken an
Alfred Nobel für seine Forschungen auf dem Gebiet der
Preisbildungstheorie im Kapitalmarkt.
Außerdem entwickelte Sharpe die "Sharpe-Ratio", eine Kennzahl, die
darüber Auskunft gibt, wie stark die Rendite einer Geldanlage
über dem risikofreien Zinssatz lag und bei
welcher Volatilität diese Rendite
erzielt wurde. Mit der Sharpe-Ratio kann in einer
ex-post-Betrachtung ein Vergleich zwischen verschiedenen
Geldanlagen vorgenommen werden, indem die Überrendite pro
Einheit Risiko gemessen wird. Als Maß
für das Risiko wird dabei
die Volatilität der Renditen verwendet,
wobei in die Berechnung
der Volatilität alle Renditen eingehen.
Sharpe-Ratio als Risikoindikator
Wenn also beispielsweise ein Anleger die Wahl zwischen zwei
Fonds hat, die beide in den vergangenen drei Jahren
eine jährliche Rendite von 15 Prozent erzielt haben, so
dürfte er den
Fonds bevorzugen, der diese Rendite mit der geringeren
Schwankungsbreite der Wertentwicklung, gemeint ist hier
die Volatilität, erreichte. Hier fällt die
Entscheidung also relativ leicht. Muss der Anleger aber
zwischen zwei Fonds wählen, von denen der eine zwar etwas
schwächer in der Rendite, aber eben auch etwas weniger
risikobehaftet ist, so gibt die Sharpe-Ratio die notwendige
Hilfestellung. Zunächst einmal enthält sie im Zähler die
sogenannte Überschussrendite. Darunter versteht man die über
die sichere Geldmarktanlage hinausgehende Rendite. Wenn also
der risikolose Geldmarkt drei Prozent und der ausgewählte
Fonds zehn Prozent abgeworfen haben, so hat letzterer eine
Überschussrendite von sieben Prozent. Diese wird ins
Verhältnis gesetzt zum Risiko, ausgedrückt
als Volatilität.
Eine deutlich positive Sharpe-Ratio, also eine deutlich
größer eins, zeigt an, dass gegenüber der risikolosen
Geldmarktanlage eine Mehrrendite erwirtschaftet wurde. Zum
anderen zeigt sie, in welchem Verhältnis diese Mehrrendite
zum eingegangenen Risiko steht.
Umgekehrt verdeutlicht eine negative Sharpe-Ratio kleiner
Null, dass noch nicht einmal die Geldmarktverzinsung
übertroffen wurde. Während bestimmter Phasen gibt es durchaus
Märkte, in denen trotz eingegangenen Risikos keine
angemessene Wertentwicklung zu erzielen ist. Unterscheiden
sich also zwei Fonds sowohl in der erzielten Rendite als auch
in der Volatilität, sollte unter sonst
gleichen Bedingungen der Fonds mit der höheren Sharpe-Ratio
bevorzugt werden.
Sharpe, W. F. (1964): Capital Asset Prices - A
Theory of Market Equilibrium Under Conditions of Risk, in: The
Journal of Finance, Vol. XIX, No. 3, September 1964, pp.
425-442.)
Sharpe, W. F. (1970): Portfolio Theory and
Capital Markets, McGraw-Hill Book Company, New York, 1970.
Sharpe, W. F. (1994): The Sharpe Ratio, in:
Journal of Portfolio Management, Fall 1994, pp. 49-58.
Bekannt geworden ist Rober J. Shiller vor allem
als Begründer des Forschungsgebiets "Behavioural Finance", das
sich unter anderem mit dem irrationalen menschlichen Verhalten in
wirtschaftlichen Situationen auseinandersetzt. Sie versucht vor
allem die Annahme des Homo oeconomicus, also rational denkender
Menschen, aufzulösen. Das beobachtete Verhalten widerspricht in
der Regel den Vorhersagen klassischer ökonomischer Modelle,
weshalb "Behavioural Finance" eine Erklärung für dieses
irrationale Verhalten sucht.
Robert James Shiller (* 29. März 1946 in Detroit)
[Bildquelle: Yale University]
"[…] Weitere kapitalistische Institutionen sind
Risikomanagementsysteme, die
Versicherungen, Hedging und Streuung
anbieten. Der Staat kann die Demokratisierung solcher
Institutionen fördern, sodass sie vor genau den Risiken
schützen, die den Menschen die größten Sorgen bereiten. Möglich
sind etwa Versicherungen, die den Lebensunterhalt oder den Wert
einer Wohnimmobilie absichern, Kredite, die an das Einkommen,
oder Wertpapiere, die an das BIP oder Hauspreise gekoppelt
sind. [...]
Zudem kann der Staat die Sozialversicherung (die die private
Versicherung ergänzt) anreizkompatibler und besser
im Risikomanagement machen
– und das nicht nur für die Risiken der extremen Verlierer. Er
könnte etwa das Steuersystem an einer Messgröße der
Einkommensungleichheit indexieren. Zudem könnte er unsere
Informationsinfrastruktur verbessern, sodass Finanzverträge die
Ergebnisse wirtschaftlicher Risiken besser widerspiegeln
können. [...]" (Quelle: FTD,
30.4.2007)
Bekannt geworden ist Rober J. Shiller vor
allem als Begründer des Forschungsgebiets "Behavioural
Finance", das sich unter anderem mit dem irrationalen
menschlichen Verhalten in wirtschaftlichen Situationen
auseinandersetzt. Sie versucht vor allem die Annahme des Homo
oeconomicus, also rational denkender Menschen, aufzulösen. Das
beobachtete Verhalten widerspricht in der Regel den Vorhersagen
klassischer ökonomischer Modelle, weshalb "Behavioural Finance"
eine Erklärung für dieses irrationale Verhalten sucht. Sie
überträgt Einsichten der Psychologie und anderer
Gesellschaftswissenschaften auf die Welt des Geldes und behebt
damit eine grundlegende Schwäche dieser von der Mathematik
dominierten Disziplin: der Vernachlässigung des Menschen.
Bereits im März 2000, also ziemlich genau auf dem Höhepunkt des
Technologiefiebers an den Finanzmärkten, warnte Shiller die
Welt vor den Gefahren einer spekulativen Blase. Von vielen
Kapitalmarktteilnehmern wurde er zum Verräter der weltweiten
Finanzmärkte stilisiert, später dann zum Orakel.
Seine Schlussfolgerung hinsichtlich der Volatilitäten der
Märkte lautet: Wenn ein Aktienkurs der geschätzte Wert einer
"Größe" (etwa der diskontierten Cashflows eines Unternehmens)
ist, unterliegen die Börsenkurse gegenüber den physisch
greifbaren Ausprägungen dieser "Größe" (beispielsweise
Dividenden) großen Schwankungen. Kurzum: Die Aktienkurse zeigen
höhere Ausschläge als die Fundamentaldaten, die sie ja
angeblich präsentieren sollen. Von Zeit zu Zeit erleben sie
sogar klare Überreaktionen in Form von übermäßigen
Kurssteigerungen bzw. übermäßigen Kursstürzen. Das
Volatilitätsgefälle zwischen Kursen und Informationen hat laut
Shiller zur Folge, dass das Konzept der "rationalen
Erwartungen" in irgendeiner Art und Weise
nicht zutrifft.
Mit anderen Worten: Die Kurse spiegeln den langfristigen Wert
eines Wertpapiers nicht rational wider, weil sie in jeder
Richtung Übertreibungen unterliegen. "Menschen sind keine
Computer und trotz gegenteiliger Behauptungen vieler
Wirtschaftstheoretiker weder endlosen Berechnungen noch zur
präzisen Erkenntnis eigener Interessen fähig", so Robert
J. Shiller in
seinem Buch "Die neue Finanzordnung".
Shiller zeigt auf, das die Märkte nicht so effizient sind, wie
die klassische Finanztheorie es uns glauben machen will.
Hierfür wurde er von vielen wissenschaftlichen Kollegen
kritisiert, so unter anderem von Robert C. Merton, der im Jahr
1990 gemeinsam mit Myron S. Scholes den Preis der schwedischen
Reichsbank für Wirtschaftswissenschaften in Gedenken an Alfred
Nobel für seine Forschungen auf dem Gebiet der Bestimmung von
Optionswerten an der Börse erhielt. Merton verteidigte die
offizielle Position der Finanztheorie, dass Märkte effizient
sein mussten und "unmöglich Chancen auf einem Silbertablett
servieren könnten." Einige Jahre später präsentierte sich aber
der gleiche Robert C. Merton als Gründer des Hedgefunds
Long-Term Capital Management (LTCM), der genau darauf abzielte,
Renditen aus Marktineffizienzen zu ziehen.
Eine Lektion der verhaltsorientierten Finanztheorie ist für
Shiller besonders wichtig: Die psychische Disposition und die
Darstellung des Problems sind für das Risikomanagement entscheidend.
So kann in psychologischen Experimenten nachgewiesen werden,
dass Menschen quantitative Einschätzungen von einer Größe – dem
Anker – anhängig machen, die ihnen gerade vor Augen schwebt,
selbst wenn diese für die konkrete Fragestellung völlig
irrelevant ist. Außerdem konnten Psychologen zeigen, dass
Menschen entscheidende Risiken ignorieren, sich jedoch
irrational große Sorgen um Kleinigkeiten machen. "Das stellt
die Gestaltung von Risikomanagement-Instrumenten vor
eine große Herausforderung, denn diese müssen so präsentiert
werden, dass die Menschen den potenziellen Nutzen auch
wahrnehmen", so Shiller. Die Neigung, mehr oder weniger
irrelevante Risiken ungebührlich viel Aufmerksamkeit zu widmen,
ist der Schlüssel zur Theorie von Robert J. Schiller.
In seiner wissenschaftlichen Karriere beschäftige sich Shiller
vor allem immer mit der Anwendung moderner Risikovorsorge auf
unser tägliches Leben. So ist Shiller davon überzeugt, dass
eine neue Kultur des Risikomanagements es uns ermöglicht, die
vorhandenen ökonomischen Institutionen so zu vernetzen, dass
sie Wohlstandsmotor und Sicherheitsnetz in einem werden.
Insbesondere die moderne Informationstechnologie wird zu einer
Professionalisierung der Risikomanagement-Systeme ganz
wesentlich beitragen. So wie die Risikomanagement-Systeme vom
Geld als Tauschmittel abhängen, so hängen auch Märkte von einem
Transaktionsmedium ab. Je tiefer die Transaktionskosten
– insbesondere in der Folge der modernen
Informationstechnologie – sinken, desto größer wird das Volumen
der handelbaren Risiken.
"Die moderne Informationstechnologie versorgt uns mit
zahlreichen Informationen zu Risiken und den sich daraus
ergebenden wirtschaftlichen Ungerechtigkeiten. Dank dieser
Informationsfülle stehen die Wirtschaftswissenschaften heute da,
wo die Astronomie ungefähr zum Zeitpunkt der Erfindung des
Teleskops oder die Biologie unmittelbar nach der Erfindung des
Mikroskops stand. Wir verstehen viel besser, warum manche
Menschen erfolgreich sind und andere kläglich scheitern." Die
technischen Fortschritte im Bereich der Informationstechnologie
stellen das Rohmaterial für Innovationen bereit, die das
Finanzwesen revolutionieren wird.
Hans-Werner Sinn gilt als einer der einflussreichsten und
international anerkanntesten marktliberalen
Wirtschaftswissenschaftler Deutschlands. Es ist jedoch weit
weniger bekannt, dass er nach dem Studium der
Volkswirtschaftslehre an der Westfälischen Wilhelms-Universität
in Münster im Jahr 1978 an der Universität Mannheim sein
Doktorarbeit über das Thema "Ökonomische Entscheidungen bei
Ungewissheit" geschrieben hat.
Hans-Werner Sinn (* 7. März 1948 in Brake, Westfalen)
ist ein deutscher Ökonom, Hochschullehrer und war von 1999 bis
2016 Präsident des ifo Instituts für Wirtschaftsforschung.
"[...] Die ideale Versicherung tauscht
Wahrscheinlichkeitsverteilungen des individuellen Einkommens oder
Vermögens gegen sichere Beiträge von der Höhe der mathematischen
Erwartungen der Verteilungen ein. Diese Funktion ist
nützlich, weil Menschen eine Abneigung gegen Ungewissheit haben.
[…] Das Bedürfnis nach Sicherheit ist eines
der fundamentalen Kennzeichen der menschlichen Präferenz, und die
Existenz des Versicherungssektors leitet sich aus der
Aufgabe ab, es zu
befriedigen. [...]"
Hans-Werner Sinn gilt als einer der einflussreichsten und
international anerkanntesten marktliberalen
Wirtschaftswissenschaftler Deutschlands. Es ist jedoch weit
weniger bekannt, dass er nach dem Studium der
Volkswirtschaftslehre an der Westfälischen Wilhelms-Universität
in Münster im Jahr 1978 an der Universität Mannheim sein
Doktorarbeit über das Thema "Ökonomische Entscheidungen bei
Ungewissheit" geschrieben hat. Seine Arbeit wurde mit dem ersten
Preis der Universität Mannheim für Dissertationen ausgezeichnet
(Stiftung Rheinische Hypothekenbank).
Sinn weist in seiner Arbeit darauf hin, dass sich
Entscheidungssituationen der Realität in zwei Kategorien
unterteilen lassen, "nämlich solche, in denen Vermutungen über
Tatsachen genutzt werden, und solche in denen das Ergebnis
tatsächlich nicht determiniert ist."
Nach Hans-Werner Sinn können die verschiedenen Unsicherheitsgrade
immer auf den Fall einer "sicher bekannten
objektiven Wahrscheinlichkeit" zurückgeführt
werden:
Bei an sich unsicheren Wahrscheinlichkeitsangaben, können
Wahrscheinlichkeiten höherer Stufen genutzt werden.
Wahrscheinlichkeitsverteilungen von Wahrscheinlichkeiten
lassen sich auf
objektive Wahrscheinlichkeit erster Stufe
umrechnen.
Ist
keinerlei Wahrscheinlichkeit bekannt, so
kann eine mit Sicherheit bekannte
Gleichverteilung unterstellt werden.
Hieraus kann gefolgert werden, dass im Risikomanagement grundsätzlich
alle Risiken zu quantifizieren sind, auch wenn nur subjektive
Schätzungen verfügbar sind. Auch subjektiv geschätzte Risiken
können genau so verarbeitet werden, wie (vermeintlich) objektiv
quantifizierte. Man muss sich hier immer über die Alternativen
klar sein: Die quantitativen Auswirkungen eines Risikos mit den
best verfügbaren Kenntnissen (notfalls subjektiv) zu schätzen,
oder die quantitativen Auswirkungen implizit auf Null zu setzen
und damit den Risikoumfang zu unterschätzen. Insgesamt ist damit
klar: Nur die Quantifizierung von Risiken schafft einen
erheblichen Teil des ökonomischen Nutzens des Risikomanagements
zur Unterstützung von Entscheidungen unter Unsicherheit. Die
scheinbare Alternative einer Nicht-Quantifizierung von Risiken
existiert sowieso nicht, da nicht quantifizierte Risiken kaum
etwas anderes sind als mit Null quantifizierte Risiken.
Hans-Werner Sinn wechselte im Jahr 1974 nach seinem
Volkswirtschaftsstudium nach Mannheim und promoviert dort. Nach
der Promotion geht Sinn für ein Jahr als Junior-Professor an die
University of Western Ontario nach Kanada. Wieder zurück in
Deutschland habilitiert er an der Universität Mannheim und wird
im Jahr 1984 an der Universität München Professor für
Finanzwissenschaften. Sieben Jahre später will ihn die Uni Bern
abwerben. Sinn bleibt in Deutschland, als er es schafft, sich in
München sein eigenes Institut, das "Center for Economic Studies"
(CES), auszuhandeln. Im Februar 1999 wird er zudem Präsident des
Münchener Ifo-Instituts für Wirtschaftsforschung und baut mit der
CES-Ifo GmbH eine Brücke zwischen CES und Ifo. In den Jahren 1997
bis 2000 war Sinn Vorsitzender des Vereins für Socialpolitik. Die
Amtszeit von Hans-Werner Sinn als ifo-Präsident endete im März
2016, als er 68 Jahre alt wurde und in den Ruhestand trat. Seit
dem Jahr 2017 ist er "ständiger Gastprofessor" an der Universität
Luzern.
In den vergangenen Jahren und aktuell beschäftigt sich
Hans-Werner Sinn vor allem mit dem Euro, Griechenland, der
Europäischen Zentralbank, grüner Energie, der Demographie und der
Migration.