Science Blogs



Dienstleistung gegenüber dem Wertpapiereigentümer hinsichtlich Überwachung der Zinstermine, der Auslosung, Besorgung von neuen Bogen, Anmeldung und Hinterlegung von Stücken

Jahresbericht 1998 - Universität Basel


Ein weiteres be-deutendes Ereignis war die Bankenkrise Abschnitt 3. Dies alles wurde begleitet und teilweise auch mitverantwortet von der Geldpolitik der Bank of Japan Abschnitt 3. Diese war das Ergebnis ver-schiedener komplexer Wechselwirkungen der japanischen Politik, ausländischem Druck und dem Fehlverhalten der Banken.

Die Kennzeichen dieser Zeit sind ein mas-siver Anstieg der Grundstücks- und Immobilienpreise, die extreme Hausse [5] des Aktien-marktes und dem starken Anstieg der Investitionen. Gefördert wurde dies von durch eine lockere Geldpolitik mit niedrigen Zinsen und einem expansiven Geld-mengenwachstum.

Der japanische Aktienleitindex Nikkei stieg im Dezember auf Damit hatte er sich von bis verdreifacht. Zudem gab es innerhalb kurzer Zeit fast eine Verdoppelung der Investitionsquote [vgl.

Im Jahr lagen die Investitionen der japanischen Wirtschaft mit Milliarden Dollar um ein Drittel höher als die der amerikanischen Wirtschaft [vgl. Im Mai erhöhte Sie den Diskontsatz zunächst von 2,5 auf 3,25 Prozent.

Im weiteren Verlauf folgten durch den Druck der Politik und der Öffentlichkeit weitere Anhebungen bis im August ein Niveau von 6 Prozent erreicht war. Die international tätigen japanischen Banken kamen durch die Umsetzung der Baseler Eigenkapitalvereinbarung von unter Druck, die von Ihnen eine Eigenkapitalquote von mindestens 8 Prozent verlangte.

Krediteinschränkungen für Immobiliengeschäfte und eine neue Grundsteuer im Jahr verschärften die Lage zusätzlich. Das alles trug zum Platzen der Spekulationsblase bei. August stand der Nikkei bei Der Aktienmarkt erreichte ein 20 Jahres Tief. Die fallenden Aktien- und Grundstückspreise führten zu finanziellen Problemen bei Verbrauchern, Unternehmen und Banken. Durch die zu hohen Kapazitäten der Unter-nehmen gingen die Investitionen stark zurück.

Nach dem Platzen der Spekulationsblase beginnt ab die stagnierende Periode. Das Wirtschaftswachstum von 5,6 Prozent im Jahr fiel auf eine Durchschnittsrate von weniger als 1 Prozent in den Jahren Die japanische Regierung versuchte seitdem mit einer enormen Ausgabensteigerung, das Wirtschaftswachstum anzukurbeln.

Die Arbeitslosenzahlen wuchsen auf für japanische Verhältnisse ungewöhnlich hohe 5 Prozent an. Der demografische Wandel wirkte sich auch erschwerend auf das Wirtschafts-wachstum aus. Japans Bevölkerung wird immer älter und durch die räumlichen Mög-lichkeiten ist eine Lösung des Problems durch Zuwanderung nur begrenzt umsetzbar. Die Zeit nach dem Platzen der Spekulationsblase ist für Japan eine der schwersten Krisen des Landes, welche bis zur Deflation und dem Auftreten der Liquiditätsfalle geführt hat.

BWL - Investition und Finanzierung. Politik - Grundlagen und Allgemeines. Vorlagen, Muster, Formulare, Infobroschüren.

VWL - Fallstudien, Länderstudien. Geschichte Europa - and. Länder - Neuzeit, Absolutismus, Industrialisierung. Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen! Fordern Sie ein neues Passwort per Email an. Inhaltsverzeichnis Abbildungsverzeichnis Abkürzungsverzeichnis Variablenverzeichnis 1. Überlegungen von Krugman 3. Geldpolitik der Bank of Japan 4. Kritische Betrachtung des Foolproof Way 5.

Tagesgeldsatz und mittel bis langfrsitige Zinssätze Abbildung 5: Veränderung der Geldmengen Abbildung 6: Jährliche Veränderung der Preisindizes Abbildung 7: Sainsonbereinigte Arbeitslosenrate Abbildung 9: Indexierte Kursentwicklung des Yen von bis Abkürzungsverzeichnis Abbildung in dieser Leseprobe nicht enthalten Variablenverzeichnis Abbildung in dieser Leseprobe nicht enthalten 1. Krugman b] Um in einer Liquiditätsfalle mit einem nominalen Zins nahe null Prozent die Wirtschaft anzuregen bräuchte man einen negativen Realzins.

Krugman a] Somit schlug Krugman vor, die BOJ müsse den nachhaltigen öffentlichen Willen be-kunden, die Geldangebotsausweitung permanent durchzuführen und ein höheres Preisniveau zuzulassen. Krugman a] Hierbei sollte ein offizielles langfristiges Inflationsziel von der BOJ bekannt gegeben werden.

Krugman b] Allerdings darf hierbei die Höhe der Inflationserwartung nicht zu niedrig angesetzt werden. Krugman a] Ob die strukturellen Probleme Japans für dessen Liquiditätsfalle mitverantwortlich sind, will Krugman weder dementieren noch bestätigen [vgl. Quantitative Lockerung als Instrument der Geldpolitik. Die schleichende Enteignung der Sparer. Der Warenkorb als Inflationsmesser. Die geldpolitische Bedeutung von Zentralbankkommunikation. Geldpolitik der Zentralbanken im Vorfeld, während und nach der Fina Japan und die Nullzinsgrenze.

Japan in der Liquiditätsfalle - eine selbstverstärkende Krise. Deflation; Kosten, Ursachen und geldpolitische Konsequenzen. Altersvorsorge - Was die Schweiz von Schweden lernen kann. Globale Inflations-, Deflations- oder Stagflationstendenzen: Altersvorsorgeberatung in Deutschland in Zeiten der Finanzkrise.

Wie legen Pensionskassen ihre Gelder an? Ratgeber zur Erstellung wissenschaftlicher Arbeiten. Die Rezession und ihre Auswirkungen auf umlagefinanzierte und kapit Ansonsten vorsichtshalber für beide Varianten feststellend: Um den Artikel einmal günstig auszulegen: Es kann durchaus sein, dass Algorithmen eigene Sichten finden [2], die besser geeignet sind als diejenigen der Erkenntnissubjekte, die zudem von diesen nicht mehr umfänglich verstanden werden können.

Ich neige dazu, den verlinkten Artikel für sorry Stuss zu halten, geprägt von einer vermute ich sozialwissenschaftlichen Perspektive und einem belegbar fragwürdigen Verständnis zentraler Begriffe.

Nur die behauptete Auswirkung auf die wissenschaftliche Methodik bzw. Sozial- und Wirtschaftswissenschaftler tun sich traditionell leicht mit der Hypothesen-, aber schwer mit der Bildung testbarer, in der Wirklichkeit sich bewährender Theorien.

Die Qualität ihrer Prognosen ist gemessen an naturwissenschaftlichen Standards lausig. Wenn ich belastbare kausale Beziehungen nicht finden kann, muss ich halt mal was anderes versuchen…. In den Naturwissenschaften ist nichts davon neu. Nicht mal modell-loses blindes Data Mining ist neu. Physiker und Astronomen arbeiten schon lange mit den immer neuesten technischen Spielzeugen, mit extremen Maschinen und extremen Datenmengen, die von extremen Algorithmen ausgewertet werden.

Man wendet das jetzt vielleicht im Bereich der Sozial- und Wirtschaftswissenschaften vermehrt an auch bei den Geheimdiensten etc. Das typische Gegenbeispiel ist die Arbeitsweise der evidenzbasierten Medizin, die gerade eben nicht primär auf Kausalität abhebt. Der Seitenhieb sei mir verziehen: Dass ein Sozial- oder Wirtschaftswissenschaftler mal einer seiner eigenen Thesen aufgäbe, nur weil die Wirklichkeit einen Gegenbeleg nach dem anderen liefert, kommt wohl nicht so oft vor, oder?

Seine Ausflüge in die Physik wie Newtonian models were crude approximations of the truth sprechen nicht für ein tieferes Verständnis des Sujets. In der Tendenz sehe ich es auch so. Vorsichtig sollte man, was Amerika anlangt, gleichgültig um was es sich handelt, allerdings sein. Und im Zweifelsfalle stehen WIR immer allein! Denk dran auch Andere waren sich sicher recht zu haben und holten sich eine blutige Nase!

Wenn man Wissenschaft machen will, kann man an dieser Stelle immer noch erneut ansetzen und eine Studie aufsetzen, die eine abgeleitete Theorie testen kann bzw. Genau hier Mit Big Data kann man natürlich hervorragend Vorhersagen treffen, aber dabei erstellt man die Vorhersage nicht unabhängig, sondern man erstellt sie aus Beobachtungen und überprüft sie nachher mit weiteren Beobachtungen. Wenn Wissenschaftler gleichförmige Datensätze erheben und einfallslos gleichförmige Analysen betreiben — dann, ja, dann stimmt die Aussage natürlich.

Aber schon vor Big Data haben sich Leute darüber Gedanken gemacht, wie man statistische Modelle ohne Informationsverlust systematisch vereinfachen kann — das soll durch Big Data obsolet sein?

Dann hoffe ich auf kritische Begutachtung entsprechender Anträge …. Die Verschiedenartigkeit der Daten und der Motivation und Weise sie zu sammeln und zu analysieren wird überhaupt nicht berücksichtigt. Die Antwort mache ich mir mal einfach: Es ist eben prinzipiell unmöglich, alle Einflussfaktoren zu berücksichtigen, denn ein Computer, der das Verhalten alle Materieteilchen im Universum … etc, muss ich nicht zuendeformulieren. Nicht mal, wenn er gar nicht in real time arbeitet.

Ein zweites Argument ist die menschliche Neugier, ihre Bedürfnis nach Kausalität. Menschen geben Milliarden selbst für praktisch nutzlose Forschungsinstrumente aus z. Teleskope , um ihre Neugier zu stillen, und die gleiche offenbar triebhafte Sucht nach Kausalität verführt sie zur Erfindung von Geistern, Göttern, Verwünschungen und Chemtrails.

Die Verschiedenartigkeit der Daten und der Motivation und Weise sie zu sammeln und zu analysieren. Für die kommerzielle Verwertung mag Korrelation reichen. Einem Forscher kann das nicht genug sein. Oh, kam gerade passend, mit Dank an sciencefiles. Die teils idealistische Unvernunft Nachkriegsdeutschlands bzw. Problematik Sarrazin- Asyl ct. Der hat sich doch auch an den Erfahrungen eines Globke orientiert, der in die Politik der Vorkriegsjahre guten Einblick hatte.

Im Artikel und in der Diskussion kommt meiner Meinung nach zu wenig heraus, dass die meisten Modelle egal ob aus theoretischen Überlegungen oder aus statistischen Betrachtungen nur Wahrscheinlichkeiten angeben. Wenn man Gruppen von Individuen betrachtet z. Menschen, die sich mit Grippe anstecken ist das auch völlig OK und erlaubt gute Vorhersagen. Für den Einzelnen das Subjekt haben diese Wahrscheinlichkeiten eine andere Bedeutung und erlauben nur sehr begrenzt eine Vorhersage im Alltag.

Das sollte allen Bewusst sein, insbesondere, wenn Entscheidungen schwerwiegende Konsequenzen haben ganz krass: Männer sind Frauen körperlich überlegen:. Andreas, genau das hatte ich wortreicher sagen wollen: Vorhersagen für Individuum sind gewiss auch in der absehbaren Zukunft unmöglich. Welche 2 von den 10 wird man auch mit noch so viel Forschung nicht zuverlässig vorhersagen können.

Aber wenn man sich bewusst macht, dass dann zwanzig! Ja, sehe es ähnlich. Von der Bedeutung statistischer Aussagen für den Einzelfall einschl. Trotzdem ist es eine interessante Geschichte, sowohl von den partiellen Erfolgen der Projekte her als auch mit Blick auf die daran anknüpfenden wissenschaftstheoretischen Überlegungen. Ich verstehe die Aufregung hier im Forum nicht ganz. Ja, es gibt bereits statistische Analysen, der Ergebnis zur Erstellung neuer Theorien verwendet werden lt 2xhinschauen z.

Ganz allgemein ist dies m. Durch Big Data wird dies in zunehmender Weise und Treffgenauigkeit passieren. Es wird ja nicht behauptet, dass alle Theorien so ersetzt werden können oder Theorien ganz ihre Bedeutung verlieren. Auch werden Theorien egal wie gebildet in den Sozialwissenschaften fast nie den Einzelfall vorhersagen können. Aber wenn eine Korrelation zeitlich stabil ist, kann man schon auf den Gedanken kommen, dass es sich vielleicht um eine Kausalität handelt und eine Theorie aufstellen.

Wir sollten daher eher anfangen, die Folgen abszuschätzen, wie es der Autor versucht, als die Erfolge der Methode kleinzureden. Noch eine kleine Randbemerkung: Einige der wichtigsten Test parameterfreier Statistik sind von Sozialwissenschaftlern z.

Die Idee, dass ein Ende der Theoretisierung erreicht werden kann, ist dezent formuliert abwegig. Vielleicht wird im alltäglichen Gebrauch die Theorie überschätzt, es ist halt immer nur ein Provisorium, ein Werkzeug, Sichten dienen im Ringen um das Wissen und dieses ist Veranstaltung.

Also Vorsicht mit der disziplinären Arroganz. Naja, der Ansatz ist ja nicht schlecht oder nutzlos! Aber im Ernst, ob in einer Korrelation womöglich Kausalität steckt und damit eine haltbare Theorie, ist for all practical purposes doch völlig wurscht. Dummerweise ist auch die Mode nicht vorhersagbar, dieser Indikator also auch nicht prognosetauglich. Die Meteorologen sind da deutlich weiter, aber da steckt eben viel Physik drin.

Dieses Korrektiv haben die Wirtschafts- und Sozialwissenschaftler nicht. Nur nebenbei, mit Big Data hat das nicht unmittelbar zu tun: Wie Sie einen Satz vorher schreiben, geht es oft auch nur um mathematische Zusammenhänge in Modellen, bei denen die Modellannahmen nicht gut in der Wirklichkeit verankert sind — daher auch der alte, aber nach wie vor nicht obsolete Vorwurf von Hans Albert, die Wirtschaftswissenschaften würden zuweilen Modellplatonismus betreiben.

Umgekehrt scheinen empirisch arbeitende Ökonomen manchmal auch ihre Modelle zu sehr an die reinen Fakten anzupassen hier ist man schon wieder näher an Big Data , im Sinne eines statistischen Overfittings, so dass die durch den nächsten Datensatz die nächste Konjunkturwelle etc.

Ganz bösartige Kommentare gehen dann so weit zu sagen, die Prognosen der Ökonomie befänden sich eben noch auf dem Stand der Astrologie. Aber das ist natürlich ganz arg übertrieben. Bereits auf der Ebene der Betriebsmathematiker könnte derart postuliert werden.

Der Unterschied ist aber, dass es dort Entscheider gibt, die bspw. Die Volkswirtschaftslehre hat schon an der Erfassung zu nagen. Sie ist demzufolge auch Ideenlehre oder primär Ideenlehre, hier setzt sich in der Regel diejenige Ideenlehre durch, die ex post recht hatte. Es gab ja auch eine wunderschöne sozialistische Wirtschaftskunde, die auch heute noch Einfluss hat auf bestimmte dem Sozialapparat nahe stehende Kreise. Hier ist eine Art Paper Ich muss allerdings anmerken, dass der Text nicht so pfiffig wie der Titel ist, sondern uuuuur-langweilig.

Bisschen egoistisch, aber gleichwohl danke für die Einordnung. Fast alle ihre Thesen stimmen ein wenig und erklären ein bisschen was, der Rest ist Überzeugung, Glaube, Ideologie, oder auch nur die Prominenz des jeweils Vortragenden. Hihi, wenn man das hinsichtlich Methoden, Theoriegebäude und Vorhersagekraft mal so vergleicht, muss man eher zurückfragen: Dagegen bezeichnet Eure Mutti Entscheidungen als alternativlos, was dull ist.

Bei Ideenlehren ist die Empirie wichtich, was hinten rauskommt, da bekommen dann einige ex post recht. Kuhn hat die Prognostik sinnvollerweise angegriffen, nicht das Wesen der Ideenlehre, wenn hier korrekt verstanden worden ist. Man kann noch so viele Daten erfassen, ohne Idee, Ideologisierung oder Theorie geht es nicht. Danke für den Gary-King-Link. Schwierig zu sagen, worauf Sie sich beziehen, da sie ja kein spezifisches Thema aufgreifen. So oder so, Robeyn verneint ja nicht nur die Wissenschaftlichkeit von Oekonomie, sondern plaediert dafuer, dass Oekonomie auch gar nichts dergleichen werden soll Wissenschaftlichkeitskriterien sind ja i.

Robeyn geht vor allem auf die der Wohlfahrtstheorie meist inhaerente Pareto-Effizienz ein siehe auch Kommentare von John Quiggin im Kommentarteil. Was ich da interessant finde ist, dass Big Data in der Hinsicht ueberhaupt gar keine Funktion haben, wenn ich das halbwegs richtig verstehe. Einen relevanten Aspekt dieser Art von Kosten-Nutzen-Rechnung hat der Stern Review was auch immer man davon haelt ins oeffentliche Bewusstsein gebracht: Wir stehen dabei in seiner gaengigen Form vor zwei Fragen: So, und jetzt hat es dann von oekonomischer Seite naemlich wirklich jedem, der im Bereich arbeitet Kritik gehagelt.

Die Gruende dafuer sind vielfaeltig, fuer diese Diskussion scheint mir einer relevant: Stern ignoriert empirische Befunde. Die Sache ist natuerlich: Klimawandel betrifft auch noch Generationen in sehr weiter Zukunft, und die PRTP-Werte, die empirisch gefunden werden, beruhen einfach nicht auf Entscheidungen, die derartig lange Zeithorizonte betreffen mit von der Partie sind damit Ueberlegungen, ob die Menschheit prinzipiell an einem Punkt angelangt ist, wo solche Ueberlegungen eine Rolle spielen muessen.

Daten, big oder klein, bringen uns hier ueberhaupt nicht weiter. Es gibt zwar Daten, und sie sind relevant: Andererseits kann man dieses Argument ad absurdum fuehren: Das sieht man auch wieder bei der Klimawandeldiskussion: Nun ist es schwierig zu sagen, was genau die Aenderung eines einzelnen Parameters in so komplexen Modellen konkret anstellt und spezifisch PAGE ist auch nicht frei zugaenglich , aber ziemlich sicher spielt die Tatsache, dass eine niedrigere TCR bei gleichbleibender ECS die Realisierung von Schaeden weiter in die Zukunft verschiebt d.

Das ist ein Dilemma, eine Loesung ist relevant, und Daten und schon gar nicht Wissenschaft, vor allem im eng gefassten Sinne koennen uns darauf einfach keine Antwort geben. Damit es nicht zu einfach wird: The ethical implication of this policy would be that current consumption should increase sharply to reflect the projected future improvements in productivity. Und in dem Sinne, so meine Gedanken zu Robeyns Post, sollte Oekonomie gar nicht versuchen, mehr wissenschaftlich zu werden: