Nowy Obywatel, Zima 2012 - okładka

Kiedy będzie „lepsze jutro”?

·

Kiedy będzie „lepsze jutro”?

·

Zapnijcie pasy i złapcie za czapki – mówią nam eksperci – do Polski nadchodzi szalejący europejski kryzys. Z tym należy się zgodzić: kolejne kwartały będą pokazywały coraz gorsze wskaźniki makroekonomiczne. Wkrótce i u nas aktualny stanie się bon mot, iż „lepsze jutro było wczoraj”. Ten ahistoryczny pogląd będzie trzeba wypalać żywym ogniem w roku 2013, kiedy to podstawowe usługi publiczne, szczególnie na prowincji, padną ofiarą zmasowanej presji narracji spod znaku „koniecznych wyrzeczeń”. Jeżeli jednak nie mamy przestać wierzyć w lepsze jutro, powinniśmy już dziś mieć w głowie jego wyobrażenie – postęp nie jest bowiem replikacją przeszłości.

Jak powinniśmy mierzyć rozwój? Czy bezduszny ekonomizm nie odbiera znaczenia takim dobrom jak czas wolny lub rozwój kulturalny jednostki? Kiedy możemy naprawdę powiedzieć, że podążamy drogą rozwoju?

Nie od dziś wiadomo, iż współczynnik PKB może być bardzo niedoskonałym wyznacznikiem rozwoju i jakości życia. Warto pamiętać, że podczas ostatniego „boomu” gospodarczego (ok. 2006–2007), przy bardzo wysokim wzroście gospodarczym, wyemigrowało z Polski około miliona osób. Papierowe Eldorado miało dla polskich emigrantów mniejszy urok niż niepewne perspektywy życia za granicą. Nic dziwnego, bowiem wiele z tej przyrosłej „wartości” nierzadko było wartością jedynie papierową, np. drożejących mieszkań. Poza światem instytucji finansowych i przywódców państw nie jest wielkim odkryciem stwierdzenie, że postęp, który dokonuje się w czasie (np. dekady albo tysiąclecia), nie powinien być mierzony monetarnie, lecz materialnie. To nie liczba złotówek czyni nasz kraj bogatszym w porównaniu do czasów Bolesława Chrobrego. Sprawia to ilość i jakość fizycznych dóbr, które potrafiliśmy stworzyć i obrócić na nasz użytek.

Skojarzenie rozwoju z poziomem produkcji jest więc już dobrym wstępem do dyskusji, choć niezupełnie wystarczającym. Całkowicie materialne ujęcie owego postępu nie czyni zadość niezwykle ważnej kategorii „opanowania ognia”, czyli powiększania dostępu oraz tworzenia nowych źródeł energii, kluczowych dla masowej produkcji dóbr fizycznych. Wskazanie na ten niematerialny postęp i jego źródła, leżące w innowacyjnej działalności człowieka, pozwala wyodrębnić to, co jeszcze bardziej niż wysokie wieżowce i odbiorniki telewizyjne tworzy przepaść między nami a naszymi praszczurami sprzed milenium. Tym czymś jest wiedza. Bez jej kreowania i kumulacji nie byłoby mowy o rozwoju, bowiem postęp cywilizacyjny, zarówno gospodarczy, jak i społeczny, jest funkcją umiejętności tworzenia i wykorzystania kapitału intelektualnego. W procesie kreowania bogactwa to właśnie zastosowanie nowych rozwiązań, wynalazków i usprawnień zwiększa ilościowo i jakościowo pole dostępnych dóbr i usług.

Antyrozwojowy model stosunków przemysłowych (kapitału i pracy), będący pokłosiem niezrozumienia źródeł postępu, prowadzi do wynaturzeń i wyzysku. To z kolei służy do pochopnego podważenia tezy, zgodnie z którą źródłem polepszenia jakości życia populacji jest poprawa produktywności pracy. Oczywiście, możliwe jest czasowe „rozjechanie się” poprawy produktywności pracy, osiąganej dzięki ludzkiej innowacyjności, z poprawą jakości życia. Możliwy jest również czasowy wzrost jakości życia większości populacji dzięki odebraniu i konsumowaniu „nadwyżki”, będącej wcześniej w posiadaniu niewielkiej warstwy superbogaczy. Niemniej w dłuższym okresie niemożliwy jest stały wzrost jakości życia w warunkach kurczącej się lub nierozwojowej gospodarki. Chodzi tu zarówno o szybszy przyrost fizycznych dóbr na głowę, jak i o towarzyszące temu przyrost i ujarzmianie energii.

W gruncie rzeczy jednak najważniejszy jest inny argument. Otóż jeżeli przyjmiemy, że źródłem postępu są twórcze zdolności człowieka, skutkujące rozwojem naukowo-technicznym, wówczas polepszanie warunków życia ludzi jest skutkiem oraz przyczyną tegoż postępu. W coraz to bardziej ludzkich, oderwanych od materialnych trosk warunkach życia powstaje miejsce dla kształtowania się twórczych możliwości człowieka. Zatem pytanie o sens wysokopłatnego parytetu płac, zmniejszania wymiaru czasu uciążliwej pracy czy dotowania działalności kulturalnej i oświatowej wydaje się być zbędne. Poprawa wydajności pracy i lepsze warunki życia idą w parze, powiązane w przyczynowo-skutkowym splocie z ludzkim impulsem twórczym.

Natrafiamy w tym miejscu na kolejne zagadnienie, którego nie można przemilczeć. Skoro ludzkość zdolna jest – dzięki rozwijaniu indywidualnych potencjałów i rozprzestrzenianiu wiedzy na coraz większą liczbę osób – do powiększania „systemu”, w którym żyje, logiczna wydaje się możliwość zużywania zasobów w zbyt szybkim tempie. Na problem ten zwrócili uwagę 40 lat temu D. i D. Meadowsowie w swoim raporcie dla Klubu Rzymskiego, zatytułowanym „Granice wzrostu”. Raport wywołał alarm swoimi przewidywaniami, że połączone trendy zużywania zasobów, wzrostu populacji i zanieczyszczeń doprowadzą do radykalnego pogorszenia warunków życia. Prognozy nie sprawdziły się jednak. Do roku 2012 świat miał wyczerpać 12 z 19 substancji, które badali Meadowsowie, w tym m.in. aluminium, ropę, gaz ziemny, srebro, cynk, molibden, miedź i ołów. Jak wskazał autor artykułu w magazynie „Foreign Affairs”, ilość zasobów, które będzie można wytworzyć dzięki ludzkiej pomysłowości [inegnuity], daleko przewyższa wymagania ludzkiej konsumpcji1.

Mimo iż powyższy przykład dowodzi, że czasowe granice wzrostu są przekraczalne, zignorowanie możliwości pojawienia się wielkich zagrożeń byłoby nierozsądne. Skala globalnej aktywności gospodarczej wymaga stałego monitoringu zachodzących procesów oraz ingerowania w nie. Rozwój bowiem, jeżeli daje się go jakkolwiek zdefiniować, powinien być mierzony jako zapewnienie długookresowej zdolności poprawy warunków życia, towarzyszącej zwiększaniu potencjału wiedzy i materialnych instrumentów potrzebnych do przeżycia. Pytanie więc brzmi: czy nauka jest dziś przygotowana do podołania wyzwaniom rysującym się na horyzoncie? Przy całym optymizmie należy przyznać, że jest wiele do zrobienia w tej kwestii.

Niektóre pożądane kierunki zmian są oczywiste i nie wymagają wielkiego podniesienia poziomu obecnej wiedzy. U progu XXI wieku przychodzi nam się zmagać z kryzysem dezindustrializacji i rosnącego rozwarstwienia społecznego. Inteligentne zarządzanie może poradzić sobie ze skutkami tego stanu rzeczy poprzez regulację systemu finansowego i politykę gospodarczą zainteresowaną gospodarką sfery realnej. Jednak realizacja ambitniejszych, moralnie i ekonomicznie koniecznych, globalnych wyzwań, takich jak dynamiczny rozwój krajów zapóźnionych, jest niezwykle odległa. Podjęcie takich projektów, służących całej światowej społeczności, opartych na rozpowszechnieniu wiedzy i techniki w krajach o niskim poziomie rozwoju oraz rozbudowie globalnego potencjału twórczego, wymaga wizji, instrumentów i narzędzi, których współczesnej nauce brakuje.

Współczesna ekonomia znalazła się w ślepej uliczce, ograniczona narzuconymi sobie dogmatami. Brak w niej interdyscyplinarności i odwołań do rzeczywistego świata, z jego uwarunkowaniami społecznymi i politycznymi. Oparta jest na sztucznych matematycznych modelach, do których na siłę dopasowywane są realia empiryczne, zaś jej celem jest nie rozwojowa zmiana, lecz znalezienie się w upragnionym statycznym punkcie optimum.

Bez uporania się z przyczynami błędnego myślenia ekonomicznego, skuteczna walka z efektami kryzysu nie może mieć miejsca. Twórczy aspekt rozwoju został w dzisiejszych czasach całkowicie utracony w nierozumnym formalizmie modeli. Jest to efekt politycznego triumfu neoliberalizmu. Pod maską nauki społecznej narzuca on swój regresywny ogląd świata, w którego centrum jest egoistyczna jednostka. Wytyczone ściśle i sztucznie ramy działania ekonomistów nie zostawiają miejsca na rozwój. Jak stwierdziła grupa krytycznych ekonomistów, przyczynę ostatniej katastrofy tej dyscypliny, którą było nieprzewidzenie kryzysu, stanowiło skupienie się na modelach zaprojektowanych tak, aby ignorować kluczowe elementy wpływające na rzeczywisty rynek2.

Dzisiejsze nauki ekonomiczne zmniejszają liczbę palących problemów, „rozwiązując” je poprzez nieuznanie ich istnienia. Według ortodoksyjnej teorii bank centralny powinien być w pełni niezależny (od społeczeństwa), aby nie być użytym do pobudzania wzrostu, lecz jedynie zajmować się obroną świętej stabilności cen, co faworyzuje rentierów i kredytodawców.

Dla bezrobotnych zaś wielkim pokrzepieniem musi być fakt, iż w dominującym obecnie w pracach ekonomistów (i uznanym za wielkie osiągnięcie) modelu DSGE bezrobocie jest zawsze dobrowolnym wyborem bezrobotnego. Ten sam model w swojej standardowej wersji nie zakłada w ogóle istnienia sektora finansowego i banków. Krytykujący dominujące „mądrości” ekonomista Philip Arestis zwraca uwagę: musimy uwzględniać banki, musimy uwzględniać fakt istnienia pieniądza3.Dlaczego?

Dobitnie pokazuje to głośna dysputa Paula Krugmana z kwestionującym obecny paradygmat Stevem Keenem. Krugman, mimo swej krytyki polityki cięć oszczędnościowych, bronił standardowego modelu neoklasycznego, w ostateczności posuwając się do kompromitującego stwierdzenia, iż brak uwzględnienia przez modele faktu istnienia banków i sektora finansowego nie ma żadnego znaczenia. Otóż ma ogromne znaczenie i pozwala wyjaśnić rzekome „paradoksy”, z którymi nie potrafi sobie poradzić neoklasyczna ekonomia, tłumacząc niedociągnięcia „szokami zewnętrznymi”, czynnikami behawioralnymi, brakiem zaufania rynków itd. Według owej neoklasycznej, mainstreamowej teorii ekonomicznej, obniżka stóp procentowych i luzowanie ilościowe (QE), czyli zwiększenie tworzenia pieniądza przez bank centralny, powinny skutkować ożywieniem gospodarczym i inflacją. Tymczasem mamy do czynienia z gospodarczą stagnacją i co najwyżej inflacją na spekulacyjnych rynkach giełd towarowych. Wyjaśnienie jest proste: to rezultat polityki banków komercyjnych, pośredniczących i – mówiąc w wielkim uproszczeniu – współemitujących pieniądz, a także instytucji finansowych, posiadających wielkie ilości prywatnych zobowiązań (długu, derywat).

Dopiero takie postawienie sprawy pozwala pójść krok dalej w analizie ekonomicznej i prześledzić przepływy nowo powstającego pieniądza, kredytu i długu. Wtedy zrozumiałe stanie się, dlaczego usilnie promowana jest fałszywa narracja zbyt wielkiego długu publicznego. Okaże się, iż tak naprawdę to długi prywatne, spekulacyjne piramidy finansowe poza wszelką kontrolą państwa, wysysają kreację pieniądza na potrzeby finansowania obsługi tego gigantycznego, wirtualnego kasyna.

Ten obraz jest jednak starannie ukryty i niewidoczny w mainstreamowej ekonomii. Dzieje się tak, ponieważ konstruowane modele są w istocie ekstrapolacją zachowań gospodarczych w mikroskali na skalę makro. Bazą do rozważań o gospodarce jest wobec tego jeden wymyślony neoklasyczny homo economicus i jego zachowania. Do jak wielkich pomyłek prowadzi to założenie, pokazały nam ostatnie lata eksperymentów z cięciami budżetowymi.

Niczym innym niż fatalnym błędem jest porównanie budżetu gospodarstwa domowego i państwa. Całość (państwo) nie ma tych samych właściwości co jego części, jest też czymś innym niż ich sumą (gdyż suma racjonalnych decyzji jednostek niekoniecznie przekłada się na optymalny stan gospodarki4). Dlatego gdy dla gospodarstwa domowego oszczędzanie jest często dobrą strategią, państwo może wydawać więcej, dla maksymalizacji potencjału rozwojowego, stymulacji gospodarki i utrzymania zatrudnienia.

Niestety neoliberalne recepty cięć budżetowych znalazły wygodną „podkładkę”, jaką były przeczące wielu innym badania pary Alesina & Ardagna z 2009 roku, sugerujące dobroczynne skutki cięć oszczędnościowych. Po pewnym czasie tendencyjny dobór danych stał się oczywisty5, nawet dla narzucającego pakiety „reform” Międzynarodowego Funduszu Walutowego, jednak przysłowiowe mleko już się rozlało, zaś pseudonaukowy mit, mimo swej niewiarygodności, został wykorzystany ku większej chwale spekulantów, przejmujących za bezcen wyprzedawany grecki majątek.

Dobór danych pod tezę jest, według zajmującego się szczegółową analizą badań prof. Toma D. Stanleya, plagą aż 70% publikacji. Co smutne, acz mało zaskakujące, to fakt, iż bardziej prestiżowe czasopisma są jednocześnie bardziej tendencyjne. Konsensus, jak zauważył zespół Stanleya, znacząco zmniejsza wartość merytoryczną i dokładność badań. Poddał on analizie m.in. dostępne badania na temat wpływu płacy minimalnej na liczbę zatrudnionych. Po ponownym ich przetworzeniu okazało się, iż wzrost płacy minimalnej ma zerowy lub statystycznie nieistotny wpływ na liczbę zatrudnionych.

Istnienia modeli ekonomicznych w takiej formie jak dzisiaj nie da się wytłumaczyć pozytywnymi rekomendacjami dla praktyków polityki gospodarczej, gdyż ich użyteczność jest po prostu niska. Tym trudniej bronić pozytywnego dydaktycznego wpływu modelowania na myślenie młodych ekonomistów. Jak zauważył prof. Jan Toporowski, na pytanie o trudności, jakie ma dziś przed sobą ekonomia, studenci pierwszego roku opowiadają o walce z biedą, kwestii wzrostu, czasami wymieniają deficyt. Studenci trzeciego roku wcale nie wspominają o tych kwestiach. Nauczanie i rozumienie ekonomii kuleje, w czego następstwie gospodarka zmierza ku recesji.

Jak wskazują krytycy, stary model, powielany m.in. w uznanych przez młodych ekonomistów za święte podręcznikach Paula Samuelsona6, zakłada, iż wartość sumy czynników włożonych w produkcję jest tożsama z wartością gotowego produktu. Tym samym w procesie gospodarczym wartość nie jest tworzona (co najwyżej odkrywana), gdyż to, co powstanie, równe jest temu, co już jest. Ten pozornie logiczny nonsens pozwala lansować niemające wiele wspólnego z rzeczywistością ricardiańskie założenie, iż wyższe płace robotnika muszą oznaczać niższy zysk. Ekonomia w tym modelu jest statyczna, nic więc dziwnego, że oparta na niej polityka gospodarcza przynosi stagnację. Jak stwierdził ekonomista Frank Hahn, Często zastanawiam się, czy inne dyscypliny też tak mocno cierpią przez autorów podręczników7. Konieczna jest alternatywa wobec neoliberalnej ortodoksji, szkodzącej nie tylko swej dyscyplinie, ale i całemu społeczeństwu.

Tak jak odpowiedzią na wywody Samuelsona jest znacznie lepszy podręcznik Davida Colandera8, tak też odpowiedzią na fakt, iż ani klasycy, ani neoklasycy, ani keynesiści nie poradzili sobie z dochodem i zyskiem9, jest zintegrowane podejście do kredytu, pieniądza, dochodu, produkcji i bogactwa z prac Godleya i Lavoie’a10. Skonstruowany przez nich i ich naśladowców model typu stock-flow znacznie lepiej odzwierciadla rzeczywistość i wskazuje m.in., że w przeciwieństwie do każdego modelu klasycznego zyski nie zawsze wracają do gospodarstw domowych, zaś oszczędności nie są równe inwestycjom. Wprowadzenie tych urealniających zmian całkowicie zmienia obraz sytuacji. Jak wskazuje w swej książce „Nikt tego nie przewidział?”11 jeden z czołowych ekonomistów nowego nurtu, Dirk Bezemer, przed kryzysem ostrzegała grupa ekonomistów pokazujących rzeczywiste przepływy (flow of funds) w gospodarce i finansach. Jednym z nich był Michael Hudson, który jeszcze przed kryzysemwskazywał, że pomimo pęczniejących bilansów „realna gospodarka” ugnie się pod ciężarem bańki prywatnych długów, odciągającej kredyt od inwestycji w kapitał wytwórczy. Mimo to zamykający oczy i zatykający uszy wpływowi ekonomiści głównego nurtu i finansiści twierdzą, iż „nikt tego nie przewidział”.

Jednocześnie mamy do czynienia z reinterpretacją kryzysu na neoliberalną modłę i brak jakiejkolwiek refleksji nad przyczynami porażki ekonomii głównego nurtu, gdzie wciąż w modzie jest zamaskowane skomplikowaną matematyką wyszukiwanie korelacji w ramach nierealistycznych modeli. Narzędzia pracy ekonomisty zamiast ułatwiać, uniemożliwiają mu jej wykonywanie. Warto zauważyć, że podobnie nierealistyczne, statyczne podejście byłoby nie do przyjęcia w łatwiej namacalnych co do swych efektów naukach o zarządzaniu. Trudno wyobrazić sobie firmę, która przez kolejne dekady byłaby zarządzana przy założeniach rynku jako „gry o sumie zerowej”, bez możliwości wzrostu, zmiany, innowacji. Nieprzypadkowo uważana za wzór dobrej szkoły menedżerów Harvard Business School została założona przez protegowanego Gustava Schmollera, ekonomisty z niemieckiego nurtu szkoły historycznej. Do dziś działa ona w oparciu o koncepcje tej szkoły, znacznie lepiej rozumiejącej gospodarczą rzeczywistość i procesy wzrostu. Inna prestiżowa szkoła biznesu – Wharton Business School – została założona przez Josepha Whartona, ucznia Henry’ego Careya, wybitnego ekonomisty promującego interwencjonizm państwowy12.

Aby ekonomia głównego nurtu również zdawała test nauki o skutecznym działaniu, musi, po ucieczce z ciasnego więzienia swych założeń, zacząć mierzyć się z realnymi problemami. To oznacza wymyślanie na nowo rozwoju, podobnie jak robili to myśliciele w poprzednich epokach, umiejętnie korzystając z nowo dostępnych narzędzi (matematycznych, cybernetycznych) podporządkowanych osiągnięciu wytyczonej przez myśl ścieżki rozwoju.

Po pierwsze globalizacja procesów gospodarczych, społecznych, światowy wymiar regionalnych zmian demograficznych, klimatycznych, kulturowych etc. wskazują na potrzebę zdecydowanie bardziej interdyscyplinarnego podejścia naukowego. Tym samym ekonomista nie może ignorować tych aspektów kultury, nauk społecznych i przyrodniczych, które wpływają nawet bardzo pośrednio na jakość życia społeczeństwa. Nie może abstrahować od kwestii struktury społecznej i z niej wypływającej siły politycznej i ekonomicznej. Musi również umieć używać narzędzi programowania wizyjnego, pozwalającego przewidywać możliwość wystąpienia w dalekiej przyszłości „ubocznych” i nieoczywistych efektów i sprzężeń zwrotnych procesów dziejących się dziś i w przeszłości. Przykładowo musi umieć ocenić efekty (pozytywne, negatywne, neutralne) wprowadzenia danej technologii na np. zdrowie. Rodząca się obecnie complexity economics jest zalążkiem takiej koniecznej naukowej „infrastruktury” planowania strategicznego.

Po drugie niezwykle ważny jest powrót do ekonomii metafor biologicznych, podkreślających zmienność, ewolucyjność i złożoność procesów gospodarczych. Aby uczynić zadość chęci wymyślania nowej drogi rozwoju, przedmiotem rozważań w miejscu myślenia statycznego musi być zatem dynamika. W klasycznej teorii ekonomii wartość powstaje dzięki akumulacji kapitału. Jak zauważył w latach 50. profesor Uniwersytetu Stanforda, Moses Abramowitz, czynnik ten można w wyliczeniach określić na jedynie ok. 10–15% wpływu na powstanie nowej wartości, zaś resztę (85–90%) jako miarę niewiedzy ekonomistów13. Istnieje jednak grupa ekonomistów (m.in. Carlota Perez, W. Drechsler, R. Nelson i wielu innych), którzy znacząco zmniejszają tę miarę, studiując ewolucję gospodarki i jej wchodzenie w nowe fazy rozwoju. Dzięki ich pracy nasze pojęcie o tym „nieznanym” czynniku, czyli ludzkiej kreatywności, nie jest zlepkiem ogólnie słusznych stwierdzeń, lecz rygorystyczną, naukową podstawą do świadomego wchodzenia na nowy poziom rozwoju, swoistym przewodnikiem po naturze zmian paradygmatów technologiczno-gospodarczych.

Studia te rozwijają się w nowy kierunek14, zwany technology governance, świadomie integrujący historię myśli ekonomicznej, makroekonomię, zarządzanie na poziomie wdrożeń innowacji do biznesu, ekonomię ewolucyjną i narodowe systemy innowacji. Właśnie ten aspekt, czyli zarządzanie wiedzą i techniką, aby dokonać jakościowych, systemowych przeobrażeń gospodarki jako całości, wydaje się być, oprócz kompleksowego gospodarczego programowania wizyjnego, przyszłością nauki o rozwoju, a zatem (z jego natury) o wymyślaniu rozwoju na nowo.

Oczywiście dziś, gdy wciąż dyskutowana jest kwestia wdrożenia lub wycofania polityki rażąco głupich cięć oszczędnościowych, kurczących gospodarkę, wspomniane wyżej kierunki zdają się być pieśnią odległej przyszłości. Mimo wszystko są powody do umiarkowanego optymizmu. W ostatnich latach internet zaczął obfitować w strony i blogi poświęcone alternatywom dla dzisiejszej ekonomii. Są niejednokrotnie prowadzone przez ekonomistów (często uznanych), których niezwykła aktywność i rozpierająca energia nie mogą być wytłumaczone tylko ambicjami środowiskowymi i chęcią udowodnienia swojej racji. Można je wytłumaczyć jedynie głębokim, mającym mocne naukowe podstawy, przekonaniem o możliwości zmiany ekonomii, a za jej pomocą świata i warunków życia oraz przyszłości miliardów ludzi. Choć stara ekonomia jeszcze się trzyma, to nowa już bardzo mocno napiera wzbierającym entuzjazmem jej zwolenników. Zupełnie świadoma, z jak słabym i fałszywym przeciwnikiem ma do czynienia – nie odpuści.

Krzysztof Mroczkowski

Przypisy:

  1. Bjorn Lomborg, Environmental Alarmism, Then And Now. The Club of Rome’s Problem – and Ours, „Foreign Affairs” July-August 2012, ss. 24–40.
  2. David Colander et al. The Financial Crisis and the Systemic Failure of Academic Economics, „Kiel Working Paper” 1489, February 2009, s. 1.
  3. Interventions. 17 Interviews with Unconventional Economists (2004–2012), Metropolis Verlag 2012, s. 16.
  4. Jest to tzw. błąd kompozycji (fallacy of composition): Charles P. Kindleberger, Manias, Panics, and Crashes: A History of Financial Crises (2nd Ed.), London 1989, s. 243.
  5. Sebastian Dullien, Is new always better than old? On the treatment of fiscal policy in Keynesian models, „Review of Keynesian Economics”, Autumn 2012, London s. 16.
  6. „PKB może być mierzone w dwojaki sposób: (1) jako produkty końcowe albo (2) jako suma kosztów ich produkcji. Obie metody wyniosą dokładnie ten sam łączny PKB” (Samuelson and Nordhaus 1998, p. 392) cytowany w: Egmont Kakarot-Handtke, The Common Error of Common Sense: An Essential Rectification of the Accounting Approach, „Levy Economics Institute Working Paper” No. 731, 2012, s. 11.
  7. E. Kakarot-Handtke, op. cit.
  8. Podręczniki Davida Colandera:Economics, a także Microeconomics oraz Macroeconomics, wydawane przez dom wydawniczy McGraw-Hill, tworzą przeciwwagę dla trwającej dziesiątki lat dominacji podręczników Samuelsona. Ich autor w 2010 r. stanął przed Kongresem i w szeroko komentowanym wystąpieniu wypunktował błędy ekonomii głównego nurtu i ich wpływ na kryzys.
  9. E. Kakarot-Handtke, op. cit.
  10. Wynne Godley and Marc Lavoie, Fiscal Policy in a Stock-Flow Consistent (SFC) Model, 2007.
  11. Dirk J. Bezemer, „No One Saw This Coming”: Understanding Financial Crisis Through Accounting Models, 2009.
  12. Daniel A. Wren and David D. Van Fleet, History in Schools of Business [w:] Jeremy Attack (ed.) Business and Economic History, Second Series, Volume Twelve, 1983, ss. 29–36.
  13. Moses Abramovitz, Resource and Output Trends in the United States Since 1870, „The American Economic Review” Vol. 46, No. 2, Papers and Proceedings of the Sixty-eighth Annual Meeting of the American Economic Association (May, 1956), ss. 5–23.
  14. Zarówno jako nurt poszukiwań naukowych, jak i program nauczania, czego przykładem są nowoczesne studia magisterskie Technology Governance na Tallińskim Uniwersytecie Technicznym, prowadzone przez wielu naukowców czołowych w swych dziedzinach.
Tematyka
komentarzy