www.narrida.pl
wprowadź własne kryteria wyszukiwania książek: (jak szukać?)
Twój koszyk:   0 zł   zamówienie wysyłkowe >>>
Strona główna > opis książki
English version
Książki:
wydawnictwa polskie
podział tematyczny
 
wydawnictwa anglojęzyczne
podział tematyczny
 
Newsletter:
Zamów informacje o nowościach z wybranego tematu
 
Informacje:
sposoby płatności i dostawy
kontakt
Cookies na stronie
 
Szukasz podpowiedzi?
Nie znasz tytułu?
Pomożemy Ci, napisz!


Podaj adres e-mail:


możesz też zadzwonić
(22) 216 80 45

EKONOMETRIA


MADDALA G.S.

wydawnictwo: PWN , rok wydania 2008, wydanie II

cena netto: 105.00 Twoja cena  99,75 zł + 5% vat - dodaj do koszyka

Wzorcowy podręcznik ujmujący najważniejsze problemy klasycznej i nowoczesnej ekonometrii.

Zdaniem recenzentów, książka:

- przedstawia najistotniejsze tematy z zakresu ekonometrii klasycznej i współczesnej,
- jest napisana w sposób jasny i precyzyjny,
- jest przyjazna dla osób rozpoczynających naukę ekonometrii,
- ułatwia dalsze studiowanie ekonometrii z podręczników na wyższym poziomie zaawansowania.

Punktem wyjścia do rozważań jest zawsze pewien problem ekonomiczny, który może być rozwiązany z wykorzystaniem określonych metod ekonometrycznych. Autor nie omawia metod dla nich samych, ale z punktu widzenia problemów, jakie tymi metodami można rozwiązać. Polskie wydanie zawiera specjalnie przygotowany przez tłumaczy indeks.

Książka przeznaczona dla kadry akademickiej i studentów uczelni ekonomicznych, uniwersytetów, politechnik i akademii rolniczych do studiowania ekonometrii i przedmiotów pokrewnych.


Spis treści:

Część pierwsza
Wprowadzenie i model regresji liniowej

1. Czym jest ekonometria
Co jest w tym rozdziale
1.1. Czym jest ekonometria?
1.2. Model ekonomiczny i model ekonometryczny
1.3. Cele i metody ekonometrii
1.4. Co jest testem dla teorii ekonomicznej?
Podsumowanie i plan książki

2. Podstawy statystyki i algebry macierzy
Co jest w tym rozdziale
2.1. Wprowadzenie
2.2. Prawdopodobieństwo
Zasady sumowania prawdopodobieństw
Prawdopodobieństwo warunkowe i reguła iloczynu
Twierdzenie Bayesa
Operacje sumowania i mnożenia
2.3. Zmienne losowe i rozkłady prawdopodobienstwa
L1czne, brzegowe i warunkowe rozkłady prawdopodobieństwa
2.4. Rozkład normalny i związane z nim inne rozkłady
Rozkład normalny
Rozkłady związane z rozkładem normalnym
2.5. Klasyczne wnioskowanie statystyczne
2.6. Własności estymatorów
Nieobciążoność
Efektywnoość
Zgodność
Inne własności asymptotyczne
2.7. Rozkłady z próby w przypadku prób pochodzących z populacji o rozkładzie normalnym
2.8. Estymacja przedziałowa
2.9. Weryfikacja hipotez
2.10. Związek między estymacją przedziałową i weryfikacją hipotez
2.11. Wnioskowanie na podstawie niezależnych testów
Podsumowanie
Ćwiczenia
Dodatek: Algebra macierzy

3. Regresja prosta
Co jest w tym rozdziale
3.1. Wprowadzenie
3.2. Specyfikacja zależności
3.3. Metoda momentów
3.4. Metoda najmniejszych kwadratów
3.3. Regresja odwrotna
3.5. Wnioskowanie statystyczne w modelu regresji liniowej
3.3. Przedzia3y ufności dla ?, ß i ?2
3.3. Weryfikacja hipotez
3.3. Regresja bez wyrazu wolnego
3.6. Analiza wariancji w modelu regresji prostej
3.7. Predykcja w modelu regresji prostej
3.3. Predykcja wartości oczekiwanej
3.8. Obserwacje nietypowe
3.9. Alternatywne postacie funkcyjne równan regresji
3.10.?Predykcja odwrotna w modelu szacowanym metodą najmniejszych kwadratów
3.11.Losowe zmienne objaśniające
3.12.?Pułapka regresji
3.3. Dwuwymiarowy rozkład normalny
3.3. Wynik Galtona i pułapka regresji
Podsumowanie
Ćwiczenia
Dodatek

4. Model regresji wielorakiej
Co jest w tym rozdziale
4.1. Wprowadzenie
4.2. Model z dwiema zmiennymi objaśniającymi
4.8. Metoda najmniejszych kwadratów
4.3. Wnioskowanie statystyczne w modelu regresji wielorakiej
4.8. Wzory dla ogólnego przypadku k zmiennych objaśniających
4.4. Interpretacja ocen parametrów w modelu regresji
4.5. Współczynniki korelacji cząstkowej a współczynnik korelacji wielorakiej
4.6. Związek między współczynnikami korelacji prostej, cząstkowej i wielorakiej
4.7. Prognozowanie w modelu regresji wielorakiej
4.8. Analiza wariancji i weryfikacja hipotez
4.8. Hipotezy zagnieżdżone i niezagnieżdżone
4.8. Testy dla liniowych funkcji parametrów
4.9. Pominięcie właściwych zmiennych objaśniających i włączenie zbędnych zmiennych objaśniających
4.8. Pominięcie właściwych zmiennych objaśniających
4.8. Włączenie do modelu zbędnych zmiennych objaśniających
4.10. Stopnie swobody i R2
4.11. Testy stabilności
4.11. Test oparty na analizie wariancji
4.11. Predykcyjne testy stabilności
4.12.?Testy LR, W iLM
Podsumowanie
Ćwiczenia
Dodatek: Model regresji wielorakiej w zapisie macierzowym
Zbiory danych

Część druga
Naruszenie załołeń podstawowego modelu

5. Heteroskedastyczność
Co jest w tym rozdziale
5.1. Wprowadzenie
5.2. Wykrywanie heteroskedastyczności
5.2. Test ilorazu wiarygodności
5.2. Test Goldfelda–Quandta
5.2. Test Breuscha–Pagana
5.2. Intuicyjne uzasadnienie testu Breuscha–Pagana
5.3. Konsekwencje heteroskedastyczności
5.2. Ocena wariancji estymatora MNK w przypadku heteroskedastyczności
5.4. Rozwi1zania kwestii heteroskedastyczności
5.5. Heteroskedastyczność a użycie deflatorów
5.6.??Testowanie liniowości względem log-liniowości
5.2. Test Boxa–Coxa
5.2. Test BM
5.2. Test PE
Podsumowanie
Ćwiczenia
Dodatek: Uogólniona metoda najmniejszych kwadratów

6. Autokorelacja
Co jest w tym rozdziale
6.1. Wprowadzenie
6.2. Test Durbina–Watsona
6.3. Estymacja dla poziomów czy dla pierwszych różnic?
6.4. Techniki estymacji w przypadku wystepowania autokorelacji składnika losowego
6.4. Metody iteracyjne
6.4. Metody przeszukiwania ,,po kracie’’
6.5. Wpływ składników losowych typu AR(1) na oceny parametrów uzyskane MNK
6.6. Dalsze uwagi dotycz1ce testu DW
6.4. Test von Neumanna
6.4. Test Berenbluta–Webba
6.7. Testy autokorelacji w modelach z opóźnioną zmienną objaśnianą
6.4. Test h Durbina
6.4. Alternatywny test Durbina
6.8. Uogólniony test autokorelacji wyższego rzędu: test LM
6.9. Metody postępowania w sytuacji, gdy test DW wskazuje na wystepowanie autokorelacji
6.4. Składniki losowe inne niż AR(1)
6.10.*?Autokorelacja spowodowana pominieciem zmiennych
6.10.*?Autokorelacja spowodowana nieprawidłową specyfikacją dynamiki modelu
6.10.*?TestWalda
6.10.?Trend i błądzenie przypadkowe
6.10.*?Trendy pozorne
6.10.*?Różnicowanie i efekty d3ugookresowe: koncepcja kointegracji
6.11.*?Modele ARC Hiautokorelacja
6.12. Krótki komentarz do testu DW i testów h oraz tDurbina
Podsumowanie
Ćwiczenia
Zbiory danych

7. Współliniowość
Co jest w tym rozdziale
7.1. Wprowadzenie
7.2. Przykłady ilustrujące zagadnienie współliniowości
7.3. Wybrane miary współliniowości
7.4. Jak mierzyć współliniowość
7.5. Rozwiązania problemu współliniowości: regresja grzbietowa
7.6. Regresja względem głównych skladowych
7.7. Usuwanie zmiennych
7.8. Inne rozwiązania problemu współliniowooeci
7.8. Przeksztalcenie zmiennych: ilorazy lub pierwsze różnice
7.8. Wykorzystanie zewnętrznych ocen parametrów
7.8. Większy zbiór danych
Podsumowanie
Ćwiczenia
Dodatek

8. Zmienne jakościowe i zmienne ucięte
Co jest w tym rozdziale
8.1. Wprowadzenie
8.2. Zmienne zero-jedynkowe a zmiany wyrazu wolnego
8.3. Zmienne sztuczne a zmiany wartości współczynników kierunkowych
8.4. Zmienne sztuczne a ograniczenia nakładane na parametry różnych równań
8.5. Zmienne sztuczne a testy stabilności parametrów regresji
8.6. Wykorzystanie zmiennych sztucznych przy heteroskedastyczności i autokorelacji
8.7. Jakościowe zmienne zależne
8.8. Liniowy model prawdopodobienstwa i liniowa funkcja dyskryminacyjna
8.8. Liniowy model prawdopodobienstwa
8.8. Liniowa funkcja dyskryminacyjna
8.9. Model probitowy i model logitowy
8.8. Problem prób niezbilansowanych
8.8. Predykcja efektów zmian wartości zmiennych objaśniających
8.8. Miary dopasowania
8.10. Zmienne ucięte:model tobitowy
8.8. Metoda estymacji
8.8. Ograniczenia modelu tobitowego
8.8. Model regresji uciętej
Podsumowanie
Ćwiczenia

9. Modele wielorównaniowe
Co jest w tym rozdziale
9.1. Wprowadzenie
9.2. Zmienne endogeniczne i zmienne egzogeniczne
9.3. Problem identyfikacji: identyfikacja przez postać zredukowaną
9.4. Konieczne i dostateczne warunki identyfikacji
9.5. Metody estymacji:metoda zmiennych instrumentalnych Pomiar R2
9.6. Metody estymacji: podwójna metoda najmniejszych kwadratów
9.5. Wyznaczanie błędów standardowych
9.7. Problem normalizacji
9.8.Metoda najwiekszej wiarygodności z ograniczoną informacją
9.9.O zastosowaniach MNK w estymacji modeli wielorównaniowych
9.9.*?Koncepcja identyfikacji Workinga
9.9.*?Modelerekurencyjne
9.9.*?Estymacja funkcji produkcji Cobba–Douglasa
9.10.Egzogeniczność i przyczynowość
9.10.*Słaba egzogeniczność
9.10.*Superegzogeniczność
9.10.*Silna egzogeniczność
9.10.*Przyczynowośćw sensie Grangera
9.10.*Przyczynowość i egzogeniczność w sensie Grangera
9.10.*Testy egzogeniczności
9.11. Problemy związane z estymacją metodami zmiennych instrumentalnych
Podsumowanie
Ćwiczenia
Dodatek

10. Modele nieliniowe i modele oczekiwań. Normalność rozkładu składnika losowego
Co jest w tym rozdziale
10.1. Wprowadzenie
10.2. Metoda Newtona–Raphsona
10.3. Nieliniowa metoda najmniejszych kwadratów
10.3. Metoda Gaussa–Newtona
10.4. Modele oczekiwań
10.5. Modele oczekiwań naiwnych
10.6. Modele oczekiwań adaptacyjnych
10.3. Estymacja modeluoczekiwań adaptacyjnych
10.7. Zmienne opisujące oczekiwania. Opóźnienia w dostosowaniach
10.8. Model częściowych dostosowań z oczekiwaniami adaptacyjnymi
10.9. Alternatywne modele z rozkładem opóźnień: opóźnienia wielomianowe
10.3. Skonczony rozkład opóźnień: opóźnienia wielomianowe
10.3. Wybór stopnia wielomianu
10.10. Opóźnienia ilorazowe
10.11. Modele oczekiwań racjonalnych
10.12. Testy racjonalności
10.13. Estymacja modelu popytu i podaży z racjonalnymi oczekiwaniami
10.14. Problem autokorelacji składników losowych w modelach racjonalnych oczekiwań
10.15. Normalność rozkładu składników losowych.
10.16. Przekształcenia danych
Podsumowanie
Ćwiczenia


11. Błędy w zmiennych
Co jest w tym rozdziale
11.1. Wprowadzenie
11.2. Klasyczne rozwiązanie dla modelu jednorównaniowego z jedną zmienną objaśniającą
11.3. Model jednorównaniowy z dwiema zmiennymi objaśniajacymi
11.3. Dwie zmienne objaśniające: jedna mierzona z błędem
11.3. Dwie zmienne objaśniające: obie podlegające błędom pomiaru
11.4. Regresja odwrotna
11.5. Metody zmiennych instrumentalnych
11.6. Zmienne zastępcze
11.7. Inne problemy
11.3. Przypadek modelu wielorównaniowego
11.3. Wzajemne skorelowanie błędów pomiaru oraz ich skorelowanie ze składnikami
systematycznymi
Podsumowanie.
Ćwiczenia

Część trzecia
Rozszerzenia i zagadnienia specjalne

12. Diagnostyka, wybór modelu, testowanie specyfikacji
Co jest w tym rozdziale.
12.1. Wprowadzenie
12.2. Testy diagnostyczne oparte na resztach metody najmniejszych kwadratów
12.2. Testy pominietych zmiennych
12.2. Testowanie efektów ARCH
12.3. Problemy związane z resztami metody najmniejszych kwadratów
12.4. Inne rodzaje reszt
12.2. Reszty predyktywne i reszty studentyzowane
12.2. Zastosowanie metody zmiennych zero-jedynkowych do wyznaczania reszt studentyzowanych
Reszty BLUS .
Reszty rekurencyjne
12.5. DFFIT Siestymacja ograniczonego wpływu
12.6. Wybór modelu
12.2. Metoda weryfikacji hipotez
12.2. Metoda interpretacyjna
12.2. Metoda upraszczania
12.2. Metoda zmiennych zastępczych
12.2. Metoda poszukiwania danych
12.2. Metoda konstruowania modelu po wstępnej analizie danych
12.2. Metoda Hendry’ego
12.7. Dobór zmiennych objaśniających
12.2. Kryterium R2Theila
12.2. Kryteria oparte na minimalizacji średniokwadratowego błędu predykcji
12.2. Kryterium informacyjne Akaike’a
12.8. Statystyki F związane z różnymi kryteriami wyboru modelu
12.2. Twierdzenie Bayesa i prawdopodobienstwo a posteriori w wyborze modelu
12.9. Wybór modelu według kryterium prognostycznego
12.10. Test błędu specyfikacji Hausmana
12.10. Zastosowanie: testowanie błędów w zmiennych lub testowanie egzogeniczności
12.10. Zastosowanie testu Hausmana do weryfikacji hipotezy o pominiętych zmiennych
12.11. Test różnicowyPlossera–Schwerta–White’a
12.12. Testy hipotez niezagnieżdżonych
12.10. Test Davidsona i MacKinnona
12.10. Test uniwersalny
12.10. Podstawowy problem weryfikacji hipotez niezagnieżdżonych
12.10. Weryfikacja hipotez a wybór modelu jako strategia badawcza
Podsumowanie
Ćwiczenia
Dodatek

13. Wprowadzenie do analizy szeregów czasowych
Co jest w tym rozdziale
13.1. Wprowadzenie
13.2. Dwie metody analizy szeregów czasowych: wzgledem częstości i względem czasu
13.3. Szeregi czasowe stacjonarne i niestacjonarne
12.0. Ścisłas tacjonarność
12.0. Słaba stacjonarność
12.0. Własności funkcji autokorelacji
12.0. Niestacjonarność
13.4. Wybrane modele szeregów czasowych
12.0. Proces czysto losowy
12.0. Błądzenie przypadkowe
12.0. Proces średniej ruchomej
12.0. Proces autoregresyjny
12.0. Autoregresyjny proces średniej ruchomej
12.0. Autoregresyjny zintegrowany proces średniej ruchomej
13.5. Estymacja modeli AR,MAiARMA.
12.0. Estymacja modeliMA
12.0. Estymacja modeliARMA
12.0. Reszty z modeli ARMA
12.0. Testowanie dopasowania modelu
13.6. Podejście Boxa–Jenkinsa
12.0. Prognozowanie na podstawie modeli Boxa–Jenkinsa
12.0. Eliminowanie trendu: podejście klasyczne
12.0. Sezonowość w modelach Boxa–Jenkinsa
13.7. Miary R2 wmodelach szeregów czasowych
Podsumowanie
Ćwiczenia
Zbiory danych

14. Autoregresja wektorowa, pierwiastki jednostkowe i kointegracja
Co jest w tym rozdziale
14.1. Wprowadzenie
14.2. Autoregresja wektorowa
14.3. Problemy z modelami VAR w praktyce
14.4. Pierwiastki jednostkowe
14.5. Testy pierwiastka jednostkowego
14.10. Test Dickeya–Fullera
14.10. Problem autokorelacji
14.10. Niska moc testów pierwiastka jednostkowego
14.10. Test DF–GLS
14.10. Co jest hipotezą zerową, a co alternatywną w testach pierwiastka jednostkowego?
14.10. Testy ,w których hipoteza zerowa mówi o stacjonarności
14.10. Analiza potwierdzająca
14.10. Testy pierwiastka jednostkowego dla danych panelowych
14.10. Zmiany strukturalne i pierwiastki jednostkowe
14.6. Kointegracja
14.7. Regresja kointegrująca
14.8. Autoregresja wektorowa i kointegracja
14.9. Kointegracja i model korekty błędem
14.10. Testy kointegracji
14.11. Kointegracja i weryfikacja hipotezy racjonalnych oczekiwań oraz hipotezy rynku
efektywnego .
14.12. Ogólna ocena kointegracji
Podsumowanie
Ćwiczenia
Tablica statystyczna

15. Analiza danych panelowych
Co jest w tym rozdziale
15.1. Wprowadzenie
15.2. Model z efektami ustalonymi (model LSDV)
15.3. Model z efektami losowymi
15.4. Model z efektami ustalonymi czy model z efektami losowymi?
15.4. Test Hausmana
15.4. Test Breuscha i Pagana
15.5. Model SUR
15.6. Modele dynamiczne dla danych panelowych
15.7. Model z parametrami losowymi
Podsumowanie

16. Teoria dużych prób
Co jest w tym rozdziale
16.1. Metoda największej wiarygodności
16.2. Metody rozwiązywania równań wiarygodności
16.3. Dolna granica Rao–Cramera
16.4. Testy dużych prób oparte na MNW
Podsumowanie.


17. Wnioskowanie w małej próbie: metody repróbkowania
Co jest w tym rozdziale
17.1. Wprowadzenie
17.2. Metody Monte Carlo
15.4. Metody Monte Carlo o zwiększonej efektywności
15.4. Powierzchnie odpowiedzi
17.3. Metody repróbkowania: jackknife i bootstrap
15.4. Inne zagadnienia związane z metodą bootstrap
17.4. Bootstrapowe przedziały ufności
17.5. Weryfikacja hipotez z wykorzystaniem metody bootstrap
17.6. Bootstrap reszt wobec bootstrapu danych
17.7. Składniki losowe niemające jednakowych i niezależnych rozkładów oraz modele niestacjonarne
15.4. Heteroskedastyczność i autokorelacja
15.4. Testy pierwiastka jednostkowego oparte na metodzie bootstrap
15.4. Testy kointegracyjne
17.8. Inne zastosowania


Podsumowanie
Dodatki
Dodatek A: Tablice statystyczne
Dodatek B: Zbiory danych
Dodatek C: Zbiory danych dostępne w Internecie
Dodatek D: Programy komputerowe
Literatura cytowana
Indeks rzeczowy


704 strony, B5, miękka oprawa

Po otrzymaniu zamówienia poinformujemy,
czy wybrany tytuł polskojęzyczny lub anglojęzyczny jest aktualnie na półce księgarni.

 
Wszelkie prawa zastrzeżone NARRIDA POLSKA Sp. z o.o. 2000-2014