de  ISBN 8483220075

Comprar Libro ANÁLISIS ECONOMETRICO

Autor GREENE - Editorial PEARSON

En ésta página usted puede comprar el libro ANÁLISIS ECONOMETRICO edición 1998 de Editado por la editorial PEARSON  e identificado con el ISBN 8483220075.
Es un libro nuevo, en Español, en formato papel de 952 páginas.
Precio: USD 80.
Lunes a viernes 9 a 17 horas | Tel. (00598) 2707 9880.
UY - Montevideo -Uruguay.
Portada UYBUSINESSPortada Datos de la empresaEmpresa Operativa de la libreríaOperativa ConsultasConsultas RegistroBoletín Secciones de la libreríaSecciones
Usted se encuentra en  » Librería UY - Uruguay  dentro del sector  »  CIENCIAS ECONOMICAS  en el área de  »  ECONOMIA  visitando el escaparate  »  ECONOMETRIA
  
  ISBN 8483220075 Ficha del libro
ANÁLISIS ECONOMETRICO de GREENE
 
ANÁLISIS ECONOMETRICO
ANÁLISIS ECONOMETRICO  de GREENE ISBN 8483220075
GREENE
Editorial PEARSON
Precio:
US$ 80
(Dólares Americanos)
Volúmenes
1
N° de Páginas 952
Edición 3
Año 1998
Idioma Español
Peso Aprox. (g) 1980
 » Calcular en otra moneda
 » Operativa

Reseña:

Introduce a los estudiantes en la econometria aplicada, incluyendo tecnicas basicas de analisis de regresion. Ademas, presenta suficiente material teorico, de modo que puedan reconocer las nuevas varian tes de los modelos como meras generalizaciones.

>

Índice: Prólogo a la edición en español Lista de ejemplos Lista de teoremas y resultados útiles Lista de definiciones CAPíTULO 1 INTRODUCCIóN 1.1. Econometría 1.2. Modelación econométrica 1.3. Econometría teórica y aplicada 1.4. Plan del libro CAPíTULO 2 ÁLGEBRA MATRICIAL 2.1. Introducción 2.2. Terminología 2.3. Operaciones con matrices 2.3.1. Igualdad de matrices 2.3.2. Matriz transpuesta 2.3.3. Suma de matrices 2.3.4. Producto de matrices 2.3.5. Sumas de elementos 2.3.6. Una matriz idempotente útil 2.4. Geometría de matrices 2.4.1. Espacio vectorial 2.4.2. Combinaciones lineales de vectores y base vectorial 2.4.3. Dependencia lineal 2.4.4. SubesPacios 2.4.5. Rango de una matriz 2.4.6. Determinación de una matriz 2.4.7. Solución de mínimos cuadrados 2.5. Solución de un sistema de ecuaciones lineales 2.5.1. Sistemas de ecuaciones lineales 2.5.2. Matrices inversas 2.5.3. Sistemas de ecuaciones no homogéneos 2.6. Matrices particionadas 2.6.1. Suma y producto de matrices particionadas 2.6.2. Determinantes de matrices particionadas 2.6.3. Inversas de matrices particionadas 2.6.4. Desviaciones respecto de la media 2.6.5. Productos de Kronecker 2.7. Raíces y vectores característicos 2.7.1. La ecuación característica 2.7.2. Vectores característicos 2.7.3. Resultados generales para raíces y vectores característicos 2.7.4. Diagonalización y descomposición espectal de una matriz 2.7.5. Rango de una matriz 2.7.6. Número de condición de una matriz 2.7.7. Traza de una matriz 2.7.8. Determinante de una matriz 2.7.9. Potencias de una matriz 2.7.10. Matrices idempotentes 2.7.11. Factorización de una matriz 2.7.12. La inversa generalizada de una matriz 2.8. Formas cuadráticas y matrices definidas 2.8.1. Matrices definidas no negativas 2.8.2. Formas cuadráticas idempotentes 2.8.3. Clasificación de matrices 2.9. Cálculo y álgebra matricial 2.9.1. Diferenciación y las series de Taylor 2.9.2. Optimización 2.9.3. Optimización restringida 2.9.4. Transformaciones Ejercicios CAPíTULO 3 PROBABILIDAD Y TEORíA DE LA DISTRIBUCIóN 3.1. Introducción 3.2. Variables aleatorias 3.2.1. Distribuciones de probabilidad 3.2.2. Función de distribución 3.3. Esperanzas y variables aleatorias 3.4. Algunas distribuciones de probabilidad específicas 3.4.1. La distribución normal 3.4.2. Las distribuciones chi-cuadrado t y F 3.4.3. Distribuciones con muchos grados de libertad 3.4.4. Distribuciones de tamaños. La distribución lognormal 3.4.5. Las distribuciones gamina y exponencial 3.4.6. La distribución beta 3.4.7. La distribución logística 3.4.8. Variables aleatorias discretas 3.5. La distribución de una función de una variable aleatoria 3.6. Distribuciones conjuntas 3.6.1. Distribuciones marginales 3.6.2. Esperanzas en una distribución conjunta 3.6.3. Covarianza y correlación 3.6.4. Distribución de una función de variables aleatorias bivariantes 3.7. Distribuciones condicionadas (caso bivariante) 3.7.1. Regresión. La media condicional 3.7.2. Varianza condicional 3.7.3. Relaciones entre momentos condicionales y marginales 3.7.4. El análisis de la varianza 3.8. La distribución normal bivariante 3.9. Distribuciones multivariantes 3.9.1. Momentos 3.9.2. Conjuntos de funciones lineales 3.9.3. Funciones no lineales 3.10. La distribución normal multivariante 3.10.1. Distribuciones marginales y condicionales normales 3.10.2. Funciones lineales de vectores normales 3.10.3. Formas cuadráticas en un vector normal estandarizado 3.10.4. La distribución F 3.10.5. Una forma cuadrática de rango completo 3.10.6. Independencia de una forma lineal y una cuadrática Ejercicios MTULO 4 INFERENCIA ESTADíSTICA 4.1. Introducción 4.2. Muestras y distribuciones muestrales 4.2.1. Muestreo aleatorio 4.2.2. Estadísticos descriptivos 4.2.3. Distribución muestral 4.3. Estimación puntual de parámetros 4.3.1. Estimación con una muestra finita 4.3.2. Estimación instigada eficiente 4.4. Teoría asintótica 4.4.1. Convergencia en probabilidad 4.4.2. Convergencia en distribuciones y distribuciones límite 4.4.3. Distribuciones asintóticas 4.4.4. Distribución asintótica de una función no lineal 4.4.5. Esperanza asintótica 4.5. Estimación eficiente. Máxima verosimilitud 4.5.1. Propiedades de los estimadores de máxima verosimilitud 4.5.2. Estimación de la varianza asintótica del estimador de máxima verosimilitud 4.6. Estimación en dos etapas 4.7. Estimación consistente: El método de los momentos 4.7.1. Muestreo aleatorio y estimación de parámetros de una distribución 4.7.2. Cálculo de la varianza del estimador del método de los momentos 4.8. Estimación de intervalos 4.9t Contraste de hipótesis 4.9.1. Procedimiento para realizar el contraste 4.9.2. Contrastes basados en intervalos de confianza 4.9.3. Tres contrastes asintóticamente equivalentes 4.9.3a. El contraste de razón de verosimilitudes 4.9.3b. El contraste de Wald 4.9.3c. El contraste del multiplicador de Lagrange 4.9.4. Un ejemplo de los procedimientos de contraste Ejercicios CAPíTULO 5 CóMPUTO Y OPTIMIZACIóN 5.1. Introducción 5.2. Cómputo digital 5.3. Introducción y generación de datos 5.3.1. Base de datos 5.3.2. Generación de números pseudo-aleatorios 5.3.2a. Muestreo de una población uniforme estándar 5.3.2b. Muestreo en distribuciones continuas 5.3.2c. Muestreo de una población normal multivariante 5.3.2d. Muestreo de una población discreta 5.3.2e. El generador de muestras de Gibbs 5.3.3. Estudios de Monte Carlo 5.3.4. Bootstrapping 5.4. Cómputo en econometría 5.4.1. Sumatorios y multiplicaciones 5.4.2. Cálculo de integrales 5.4.2a. La función de distribución acumulada de la normal estándar 5.4.2b. La gamma y funciones relacionadas 5.4.2c. Aproximación de integrales por cuadratura 5.4.2d. La integración de Monte Carlo 5.4.2e. Probabilidades y momentos simulados de una normal multivariante 5.4.3. Cálculo de derivadas 5.5. Optimización 5.5.1. Algoritmos 5.5.2. Métodos gradiente 5.5.3. Aspectos de la estimación máximo verosímil 5.5.4. Optimización con restricciones 5.5.5. Algunas consideraciones prácticas 5.6. Ejemplos Ejercicios CAPíTULO 6 EL MODELO CLÁSICO DE REGRESIóN MúLTIPLE LINEAL: ESPECIFICACIóN Y ESTIMACIóN 6.1. Introducción 6.2. El modelo lineal 6.3. Supuestos del modelo clásico de regresión lineal 6.3.1. Linealidad del modelo de regresión 6.3.2. Rango completo 6.3.3. Regresión 6.3.4. Perturbaciones esféricas 6.3.5. Regresores no estocásticos 6.3.6. Normalidad 6.3.7. Resumen 6.4. Regresión por mínimos cuadrados 6.4.1. El vector de coeficientes de mínimos cuadrados 6.4.2. Aspectos algebráicos de la solución de mínimos cuadrados 6.4.3. Regresión particionada y regresión parcial 6.4.4. Regresión parcial y coeficientes de correlación parcial 6.5. Bondad del ajuste y análisis de la varianza 6.6. Propiedades estadísticas del estimador de mínimos cuadrados en muestras finitas 6.6.1. Regresores no estocásticos 6.6.2. Regresores estocásticos 6.6.3. Normalidad y la distribución de b 6.6.4. Estimación de u2 y de la varianza de b 6.6.5. Contraste de hipótesis sobre un coeficiente 6.6.6. Intervalos de confianza para los parámetros 6.6.7. Contraste de la significatividad de la regresión 6.6.8. Contrastes estadísticos con X estocástico Y E normal 6.7. Resultados para grandes muestras para el modelo clásico de regresión 6.7.1. Propiedades de mínimos cuadrados e muestras finitas 6.7.2. Consistencia del estimador de mínimos cuadrados de 6 6.7.3. Normal asintótica del estimador de mínimos cuadrados 6.7.4. Consistencia de S2 y del estimador de Asy. Var[b] 6.7.5. Distribución asintótica de una función de b. El método delta 6.7.6. Comportamiento asintótico de los contrastes estadísticos estándar 6.7.7. Observaciones independientes en regresores estocásticos 6.7.8. Correlación entre xi y Ei. Estimación por variables instrumentales 6.7.9. Heterogeneidad en las distribuciones de xi 6.7.10. Observaciones dependientes 6.8. Perturbaciones distribuidas normalmente 6.8.1. Eficiencia asintótica. Estimación máximo verosímil 6.8.2. Regresores estocásticos 6.8.3. Contrastes estadísticos de Wald, multiplicador de Lagrange y razon de verosimilitud 6.8.4. Casos en los que los mínimos cuadrados son ineficientes 6.8.5. Criterios alternativos de estimación 6.8.6. Detección de desviaciones a la normalidad 6.9. Estimación bayesiana 6.9.1. Análisis bayesiano del modelo clásico de regresión 6.9.2. Estimación puntual 6.9.3. Estimación de un intervalo 6.9.4. Estimación con una densidad previa infórmativa 6.9.5. Contraste de hipótesis Ejercicios CAPITULO 7 INFERENCIA Y PREDICCION 7.1. Introducción 7.2. Contraste de restricciones 7.2.1. Dos enfóques del contraste de hipótesis 7.2.2. Contraste de un conjunto de restricciones lineales 7.2.3. Contraste de una restricción lineal 7.2.4. Contraste de J restricciones lineales 7.2.5. Un contraste basado en una región de confianza 7.2.6. Perturbaciones no normales 7.3. El estimador de mínimos cuadrados restringido 7.4. Un constraste basado en la pérdida de ajuste 7.5. Ejemplos y algunos procedimientos generales 7.6. Contrastes de cambio estructura¡ 7.6.1. Vectores de parámetros diferentes 7.6.2. Términos constantes diferentes 7.6.3. Cambios en un subconjunto de coeficientes 7.6.4. Observaciones insuficientes 7.7. Contrastes de cambio estructural con varianzas diferentes 7.8. Contrastes alternativos de estabilidad del modelo 7.9. Contraste de restricciones no lineales 7.10. Elección entre modelos no anidados 7.10.1. Un modelo global 7.10.2. El contraste J 7.10.3. El contraste de Cox 7.11. Predicción 7.11.1. Un método conveniente para calcular las predicciones 7.11.2. Medición de la precisión de la predicción Ejercicios CAPíTULO 8 FORMA FUNCIONAL, NO LINEALIDAD Y ESPECIFICACION 8.1. Introducción 8.2. Variables ficticias 8.2.1. Comparación de dos medias 8.2.2. Variables binarias en la regresión 8.2.3. Varias categorías 8.2.4. Varios agrupamientos 8.2.5. Efectos umbrales 8.2.6. Interacciones y regresión Spline 8.3. No linealidad en las variables 8.3.1. Formas funcionales 8.3.2. Identificación de la no linealidad 8.3.3. Identificación y linealidad intrínseca 8.4. Análisis de especificación 8.4.1. Selección de variables 8.4.2. Omisión de variables relevantes 8.4.3. Inclusión de variables irrelevantes 8.5. Estimadores sesgados y estimadores precontrastes 8.5.1. Contraste del error-cuadrado-medio 8.5.2. Estimadores pre contrastes 8.5.3. Restricciones de desigualdad Ejercicios CAPíTULO 9 PROBLEMAS DE LOS DATOS 9.1. Introducción 9.2. Multicolinealidad 9.2.1. Colinealidad perjécta 9.2.2. Multicolinealidad aproximada 9.2.3. Detección de la multicolinealidad 9.2.4. Soluciones propuestas al problema de la multicolinealidad 9.2.5. Conclusión 9.3. Observaciones incompletas 9.4. Datos agrupados 9.5. Errores de medida y variables aproximadas 9.5.1. Una variable medida, con error 9.5.2. Regresión múltiple con errores de medida 9.5.3. El método de variables instrumentales 9.5.4. Variables aproximadas 9.5.5. Un contraste de especiflicación para detectar errores de medida 9.6. Diagnosis de la regresión y datos influyentes Ejercicios CAPíTULO 10 MODELOS DE REGRESIóN NO LINEAL 10.1. Introducción 10.2. Modelos de regresión no lineal 10.2.1. La regresión linealizada 10.2.2. El estimador de mínimos cuadrados no lineales 10.2.3. Cálculo del estimador de mínimos cuadrados no lineales 10.2.4. Un contraste de especificación para regresiones no lineales: contraste de la especificación lineal frente a la lineal logarítmica 10.2.5. Estimación mediante variables instrumentales no lineales 10.2.6. Estimación por mínimos cuadrados no lineales en dos etapas 10.3. Transformación paramétrica de la variable dependiente 10.4. La transformación Box-Cox 10.4.1. Transformación de las variables independientes 10.4.2. Transformación del modelo 10.4.3. Un contraste para (Log-) linealidad 10.5. Contraste de hipótesis y restricciones paramétricas 10.5.1. Un contraste F válido asintóticamente 10.5.2. Contraste de Wald 10.5.3. Contraste de la razón de verosimilitud 10.5.4. Contraste del multiplicador de Lagrange Ejercicios CAPITULO 11 PERTURBACIONES NO ESFERICAS, REGRESION GENERALIZADA Y ESTIMACIóN GMM 11.1. Introducción 11.2. Consecuencias de la estimación por mínimos cuadrados ordinarios 11.2.1. Propiedades en muestras finitas de los mínimos cuadrados ordinarios 11.2.2. Propiedades asintóticas de los mínimos cuadrados 11.2.3. Propiedades asintóticas de los mínimos cuadrados no lineales 11.2.4. Propiedades asintóticas del estimador de variables instrumentales 11.2.5.Estimación robusta o matrices de varianzas y covarianzas asintóticas 11.3. Estimación eficiente 11.3.1. Mínimos cuadrados generalizados (MCG) 11.3.2. Estimación máximo verosímil 11.4. Estimación cuando í1 es desconocida 11.4.1. Mínimos cuadrados generalizados factibles 11.4.2. Estimación máximo verosímil 11.5. El estimador del método generalizado de momentos (MGM) 11.5.1. Métodos de estimadores de momentos 11.5.2. El método generalizado de momentos 11.5.3. Cálculo de q y uso de matrices de pesos no óptimas 11.5.4. Contraste de validación de restricciones de momentos 11.5.5. Estimación MGM en modelos econométricos 11.6. Contrastes de hipótesis en el marco MGM 11.6.1. Contrastes MGM equivalentes a los contrastes de Wald, LM, y LR 11.6.2. Contraste de momentos condicionales Ejercicios CAPíTULO 12 HETEROCEDASTICIDAD 12.1. Introducción 12.2. Estimación mínimo cuadrática ordinaria 12.2.1. Ineficiencia de los mínimos cuadrados 12.2.2. La matriz de varianzas y covarianzas estimada de b 12.2.3. Estimación de la matriz de varianzas y covarianzas apropiada para mínimos cuadrados ordinarios 12.3. Contrastes de heterocedasticidad 12.3.1. El contraste general de White 12.3.2. El contraste de Go1dfeld-Quandt 12.3.3. El contraste de Breusch-PaganIGodfrey 12.3.4. Contraste de heterocedasticidad por grupos 12.3.5. Contrastes basados en regresiones: el contraste de Glesjer(1969) 12.4. Mínimos cuadrados generalizados cuando 11 es conocida 12.5. Estimación cuando * contiene parámetros desconocidos 12.5.1. Estimación en dos etapas 12.5.2. Estimación máximo verosímil 12.6. Conclusiones generales 12.7. Heterocedasticidad condicional autorregresiva Ejercicios CAPíTULO 13 PERTURBACIONES AUTOCORRELACIONADAS 13.1. Introducción 13.2. El análisis de series temporales t3.3. Procesos de la perturbación 13.3.1. Características de los procesos de la perturbación 13.3.2. Perturbaciones AR(I) 13.4. Estimación mínimo cuadrática 13.4.1. Estimación MCO con variables dependientes retardadas 13.4.2. Eficiencia de los mínimos cuadrados 13.4.3. Estimación de la varianza del estimador de mínimos cuadrados 13.5. Contrastes de autocorrelación 13.5.1. El contraste de Durbin-Watson 13.5.2. Otros procedimientos de contraste 13.5.3. Contrastes en presencia de variables dependientes retardadas 13.6. Estimación eficient cuando * es conocida 13.6.1. Mínimos cuadrados generalizados 13.6.2. Estimación máximo verosímil 13.7. Estimación cuando n es desconocida 13.7.1. Perturbaciones AR(I) 13.7.2. Perturbaciones AR(2) 13.7.3. Estimación con una variable dependiente retardada 13.8. Predicción en presencia de autocorrelación Ejercicios CAPíTULO 14 MODELOS PARA DATOS DE PANEL 14.1. Introducción 14.2. Modelos de datos de panel 14.3. Efectos fijos 14.3.1. Contraste de significatividad de los efectos de grupo 14.3.2. Los estimadores intra y entre grupos 14.3.3. 4fectos.fijos de grupo y de tiempo 14.3.4. Paneles incompletos y efectos.fijos 14.4. Efectos aleatorios 14.4.1. Mínimos cuadrados generalizados 14.4.2. Mínimos cuadrados generalizados factibles cuando * es desconocida 14.4.3. Contraste de efectos q1eatorios 14.4.4. Contraste de Hausutan para efectos fijos y aleatorios 14.4.5. Paneles incompletos y eféctos aleatorios 14.5. Heterocedasticidad y estimación robusta de la covarianza 14.5.1. Estimación robusta del modelo de efectos.fijos 14.5.2. Heterocedasticidad en el modelo de efectos aleatorios 14.6. Autocorrelación 14.7. Modelos dinámicos 14.8. Conclusiones Ejercicios CAPíTULO 15 SISTEMAS DE ECUACIONES DE REGRESIóN 15.1. Introducción 15.2. Estructuras de covarianzas para datos de series temporales de secciones cruzadas 15.2.1. Heterocedasticidad de sección cruzada 15.2.2. Correlación de sección cruzada 15.2.3. Autocorrelación de sección cruzada 15.3.4. Resumen 15.3. Un modelo de coeficientes aleatorios 15.4. Modelos de regresión aparentemente no relacionados 15.4.1. Mínimos cuadrados generalizados 15.4.2. Mínimos cuadrados generalizados factibles 15.4.3. Estimación por máxima verosimilitud 15.4.3a. MCGF iterador 15.4.3b. Estimación por máxima verosimilitud directa 15.4.4. Autocorrelación 15.5. Sistemas de ecuaciones de demanda. Sistemas singulares 15.6. Formas funcionales flexibles: La función de costes translogarítmica 15.7. Sistemas no lineales y estimación NIGNI 15.7.1. Estimación MCG 15.7.2. Estimación por máxima verosimilitud 15.7.3. Estimación MGM Ejercicios CAPITULO 16 MODELOS DE ECUACIONES SIMULTANEAS 16.1. Introducción 16.2. Cuestiones fundamentales en modelos de ecuaciones simultáneas 16.2.1. Sistemas de ecuaciones ilustrativos 16.2.2. Endogeneidad y causalidad 16.2.3. Una notación general para modelos de ecuaciones simultáneas 16.2.4. Sistemas de ecuaciones no lineales 16.3. El problema de la identificación 16.3.1. Las condiciones de rango y de orden para la identificación 16.3.2. Identificación mediante información extra-muestral 16.4. Método de estimación 16.5. Método de ecuación única. Información limitada 16.5.1. Mínimos cuadrados ordinarios 16.5.1a. Estimación de mínimos cuadrados de sistemas trianguales 16.5.1 b. Mínimos cuadrados indirectos 16.5.2. Estimación por variables instrumentales y, MGM 16.5.2a. Estimación de una ecuación exactamente identificada 16.5.2b. Mínimos cuadrados bietápicos 16.5.2c.Estimación MGM 16.5.2d. Máxima verosimilitud con información limitada y los estirnadores de clase k 16.5.2e. Mínimos cuadrados en dos etapas con autocorrelación 16.5.2f. Mínimos cuadrados en dos etapas en modelos no lineales en las variables 16.6. Métodos de estimación de sistemas 16.6.1. Mínimos cuadrados en tres etapas 16.6.2. Máxima verosimilitud con infórmación completa 16.6.3. Estimación MGM 16.7. Comparación de métodos 16.8. Contrastes de especificación 16.9. Propiedades de los modelos dinámicos 16.9.1. Modelos dinámicos y sus multiplicadores 16.9.2. Estabilidad 16.9.3. Ajuste hacia el equilibrio Ejercicios Apéndice CAPíTULO 17 Regresiones con variables retardadas 17.1. Introducción 17.2. Modelos de retardos distribuidos 17.2.1. Eféctos retardados en un modelo de regresión 17.2.2. Los operadores de retardos y de d1ferencias 17.2.3. Modelos de retardos distribuidos finitos no restringidos 17.2.4. Modelos de retardos distribuidos polinomiales 17.2.4a. Estimación por mínimos cuadrados restringidos 17.2.4b. Determinación del grado del polinomio 17.2.4c. Determinación de la longitud del retardo 172.5. El modelo de retardos geométrico. Una variable dependiente retardada 17.2.5a. Modelos económicos con retardos geométricos 17.2.5b. Estimación del modelo geométrico de retardos en forma autorregresiva 17.2.5c. Residuos no correlacionados 17.2.5d. Errores autocorrelacionados. Variables instrumentales 17.2.5e. Errores autorregresivos. Estimados de Hatantika y el estimador máximo verosímil 17.3. Modelos de regresión dinámicos 17.3.1. Mínimos cuadrados no lineales. Estimación de modelos ARMA y ARMAX 17.3.2. Cálculo de las ponderaciones de los retardos en el modelo ARMAX 17.3.3. Estabilidad de una ecuación dinámica 17.3.4. Predicción 17.4. Vectores autorregresivos 17.4.1. Contrastes de causalidad de Granger 17.4.2. Funciones de respuesta al impulso 17.4.3. VAR estructurales 17.4.4. VAR en microeconomía Ejercicios CAPíTULO 18 MODELOS DE SERIES TEMPORALES 18.1. Introducción 18.2. Procesos estocásticos estacionarios 18.2.1. Procesos autorregresivos y de medias móviles 18.2.2. Estacionariedad e envertibilidad 18.2.3. Autocorrelaciones de un proceso estacionario estocástico 18.2.4. Autocorrelaciones parciales de un proceso estocástico estacionario 18.2.5. Modelización de series temporales univariantes 18.2.6. Estimación de los parámetros de una serie temporal univariante 18.3. Procesos no estacionarios y raíces unitarias 18.3.1. Procesos integrados y diferenciación 18.3.2. Paseos aleatorios, tendencias, y regresiones espúricas 18.3.3. Contrastes de raíces unitarias en datos económicos 18.4. Cointegración 18.4.1. Tendencias comunes 18.4.2. Corrección del error y representación VAR 18.4.3. Análisis de cointegración 18.4.4. Estimación de relaciones de cointegración 18.5. Heterocedasticidad condicional autorregresiva generalizada 18.5.1. Estimación máximo verosímil del modelo GARCH 18.5.1a. Estimación de los parámetros de la varianza 18.5.1h. Estimación de los parámetros de la regresión 18.5.1e. Cálculo de las derivadas 18.5.ld. Resumen 18.5.2. Estimación por pseudo-máxima verosimilitud 18.5.3. Contraste para los efectos GARCH Ejercicios CANTULO 19 MODELOS CON VARIABLES DEPENDIENTES DISCRETAS 19.1. Introducción 19.2. Modelos de elección discreta 19.3. Modelos de elección binaria 19.3.1. Los modelos de elección binaria como modelos de regresión 19.3.2. Función índice y modelos de utilidad aleatoria 19.4. Estimación e inferencia en modelos de elección binaria 19.4.1. Contrastes de especificación en modelos de elección binaria 19.4.1a. Contraste de variables omitidas 19.4.1 b. Contraste de heterocedasticidad 19.4.2. Medidas de bondad de ajuste 19.4.3. Análisis de datos de proporciones 19.5. Desarrollos recientes en modelos de elección binaria 19.5.1. Modelos para datos de panel con eféctos fijos y aleatorios 19.5.2. Análisis semiparamétrico 19.5.3. El estimador de máximo tanteo 19.5.4. Estimador núcleo de una función de regresión no paramétrica 19.6. Modelos probit bivariantes y multivariantes 19.61. Estimación máximo verosímil 19.62. Extensiones 19.6.2a. Un modelo probit multivariante 19.6.2b. Un modelo con censura 19.7. Modelos logit para elecciones múltiples 19.7.1. El modelo logit multinomial 19.7.2. El modelo logit condicional 19.7.3. La independencia de alternativas irrelevantes 19.7.4. Modelos logit anidados 19.8. Datos ordenados 19.9. Modelos para datos de recuentos 19.9.1. Medidas de bondad de ajuste 19.9.2. Censura y truncamiento 19.9.3. Contraste de sobredisposición 19.9.4. Heterogeneidad y el modelo de regresión binomial negativo 19.9.5. Modelos de Poisson para datos de panel 19.9.6. Modelos de Poisson con obstáculo y con variaciones en cero Ejercicios CAPíTULO 20 MODELOS CON VARIABLE DEPENDIENTE LIMITADA Y MODELO DE DURACIóN 20.1. Introducción 20.2. Truncamiento 20.2.1. Distribuciones truncadas SIS 20.2.2. Momentos de distribuciones truncadas 20.2.3. El modelo de regresión truncada 20.2.3a. Estimación por mínimos cuadrados 20.2.3b. Estimación por máxima verosimilitud 20.3. Datos censurados 20.3.1. La distribución normal consumada 20.3.2. El modelo de regresión censurada: Análisis Tobit 20.3.3. Estimación 20.3.4. Algunos problemas de especificación 20.3.4a. Heterocedasticidad 20.3.4b. Especificación errónea 20.3.4c. Ausencia de normalidad 20.3.4d. Contrastes de momentos condicionales 20.4. Selección: Truncamiento selectivo 20.4.1. Truncamiento selectivo en una distribución bivariante 20.4.2. Regresión en un modelo de selección 20.4.3. Estimación 20.4.4. Efecto de tratamientos 20.4.5. La hipótesis de normalidad 20.4.6. Selección en modelos de respuesta cualitativa 20.5. Modelos para datos de duración 20.5.1. Datos de duración 20.5.2. Un enfoque similar al de regresión. Modelos paramétricos de duración 20.5.2a. Conceptos teóricos 20.5.2b. Modelos para la razón de fallo 20.5.2c. Estimación de máxima verosimilitud 20.5.2d. Variables exógenas 20.5.2e. Análisis de especificación 20.5.2f. Heterogeneidad 20.5.3. Otros enfoques Ejercicios APÉNDICE DE TABLAS 1. Función de distribución acumulada normal 2. Ordenadas de la densidad normal estandarizada 3. Percentiles de la distribución t de Student 4. Percentiles de la distribución chi-cuadrado 5. Percentil 95 de la distribución F 6. Percentil 99 de la distribución F 7a. Estadístico Durbin-Watson. Valores significativos al 1 % de dL y dU 7b. Estadístico Durbin-Watson. Valores significativos al 5 % de dL y dU 8. Valores significativos al 5 % de d4,L y d4,U para regresiones con variables ficticias trimestrales (k = k" + 1) REFERENCIAS BIBLIOGRÁFICAS INDICE ANALíTICO

 
FORMULARIO DE PEDIDO
Complete sus datos personales, haga clic en "ENVIAR SOLICITUD".
Nombre y Apellido:
E-mail:
Escriba nuevamente su E-mail:
Teléfono:
Dirección donde remitir el producto:
Localidad:
Departamento:
País:
Forma de Pago:
Comentarios:
¿Cómo nos conoció?
 
Instrucciones para comprar el libro ANÁLISIS ECONOMETRICO
del autor GREENE  -  Editorial PEARSON
1 Complete el formulario de pedido ingresando sus datos personales, dirección de entrega, opción de pago y demás datos que se le solicitan, luego haga clic en enviar solicitud.
2 En el correr de 24 horas hábiles (no sábados y domingos) un operador le estará informando, sin obligación de compra, vía correo electrónico,  la disponibilidad del material, los costos de envío asociados, así como los demás datos para concretar la transacción.
3 Luego de realizar el pago e informarlo de acuerdo a las especificaciones recibidas vía e-mail, recibirá su pedido de forma rápida y cómoda en el domicilio indicado.
 
 
 
   Libros relacionados
 
ECONOMÍA INTERNACIONAL - Teoría y Política KRUGMAN PAUL R. OBSTFELD MAURICE847829080X
ECONOMÍA INTERNACIONAL - Teoría y Política
KRUGMAN PAUL R. OBSTFELD MAURICE
847829080X
Ampliar información
MICROECONOMIA. VERSION PARA LATINOAMERICAPARKIN, MICHAEL - AVALOS, MARCOS - ESQUIVEL GERARDO9702607183
MICROECONOMIA. VERSION PARA LATINOAMERICA
PARKIN, MICHAEL - AVALOS, MARCOS - ESQUIVEL GERARDO
9702607183
Ampliar información
MICROECONOMIAPERLOFF, JEFFREY M.8478290656
MICROECONOMIA
PERLOFF, JEFFREY M.
8478290656
Ampliar información
MACROECONOMIA EN LA ECONOMIA GLOBALSACHS, JEFFREY D. - LARRAIN, B. FELIPE9879460685
MACROECONOMIA EN LA ECONOMIA GLOBAL
SACHS, JEFFREY D. - LARRAIN, B. FELIPE
9879460685
Ampliar información
LA RIQUEZA DE LAS NACIONESADAM SMITH 8420635960
LA RIQUEZA DE LAS NACIONES
ADAM SMITH
8420635960
Ampliar información
ESTADISTICA APLICADA A LA ADMINISTRACION Y A LA ECONOMIADAVID K. HILDEBRAND/R. LYMAN OTT968444317x
ESTADISTICA APLICADA A LA ADMINISTRACION Y A LA ECONOMIA
DAVID K. HILDEBRAND/R. LYMAN OTT
968444317x
Ampliar información
 


Portada Libreria UY
CIENCIAS ECONOMICAS
 CONTABILIDAD Y FINANZAS
- ADMINISTRACION FINANCIERA (9)
- CONTABILIDAD (71)
- CONTADORES (3)
- COSTOS Y MARGENES (12)
- FIN. CORPORATIVAS (31)
- FIN. INTERNACIONALES (19)
- FINANZAS (36)
- MAT. FINANCIERAS (14)
- VARIOS (9)
 ECONOMIA
- AUDITORIA (6)
- DICCIONARIOS (3)
- ECONOMETRIA (11)
- ECONOMIA GENERAL (45)
- ECONOMIA INTERNACIONAL (98)
- ECONOMIA LABORAL (9)
- ECONOMIA MONETARIA - BOLSA (18)
- ENSAYOS (1)
- ESTADISTICA (13)
- HIST. ECONOMICA (139)
- MACROECONOMIA (52)
- MAT. APLICADA (7)
- MICROECONOMIA (30)
- POLITICA ECONOMICA (130)
- TEORIA ECONOMICA (109)
- VARIOS (124)
 ESTADISTICAS
- ESTADISTICA (1)
 MATEMATICAS
- ALGEBRA (2)
- CALCULO (3)
- GEOGRAFIA (1)
- MATEMATICAS (1)
- VARIOS (10)

UY Libros realiza los envíos
al exterior a través de 

en Uruguay por Empresa

 
Western Union BROU Abitab RedPagos DAC Agencia Central

Si alguna información contenida en UY LIBROS incumpliere alguna Ley de Propiedad Intelectual,
rogamos nos lo comunique al e-mail: 
uylibros@gmail.com y será inmediatamente retirada.