FACULTAD DE CIENCIAS ECONOMICAS Y ADMINISTRACION DEPARTAMENTO DE ECONOMIA CATEDRA: HISTORIA DEL PENSAMIENTO ECONOMICO

1 FACULTAD DE CIENCIAS ECONOMICAS Y ADMINISTRACION DEPARTAMENTO DE ECONOMIA CATEDRA: HISTORIA DEL PENSAMIENTO ECONOMICO LAS PRINCIPALES CORRIENTES DE

3 downloads 160 Views 210KB Size

Recommend Stories


UNIVERSIDAD DE MAGALLANES FACULTAD DE CIENCIAS ECONOMICAS Y JURIDICAS DEPARTAMENTO DE ADMINISTRACION Y ECONOMIA
UNIVERSIDAD DE MAGALLANES FACULTAD DE CIENCIAS ECONOMICAS Y JURIDICAS DEPARTAMENTO DE ADMINISTRACION Y ECONOMIA Contador Auditor Trabajo de Titulaci

UNIVERSIDAD DE PAMPLONA FACULTAD: CIENCIAS ECONOMICAS Y EMPRESARIALES DEPARTAMENTO DE: ECONOMIA
UNIVERSIDAD DE PAMPLONA FACULTAD: CIENCIAS ECONOMICAS Y EMPRESARIALES DEPARTAMENTO DE: ECONOMIA ASIGNATURA Introducción a la Economía AREA FORMACIÓN

FACULTAD DE CIENCIAS ECONOMICAS Y EMPRESARIALES DEPARTAMENTO DE POSTGRADOS
La Academia al Servicio de la Vida FACULTAD DE CIENCIAS ECONOMICAS Y EMPRESARIALES DEPARTAMENTO DE POSTGRADOS Universidad de Pamplona - Ciudad Unive

UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE CIENCIAS ECONOMICAS ESCUELA DE ECONOMIA CARRERA DE ECONOMIA
UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE CIENCIAS ECONOMICAS ESCUELA DE ECONOMIA CARRERA DE ECONOMIA TESIS PREVIO A LA OBTENCION DEL TITULO DE ECO

Story Transcript

1 FACULTAD DE CIENCIAS ECONOMICAS Y ADMINISTRACION DEPARTAMENTO DE ECONOMIA CATEDRA: HISTORIA DEL PENSAMIENTO ECONOMICO

LAS PRINCIPALES CORRIENTES DE LA NUEVA ECONOMIA CLASICA

La microeconomía moderna El planteo neo-walrasiano del equilibrio económico general La hipótesis de las expectativas racionales

NOTAS DE CLASE

Prof. Hugo Vallarino

2 ADVERTENCIA Y PROLOGO

Este trabajo se debe considerar como “Notas de Clase”. Esto quiere decir que no hace más que sistematizar en un mismo texto tres temas que para la Cátedra de Historia del Pensamiento Económico son relevantes como parte del análisis económico contemporáneo. A partir de autores seleccionados por su relevancia en la disciplina –todos han sido premios Nobel- hemos intentado exponer temas que si bien han sido conocidos y abordados en otras materias, tal vez no se han presentado con el grado de vinculación y sistematización que requiere nuestra materia en particular. En la pretensión de aprender y trasmitir conocimiento nunca nada parece suficiente, incluyendo los manuales, ya que de otra forma no existirían tantos. Sin embargo, considerar este trabajo como “notas de clase” lo hace aún más insuficiente. Recomendamos por lo tanto acceder a la bibliografía básica utilizada para explicitar los conceptos, análisis y modelos que aparecen aquí. Seguramente encontrarán que, tal como lo hemos dicho en cada inicio de cursos, una materia de estas características dista mucho de permitir a los docentes ser originales en las propuestas ya que utiliza y describe lo que los autores de la disciplina económica han desarrollado desde que el ser humano anda erguido. Casi todo lo que aquí está escrito surge de la bibliografía que aparece al final. Nuestra responsabilidad, que no es poca, pasa por haber sabido seleccionar correctamente las fuentes y haber logrado ordenar los temas en forma adecuada. Por otra parte, existe la intención de enriquecer este primer esfuerzo e incorporar notas de clases sobre otros temas Finalmente, se agradecen los apoyos y aportes del resto de los profesores de la Cátedra, Prof. María Ines Moraes y Prof. Luis Cáceres.

Prof. Hugo Vallarino Febrero – Marzo 2008

3 CONTENIDO I – LAS PRINCIPALES CORRIENTES DE LA NUEVA ECONOMIA CLASICA. 1 - Introducción 2 - La caracterización de la Nueva Economía Clásica (NEC) 3 – Una breve referencia metodológica. II – LA MICROECONOMIA MODERNA 1 – Las omisiones de Alfred Marshall 2 – La nueva teoría microeconómica. 2.1. – El esquema “beckeriano” 2.2 – Un modelo que combina producción doméstica, trabajo y ocio 2.3 – El problema de la información. III – EL PLANTEO “NEO WALRASIANO” DEL EQUILIBRIO ECONOMICO GENERAL. 1 - Antecedentes 2 – Los principales enfoques y aportes del nuevo equilibrio general walrasiano 2.1 – Abordando los problemas de existencia 2.2 – Abordando los problemas de unicidad y estabilidad 2.3 – Las principales críticas a los aportes de la Economía del Equilibrio General “neo-walrasiano” IV – LA HIPOTESIS DE LAS EXPECTATIVAS RACIONALES 1 – Las expectativas en retrospectiva 2 – Una variante débil en el enfoque del análisis de expectativas. Las expectativas adaptativas. 3 – Una variante fuerte en el enfoque de las expectativas. La hipótesis de las expectativas racionales (HER) 3.1 – El concepto de expectativas racionales 3.2 – Los modelos de análisis de la HER 3.2.1 – Un modelo simple de expectativas racionales 3.2.2 – Un modelo de equilibrio con información imperfecta – Robert Lucas 3.2.3 – Algunos ejemplos de aplicación de “la nueva política económica” 3.3 – Las principales críticas

4

I – LAS PRINCIPALES CORRIENTES DE LA NUEVA ECONOMIA CLASICA. 1 - Introducción En la Historia del Pensamiento Económico se asocia a la llamada Nueva Economía Clásica (NEC) enfocando el análisis económico sobre la base de las expectativas. La introducción con carácter de eje central de las expectativas racionales en los modelos económicos y en la definición de acciones políticas se ha distinguido en la historia de la Economía bajo diversas denominaciones: macroeconomía de las expectativas racionales, nueva macroeconomía clásica, macroeconomía del equilibrio, análisis de equilibrios dinámicos, segunda revolución monetarista, macroeconomía intertemporal, enfoque de vaciado de mercado (Febrero Devesa 1997 en Febrero Devesa 2000) Sin embargo, a los efectos de nuestro curso, preferimos generalizar esta nueva etapa del pensamiento económico a algunos nuevos enfoques y su asociación con los autores más destacados, como se ve en el siguiente esquema. LAS PRINCIPALES CORRIENTES DE LA NUEVA ECONOMIA CLASICA

NUEVO EQUILIBRIO GENERAL

HIPOTESIS DE LAS EXPECTATIVAS RACIONALES

NUEVA MICROECONOMIA

Economía de la Nueva Teoría del Oferta Consumidor

Arrow Debreu Allais

Fisher Muth Lucas Sargent Wallace Prescott Barro

Gilder Laffer

Beker Stigler

ELECCION PUBLICA

MONETARISTAS

Ultra liberales

Von Hayek Coase

Buchanan Tullok

Friedman Johnson Mundell

Figura 1 La Figura 1 presenta los principales desarrollos teóricos que componen la denominada Nueva Economía Clásica y muestra las corrientes más recientes por donde se ha conducido la Economía. En el esquema se establece que la hipótesis de las expectativas racionales es uno más de estos desarrollos.. Estas notas se concentran en la Nueva Teoría del Consumidor, las Nuevas Teorías del Equilibrio General Walrasiano y la Hipótesis de las Expectativas Racionales (HER).

5 2 - La caracterización de la Nueva Economía Clásica (NEC) La NEC tiene como caracterización esencial una forma diferente de analizar la evolución de la economía que se distingue como una nueva teoría de la “política económica”. En definitiva, la NEC introdujo, ante todo, una nueva forma de hacer política económica. Siempre es muy dificultoso establecer los antecedentes de los enfoques que la economía va desarrollando y de sus versiones contemporáneas. En este sentido, recordamos los planteos de John S. Mill, quien en la presentación de sus Principios de Economía en 1848 destacaba el carácter dual de su obra, con un enfoque de teoría y otro de aplicación práctica. La obra de Mill, si bien es un complejo tratado de economía clásica, es también un texto que analiza la aplicación de la teoría a través de la política económica. Con este antecedente, se puede aceptar la idea de que en su proceso evolutivo la disciplina comenzó a partir de su etapa clásica a transitar desde un enfoque sustantivo hacia un enfoque adjetivo: la mutación de economía política a política económica. Por lo tanto, se puede decir que la NEC retoma una manera de pensar los problemas económicos en estrecha relación práctica con la política económica, a la manera de los antiguos economistas “clásicos”, pero de forma renovada, de ahí su nombre (Febrero D.2000) Esta renovación se hizo sobre tres aspectos. En primer lugar, sobre la forma de concebir la política económica. Hasta los años 70s la política económica se apoyaba en la macroeconomía del modelo IS-LM (Hicks – Hansen), enriquecido con el modelo de mercado de trabajo de Modigliani, y en la llamada hipótesis de las expectativas adaptativas (Fisher – Keynes). En segundo lugar, sobre los instrumentos metodológicos utilizados para validar las políticas elegidas. Una vez consolidada la concepción de la denominada NEC se utilizan los llamados modelos de simulación para predecir los efectos de la aplicación de políticas. Esta revisión recoge críticas sobre cuáles serían los impactos cuantificables y sobre los métodos de cuantificación de la econometría. En tercer lugar, sobre el diseño de políticas económicas óptimas. En este aspecto se toma en cuenta la credibilidad de las políticas frente a los agentes económicos Los analistas del pensamiento económico están de acuerdo en que la NEC tiene una característica relevante: forma parte de una reacción definitiva contra el paradigma keynesiano que había sustentado las políticas económicas desde finales de los 40s hasta principio de los 70s. En este sentido, la NEC está estrechamente ligada al llamado Monetarismo y por lo tanto a los aportes de Milton Friedman (Quilis 1998), los cuales establecían una fuerte relevancia de los factores monetarios en la explicación de la dinámica económica, y especialmente en la dinámica de los ciclos. El Monetarismo había introducido la idea de que era mejor usar reglas fijas por parte del diseñador de políticas (policy maker), en contraposición a las acciones de tipo

6 discrecional, típicas de las políticas de “sintonía fina” (fine - tuning keynesiano) (Bucheli 1998). En esta misma dirección irá la crítica a la curva de Phillips y a la correlación negativa entre inflación y ocupación, que dará lugar a la teoría de las expectativas racionales. Siguiendo las ideas expuestas en Beraud y Faccarello (2000), se pueden distinguir algunas “líneas fuerza” de la NEC. En primer lugar, el abordaje de un análisis de tipo intertemporal, que en términos más precisos implica una dimensión prospectiva de los comportamientos (Barro 1974). La toma de decisiones debe estar vinculada a la forma en que los agentes prevean el futuro. En el ámbito del financiamiento del sector público, por ejemplo, la decisión entre la utilización de la deuda o los impuestos para solventar un déficit fiscal debería tomarse teniendo en cuenta la reacción de los agentes económicos ante cada una de esas decisiones. Un segundo elemento es la consideración de la dimensión estocástica, que incorpora elementos de incertidumbre. La introducción de impulsos (shocks) aleatorios en la formulación estructural de los modelos forma parte del método. La dinámica del sistema económico se analiza desde la óptica de estos impulsos, teniendo en cuenta cómo se propagan y sus mecanismos de transmisión. Un sistema dinámico transforma estos impulsos aleatorios exógenos en movimientos cíclicos determinando fluctuaciones económicas. Este problema deriva en un programa de investigación en cuyo núcleo central está la cuestión de los ciclos reales (Lucas 1975 y 1977). Un tercer eje del análisis está en la consideración de las estrategias de comportamiento de los agentes, reubicando en el programa de investigación a la teoría de los juegos. Esto instala un elemento central en el tema de la acción política desde la óptica económica, que está vinculado al problema de la credibilidad de los anuncios de las políticas económicas. 3 – Una breve referencia metodológica. A menudo el método se puede ver como una estrategia que define la identidad de una corriente. La estrategia de la NEC, según Barro y Febrero D. tiene su seña de identidad en la utilización de modelos (“estrategia modelizadora”). En primer lugar, la clara aceptación de modelos de equilibrio general, bajo la definición histórica del equilibrio general walrasiano que toma en consideración la interrelación entre todos los mercados de la economía. En segundo lugar, la plataforma donde se desarrollan estos modelos implica una estructura de mercados perfectamente competitivos, con precios flexibles, que asegura siempre la igualdad de la oferta y la demanda en todos los mercados (vaciado continuo)

7 En tercer lugar, este enfoque parte de la existencia de agentes explícitamente optimizadores. La decisión de los agentes, tanto oferentes como demandantes del bien o servicio productivo que fuere, implica la consideración explícita de sus preferencias y del conjunto individual de oportunidades. En cuarto término, este enfoque utiliza la dinámica temporal. Es un enfoque intertemporal, por el que los agentes no condicionan sus decisiones a su situación actual (tiempo presente) ni son indiferentes a los acontecimientos económicos del futuro. Finalmente, es un enfoque que utiliza la HER o sea el uso eficiente de la información disponible relevante para tomar decisiones. En el diagrama de la Figura 2 se describe la pirámide de la información donde se aprecian los niveles de acceso a la misma y los agentes involucrados en cada nivel.

Gobierno - Diseño de la política: Informan al resto de los agentes

Medios de comunicación, organizaciones empresariales, sindicatos

Resto del público

Fuente: Universidad Autónoma de Madrid – El papel de las expectativas en una economía moderna

Figura 2 Gary Becker (2000) planteaba que los consumidores no tienen información perfecta, especialmente en aquellos atributos que resulta difícil observar y, sin duda, en algunas oportunidades se engañan. Sin embargo, explicaba, una comprensión más profunda de la competencia revela que alcanza con que los mercados tengan solamente algunos clientes bien informados. La actividad de arbitraje de los informados generalmente mejora las condiciones de todos, puesto que cuando los oferentes intentan ganar el apoyo de los clientes bien informados, ofrecen mejores productos y mejores términos en la transacción, aún para aquellos que están relativamente menos informados. La “carrera hacia arriba” se hace más fácil. La rapidez de los sistemas de comunicación y el acceso a internet han sido la innovación más importante para un sistema descentralizado y competitivo de la información que, al mismo tiempo de ser un modo rápido y barato que permite la comunicación entre los individuos.

8

Estas teorías asumen que los agentes van acomodando, mediante un proceso de aprendizaje y sobre la base de la información disponible y los niveles de acceso a la misma, sus predicciones sobre el futuro. En tal sentido son agentes que van ajustando la distribución de probabilidad subjetiva que asignan a un evento, a la distribución de probabilidad objetiva del mismo. Este ajuste, como se verá más adelante, está vinculado a lo que la teoría económica postula. En resumen, el método utiliza modelos explícitos que analizan el comportamiento de los agentes (elemento subjetivo del análisis), en la búsqueda de óptimos dentro de entornos claramente definidos (información). Implica una consideración más detallada de la dinámica, con un enfoque muy particular sobre la variable tiempo. Por otra parte la base metodológica se apoya en modelos de equilibrio móvil, esto es, modelos que consideran a la economía como un sistema de equilibrio general de tipo walrasiano, donde el vector de precios observado posibilita las transacciones según los planes de los agentes. Con estos elementos se construye la hipótesis de las expectativas racionales (Quilis 1998).

9

II – LA MICROECONOMIA MODERNA 1 – Las omisiones de Alfred Marshall El análisis marshalliano se caracterizó por su enfoque de oferta y demanda –tanto de bienes como de factores- en un enfoque de equilibrio parcial que permite explicar la formación de los precios en una “plataforma” de competencia perfecta. Los analistas del pensamiento económico están de acuerdo en señalar algunas omisiones del enfoque marshalliano. Por ejemplo, no hay en este enfoque alusiones a la diferencia en la calidad de los productos. Si bien se considera la necesidad de información, sin la cual el mercado no funcionaría, el modelo de Marshall no toma en cuenta lo que le cuesta al consumidor obtener esa información. Tampoco se incorpora al modelo el costo del tiempo al que se renuncia, tanto para producir como para consumir los bienes. Finalmente, el modelo no considera que cuando un mercado se formaliza hay elementos necesarios para su consolidación que dependen de la localización de vendedores y compradores. Es notorio que la economía marshalliana se apartaba del mundo real. Ya lo había advertido Piero Sraffa (1925,1926) y con más énfasis y desarrollo metodológico lo habían planteado en forma casi simultánea E.Charmbelin (1933) y J. Robinson (1932) cuando desarrollaron las extensiones al modelo neoclásico a través del análisis de los mercados imperfectos. Asumir estas omisiones llevó al análisis microeconómico por senderos novedosos, marcado por una característica destacable: en cada decisión del consumidor o del productor hay un costo de oportunidad que debe ser tenido en cuenta. 2 – La nueva teoría microeconómica. Los exponentes más notables y que han tenido mayor difusión en esta etapa han sido G. Stigler (1911-1991) y Gary Becker (1930- ). Un breve repaso de los aportes de estos economistas permite identificar el rumbo de este nuevo recorrido. En efecto, sus aportes ofrecen un análisis formal del comportamiento de mercado, pero sin los supuestos simplificadores del análisis tradicional marshalliano. Esto permitió aplicar los instrumentos del análisis económico a nuevos objetos de estudio, muy alejados de los tradicionales, como el comportamiento saludable en las personas, la drogadicción o el delito. 2.1. – El esquema “beckeriano” A partir del artículo de Becker “A theory of the allocation of time” en 1965 y de uno de sus libros principales, “Aproximación económica al comportamiento humano” en 1976, se puede identificar una aplicación de la microeconomía al ámbito de lo que podría identificarse como “economía doméstica”, así como otra manera de considerar la variable tiempo que determinará un cambio en el enfoque de la dinámica económica.

10

Becker parte de la idea de que los individuos actúan de manera racional en diversas áreas, como la adquisición de capital humano, la criminalidad, las discriminaciones por sexo y raza, el comportamiento de la familia, etc. La economía doméstica se rige por las leyes de la microeconomía, la familia debe tratarse como una empresa: “… una pequeña fábrica que combina bienes de capital, materias primas y trabajo para limpiar, alimentar, procrear y producir de otra manera mercancías útiles…” Su enfoque establece que la producción y el consumo tienen dos componentes: los precios de mercado y el costo de oportunidad en términos del tiempo empleado. El tiempo es el costo de oportunidad que debe calcularse junto con los precios de mercado de cualquier bien o servicio al tomar decisiones económicas. Esta peculiar forma de considerar el factor tiempo lo diferencia del concepto marshalliano, donde aparecía como un tímido elemento dinamizador para justificar equilibrios teóricos parciales y estables. Así, la casa es una fábrica en miniatura que combina bienes de mercado y tiempo para la producción de bienes de consumo final. (Becker) En la Figura 3 se presenta lo que puede identificarse como un esquema beckeriano de producción de bienes en el hogar. Representa la combinación de los bienes de mercado y del tiempo necesario para producir bienes de consumo final. La producción de bienes en el hogar Bienes de Mercado

Tiempo Bienes de consumo Final

Figura 3 Para producir un bien final, como por ejemplo el “comportamiento sano”, se requiere una combinación de distintos bienes de mercado, como alimentos, servicios de salud, equipos deportivos, etc. más el tiempo utilizado para producirlos. Entonces la unidad familiar es el agente que transforma los factores en productos a través de una función de producción; Cf = Cf (bienes, T), donde T es el costo de oportunidad de utilizar tiempo. Por lo tanto, es necesario expresar valores o magnitudes en términos de costo de oportunidad, y para Becker la medida aproximada del costo de oportunidad es el salario de mercado del individuo. Esta idea incorpora la tradicional elección entre trabajo y ocio. En este enfoque en particular la consideración es trabajo, ocio y producción doméstica. Si bien se ha criticado como poco realista que un individuo

11 cuando no ocupa un puesto de trabajo disfruta del ocio, menos realista lo hace la no consideración del valor incorporado en el trabajo doméstico. Esta forma de analizar los problemas económicos permite incorporar el concepto que más se asocia con los aportes de G. Becker, esto es, una perspectiva original sobre un concepto que ya existía: el capital humano. Siguiendo su razonamiento: si se consulta a la gente común qué significa capital, seguramente las respuestas estarán vinculadas a una cuenta bancaria, acciones en una empresa multinacional, su casa, su auto, etc. Un empresario, en cambio posiblemente lo asociará a los equipos de una línea de fabricación o una planta industrial. En ambos casos lo que distingue a estos bienes es su “tangibilidad”. Son activos tangibles que rinden un ingreso en un determinado periodo de tiempo. Sin embargo, la educación, un curso de entrenamiento en computación, los gastos incurridos en salud, la virtud de ser puntual y la honestidad también son capital, ya que si se transforman en un bien, igual que el “comportamiento sano”, aumentan los ingresos, mejoran la salud y extienden los buenos hábitos de una persona más allá de su propia vida. Se observa así hasta donde puede llegar este concepto: en una racionalidad de costo- beneficio, la extensión de ciertos hábitos hacia los hijos así como la inversión en educación son también formas de capital que reportan un rendimiento a sus poseedores. El economista debe tomar en cuenta los gastos en educación, atención médica, etc. como inversión en capital humano. La diferencia del capital humano con el capital físico radica en que la gente no puede separarse de lo que ha aprendido (su conocimiento), de sus habilidades, de su salud o de sus valores pero puede, en cambio, separarse en cualquier momento de sus activos financieros o físicos. 2.2 – Un modelo que combina producción doméstica, trabajo y ocio El economista Reuben Gronau (Ocio, producción doméstica y trabajo – La teoría de la utilización del tiempo revisada – 1977) formuló un modelo que permite plantear la relación entre el costo de oportunidad y el tiempo. En este modelo la combinación de bienes de mercado con unidades del factor tiempo (ver Figura 3) varía en sus proporciones en función de cambios en las remuneraciones de los factores productivos. El modelo relaciona la productividad marginal del tiempo invertido con el ocio, en una curva que representa una función de utilidad entre el tiempo dedicado al ocio, el tiempo de trabajo en el mercado y la producción doméstica.

12 bienes

H E F

U G

N

O

K

M

T

tiempo

Figura 4 En la Figura 4 distinguimos la función de utilidad trabajo – ocio, representada por U, y una curva de transformación entre trabajo y ocio (FT), que es cóncava hacia el origen, y que por lo tanto, asume que cuánto más tiempo se dedica a la producción doméstica, la productividad marginal de esa producción decrece. La curva FT es representativa de cómo pueden los individuos transferir los recursos de la producción de bienes a la producción de ocio y/o servicios de la casa. El tiempo total disponible está representado por OT. El tiempo dedicado al ocio es OK y MT es el tiempo que se utiliza en la producción doméstica, por lo tanto, KM es el tiempo que se dedica al trabajo en el mercado (KM = OT – OK – MT) Si el rendimiento marginal de un trabajo en el mercado (tasa de salario, representada por la recta HG) supera al rendimiento de la producción doméstica, entonces el individuo busca trabajo en el mercado. En el punto de equilibrio E donde la tasa de salario y elección ocio-trabajo de mercado se igualan, el individuo elige OK de tiempo para el ocio, KT de tiempo para el trabajo total que distribuye entre KM en el mercado y MT en la producción doméstica con un tiempo total disponible de OT. Se seleccionó este modelo porque es muy gráfico desde la óptica de este enfoque, pero tiene una debilidad muy grande: en el mundo real el individuo no puede elegir libremente las horas dedicadas al trabajo en el mercado. Basta pensar en la generalización internacional de las jornadas laborales legales de ocho horas. Aunque, para enfrentar estas críticas, también se suele recordar que hay posibilidades de organizar un negocio de veinticuatro horas y se puede distribuir esas horas entre mercado, producción doméstica y ocio.

13 2.3 – El problema de la información. En el mundo marshalliano los consumidores toman conciencia del mercado con un costo nulo cuando observan diferencias de precio para un bien o servicio. Además, se trata de un mundo en el cual el mercado competitivo siempre está en equilibrio. George Stigler, en 1961, en su artículo “La Economía de la Información” amplió el argumento de que la información es un bien económico cuya producción y obtención tiene costo. Producir y recibir información es costoso, porque intervienen factores de producción como las materias primas, el trabajo y el tiempo. Así, si tomamos en cuenta la información necesaria para adquirir un bien o servicio, aún con un mercado en supuesto equilibrio es posible obtener precios de venta distintos para un mismo bien. Además, incorporar la información como variable a los modelos de formación de los precios, y por lo tanto incorporar el costo marginal de utilizarla, supone aceptar cambios en las condiciones de equilibrio. En la Figura 5 se describe un modelo de información simple. El consumidor cuando busca un precio más bajo de un bien o servicio tiene una función de costo creciente MC que expresa que la búsqueda adicional es cada vez más cara (la relación costotiempo es creciente respecto del tiempo). El nivel de la curva MC varía según el tipo de bien o servicio de que se trate. Es más bajo si el único costo es adquirir un catálogo y será mayor si hay que recorrer empresas que venden el bien para informarse del precio. Costo Beneficio Marginal de la Información

MC

E2 E1

MB0 MB1

O

S1

S0

Tiempo

Figura 5 Las curvas MB representan el beneficio marginal que calcula el consumidor en la búsqueda del precio más bajo. La curva de beneficio marginal es decreciente ya que al informarse con un número mayor de vendedores, la posibilidad de encontrar un precio más bajo con el siguiente vendedor decrece en función del tiempo. Esta variación también está vinculada al mercado de cada bien que se “investiga”. Por lo tanto la

14 curva MB se traslada hacia arriba determinado un equilibrio donde es necesario utilizar más tiempo. MB decrece a medida que aumenta el tiempo utilizado en la búsqueda. Este sencillo modelo lo que está planteando es que cuanto mayor es la proporción que representa un gasto en un bien en el presupuesto del consumidor, mayor será el beneficio de la búsqueda y por lo tanto más hacia arriba y a la derecha se trasladará la curva. El consumidor va a investigar hasta que el costo marginal de la búsqueda sea igual a su beneficio marginal. El punto E2 representa la búsqueda eficiente (óptima) Aunque el diagrama trasmite cierta rigidez en el razonamiento que pueda tener el consumidor, ayuda a plantear que hay en su accionar una importante dosis de instinto e intuición. El punto de equilibrio no es el mismo para todos los consumidores y para todos los bienes y servicios. Si la información tiene costo en su búsqueda significa que en la mayoría de los mercados hay distorsión de los precios finales (no existe un precio único). Lo que importa, nuevamente, en este tipo de planteos es la incorporación del tiempo como parte de los costos totales cuando se consumen bienes y servicios. La otra categoría que se incorpora al análisis económico en este contexto más empírico, es la publicidad. La publicidad cumple su papel en la información. Optimiza el tiempo consumido en la búsqueda para la adquisición de bienes y servicios. En este nuevo enfoque la publicidad es un medio de producir información a bajo costo, ya que ahorra tiempo en el esfuerzo de adquirir la información sobre precio y calidad de cada bien en cuestión. Volviendo al esquema de la Figura 5, el costo marginal de una hora adicional de búsqueda aumenta a lo largo de la curva de costo marginal, es decir, mide la renuncia a la utilidad que representa para el individuo el tiempo invertido. La posición en MB0 es el beneficio marginal de la búsqueda exitosa, o sea, la información obtenida, bajo la condición de que el consumidor no posee datos sobre los precios existentes. Entonces el tiempo insumido es S0 . Si la publicidad le proporcionó, sin incurrir en costos excesivos, alguna información de alguno de los posibles vendedores, entonces puede esperar que las diferencias en los precios no sean tan grandes, obteniendo por la publicidad beneficios marginales mayores. Si pasa a una posición MB1 en estas condiciones lo hará utilizando menos tiempo y menos costo marginal adicional, efecto provocado por la información adicional que proporciona la publicidad. Estos desarrollos modifican la teoría tradicional de la demanda, al poner en consideración el hecho de que los individuos demandan bienes en función de sus características y atributos. En las contribuciones a este tema, se distingue entre bienes cuyas características se determinan fácilmente antes de comprarlos, denominados “de búsqueda” y aquellos bienes cuyos atributos se descubren luego de comprarlos, denominados “de experiencia”. (Philip Nelson – La publicidad como información – 1974)

15

III – EL PLANTEO “NEO WALRASIANO” DEL EQUILIBRIO ECONOMICO GENERAL. 1 - Antecedentes En la Nueva Economía Clásica los precios y cantidades se corresponden siempre con situaciones de equilibrio donde hay igualdad entre ofertas y demandas, es decir, el vaciado continuo de todos los mercados considerados (bienes productos, bienes servicios y servicios productivos). De hecho, James Tobin caracterizó a los teóricos clásicos contemporáneos como más intrépidos que sus predecesores. Los nuevos clásicos suponen que el mundo económico puede describirse en términos de mercados competitivos, donde ofertas y demandas se derivan de la maximización de la utilidad y los beneficios; mercados que se vacían continuamente. Se trata de un enfoque que difiere notoriamente de la “tradicional macroeconomía keynesiana”, la cual describe modelos y determina acciones en función de la existencia de desequilibrios (modelos de equilibrio sin pleno empleo de algún factor). Los nuevos planteos del equilibrio general surgieron a principios de lo años 40 del siglo XX, fundamentalmente en los Estados Unidos. El nazismo expulsó a economistas que trabajaban e investigaban en Viena y Berlín como Von Newmann, Morgenstern, Wald, Leontief, quienes buscaban perfeccionar la aplicación de las matemáticas a la resolución de problemas económicos. Paralelamente hubo estímulos más directos para abordar nuevamente el tema del equilibrio general en obras de difusión académica muy importantes, como fue el caso de “Valor y Capital” de J.R. Hicks, aparecido en 1939. Todos estos antecedentes determinaron la incorporación de nuevos temas a los programas de investigación en Economía una vez acabada la Segunda Guerra Mundial, como sería el caso de la teoría de juegos. 2 – Los principales enfoques y aportes del nuevo equilibrio general walrasiano La nueva economía del Equilibrio Económico General (EEG) parte de plantear problemas vinculados a la existencia, estabilidad y unicidad del equilibrio. El desarrollo matemático fue nuevamente el instrumento que auxilió al programa de investigación. El teorema del punto fijo de Wald y Von Neumann son los indicadores del sendero para resolver los problemas de existencia. Se ingresó al ámbito de la teoría de juegos, abandonando las técnicas del análisis diferencial tradicional e incorporando las técnicas del llamado “análisis convexo”. Las condiciones de convexidad permiten buscar las determinantes para que el equilibrio exista y establecer las condiciones de estabilidad de ese equilibrio. Paul Samuelson, en “La Estabilidad del Equilibrio: Estática comparada y dinámica” (1941) y en su texto principal “Fundamentos del Análisis Económico” (1947) reformuló en forma rigurosa el mecanismo del “tatonement” walrasiano y estableció un principio de correspondencia, donde todo ejercicio de estática comparada desarrollada en torno a un punto de equilibrio presupone la estabilidad dinámica de ese equilibrio. Hay en este planteo un principio fundamental y es que todos los problemas que aborda la economía pueden reducirse a problemas de maximización con restricciones.

16

2.1 – Abordando los problemas de existencia En la década de 1950 Keneth Arrow analizó las propiedades de “optimización”, es decir, de la maximización en un equilibrio de tipo competitivo. En forma simultánea (creo que) Régis Debreu abordó la existencia de soluciones de equilibrio con restricciones en las condiciones de competencia utilizando el teorema del punto fijo, que matemáticamente asegura condiciones de existencia. El mismo Debreu desarrolló en 1959 una teoría del valor como resultado de un “nuevo testamento walrasiano” desarrollando un modelo simplificado del valor en un modelo del tipo de equilibrio general walrasiano. El modelo Arrow-Debreu asume la representación de las mercancías como un conjunto de bienes y servicios especificados en términos de sus características físicas, localización espacial y determinación temporal. Esto determina que un bien disponible en dos lugares diferentes es un bien distinguible (difiere del otro bien). Con el mismo argumento, un bien disponible en dos momentos distintos es distinto. Cada uno de estos bienes tiene asociado un precio. En todos los casos existe un “contrato” de estipulación de precio (una subasta) para un lugar y tiempo determinado. Este concepto se puede extender incluso al futuro, determinando el desarrollo de un modelo intertemporal. Los supuestos “walrasianos” y algunos más que están implícitos en el modelo Arrow Debreu son la existencia de: a) b) c) d) e)

“k” número de mercancías “n” número de productores “m” número de consumidores tecnología a disposición de todos los productores restricciones físicas y características psicológicas de cada consumidor, incluidos sus gustos , que se asumen como un dato f) una “dotación” inicial (bienes, servicios, unidad de cuenta, etc.) de cada consumidor g) La parte de los beneficios de cada productor que derivan de las decisiones del consumidor son conocidas por ambos.

Un modelo de estas características pretende demostrar que en una economía con: m + n consumidores y productores, sujeto a p . x i ≤ w i : restricción presupuestal de los consumidores dada por su salario, se determina una situación de equilibrio general donde se maximiza la satisfacción de todos los consumidores y los beneficios de todos los productores, con un vector de precios de equilibrio “p” , bajo un conjunto de hipótesis restrictivas.

17

Éstas son: a) todo conjunto de consumo debe ser convexo: si se incluye más de un plan de consumo, dicho consumo incluye también todas las combinaciones lineales y convexas b) los consumidores siempre tienen un plan de consumo preferido a otro (son insaciables) c) el conjunto de producción total es convexo: si un conjunto incluye más de un plan de producción ese conjunto incluye todas las combinaciones lineales y convexas Todo esto en un entorno donde el resultado del modelo está condicionado a un escenario de incertidumbre. 2.2 – Abordando los problemas de unicidad y estabilidad Cuando el análisis requiere método, entonces desde el punto de vista metodológico es indispensable intentar demostrar la unicidad y estabilidad del equilibrio. En la economía neoclásica explicar el significado de las variables económicas (precios, salarios, beneficios) siempre es el resultado de un ejercicio de estática comparada. La relación entre el grado de escasez relativa de los bienes económicos y el gusto de los consumidores se analiza a través de la igualación de las tasas marginales de transformación o sustitución, como lo había enseñado J.R.Hicks. Esta tasa compara dos bienes y los valores de las variables se miden en dos estados de equilibrio distintos, determinando la inexistencia de unicidad. P. Samuelson planteaba que para a que estos ejercicios sean correctos es necesario que el equilibrio en torno al que se han desarrollado sea estable y único, de otra forma, un cambio muy pequeño en torno al equilibrio puede llevar a la economía lejos del equilibrio y esto determina la inestabilidad del mismo. El análisis matemático “tradicional” sobre la base de los mecanismos de diferenciación continua o discreta permitía determinar las condiciones para que el equilibrio fuera único y tendiera a una “recta de estabilidad”, pero bajo condiciones muy restrictivas. El problema consistía en encontrar, o sea, demostrar la existencia de algún conjunto de supuestos sobre el comportamiento de los individuos que satisficieran esas restricciones. Los principales intentos en el enfoque de estos problemas se han dado a partir de la utilización de algunas hipótesis de comportamiento económico. Ward (1936) enfocó el tema hacia la demostración matemática del teorema del punto fijo. Mas tarde Allais (1943) complementó la investigación tratando de mostrar la estabilidad global del proceso de “tatonnement” walrasiano.

18 Aparecen y se desarrollan conceptos nuevos como la sustituibilidad bruta que plantea que el exceso de demanda global de una mercancía disminuye cuando aumenta su precio o baja el de cualquier otra mercancía. Otro concepto es el de dominancia diagonal, que explica que el exceso de demanda de una mercancía es más sensible al cambio de su precio que a la variación del precio de las demás mercancías. En los finales de los 50s Arrow y Hurwicz intentaron mostrar economías caracterizadas por un equilibrio estable bajo las hipótesis de sustituibilidad bruta y de dominancia diagonal, con la condición matemática de la continuidad de las funciones de exceso de demanda. Esta forma de enfrentar el problema vuelve a poner en el análisis metodológico la fuerte exigencia de la continuidad de las funciones y la simplificación de que cuando no se pueda establecer o demostrar esta continuidad, siempre la función es continua en alguna parte de su recorrido. El programa de investigación en este tema nunca dejó de considerar estas restricciones metodológicas y la “debilidad” en algunos casos de la herramienta matemática. Entre los años 60s y finales de los 70s hubo intentos de mejorar estos resultados. Sin embargo la conclusión fue: la estabilidad no es una función intrínseca del modelo de equilibrio económico general. Los problemas de estabilidad y unicidad se hayan estrechamente vinculados, por lo tanto si hay que convivir con mas de un equilibrio, hay que aceptar que alguno pueda ser inestable. Las implicancias teóricas de esta dificultad se observan en los análisis de Debreu (1950), donde la solución pasaba por resultados axiomáticos, con la implicancia de lo que significa desde un enfoque científico este tipo de tipo de postulado matemático. Este último argumento abre el camino al desarrollo de las principales críticas que enfrenta este nuevo enfoque el equilibrio económico general “neo-walriasiano”. En el recuadro (Figura 6) se intenta refrescar la postura de las ciencias más puras respecto al procedimiento de “axiomatizar” el instrumental de análisis para justificar los resultados. Este enfoque fue puesto a disposición de los programas de investigación científica, en los cuales la Economía no deja de estar fuertemente involucrada, por Kurt Gödel en 1931. La forma en que se expone en el recuadro es lo suficientemente elocuente de la “incompletitud” que aún los programas de investigación más exigentes con base en las “ciencias duras” pueden estar expuestos a demostraciones no desarrolladas aún. Aun el mundo de las matemáticas cotidianas está llena de enigmas de esta naturaleza que terminan siendo solucionadas por una definición “axiomática”. Como ejemplos se pueden plantear el “el problema 3x + 1” (algoritmo de Hasse o problema de Kukutani), donde no se ha podido demostrar que haya un número natural que inicie la serie y siguiendo las reglas del algoritmo no termine siempre en “1” o la célebre paradoja de B.Russell que plantea la existencia de conjuntos que no se contienen a si mismos.

19

EL TEOREMA DE GÖDEL (1931) Cada hombre está eternamente obligado, en el curso de su breve vida, a elegir entre la esperanza infatigable y la prudente falta de esperanza, entre las delicias del caos y las de la estabilidad. Marguerite Yourcenar, Memorias de Adriano Desde muy antiguo se consideró a la matemática, y con bastante justicia, como la reina de las ciencias. Este precepto, cuando Galileo en el siglo XVII proclamó que “el libro de la naturaleza está escrito con caracteres matemáticos”, confirió a la corona los atributos del derecho divino. Y hasta cierto punto, los de una monarquía absoluta. Si bien las matemáticas nunca parafrasearon a Luis XIV diciendo: “la ciencia soy yo”, fue tan sólo porque son incapaces de hablar (y tal vez por falsa modestia). Lo cierto es que, a partir del triunfo de la mecánica newtoniana, las matemáticas se convirtieron en la aspiración común de todas las disciplinas científicas: matematizar una ciencia garantizaba su verdad. Es preciso reconocer, de paso, y a despecho de cualquier aspiración republicana, que este sistema de gobierno dio resultados espectaculares: la reducción de las ciencias a fórmulas y el manipuleo de ellas produjeron la acumulación de conocimientos más formidable que recuerde la memoria humana. Ese papel central de la matemática deviene de su método: la obtención de resultados mediante la deducción puramente lógica a partir de un puñado de axiomas elementales que se aceptan como verdaderos: de hecho, ésta fue la metodología que utilizó Euclides en sus célebres Elementos de Geometría, que, usaron sin mayores variantes hasta hace ciento cincuenta años, y permanecen, sin demasiadas transformaciones en los textos de geometría que se utilizan aún hoy en la escuela secundaria. Es verdad que durante el siglo pasado, la supuesta verdad absoluta de los axiomas de la geometría euclideana recibió un duro golpe: partiendo de axiomas diferentes a los de Euclides, Lobachevsky y Riemann construyeron geometrías perfectamente coherentes, aunque distintas de la euclídea, y de alguna manera, la búsqueda de la verdad fue sustituida por el afán de coherencia y no contradicción. Hacia finales de siglo, el triunfo del método axiomoático era completo: las investigaciones de la lógica matemática se dirigían con especial énfasis a buscar una formalización y axiomatización de toda la matemática. La idea se inscribía perfectamente en la muy finisecular concepción del progreso: una vez encontrados los axiomas adecuados, todas las verdades podrían ser deducidas a partir de ellos, mediante la lógica y la paciencia. Cuando en 1900 el gran matemático David Hilbert presentó un programa enunciando la lista de problemas matemáticos pendientes (apenas un puñado), hizo un alarde de confianza: resolverlos era sólo cuestión de tiempo. La potencia de las matemáticas parecía infinita, y siguió pareciendo infinita hasta 1931. Porque en ese año, en efecto, el matemático y lógico Gödel demostró un teorema que se transformó en un clásico de la lógica matemática y que, por su importancia (y su exquisita belleza), se conoce como “el teorema de Gödel, 1931”, (y también como el teorema que asegura la incompletitud de la aritmética). En él se demuestra que no todas las verdades matemáticas pueden ser alcanzadas. Más sencillamente: que en cualquier sistema que contenga la aritmética, existe por lo menos una fórmula, que, aun siendo verdadera, no podrá jamás ser demostrada. No importa cuál sea el conjunto de axiomas que se use: siempre habrá algo, que, si bien es verdadero, no se puede demostrar. Es decir: en el seno mismo de las matemáticas, hay cosas no alcanzables, lugares a donde la paciente deducción no llegará jamás. Naturalmente, este curioso resultado, no afecta para nada a la utilización de la matemática por el resto de los científicos, ni al papel central que ésta juega en todo el sistema de las ciencias. Pero de alguna manera, limita su omnipotencia. Desde la Revolución Francesa en adelante, y como bien lo pudo comprobar Luis XVI, ya se sabe que las monarquías absolutas no son del todo seguras, y si bien no es cierto que las matemáticas hayan perdido su cetro, puede decirse que su largo y glorioso reinado, desde el teorema de Gödel en adelante, adquirió los contornos de una monarquía constitucional. Fuente: Instituto Venezolano de Investigaciones Científicas

Figura 6 2.3 – Las principales críticas a los aportes de la Economía del Equilibrio General “neo-walrasiano” Las hipótesis extremas que están implícitas en este programa de investigación, son los elementos que generan las mayores debilidades transformándose en la base crítica. La falta de realismo, las dificultades que presenta en los ámbitos que la economía actúa, cuando a partir de la teoría debe tener capacidad de previsión. Estas hipótesis

20 extremas determinan la debilidad transformada en incapacidad para ser lo suficientemente predictiva. Estas hipótesis básicas se pueden asociar a: a) La competencia atomística de base “marshalliana”, tema que ha sido puesto a consideración, en las extensiones a la teoría neoclásica tradicional. Los aportes de Sraffa, los modelos de competencia imperfecta y la crítica del institucionalismo ya adelantaron debilidades “antiguas” que se mantienen en la economía contemporánea. b) Las externalidades no aparecen explícitas en este programa de investigación. El sistema marshalliano de equilibrios parciales, con su cláusula “ceteris paribus” permitía la exposición e incorporación al tratamiento de los temas económica de las “economías y deseconomías externas”. Este nuevo programa no las incorpora c) La deseabilidad y la insaciabilidad (vaciado continuo del mercado) ponen al sistema en un grado de subjetividad que le determinan a la Economía como ciencia social dificultades para abordar determinados temas. d) La diferenciabilidad necesaria para la aplicación del instrumental matemático y por lo tanto la exigencia de que en la tarea de formalizar modelos y explicitar relaciones funcionales, estas deben ser continuas y diferenciales. e) La incorporación de la llamada “intertemporalidad”, que si bien aporta una forma adicional y útil de analizar los sistemas dinámicos implica que debe haber mercados futuros y las contingencias “estocásticas” para todas las mercancías y los servicios productivos en cada uno de sus mercados. Tobin en 1980, respecto de este problema de las hipótesis básicas del planteo del equilibrio general “neo-walrsiano”, recordaba que la confianza en los resultados de estos modelos no se basaba en evidencia empírica de los supuestos. La idea central es que esta “modelización” es la única alternativa posible. En otras palabras decía “… si has perdido el monedero en la calle, búscalo bajo el poste de la farola.”. Lo que quiere significar todo esto es que el “subastador walrasiano” solo puede funcionar en este entorno de supuestos irrealistas que determinan debilidad en el tratamiento de la dinámica intertemporal: cómo aplicar en el mercado de factores la “subasta” a futuro. K. Arrow, Hahn y Roy Weintraub, desde el ámbito de las universidades estadounidenses han encarado una defensa de estas críticas, que parten de una de las características de este nuevo enfoque y es su herencia empirista y positivista (de la que pudo haberla dotado el enfoque de Friedman, por ejemplo) determinando un conjunto de contra-argumentos: 1. Si bien lo que se puede denominar la microeconomía del equilibrio general no posee por ahora capacidad explicativa, el avance va a lograr un nivel de realismo ya que estos enfoques generan un programa de investigación.

21 2. La tarea “heurística”, como arte de inventar o descubrir hechos valiéndose de hipótesis o principios que aún no superando las pruebas de la “verdad” estimula la investigación. Esta búsqueda del conocimiento en las fuentes históricas es la que tiene la capacidad de generar la investigación 3. La tarea de establecer un “marco de referencia teórico” permite estructurar el pensamiento económico en un ámbito más homogéneo e independiente. 4. Este programa es capaz de incorporar un instrumento clasificador (taxonomía) de las diferentes economías reales. Son estos modelos los que pueden determinar el grado de competencia o el grado de apertura de una economía.

Como era de esperar, en un entorno de análisis de estas características la respuesta se desarrolla en una “plataforma epistemológica”. La teoría del conocimiento es la que expone al investigador a contrastar con la realidad. Otra base de defensa es el pensamiento francés liderado principalmente por Allais, Debreu y Malinvaud, entre otros, que busca consolidar una cierta base de realismo. Sin embargo insisten en que el modelo se presenta en términos de una teoría estrictamente axiomática. (Ver nuevamente el recuadro en la Figura 6) Una teoría pura como la de Walras es una abstracción, por lo tanto no tiene necesidad de justificar sus hipótesis, ni por la inducción ni por la verificación. Esto la transforma necesariamente en irrealista. Tan irrealistas como el “tableau economique” de los fisiócratas o el modelo de reproducción marxista. Una teoría pura no es una imitación ni un reflejo de la realidad. Es en palabras de P. Samuelson, una metáfora, una parábola. No es necesario que estos modelos describan algo. Las críticas expuestas y los contra argumentos desarrollados determinan un debate que pone en consideración hasta donde es relevante un programa de investigación de estas características. La cuestión es si la llamada macroeconomía del equilibrio general es adecuada para abordar problemas importantes como el desarrollo, el papel económico de las instituciones, el comportamiento de los agentes económicos colectivos. El moderno neoclásico dirá que estos problemas no los aborde la economía sino otras disciplinas como la sociología, la historia o la ciencia política. La economía se va ocupar de la asignación eficiente de los recursos escasos y para eso va a utilizar los modelos del programa de investigación que desarrolla los modelos de equilibrio general neo-walrasianos. La definición de la relevancia de estos planteos y transitar un sendero de debate determina la ineludible necesidad de entrar en el campo de la ideología. Buscar la inspiración de este enfoque de la economía para encontrarla en la teoría de raíz

22 “smithiana” vinculada al equilibrio competitivo individualista, otra vez, “la mano invisible” El hecho de que se trate de sujetos “individuales” es fundamental: son los productores y los consumidores, los agentes decisorios individuales, que para transar todo lo transable, bienes, servicios, factores, se reúnen en cada mercado y lo vacían. Al incorporar los aspectos “ideológicos” se puede plantear que los defensores de estos modelos de equilibrio general y de su relevancia, todavía les cuesta poner en blanco y negro las alusiones al problema de la contrastación con la realidad. La realidad es una complicación que cuando se introduce, su aparición es en “notas al pie”.

23 IV – LA HIPOTESIS DE LAS EXPECTATIVAS RACIONALES Se puede engañar alguna gente todo el tiempo, a toda la gente por algún tiempo, pero no se puede engañar a toda la gente todo el tiempo – A. Lincoln

1 – Las expectativas en retrospectiva Cada vez que se estudia una etapa del pensamiento económico y se la puede definir asociada a una teoría se hace necesario indagar sobre los antecedentes de la misma. Como se dijo antes, numerosas ideas de la “nueva economía clásica” tienen su antecedente más lejano en el pensamiento clásico tradicional, de allí la asociación analítica entre aquellos análisis y este nuevo enfoque. En la historia del pensamiento económico se observa que, en las diferentes etapas, el análisis económico pone especial atención en alguna variable económica que considera esencial y en la influencia de esa variable sobre las demás. La historia ha determinado que una variable esencial es la inflación. En primer lugar porque influye sobre el empleo y por lo tanto sobre los salarios, actuando sobre lo que en el análisis keynesiano se ha dado en llamar el campo real de la economía. En segundo lugar porque provoca cambios en los tipos de interés, actuando también sobre el campo monetario. Y si el tipo de interés influye sobre la formación de capital (inversión) nos encontramos en un esquema de interrelación entre los sectores real y financiero de la economía. A. Marshall le preocupó el problema de las expectativas sobre los beneficios, así como el impacto de una variación en el poder de compra del dinero (inflación) y en la oferta monetaria sobre las tasas de interés. J.M. Keynes en el “Tratado sobre el dinero”, anterior a su “Teoría General…”, explicaba que los cambios en la tasa de interés del banco central son la señal para el cambio en la forma de pensar de los empresarios, que conocen el impacto de esos cambios en las principales variables del sistema económico. Keynes llamó la atención sobre el papel de la información y las expectativas sobre la economía real: “… ondas de optimismo o pesimismo son las que ayudan a determinar el nivel de la actividad económica…” (Keynes) Keynes plantea dos tipos de expectativas. Las expectativas de corto plazo son las que se reflejan en las previsiones de los productores, considerando el tiempo que transcurre entre el inicio de la producción y la venta de los bienes terminados. Estas expectativas se refieren a la producción de bienes de consumo. Las expectativas de largo plazo se refieren a las compras de bienes de capital y se refieren al retorno esperado. Las expectativas deben ser consideradas en función de las acciones futuras por lo que la situación del producto corriente depende de las expectativas pasadas. Un cambio en las expectativas de corto plazo indica que puede haber habido un error al iniciar la producción, pero una vez iniciada y realizada la inversión (o el gasto), más vale

24 continuar. (Keynes). Con estas definiciones de expectativas es que Keynes avanza en la definición del largo plazo (aunque a veces no se le reconozca) y el concepto de eficiencia marginal del capital. 2 – Una variante débil en el enfoque del análisis de expectativas. Las expectativas adaptativas. Una formulación muy sencilla del análisis de las expectativas surge de la siguiente expresión: Xet = Xet-1 + (1 – λ) (Xt-1 – Xet-1) Aquí se expresa que lo esperado en “t” es una función de lo que se esperaba en “t-1” ajustado por lo ocurrido en ese momento y corregido por el error de predicción en ese momento “t-1”, donde el parámetro λ es una determinante de la intensidad del proceso de corrección. En términos de una aproximación de tipo econométrico se puede asumir que Xt = φ1 Xt-1 + φ2 Xt-2 + …. + φ2 Xt-p + µ Con la restricción p

Σ φi = 1 i Implica que a medida que el tiempo transcurre, en una expresión univariante de estas características, los parámetros φi van perdiendo su influencia. Desde el punto de vista de la aplicación econométrica este mecanismo aparece como débil por su característica univariante y por su autorregresividad, ya que expone a una misma variable a través del tiempo. Se puede advertir que incluso, esta forma de abordar las series de tiempo y la capacidad prospectiva, les impone cierta dosis de debilidad a los llamados modelos autorregresivos tipo ARIMA Esta formulación “débil” es la que se asocia con el desarrollo, descripción y conceptualización de la llamada teoría de las expectativas adaptativas La identificación como una versión débil surge de tomar en cuenta sólo la historia pasada. Esto es bien distinguible en la formulación de la correlación inflación – empleo, en el ámbito real de la economía, que se transforma en una relación: n = f (πpasada). Esta “regresión” es débil ya que el público no está bien informado respecto de las fuerzas económicas que dominan a la variable a predecir. En esta teoría hay un fuerte proceso de extrapolación (Cagan – 1956)

25 Los aportes de A.W.Phillips (1958) respecto a la relación de precios con exceso de demanda en el mercado de bienes y en el mercado de trabajo en forma agregada determinan una relación que combina inflación con el desequilibrio agregado en la demanda de bienes y de empleo. La expresión: Π=γX combina la inflación con el desequilibrio agregado de demanda en los bienes y en el mercado de trabajo, donde X representa el exceso agregado de la demanda en ambos mercados y Π representa la tasa real de inflación. Esta formulación de una “curva de Phillips” puede tener variantes (un desplazamiento) por efecto de la aparición de expectativas: Π = γ X + α Π* donde γ > 0 ; 0 < α < = 1 Ahora la inflación depende de la tasa prevista de inflación y de un coeficiente α de expectativas sobre los precios. El parámetro γ es un factor compuesto que trata de expresar como el cambio en el consumo determina cambios en la tasa de desempleo y además determina la sensibilidad de los salarios nominales a los cambios en la tasas de desempleo y ambos influyen en la tasa real de inflación. Cuando el factor α (que representa las expectativas) llega a la unidad, las expectativas no tienen efecto y allí la economía está en equilibrio en el mercado de empleo. Sin desempleo no hay inflación y la tasa natural de desempleo tiende a la tasa real de desempleo. La tasa natural de desempleo es aquella que se observa cuando el PIB real y el PIB potencial tienden a igualarse (no hay ni auge ni recesión en la economía). Es esperable que a largo plazo la economía tienda a una tasa natural de desempleo. Si la economía opera a una tasa natural de desempleo, puede considerase que el desempleo es estructural. Se suele plantear que cuando la economía opera a una tasa estructural de desempleo, los intentos de la política económica por reducirla puede producir inflación. Cuando la inflación esperada supera a la inflación “de equilibrio” hay inflación sorpresa y la información del pasado no tuvo resultado respecto de las previsiones. En los estudios empíricos se determinó que en 29 años, con dos mediciones por año, o sea, 58 observaciones, hubo en Estados Unidos 45 inflaciones sorpresa. De todas formas, esta “variante débil” de la hipótesis de las expectativas de los agentes económicos, que se reconoce como expectativas adaptativas, se ha transformado en una hipótesis de aprendizaje a través del error. Las expectativas adaptativas encuentran su expresión en una subestimación o sobreestimación de la tasa real de inflación.

26 3 – Una variante fuerte en el enfoque de las expectativas. La hipótesis de las expectativas racionales (HER) 3.1 – El concepto de expectativas racionales El público forma sus expectativas racionalmente y por lo tanto hacen uso de toda la información relevante disponible acerca de las variables que de acuerdo a la teoría determinan el comportamiento de la variable a predecir. Los modelos funcionan de acuerdo al mecanismo de las expectativas del público. Es únicamente por efecto del azar (impulsos o cambios inesperados) que se producen efectos sobre las variables reales y esto es en el corto plazo. En el largo plazo los agentes se comportan en forma racional. Sargent planteaba “… la cruda realidad que choca a todos es que la economía NO se ha comportado de acuerdo a los mejores modelos keynesianos. Nosotros fuimos keynesianos en otros tiempos, pero tenemos que cambiar de opinión…” Este cambio de opinión que surge en los principios de los 60s. genera la controversia entre los monetaristas y los “no monetaristas” con fuerte influencia aún del keynesianismo. Samuelson (1969) planteaba que el monetarismo representa la creencia de que el primer determinante del estado de la demanda agregada macroeconómica –estado del empleo y variación de los precios- es el dinero y más específicamente su tasa de variación. Modigliani (1977) planteaba que los puntos reales de desacuerdo estaban justamente en el papel que debe asignarse a las políticas de estabilización. Las políticas económicas son el objetivo de esta etapa en que ingresa el análisis económico, visto desde una óptica de la historia económica. Solo a vía de ejemplo, entre las condiciones para una formulación efectiva de la política monetaria está como comprender el proceso de la oferta monetaria. Analizar que agregados monetarios deben elegirse para determinar si la acción monetaria (la política monetaria) es neutra, expansiva o contractiva respecto del sector real que “modula” nada más ni nada menos que variables vinculadas al empleo, la producción y los precios. Dentro de esta idea de proporcionar un ejemplo sencillo, si se recuerda que la base monetaria se compone de la reserva obligatoria de los bancos y del dinero en poder del público: B = R + C y que R = rdD + rtT + E donde rd y rt son los porcentajes obligatorios de reservas que tienen que tener los bancos sobre los depósitos a la vista D y los depósitos a plazo T y E representa el exceso de reservas deseado por el sistema bancario, entonces la base monetaria: B = rdD + rtT + E + C, entonces D = R – rtT – E rd

y

27

B = C + R – rtT – E = M rd En esta formulación se observa que la base monetaria es la expresión de la oferta monetaria y depende de R, rd y rt que maneja el Banco Central (la autoridad monetaria). C y T dependen del comportamiento del público y E del sistema bancario. Por lo tanto el Banco Central puede controlar la oferta monetaria controlando las reservas obligatorias de los bancos. Así, los cambios en la oferta monetaria (M) son reflejo de decisiones sobre la cartera de valores hecha por los bancos comerciales, el diseñador de la política económica (equipo económico de gobierno – Ministerio de Economía / Banco Central) y el público. Entonces se genera una dependencia vinculada al desarrollo de la actividad económica, al tipo de interés del mercado y a las expectativas sobre el futuro. En las expectativas racionales los agentes económicos hacen uso de toda la información relevante acerca del proceso de evolución de una variable. Cuando se produce un error de predicción es porque el público tuvo información incompleta y actuó equivocadamente generando el desvío respecto de las expectativas originales. Esta formulación es la que se suele presentar como variante fuerte en la teoría de las expectativas El término expectativas racionales se atribuye a John Muth que en 1961 utilizó esta expresión para describir aquellas situaciones en que los resultados dependen de lo que la gente espera que suceda. Las expectativas de los agentes se sintetizan en una distribución subjetiva de probabilidad de los sucesos que tienen a distribuirse para un mismo conjunto de información como la probabilidad objetiva de esos sucesos. Su formulación surge de la siguiente expresión: Xet = E [ Xt / Ωt-1 ] = Xt + εt Donde la predicción de X (variable a predecir) en el período t, que se formula en t-1 es igual a la esperanza de Xt condicionada al conjunto de información relevante Ωt-1 disponible en el período anterior (t-1). Esta expectativa equivale al valor objetivo Xt más un término de error εt. Para ser considerado “racional” el valor esperado Xe en el período “t” el término de error εt tiene que ser insesgado y no debe estar autocorrelacionado. De esta forma se ahuyentan los sesgos en la predicción, que es una condición elemental que enseña la econometría básica. Respecto del conjunto de información relevante Ωt-1 se debe asegurar la “ortogonalidad” del mismo, que significa en términos de la topología elemental, que no se omitió ningún elemento informativo relevante.

28 La probabilidad objetiva es lo que la teoría económica postula, entonces si el postulado es que el comportamiento es maximizar la utilidad o el beneficio, entonces para creer en las expectativas hay que asumir que los agentes se comportarán en la dirección indicada para maximizar su utilidad o beneficio. Se han destacado términos como distribución subjetiva y necesidad de creer, dotando al concepto de una carga subjetiva natural en el contexto de los temas que se abordan en la nueva economía clásica. Al mismo se le ha adicionado la necesidad de contar con un conjunto de información. Todos estos términos ya formaban parte del nuevo enfoque que impone el análisis económico en este específico contexto. 3.2 – Los modelos de análisis de la HER 3.2.1 – Un modelo simple de expectativas racionales A.W.Phillips planteó la relación entre la variación de los precios (inflación) y el desempleo. El modelo más simple que se puede imaginar es aquel que parte de la existencia de esta correlación y que la misma se vea desplazada por el efecto de las expectativas. La ecuación I) expone la relación entre la tasa no espera de inflación y una función de la tasa de desempleo (o desutilización) de factores, como por ejemplo el uso incompleto de la capacidad instalada: I)

Π – Π* = γ (Un – Uf) donde γ > 0 y Un es la tasa natural de desempleo y Uf es la tasa real de desempleo.

La ecuación II) muestra un proceso generador de inflación de tipo monetario: II)

Π = m + ε donde “m” representa el aumento de la oferta monetaria y ε es un término de perturbación aleatoria cuya esperanza matemática es cero.

En la ecuación III) se describe como la autoridad monetaria reacciona a los cambios en el nivel de a actividad económica: III)

m = ψ ( Un-1 – Uf-1) + µ

Lo que hace la autoridad monetaria es hacer depender el exceso de demanda en cualquier mercado de lo sucedido en el período anterior y de un término de error que tiene la esperanza matemática igual a cero. Las autoridades monetarias intentan corregir la situación de demanda en exceso en los mercados de bienes y el mercado laboral ajustando la tasa de crecimiento monetario “m”. Esto determina que la tasa esperada de inflación se iguale a la tasa esperada de crecimiento monetario. Esto es válido por construcción e indica las expectativas racionales del público respecto de la inflación y la oferta monetaria, considerando en ambos casos que el término que perturba tiene una esperanza matemática equivalente a cero.

29 Por la propia regla propuesta en la ecuación III) y en la situación de que se igualan las tasas esperadas de inflación y oferta monetaria se puede construir una expresión reducida del modelo que expresa que la diferencia entre la tasa natural de desempleo y la tasa esperada de desempleo es una relación que depende de las perturbaciones y del análisis de lo sucedido en el período anterior: Un – Uf = µ- ε γ Así, la variación de la ocupación de los factores productivos se produce cuando exista una inflación sorpresiva causada por perturbaciones reales imprevistas expresadas en ε y una perturbación monetaria de las mismas características expresadas en µ. En este modelo simple al dejar de operar la tasa de crecimiento monetario “m” determina ineficiencias de la política monetaria y hacen determinante que solamente los errores de predicción respecto a la tasa de inflación esperada pueden ocasionar una desviación del equilibrio macroeconómico. El impacto sobre precios y cantidades que hace que aumente la renta nacional –es decir, que crezca la economía-, es reflejo de cambios en la estructura de las expectativas racionales de los agentes económicos con respecto a la significación e influencia de la política monetaria. R. Lucas (1972) planteaba esta idea y advertía que como no es posible predecir cuales son las expectativas precisas del público, los monetaristas no pueden predecir la influencia de los impulsos o desaceleración monetaria que decida la autoridad monetaria, sobre la renta nacional. Este modelo simplificado intenta advertir sobre la existencia de actitudes aleatorias de los agentes, de la necesidad de seleccionar los énfasis a la hora de diseñar y tomar decisiones de política económica y muestra la necesidad de incorporar una variable sustantiva que subyace pero que aún no ha sido considerada y es como se incorpora lo que se podría llamar un “vector de información" 3.2.2 – Un modelo de equilibrio con información imperfecta – Robert Lucas Robert Lucas (1935 - ) a partir de su artículo “Econometric policy evaluation: A critique” (1976) introduce sus primeras críticas a la teoría tradicional en la aplicación de políticas económicas. Antes, en 1972 había presentado su “Expectations and the neutrality of money”. Completó sus aportes académicos con su texto “Theory of business cycles”. Esto aportes le valieron el premio Nobel de economía en 1995 “por haber desarrollado y aplicado la hipótesis de las expectativas racionales y, por ello, haber transformado el análisis macroeconómico y mejorado nuestra compresión de la política económica” En Febrero D.(2000) se expone que lo importante del trabajo de Lucas no es la crítica que dirige sobre los métodos tradicionales de simulación econométrica de las políticas económicas, sino porque provoca la génesis de una nueva teoría de la política económica. Se trata de una crítica a toda la teoría tradicional de las políticas económicas y traza la línea divisoria entre aquella teoría y una nueva para la aplicación de las políticas económicas.

30

El modelo que se presenta tiene determinadas características que se determinan la forma en que se desarrolla: a) mercados en equilibrio – hipótesis del vaciado continuo en todos los mercados b) el público tiene expectativas y éstas son racionales c) el origen de los “golpes o impulsos” que recibe el sistema económico son monetarios. Y tiene una base argumental que es la existencia de confusión entre los niveles absolutos y relativos de los precios provocados por la ausencia de información. Características y desarrollo del modelo 1 - El modelo presenta “n” mercados donde se verifica: El producto (Y) en el mercado “i” en el periodo “t” depende de un componente tendencial común a todos los mercados y un componente cíclico específico del mercado “i”: Yit = Yst + Ycit 2 - El componente tendencial es una función lineal del tiempo: Yst = α + β t donde α y β son positivos. El tiempo es determinante y tiene pendiente positiva. Lucas plantea además que se pueden considerar especificaciones aleatorias sin que haya mayores variaciones en el desarrollo del modelo. 3 - El componente cíclico responde a la siguiente expresión Ycit = bi (Pit – E [ Pt / Ωit ] + λi Yit - 1 Donde E [ Pt / Ωit ] es la esperanza condicionada todo el conjunto de información para el mercado “i” en el periodo“t”. Pt representa el nivel general de precios y Pit es el precio del mercado “i” en el período “t”. La expresión λi Yit anteriores

– 1

es el término que expresa la persistencia de condiciones

El término relevante del modelo es el conjunto de información disponible en el período “t” para el mercado “i”: Ωit. El otro aspecto a destacar es la manera en que los integrantes del mercado en cuestión ven su función precio: Pit = Pt + Zit

31 El precio en el mercado “i” para el período “t” depende del nivel general de precios y de un “shock” inesperado específico del mercado i representado por Zit. Entonces, el nivel general de precios: Pt ~ N (E [ Pc / Ωit ],σp) “se aproxima” a una función de la esperanza condicionada por la información disponible del mercado específico y una desviación estándar Cuando se generaliza a “n” mercados el nivel de producción depende del nivel general de precios , la esperanza de ocurrencia de ese nivel general de precios condicionada a la información (expuesta a un parámetro positivo que incorpora variables aleatorias (sorpresa o shock) y su varianza. => Yt = β (Pt - E [ Pt / Ωt ]) β > 0 Esta expresión es la conocida como función de oferta sorpresa de Lucas En esta expresión se observa además que el nivel de producción es una expresión que depende del nivel general de precios y la esperanza de que ocurra ese nivel de precios condicionada a la información disponible y expuesta a un parámetro positivo que incorpora variables aleatorias (determinantes de la condición de ser sorpresiva y generar el “shock”) y de su varianza. Se destaca aquí un causalidad donde la producción está expuesta al nivel de precios, esto es una causalidad P => Y que es distintitiva de la nueva economía y contraria a la causalidad Y => P que es una característica determinante de la llamada economía keynesiana. Con lo analizado hasta ahora se puede afirmar que el término relevante del modelo es el conjunto de información disponible en el período “t” para el mercado “i”

4 – Luego el modelo agrega una relación estable entre desempleo y producción considerando las variaciones sorpresa de los precios Ut = U*t + ψYt

ψ < 0 

Donde  U*t se corresponde con un nivel de desempleo consistente con una inflación no acelerada. Por definición: Ut = U*t + ψβ Pt - E [ Pt / Ωt ]) Por lo expuesto anteriormente no es una “curva de Phillips” ya que expresa una relación entre precios y producción. Respecto al nivel de desempleo expresado en U*t se puede afirmar que contiene los rasgos institucionales del mercado de trabajo, donde confluyen un determinado marco de relaciones laborales, el costo de buscar empleo, la movilidad del factor, etc.

32

5 – El agregado monetario se expresa en la ecuación cuantitativa considerando constante la velocidad de circulación y por aplicación de logaritmos se transforma en la expresión: Yt = Mt – Pt donde Mt representa el impulso monetario (política monetaria) Por lo tanto podemos expresar el nivel de producción: Yt = γ Mt - E [ Mt / Ωt ]) Incorporando la esperanza condicionada al vector de información y operando en la “función sorpresa”: Yt =β (Pt - E [ Mt / Ωt ]) se obtiene una expresión monetaria de la función de oferta sorpresa: 6 - La operativa del modelo termina en la siguiente forma reducida: Yt = (1 +β)−1 ( Μt Ε [ Μt / Ωt ]) Pt = = (1 +β)−1 ( Μt − β Ε [ Μt / Ωt ]) Donde β es una combinación de parámetros aleatorios y condicionado a las varianzas (variaciones) en las expectativas de cambio en los precios y de los shocks inesperados en cada mercado: σp2 = f (σe2 ,σz2) Esta expresión indica que las variaciones en el nivel de precios son función de la sorpresa (shocks) en la cantidad de dinero y del shock esperado de precios en el mercado de determinado bien . En resumen, el modelo busca especificar: i – Nivel de precios y por lo tanto nivel de producción ii – La condicionalidad de la esperanza de ocurrencia de ese nivel de precios asociada al vector de información iii – Los efectos en estas variaciones: a) Por shocks en la cantidad de dinero b) Por shocks esperado en los precios A partir de la expresión reducida del modelo lo que se expresa es una explicación de cómo fluctúa la producción y el empleo, basa en la respuesta de agentes económicos frente a impulsos monetarios (golpes = shocks). Impulso monetario

∆+ Pt

∆+ Pti

∆+ Y

∆+ L

33 A partir del “impulso” aumenta el nivel general de precios y por lo tanto el nivel “particular” de precios, generando un aumento en la producción y el nivel de empleo. La frecuencia de estos “impulsos” determinan fluctuaciones (ciclos), o sea, cambios permanentes, entonces los agentes ya no aumentan la producción y no aumentaría el nivel de empleo. Solo los cambios sorpresivos no anticipados generan influencia sobre el nivel de actividad. R. Lucas concluye en forma negativa sobre la eficacia de la política monetaria ya que la única forma de modificar el comportamiento de los agentes es engañándolo, que equivale a no informar. Esto determina que los agentes confundan sus expectativas y en forma aleatoria. En la concepción de esta nueva economía, que es una concepción nueva también para el ámbito de la política económica, aparece un concepto novedoso aceptado como una nueva dinámica de las políticas óptimas. Este fenómeno es parte de la aplicación de la teoría de los juegos a las decisiones de política económica y se transforma en un análisis dedicado a la consistencia o inconsistencia intertemporal. La consistencia intertemporal aparece como una solución de segundo óptimo, mientras que la inconsistencia intertemporal es un fenómeno más frecuente que se refiere a la posibilidad de que los planes de acción futura del diseñador de la política económica (el gobierno, en general) al ser anunciados sean considerados óptimos como resultado de máximo en la función de bienestar social y dejen de serlo en períodos posteriores. Es decir, la intertemporalidad aparece como un elemento que plantea a la política económica óptima solamente “ex – ante”. Queda claro, que en este contexto tan específico, en general se entiende que la función objetivo es correcta y que la inconsistencia se produce en las restricciones, ya que no existe otra alternativa en la búsqueda de la optimización que los modelos determinen restricciones. Este tipo de mecanismo determina que estos modelos muestran fluctuaciones, por lo tanto se hace extensivo al análisis de ciclos y la consecuencia es que intentan producir respuestas frente a cambios relativos en los precios. En los aportes de R. Lucas, parte de este análisis se observa en el mecanismo de sustitución intertemporal del trabajo, concepto que tiene su punto de partida en que los mercados son eficientes y tienen precios flexibles. La oferta de trabajo L = f (w / p ), es una función del salario real y la oferta de bienes O = f (p) es una función del precio. La sustitución intertemporal del trabajo opera en el mercado laboral de tal forma que: ∆+ Y

∆+ L

∆+ W

En un proceso de “auge” cuando crece el producto, aumenta la demanda laboral por requerimiento de las empresas que ofrecen salarios mayores. La oferta laboral acepta esos salarios mayores y como el período es de auge, el trabajador dedica más horas para poder no trabajar en el período de depresión (dinámica intertemporal). Esta claro que en este concepto tiene que haber un fuerte concepto de “racionalidad”. La

34 existencia de racionalidad hace que el desempleo que existe sea voluntario y depende del salario acumulado en el período de auge. R. Lucas se aparta claramente y descarta el concepto de desempleo involuntario de J.M.Keynes 3.2.3 – Algunos ejemplos de aplicación de “la nueva política económica” Un análisis interesante surge de la teoría del consumo basada en el ingreso permanente de Friedman. Recordando que en lo que se puede denominar “Keynes básico”: C(consumo) = f(Y), en realidad ese ingreso o renta es corriente, mientras que Friedman propone que el C(consumo) = f (Ycorriente, Ypermanente). Con el ingreso permanente se asegura la perspectiva del ingreso futuro y por lo tanto un nivel de consumo sostenido manteniendo constante el nivel de la riqueza. Esta riqueza, que marca la base clásica de Friedman representa el valor presente de las expectativas de la gente respecto del ingreso salarial futuro. La HER determina que el consumo es un camino aleatorio donde el término de error no previsible tiene su esperanza matemática igual a cero. Esta forma de observar la economía, combinando la teoría del ingreso permanente con la HER, determina un cambio en la toma de decisiones (política económica) acerca de las políticas de estabilización del empleo en el corto plazo para estimular la economía, bajo la consigna de que todos los agentes tienen acceso a la información y todos los agentes tienen acceso al crédito en las mismas condiciones.

Ingreso Permanente

Ingreso Consumo

Consumo Acceso al crédito

Pago del crédito

Tiempo

Figura 7 En el diagrama de la Figura 7 se representa la “suavización del consumo”, que implica que en la teoría del ingreso permanente en los momentos de auge, cuando aumenta el ingreso disponible (por una rebaja de impuestos por ejemplo), disminuye la importancia del multiplicador y el consumo se suaviza por lo que no aumenta la propensión a consumir. Si el ingreso está por debajo del consumo opera la información y el acceso al crédito. Cuando surge el impulso aleatorio favorable se cancela el crédito.

35

Otro análisis aparece a partir de la llamada teoría de la “suavización” de las políticas tributarias conocida como “tax smoothing” que implica la política de responder con impuestos en función de un impulso imprevisto de gasto público. Los agentes deben estar informados acerca de la reglas que sigue el gobierno para fijar los nuevos impuestos, o nuevas alícuotas sobre los existentes y el gobierno aplicar efectivamente esas reglas impositivas.

Deficit por impulso del gasto

Presupuesto equilibrado

Deuda pública Impuestos

Superavit

Tiempo

Figura 8 El diagrama de la Figura 8 identifica la situación en donde el gobierno al financiar los gastos aplica una secuencia en las tasas impositivas algo más suaves a lo largo del tiempo y financia con mayor aumento de la deuda pública. Superada la etapa del impulso negativo, mantiene los impuestos, genera el superávit y disminuye la deuda. Esta política de “suavización de impuestos” minimiza los desincentivos sobre la oferta de factores que se asocia a los impuestos. Un tercer ejemplo muy interesante es asociar estos planteos con la teoría de los precios de los activos financieros en los mercados eficientes. La eficiencia en el mercado se asocia a una medida “paretiana” de optimización en un marco de información y competencia que determina la flexibilidad necesaria en los precios para que se ajusten en forma instantánea en función de la información. La teoría determina la previsión de los precios en función del patrón de los precios del pasado, los dividendos de los activos, el valor tiempo del dinero (tasa de descuento) y el riesgo de cada activo. Con información relevante disponible esto determina el rendimiento esperado del activo. Los únicos factores que pueden alterar los resultados son aleatorios (impulsos no esperados). El “camino aleatorio” en esta teoría lo representa una variable aleatoria con su esperanza matemática igual a cero.

36

3.3 – Las principales críticas La introducción de la hipótesis de las expectativas racionales y la incorporación del enfoque intertemporal dotaron a la macroeconomía de un nuevo contexto de análisis de equilibrio optimo, con un notorio desplazamiento de los modelos tradicionales estáticos o “dinamizados” al estilo IS-LM o “curva de Phillips” a modelos con agentes que forman sus expectativas en forma racional e involucra a generaciones sucesivas (Febrero D. 2000) Sin embargo, desde diversos ámbitos, incluso aquellos también asociados a la llamada nueva economía clásica han surgido críticas, de las que se exponen en forma resumida aquellas que se han considerado más útiles en términos de describir dilemas a los que la “nueva política económica” no les ofrece solución (Sijben 1983). Costos y disponibilidad de la información. La información es una parte esencial de la HER, tal como lo había marcado Muth, por lo tanto será económicamente racional utilizar la información relevante disponible hasta el punto en que los beneficios marginales de su obtención sean iguales a los costos marginales vinculados con las actividades o variables de las que se esperan resultados. Esto determina que los modelos de política económica no deben suponer que la información no tiene costo. La información tiene costo y es distinto según el agente que intenta acceder a la misma. El problema de la suficiencia de información fue planteado por M.Friedman. El supuesto de que la información está disponible y es suficiente implica que los agentes económicos actúan bajo la condición de que tienen pleno conocimiento del proceso económico de la variable a predecir. Este proceso es el que determina el verdadero valor que tomará esa variable. Friedman plantea que bajo estas condiciones hay que conocer también los parámetros y la seguridad de que no hay sesgos para que la serie temporal prevista sea confiable. Como los agentes económicos actúan “racionalmente” en base a su modelo específico, entonces cada agente puede atribuir significados diferentes a una misma información Hipótesis de las expectativas semi-racionales. M.Friedman aporta un análisis que se refiere al supuesto específico que los “racionalistas” plantean respecto a que la información relevante disponible sea suficiente, que está planteado en la condición de ortogonalidad del conjunto de información relevante Ω. Los “racionalistas” utilizan este supuesto como un sustituto de la conocida proposición de que a largo plazo se logra un proceso de aprendizaje que culmina en una situación de equilibrio de la economía. Estos son criterios identificables y propios de la propuesta de las expectativas adaptativas. Para M.Friedman “…estamos en un promedio ponderado y mecánico de las expectativas adaptativas y las expectativas racionales avanzadas…”

37 Los contratos a largo plazo. La teoría de las expectativas racionales parte del supuesto de precios flexibles que es una versión actualizada del “mercado subasta” neo-walrasiano. Hay información acerca del mercado y obtenerla no tiene costo. Los agentes forman sus expectativas de aumento de precios (inflación) y cada incremento monetario se transformará en una variación en los precios y los salarios. Sin embargo hay que prestar atención al hecho de que en la práctica puede llevar cierto tiempo, más bien largo, la adecuación del mercado y el agente busca en su proceso de maximización un beneficio adicional introduciendo contratos implícitos o explícitos: relaciones laborales, desvío de una situación inicial, riesgos, etc. Según Okun (1962), bajo este contexto, lo que se distingue por un lado son los “mercados subasta” con precios flexibles y adecuación en el corto plazo. Por otro lado están los “mercados de clientes” con precios más rígidos por la existencia de los contratos. Este tipo de situación es bien distinguible en los casos en que con cambios frecuentes en los precios hay costo en la confección del “catálogo”. También es apreciable en el mercado de trabajo, cuando existen contratos implícitos o explícitos sobre la fijación del salario. Bajo estas situaciones, la búsqueda de maximización del beneficio a largo plazo puede llevar a comportamientos “no optimizadores” en el corto plazo, lo que implica apartarse del “racionalismo”. Desempleo voluntario. La dinámica “intertemporal” aplicada al mercado de trabajo determina que los “racionalistas” asuman la existencia de desempleo voluntario. Sin embargo Tobin (1980) plantea que las situaciones de desequilibrio no son voluntarias. Siempre que exista un desequilibrio entre oferta y demanda existe algo de “involuntario” El significado de una información superior. Los modelos vinculados a la HER parten del supuesto de que los agentes económicos privados poseen exactamente la misma información con respecto al proceso de evolución de las variables relevantes, como los precios de todos los mercados (nivel general de precios), que los que elaboran la política económica. Lo realista es suponer que las autoridades tienen más información que el público ya que al partir de un nivel superior pueden no trasmitir deliberadamente la información relevante. También hay que considerar que por la existencia de economías de escala y costos en la obtención de la información, hay público que no accede a toda la información aunque esté disponible. Sin embargo, Barro señala que en un contexto democrático las acciones de política económica deben basarse en las preferencias de los electores y advierte que en estos modelos no debe incorporarse el “engaño político”, por lo que se transforma en un mínimo la diferencia entre la información disponible y la información total.

38

BIBLIOGRAFIA UTILIZADA Becker, Gary Becker, Gary Beraud, Alain & Faccarello,Gilbert

Teoría Económica La Naturaleza de la Competencia

CFE. – 1971 Conferencia 2000

Bucheli, Mario

Nouvelle Histoire de la Pensée Economique Compilación 2000 Los keynesianos F.C.U. – 1997

Ekelund, Robert & Hébert, Robert

Historia de la Teoría Económica y de su Método

McGraw-Hill 1992

Febrero Devesa, Ramón

La Moderna Macroeconomía Clásica y sus Consecuencias para la formulación de la política económica

IUDEM – Doc. de Trabajo 2000

Galindo, Miguel

Keynes y el nacimiento de la macroeconomía Ed. Síntesis 2003

Instituto Venezolano de Investigaciones Científicas Kurt Gödel entra en escena

WEB 2008

Landreth, H & Colander, D

Historia del Pensamiento Económico

Paenza, Adrían

Matemáticas, ¿Estás ahí?

Quilis, Enrique

Apuntes de teoría de los ciclos

Instituto de Estudios Fiscales – Mimeo 1998

Sargent, Thomas

Racional Expectation

The Concise Encyclopedia of Economics WEB 2007

Screpanti, E & Zarmagni, S

Panorama de Historia del Pensamiento Económico

Ariel S.A. 1997

Sijbeen, S

Expectativas racionales y política Monetaria

Vincent Vives 1983

Cía. Editorial Continental 1997 Ed. Siglo XXI 2007

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.