Buscar

La «nueva (quizá no tanto) economía» americana

image_pdfCrear PDF de este artículo.

El pasado 14 de abril –no podía no ser un viernes– se publicaron una serie de datos sobre la economía norteamericana que mostraban la aparición, tantas veces temida durante los últimos años, de lo que los economistas denominan «tensiones inflacionistas». Esto dio lugar a renovadas expectativas sobre elevaciones de los tipos de interés por parte de la Reserva Federal y esto, a su vez, provocó una fuerte caída en los mercados de valores de los Estados Unidos, tanto el mercado tradicional como el de los valores llamados «tecnológicos». Puede que estemos asistiendo, en este comienzo de primavera de 2000, a un punto de inflexión o al término del «milagro económico» de los años del presidente Clinton. Pero, esta constatación no cancela ni, desde luego, responde a las preguntas que ese «milagro económico» viene planteando desde hace años.

Durante la segunda mitad del decenio de los noventa, la economía de los Estados Unidos registró una combinación de alto crecimiento, fuerte creación de empleo –hasta alcanzar lo que técnicamente puede considerarse como pleno empleo– y baja (algunos años, decreciente) tasa de inflación, una combinación considerada imposible –o posible sólo en plazos temporales muy cortos– de acuerdo con los modelos económicos normalmente aceptados, y con las restricciones ligadas a nuestro entendimiento «keynesiano» de las economías modernas.

Si fuéramos a elegir un año en el que el fenómeno empezó a hacerse aparente, en el que los economistas norteamericanos empezaron a reflexionar y a darse cuenta de que algo extraño estaba ocurriendo, ese año fue, seguramente, 1994. A comienzos de 1994 se inició un movimiento de fuerte caída del dólar frente al yen; su causa inmediata era la ruptura de las negociaciones comerciales entre Estados Unidos y Japón y la creencia de que las autoridades norteamericanas forzarían la corrección de su déficit comercial con Japón a través de la apreciación del yen, aunque nadie sabía cómo podrían conseguirlo. Pero, el movimiento de caída del dólar frente al yen se mantuvo y se intensificó, además, por otra razón. Los mercados llevaban ya algún tiempo sosteniendo que la política monetaria de la Reserva Federal era demasiado laxa (es decir, que estaba manteniendo tipos de interés demasiado bajos dado el nivel de actividad y de empleo), y que ello provocaría, en poco tiempo, la aparición de un proceso inflacionista que obligaría a elevar fuertemente los tipos de interés y provocaría una recesión. Frente a esta opinión de los mercados financieros, la Reserva Federal, y su presidente, Greenspan, sostuvieron que no había signos de inflación, que la política monetaria de la Reserva Federal no era laxa, y que los Estados Unidos estaban teniendo una expansión equilibrada.

A finales de aquel año, la profesión económica, los expertos financieros y, en general, los mercados empezaron a corregir sus opiniones; a mediados de 1995 se reconocía que, quizá, Greenspan tenía razón, que no había inflación, que la economía estaba teniendo una evolución equilibrada y que, en suma, al menos por una vez, las autoridades monetarias habían acertado en el diagnóstico y los mercados se habían equivocado.

Entre 1995 y 1997, profesores de economía, grandes bancos de inversión, institutos de estudios y periodistas económicos prestigiosos repitieron el error de 1994. A lo largo de esos tres años, en diversas ocasiones, anunciaron que esta vez sí, esta vez sí que venía la inflación, sí que la política monetaria de la FED era demasiado laxa y sí que Greenspan se estaba equivocando. La Reserva Federal siguió sosteniendo que los Estados Unidos estaban registrando una expansión equilibrada, y que no había razones para imponer una política monetaria restrictiva que pusiera fin a una estupenda etapa de prosperidad y pleno empleo.

En 1998, finalmente, los mercados y los expertos se rindieron. La nueva opinión «políticamente correcta» sobre la evolución económica en Estados Unidos pasó a ser que, efectivamente, la FED había venido teniendo razón, porque había percibido que algo nuevo había estado ocurriendo en la economía norteamericana, algo que rompía las restricciones consideradas hasta entonces más estructurales, haciendo posible una combinación de crecimiento, inflación y empleo inédita en la historia de la posguerra.

¿DE QUÉ SE TRATA?

La discusión sobre la «Nueva Economía» se refiere a lo ocurrido en los años noventa en los Estados Unidos: explicar cómo ha podido crecer, entre 1996 y 1999, a una tasa media superior al 4%, con una inflación en torno al 1,4% y tasas de desempleo que, al final de ese período, apenas superaba el 4%. El interés por explicar lo ocurrido no es sólo, ni principalmente, digamos, histórico, porque sus conclusiones pueden ser importantes para la política económica de los países más avanzados, aquellos cuyas economías pueden comportarse, por razones institucionales y tecnológicas, de forma similar a la norteamericana.

Sólo para ayudar a entender cuál es el fenómeno que tanto ha despistado a los economistas durante los últimos años, se ruega al lector que considere los dos gráficos que acompañan a este trabajo (v. páginas 4 y 5)Los dos gráficos han sido elaborados por Emiliano González Mota, titulado del Servicio de Estudios del Banco de España, a quien, además, agradezco sus comentarios a este trabajo. . Para los pocos habituados a usar este tipo de representaciones, puede suponer alguna pequeña molestia; se pide perdón por ello, pero un mínimo esfuerzo resolverá la dificultad y el rendimiento de ese pequeño esfuerzo, ya lo verán, merece la pena.

Gráfico 1

Miremos primero el gráfico 1. Este gráfico es una representación con tres coordenadas, es decir, es en tres dimensiones, porque son tres las variables que consideramos. En el eje vertical se mide la variación anual del índice de precios al consumo en los Estados Unidos; en uno de los ejes horizontales se mide el crecimiento anual del PIB; en el otro eje horizontal se mide la tasa de desempleo. Todas estas mediciones se refieren a medias, bien para el período 1961-1999, bien para el período 1992-1999.

Los trazos gruesos unen los tres puntos que representan la media de esas tres magnitudes para el período 1961-1999; es una media muy larga, una media de casi cuarenta años, por lo que representa la situación que podemos considerar «estructural» o «normal» para la economía de los Estados Unidos en la relación entre esas tres magnitudes.

La línea de puntos de este gráfico representa lo mismo para los ocho años del período 1992-1999.

¿Qué se observa? Pues lo que se observa es un desplazamiento de esa figura hacia algo más de crecimiento del PIB (se pasa de 3,4 a 3,6), algo menos de desempleo (se pasa de 6,0 a 5,6) y bastante menos incremento de precios (se pasa de 4,6 a 2,5).

Gráfico 2

Pasemos ahora al gráfico 2, que es exactamente igual que el anterior pero con una diferencia: aquí las líneas de puntos unen las medias del período 1996-1999, es decir, los últimos cuatro años del período considerado. ¿Qué es lo que vemos? Pues lo mismo que en el anterior gráfico 1, pero con desplazamientos mucho más acusados en las líneas de puntos. El crecimiento del PIB pasa del 3,4 en la media de los años 1961-1999 a 4,3 en la media de los años 1996-1999; la tasa de desempleo pasa de 6,0 a 4,8; y la tasa de crecimiento de precios pasa del 4,6 al 2,2. En suma, lo que estos gráficos muestran es que algo ocurrió en la economía americana en los ocho años del período 1992-1999, pero ese «algo» se intensificó de modo casi espectacular en el período 1996-1999.

Cuando, hace unos meses, la NewYork Review of Books quiso ocuparse de la «Nueva Economía»The New-York Review of Books, vol. 46, nº 14, 23-9-99. , escogió ocho publicaciones: tres libros, cuatro artículos de revistas especializadas y un informe del Departamento de Comercio norteamericano sobre la «Economía digital». Esto no quiere decir, que la «Nueva Economía» no haya producido ya unos cuantos libros; pero sí quiere decir que el fenómeno se ha tratado, hasta ahora, más en el ámbito de la investigación económica y de las revistas especializadas, que en el de los libros de amplia tirada.

Para algunos, lo más importante sería la muy sustancial reducción en las expectativas de inflación, el nuevo entorno de estabilidad macroeconómica que se impuso a lo largo de los años noventa en, prácticamente, todos los países industrializados. Los años noventa pueden caracterizarse por el intenso ajuste fiscal (reducción en los déficit) realizado tanto en Europa como en Estados Unidos, un fenómeno que se produjo al mismo tiempo que se imponían políticas monetarias orientadas estrictamente a la estabilidad de preciosGavyn Davies, Goldman Sachs, «Global Economic Weekly», Issue nº 00/05, 2 nd . Febrero 2000, págs. 3-12. .

En Europa occidental, este nuevo entorno macroeconómico ha sido consecuencia del acuerdo político alcanzado para el logro de la Unión Económica y Monetaria, acuerdo al que se añadió, en 1996, un Pacto para la Estabilidad, cuyo objetivo era comprometer a los participantes en la Unión Monetaria en el control de los déficit públicos. En los Estados Unidos, el ajuste fiscal logrado en los noventa ha sido la consecuencia del triunfo de las ideas de ortodoxia fiscal lanzadas a partir de la llegada a la presidencia de Reagan, aunque, paradójicamente, han sido los demócratas, dos decenios después, los que han culminado la tarea propuesta desde el lado republicano a comienzo de los ochenta.

Junto al impacto de ese nuevo marco de estabilidad de precios y de reducción o eliminación del déficit, otros factores han podido influir para contener los procesos inflacionistas que podían temerse a la vista del intenso crecimiento de la economía. Por ejemplo, la desregulación en una serie de industrias, el impacto de la globalización –la disponibilidad de una amplísima oferta de bienes que incorporan tecnologías simples procedentes de países en desarrollo, a precios muy reducidos– y de la aplicación masiva de la informática, entre otros. La combinación de estabilidad macroeconómica y de estos otros factores ha podido influir, a su vez, en la estabilidad de los beneficios de las empresas, y esta estabilidad ha podido ser determinante en el mantenimiento de los procesos de inversión y en el incremento de la productividad (para los que sostienen que tal incremento se ha dado realmente). Finalmente, todo ello explicaría el comportamiento fuertemente alcista de los precios de los activos y el boom bursátil de los años noventa, que ha sido el más largo del siglo XX .

Pero, sin negar que la reducción en los déficit públicos y en la inflación han podido contribuir a reducir la variabilidad en el crecimiento del PIB, en los precios y en los tipos de interés, lo que, a su vez, ha podido impulsar la inversión y la productividad, y sin negar que la globalización ha podido influir asimismo de forma positiva en el boom de la economía norteamericana, los economistas han intentado precisar un poco más el contenido de estas explicaciones, y para ello han centrado su atención en 1) la relación entre empleo e inflación, y 2) en la evolución de la productividad.

LA RELACIÓN ENTRE EMPLEO E INFLACIÓN

Primero, conviene, quizá, aclarar que durante bastantes decenios, los economistas han manejado un instrumento denominado «curvas de Phillips», propuesto por primera vez a finales de los años cincuenta, y que relaciona, para cada economía, la evolución del empleo y la evolución de los precios: la curva de Phillips indica, sencillamente, que existe una relación directa entre empleo e inflación: cuanto más empleo hay, más tenso es el mercado de trabajo, más fuerte es la actividad (demanda global) de la economía y más probable es que se desencadenen procesos inflacionistas. De estas «curvas de Phillips» surge otro instrumento también muy utilizado durante decenios, la «tasa de paro no aceleradora de la inflación» (NAIRU, por su acrónimo en inglés: «Non Accelerating Inflation Rate of Unemployment») que es, simplemente, otra forma de decir lo mismo: para cada economía existe una tasa mínima de desempleo (una tasa máxima de empleo) que, si se rebasa, tiende a generar tensiones salariales y a favorecer la inflación. Naturalmente, estas tasas NAIRU no son permanentes; pueden variar lentamente y ser distintas en diferentes países. La relación implícita en las curvas de Phillips, bien en su formulación inicial, bien en la formulación sobre «la tasa de paro no aceleradora de la inflación», ha estado presente en la conducción de la política económica de muchos países durante los últimos decenios.

Lo ocurrido en la economía americana durante los años noventa parece indicar que esa tasa, fuera cual fuera a comienzos de los noventa, es ahora más baja. Es decir, los Estados Unidos pueden tener ahora una tasa de empleo más alta que antes, sin que ello dé lugar a la aparición de procesos inflacionistas. Esta afirmación plantea dos preguntas: primero, ¿realmente se ha producido esta caída en la tasa NAIRU?; segundo, si se ha producido, ¿a qué se ha debido?

En 1998, Paul KrugmanP. Krugman, «La falsedad de la nueva economía», Política Exterior, nº 65, septiembre-octubre 1998, págs. 153-169. , tratando de explicar el milagro económico americano de los años 95-99, señalaba varios factores que podían dar una explicación. Por ejemplo, la fortaleza del dólar y la crisis asiática explicaban unos bajos precios de importación; el desplazamiento en muchas empresas americanas al uso de seguros médicos contratados tenía un importante impacto de contención de costes laborales, un efecto inducido igualmente por el debilitamiento de los sindicatos y un mercado laboral más flexible y más competitivo, debido a la creciente importancia de los servicios de las empresas de trabajo temporal. Krugman aceptaba en 1998 que la tasa NAIRU, que él situaba entre 5 y 5,5% de la población activa a comienzos de los noventa, podía haber caído hasta un punto, es decir, hasta el 4,5%.

Por su parte, Robert J. GordonRobert J. Gordon, «Foundations of the Goldilocks Economy: Supply Shocks and the TimeVarying NAIRU», Brookings Papers on Economic Activity, nº 2, 1998, págs. 297-345. señalaba en 1998 que hay tres explicaciones para entender lo ocurrido con la tasa NAIRU norteamericana: atribuir la caída en esa tasa a los efectos de la «Nueva Economía» (sea lo que sea lo que haya dentro de esa etiqueta que, se supone, es algo relacionado con la tecnología); sostener que, en realidad, la tasa NAIRU nunca ha existido, es decir, que la relación de Phillips nunca ha sido más que aparente; y tercero, que la relación de Phillips sí que existe y que la tasa NAIRU realmente ha caído. Y si aceptamos esto último, señala Gordon, hay, a su vez, tres posibles explicaciones: a) que el descenso en la tasa NAIRU puede atribuirse a factores distintos de los que, directamente, han podido influir –o han influido realmente– en la contención de salarios y precios; b) que se explica por factores que han contenido el alza de los salarios reales; c) que se explica por factores que han contenido el alza de precios.

Gordon considera insuficiente una explicación que se refiera vagamente, a la revolución en la tecnología de la información, los procesos de inversión, etc. Para Gordon, la caída en la tasa NAIRU puede explicarse (no enteramente, pero sí en gran parte), por el impacto sobre precios y costes de factores bien identificables: cambios en los precios reales de alimentos y energía y en los precios de las importaciones, debidos en parte a la fortaleza del dólar; una auténtica deflación en los precios de los equipos informáticos; una clara contención en los costes laborales derivada de la traslación de los gastos de atención médica de las empresas a seguros externos; y, finalmente, un factor contable: a partir de 1995, se han llevado a cabo varias revisiones en la Contabilidad Nacional americana, en particular, se han recalculado los índices de precios al consumo y los deflactores del PIB; ello ha llevado a una revisión al alza en las magnitudes del PIB real, y ello, a su vez, por definición, ha incrementado la productividad calculada de la economía americana para el período 95-99.

Según Gordon, lo que, en definitiva, significa esto es que se ha dado, realmente, una caída en la tasa NAIRU, y la explicación está en un conjunto de lo que los economistas llaman «shocks de oferta», que han contribuido a contener la inflación, a pesar del fuerte crecimiento del PIB y de una evolución alcista en los salarios reales.

Pero, aún hay más explicaciones acerca de la caída en la tasa NAIRU para aquellos que creen en su existencia. Otros dos economistas, Katz y KruegerLawrence F. Katz y Alan B. Krueger, «The High-Pressure US Labor Market of the 1990's», Brookings Papers on Economic Activities, 1999, págs. 1-87. , han puesto su énfasis en los cambios demográficos que han tendido a reducir la tasa de desempleo, señalando el relativo envejecimiento de la población laboral, el incremento en la población carcelaria norteamericana, que ha sido realmente espectacular en los últimos diez añosLa población carcelaria se resta de la población activa y de la población ocupada (para los presos que estaban ocupados) o desempleada (para los que estaban en paro). Si suponemos que el grueso de la población carcelaria estaba contabilizada como activa, pero no estaba empleada, su aumento lleva, por definición, a una caída en la tasa de desempleo. y cambios en el mercado de trabajo (especialmente, el mayor papel de los intermediarios profesionales en ese mercado, algo ya señalado por Krugman en 1998) para explicar por qué la economía ha podido reducir hasta el 4% su tasa de desempleo sin desatar la inflación. Los cambios en el mercado de trabajo habrían significado, en definitiva, mayor eficiencia y mayor competencia entre los trabajadores, que, igual que ocurre con las empresas en condiciones de mayor competencia, no habrían podido elevar sus precios.

EL ENIGMA DE LA PRODUCTIVIDAD

El segundo conjunto de explicaciones acerca del milagro americano se centra en la evolución de la productividad.

En 1998, Krugman ya avanzó sus dudas acerca del optimismo entonces existente sobre la evolución de la productividad en la economía de los Estados Unidos. Sin pronunciarse de forma contundente, vino a decir que los datos no avalaban la explicación según la cual habría sido el incremento de la productividad lo que explicaría el mantenimiento de la estabilidad de precios en circunstancias de pleno empleo y con alta tasa de crecimiento. En realidad, la crítica de Krugman iba mucho más allá, era una crítica sobre las opiniones optimistas acerca de la existencia de una «Nueva Economía»P. Krugman, art. cit, pág. 164. :

«¿Qué queda entonces de la Nueva Economía? Hemos tenido una racha favorable en el ciclo económico, ayudado por algunos factores temporales que han contribuido a conservar baja la inflación, y probablemente también por cambios en el mercado laboral que han reducido el poder reivindicativo de los trabajadores y por consiguiente han permitido un mayor empleo sin incrementar los salarios. La nueva economía, en una palabra, parece lo mismo que la vieja economía. Tiene aproximadamente un índice igual de crecimiento a largo plazo, pero puede funcionar con un paro ligeramente menor. Las cosas podrían ser peores, pero nada fundamental ha cambiado: la cantidad de buenas noticias no es suficiente para justificar la triunfante retórica que se oye tan a menudo».

Después de Krugman, Robert J. Gordon concluyó, en 1999Robert J. Gordon, Has the «New Economy» Rendered the Productivity Slowdown Obsolate? Northwestern University and NBER, Revised version, 14 de junio de 1999. , en lo que parece el mejor estudio disponible hasta la fecha sobre la materia, que todo el incremento de la productividad que, aparentemente, se ha dado en la segunda mitad de los años noventa en la economía norteamericana se explica por tres factores que en realidad, significan que no ha habido tal incremento, que no ha habido la transformación que algunos daban por supuesta. Estos factores son: 1) el primero es solamente contable: se han revisado los índices de precios que se utilizan para convertir el PIB nominal en PIB real, con el resultado de que los nuevos índices muestran un crecimiento menor de los precios y, por consiguiente, se registra un incremento mayor en el PIB real, que, por definición, lleva a mayor productividad por persona empleada; 2) la respuesta normal de la productividad de cualquier economía cuando el producto crece muy rápidamente, lo que en la jerga de la profesión se denomina «el comportamiento normal procíclico de la productividad»; y 3) finalmente, un incremento fuerte de la productividad –aquí, sí– en el sector productor de computadoras. Según Gordon, estos factores explican, prácticamente, la totalidad de los incrementos registrados en la productividad de la economía americana entre 1995 y 1999.

Si esto es así, y no parece haber por el momento explicaciones mejores ni en sentido conceptual, ni en sentido econométrico, no hay razones para pensar que se haya producido una transformación cualitativa fundamental en la economía USA. Pero, entonces, parece justificado preguntarse dónde están las mejoras de productividad que –resulta razonable suponer– han tenido que embutirse en el sistema económico norteamericano tras varios años de fuertes inversiones en equipos informáticos y equipo capital en general. Si la productividad que podemos medir se ha incrementado sólo, o casi sólo, por cambios contables, eso también puede significar que nuestros instrumentos de medición no son capaces de registrar el impacto sobre la productividad de este ciclo fuertemente inversor y de la masiva aplicación de la informática a muchas ramas de la producción y de los servicios.

Gordon señala que, aparte de este, hay otros puzzles en la situación norteamericana. Por ejemplo, el desempleo ha caído bastante más de lo que ha aumentado la utilización de la capacidad, pero el uso de la capacidad se calcula sólo para el sector de manufacturas, no para el sector de servicios. Aquí nos enfrentamos con un problema que no está resuelto y nadie sabe si podrá resolverse: que la Contabilidad Nacional capture para el sector servicios las mismas magnitudes que para el sector de manufacturas. Por ejemplo, ¿cómo calcular las variaciones en la capacidad utilizada en servicios? Nadie sabe cómo hacer esto.

Así, dice Gordon R. Gordon, art. cit. en nota 4, pág. 329. , «visto en perspectiva, entre 1993 y 1998 la economía se benefició de un empujón potente e interactivo en el sentido de la desaceleración de la inflación, un empujón que proviene de la apreciación del dólar, la caída en los precios reales del petróleo, una tasa acelerada de caída en los precios de las computadoras, una reducción en la tasa de inflación de los cuidados médicos en comparación con la tasa de inflación general y una serie de mejoras en la medición de los índices oficiales de precios. No es una conjetura irrazonable suponer que cada uno de estos shocks benéficos fue temporal, lo que significaría que la inflación en el futuro dependerá mucho más del gap entre la tasa efectiva de desempleo y la tasa NAIRU de lo que ha sido últimamente el caso».

Hagamos un resumen de lo que tenemos hasta ahora.

La economía de los Estados Unidos se ha comportado en los años noventa, pero, sobre todo, en la segunda mitad de ese decenio, con una combinación de pleno empleo y ausencia de inflación que la profesión económica consideraba imposible.

En los términos de la jerga de los economistas, lo anterior puede expresarse del modo siguiente: algo ha ocurrido que ha hecho que la «tasa de paro no aceleradora de la inflación» en los Estados Unidos se haya reducido de forma sustancial. Primero, se puede intentar calcular esta reducción, y segundo, se debe intentar explicar a qué se debe.

Los estudios disponibles sobre la cuestión parecen confirmar que, efectivamente, si la tasa NAIRU estaba en el entorno de 5,5% de la población activa hace diez años, ahora puede estar entre el 3,5 y el 4,5%.

El incremento de la productividad que se ha registrado en los últimos cinco años se debe, casi exclusivamente, a un nuevo cálculo de los deflactores (índices) de precios y a una nueva medición, que ha dado más PIB real para el período 1995-99 y, por ello, más productividad por persona empleada; se trata, sobre todo, de una productividad mayor derivada del nuevo cálculo.

La contención de precios en situación de pleno empleo se explica por un conjunto de shocks de oferta que están identificados. Estos «shocks de oferta» son: la contención en los precios reales de alimentos y energía, dentro de los Estados Unidos; la contención en los precios de importación, debido a la fortaleza del dólar; la caída en los precios reales de los computadores; y la contención de costes laborales debido, sobre todo, a la externalización en las empresas de los costes de cuidados médicos.

Según otras explicaciones, y sin descartar los factores que acabamos de mencionar, también habrían influido los cambios registrados en el mercado laboral norteamericano, en particular, algo a lo que se da bastante importancia: el papel creciente de los intermediarios en el mercado laboral, es decir, el número creciente de vacantes laborales cubiertas con empresas de trabajo temporal (1/7 aproximadamente de todas las vacantes durante los últimos años).

¿Qué queda, después de todo esto, de la «Nueva Economía»? Aunque los estudios que hemos citado de Krugman, Gordon y otros contribuyen, seguramente, a poner las cosas en una perspectiva más realista, subsiste, de todas formas, la impresión de que algo ha ocurrido realmente en la economía americana. La contribución de las nuevas tecnologías y de la aplicación masiva de la informática puede estar teniendo, o haber tenido, un impacto en la actividad y en el empleo mayor o diferente del que las estadísticas pueden mostrar. En una economía dominada por los servicios, para los que la nueva tecnología de la información puede ser decisiva, no es posible dejar de lado el hecho de que los instrumentos de la Contabilidad Nacional actual son claramente inadecuados para reflejar la realidad (hace un momento nos referimos a la dificultad de encontrar una medida aceptable de «capacidad utilizada» para los servicios análoga a la que se usa para la industria).

EL MISTERIOSO FACTOR X DE ALAN GREENSPAN

El presidente de la Reserva Federal viene insistiendo desde hace algún tiempo en lo que Gordon ha denominado «el misterioso factor X del presidente Alan Greenspan»Robert J. Gordon, art. cit. en nota 4, pág. 299. . La visión de Greenspan es más optimista y su afirmación de fondo parece ser: algo está ocurriendo y, sencillamente, no sabemos medirlo.

En una conferencia pronunciada en el Economic Club de Nueva York el pasado 13 de eneroA. Greenspan, Remarks… before the Economic Club of New York, Nueva York, 13 de enero de 2000, BIS, Basle, 17-1-2000. , el presidente de la Reserva Federal insistía en que los cambios registrados en la tecnología de la información significan, esencialmente, una reducción de las incertidumbres que rodean a cualquier proceso manufacturero, a cualquier proceso de distribución y a cualquier proceso de prestación de bienes o servicios. Para Greenspan, las mejoras en la tecnología de la información, significan, esencialmente, una reducción de esas incertidumbres y de los recursos dedicados por las empresas, sea cual sea el nivel de actividad, al control de las mismas y a la gestión de los stocks físicos necesarios en los diferentes procesos productivos.

Para Greenspan, el crecimiento de la productividad en el sector de alta tecnología (y esto parece que nadie lo discute) ha tenido como consecuencia un descenso muy importante en los precios de los equipos que la incorporan; ello ha llevado a fuertes flujos de inversión en esos equipos, lo que, a su vez, ha tenido como consecuencia un boom de inversión, sin el cual la economía USA no podría haber mantenido su crecimiento acelerado desde 1995. Greenspan subraya que, medido como porcentaje del PIB y en términos nominales, la inversión total de las empresas norteamericanas en bienes de capital y en programas informáticos (capitalización del coste del software) ha alcanzado a finales de los noventa las tasas más altas desde la II Guerra Mundial. Y también sostiene que este boom de inversión en alta tecnología ha generado un «círculo virtuoso», en el cual más inversión genera más productividad (que, aparentemente, no sabemos medir), más productividad genera reducción de costes y precios, lo que lleva a una contención de la inflación incluso en situaciones de tensión de demanda, lo que permite la continuación del proceso de crecimiento equilibrado (pleno empleo sin inflación).

Greenspan tampoco excluye el impacto de otros factores sobre este círculo virtuoso: la apertura a los mercados internacionales del antiguo bloque soviético; la reorientación del gasto en Estados Unidos, consecuencia del fin de la guerra fría; las medidas de desregulación que han eliminado cuellos de botella en diferentes sectores; y, desde luego, el hecho de que, de 1997 a 1999, hemos dispuesto de petróleo a precios históricamente muy bajos, los más bajos en un cuarto de siglo. Finalmente, también hay que considerar las condiciones especiales del mercado de trabajo en Estados Unidos, sin duda más flexible y eficiente –al menos, en términos puramente económicos– que el europeo.

Todo lo anterior, del lado de la inversión. Pero la economía norteamericana se ha caracterizado también en los últimos años por un incremento muy fuerte en el gasto de consumo. Hay una relación directa, sin duda, entre el efecto riqueza, originado en el larguísimo ciclo alcista en la Bolsa norteamericana (el más largo del siglo XX ), y esa explosión en el gasto de consumo, junto con el mantenimiento del ahorro de las familias en tasas extremadamente bajas. Greenspan subraya queA. Greenspan, ídem, pág. 5. «si las ganancias de capital no hubieran tenido un efecto evidente sobre el consumo o la inversión, su existencia no habría influido ni en el output, ni en el empleo. El valor cada vez más alto de los activos de las familias (sus acciones en Bolsa) habría quedado compensado con el mayor valor de mercado de los activos productivos, lo que no hubiera afectado al valor de los balances, ni a los flujos de bienes y servicios, ni a la fuerte demanda, ni a los mercados laborales […] La percepción cada vez más fuerte acerca de la riqueza ha tenido el efecto de incrementar el consumo, ha rebajado el ahorro y ha estimulado la inversión de capital».

LA SOLUCIÓN… YA VEREMOS

Las cuestiones que plantea el debate sobre la «Nueva Economía» pertenecen a diferentes planos; algunas son muy importantes.

Quizás, la primera de ellas es la que se refiere al potencial de crecimiento de las economías más avanzadas, aquellas con capacidad para incorporar y absorber un gran volumen de inversión en informática y en nuevas tecnologías. ¿Se ha ampliado de modo permanente la capacidad de crecimiento, lo que los economistas llaman el «producto potencial» de esas economías? Si la respuesta es positiva, ello podría afectar, por ejemplo, a la conducción de la política monetaria, en el sentido de que permitiría políticas monetarias más relajadas –en relación con los antiguos patrones– sin, por ello, afectar a la estabilidad de precios. En un sentido, este es todo el debate que ha habido entre los mercados y la Reserva Federal durante los últimos años. Una cuestión técnica muy importante es la que afecta a la calidad de la estadística económica básica, a la calidad de la Contabilidad Nacional.

Una de las conclusiones del debate reciente –no es, en absoluto, una conclusión nueva, pero ahora se ha reforzado– es lo difícil que resulta medir la evolución de la productividad, en especial en los servicios, para los que también es muy difícil medir la capacidad utilizada, algo que, con mejor o peor fortuna, se hace respecto a las manufacturas desde hace muchos años y que ayuda a entender la relación entre actividad e inflación. Para economías en que los servicios aportan una proporción del PIB superior a la industria estas dificultades estadísticas no son meros detalles técnicos, sino cuestiones de importancia para la política económica.

También se plantea la comparación entre Europa y Estados Unidos. Si el fenómeno de la «Nueva Economía» se origina a partir de un impulso tecnológico e institucional que lleva a rebajar de modo permanente la tasa NAIRU, es lógico que nos preguntemos por qué eso no ocurre, u ocurre mucho menos, en Europa. Con ello, se plantea la discusión sobre las restricciones legales e institucionales que afectan a la economía uropea comparada con la norteamericana.

Si los pesimistas –o realistas– tienen razón, cuando calculemos la figura de puntos del gráfico 2 para, por ejemplo, el período de 2000 al 2005, esa nueva figura deberá ser mucho más parecida a la línea de trazado continuo que refleja las relaciones existentes entre esas magnitudes en la media de los últimos cuarenta años. Si no tienen razón, si Greenspan vuelve a estar en lo cierto y existe un «factor X» que significa, en realidad, que la economía norteamericana ha dado un salto en su capacidad productiva y en su productividad –sobre todo, en los servicios–, entonces cuando calculemos la figura de puntos para el período 2000 a 2005, debería seguir estando situada, más o menos, donde está para los años 1996-1999.

Durante los últimos meses, el presidente de la Reserva Federal ha insistido en que por profundos que hayan sido los cambios registrados en la capacidad de la economía norteamericana para crecer sin inflación, ni siquiera esos cambios la han liberado de las leyes de la oferta y la demanda; y que, en consecuencia, los riesgos de inflación no pueden haber desaparecido, como no han desaparecido los riesgos de que una corrección fuerte en la Bolsa acarree correcciones explosivas en las posiciones de riesgo de los diferentes agentes económicos y en los precios de los activos lo que, a su vez, podría desencadenar una recesión. Los datos de inflación en Estados Unidos, que se conocieron, como decíamos al principio, el pasado 14 de abril, y las caídas de Bolsa posteriores, han confirmado –quizás, antes de lo que Greenspan se temía– lo bien fundado de esta afirmación. El dilema en el que se han encontrado la Reserva Federal y su presidente desde hace un par de años es este: no terminar de modo injustificado con esta casi increíble fase de expansión y prosperidad pero, a la vez, no permitir que se desencadene un proceso inflacionista que acabaría, casi fatalmente, con una profunda recesión, que se desbordaría, por supuesto, más allá de las fronteras de Estados Unidos.

Es posible que algo nuevo haya ocurrido en la capacidad de crecimiento de la economía norteamericana; pero nadie sabe cuánto de nuevo hay, y cómo hay que tener en cuenta eso nuevo a la hora de diseñar y ejecutar la política económica. Así que, para estar más seguros, deberemos esperar algunos años. Y entonces quizá veamos lo ocurrido en los años noventa bajo una perspectiva distinta.

 

BIBLIOGRAFÍA

PAUL KRUGMAN , «La falsedad de la "nueva economía"», Política Exterior, 65, XII – septiembre/octubre 1998.

ROBERT J. GORDON , «Foundations of the Goldilocks Economy: Supply Shocks and the Time Varying NAIRU», Brookings Papers on Economic Activity, 2, 1998. – Has the «New Economy» Rendered the Productivity Slowdown Obsolete?, Northwestern University, 1999.

LAWRENCE F. KATZ (Harvard University) y ALAN B. KRUEGER (Princeton University), «The High-Pressure U.S. Labor Market of the 1990s», Brookings Papers on Economic Activity, 1999.

JACK E. TRIPLETT , «Economic Statistics, the New Economy, and the Productivity Slowdown», Business Economics, abril 1999, vol. 34, 40.2.

DANIEL E. SICHEL , «Computers and Aggregate Economic Growth: An Update», Business Economics, abril 1999, vol. 34, 40, 2.

GAVYN DAVIES , «The "New" Global Economy – Part I: The Story So Far», Goldman Sachs Global Economics, febrero 2000.

image_pdfCrear PDF de este artículo.

Ficha técnica

21 '
0

Compartir

También de interés.

Teoremas