Buscar

Costo energético de la revolución informática

image_pdfCrear PDF de este artículo.

Querida Amalia:

Me dirijo a ti para llamar la atención sobre un aspecto de la revolución informática que suele pasar inadvertido a los no iniciados: me refiero a su costo energético. Sin ir más lejos, una conocida autoridad autonómica hubo de arrepentirse de la adquisición de un potente ordenador cuando descubrió que generaba una factura de electricidad de varios millones de pesetas mensuales. En efecto, los microprocesadores son cada día más rápidos, pero están llegando a un consumo de potencia tan grande que hace que peligre el aumento de velocidad en el futuro, y, por otra parte, Internet se ha hecho tan popular que el consumo global de potencia eléctrica de todos sus componentes juntos es ya una parte significativa de toda la potencia que producimos en la actualidad. El continuo crecimiento de la red hace pensar que la situación se agravará. Pero antes de explicar los dos aspectos del problema –el consumo energético de los microprocesadores y el de Internet– no están de más unas breves referencias históricas.

Los procesadores digitales están construidos mediante circuitos lógicos conectados entre sí. Los circuitos lógicos implementan operaciones de almacenamiento, procesamiento y transmisión de la información digital. Los primeros computadores usaban válvulas de vacío como base de los circuitos digitales. Ese fue el caso del primer computador electrónico digital, que se llamó ENIAC y que fue construido en el año 1946 en Filadelfia. Toda la estructura interna tenía 19.000 tubos de vacío, 1.500 relés y alrededor de 100.000 resistencias, bobinas y condensadores. Este hardware ocupaba 150 m 2.

En el año 1947 se inventa el transistor. Los transistores permiten hacer las mismas funciones lógicas que las válvulas, pero a mayor velocidad y con menores tamaños y consumo. En 1958, nos damos cuenta de que las conexiones entre transistores, así como las resistencias y los condensadores, se pueden integrar en el mismo chip de silicio, dando lugar a los circuitos integrados. Estos circuitos integrados se empiezan a usar en el diseño de procesadores a partir del año 1965. La evolución en su capacidad de integración, regida por la Ley de Moore, nos ha permitido duplicar el número de transistores en un chip cada dieciocho meses. En el año 1971, el primer microprocesador tenía 2.300 transistores, mientras que hoy en día los microprocesadores contienen casi 200 millones en un chip de 4 cm 2 de silicio.

Esta tendencia continuará al menos durante quince años más y nos permitirá construir chips con varios miles de millones de transistores. El aumento de capacidad de los computadores ha venido acompañado por un aumento de su velocidad. Podemos decir que cualquiera de los PC actuales tiene más potencia de cálculo que todos los procesadores que había sobre el planeta Tierra cuando la humanidad puso el primer pie en la Luna.

CONSUMO DE POTENCIA EN LOS PROCESADORES

Los procesadores consumen energía eléctrica tanto en la actividad de conmutación de cada circuito como en otras actividades internas, tales como la transmisión de señales de un circuito a otro. En los procesadores que deben ser alimentados por baterías, lo importante es optimizar el número de operaciones que pueden realizar con un consumo determinado. La evolución de las baterías o pilas para alimentar estos dispositivos ha sido positiva, pero con una tasa de crecimiento mucho menor que la del gasto asociado a las funciones que requerimos de ellas. Y está claro que nos gustaría no tener que recargarlas con frecuencias inferiores a la semana.

El problema es bien distinto para los procesadores en que se desea una máxima velocidad sin importar el coste energético. En los últimos años, los avances han sido espectaculares, de forma que la velocidad de ejecución de las aplicaciones ha crecido al mismo ritmo en que ha aumentado la capacidad de computación. Sin embargo, este objetivo tendrá problemas para seguir manteniéndose en un futuro próximo. El consumo de estos rapidísimos procesadores está llegando a unos valores tan altos que no puede seguir aumentando sin ocasionar serios problemas al chip.

La potencia que necesita un procesador cuando está realizando sus funciones lógicas guarda una relación directamente proporcional al número de circuitos o puertas lógicas que posee, junto a su nivel de actividad y a la frecuencia a la que funciona, e inversamente proporcional al cuadrado de la tensión de alimentación de los transistores. Esto hace que el Pentium IV consuma 55 vatios cuando su frecuencia de reloj es de 1,5 gigahercios, mientras que el mismo procesador a 3 gigahercios consumiría el doble, es decir, 110 vatios, lo que constituye un valor muy alto de consumo.

Las 19.000 válvulas del sistema ENIAC consumían una potencia de 200 kilovatios, por lo que se necesitaba aire acondicionado para enfriar los circuitos. Los transistores consumen mucho menos, tanto menos cuanto más pequeños, pero cada vez metemos más por unidad de superficie, en chips más grandes, y cada vez hacemos funcionar los procesadores a una frecuencia más alta. Desde el ENIAC hasta ahora, la potencia necesaria para efectuar una operación lógica ha disminuido por un factor aproximado a 10 elevado a 12 veces. El primer microprocesador, Intel-4004, del año 1971, tenía 2.300 transistores, que estaban alimentados a 12 voltios, el reloj era de 108 kilohercios y su consumo mucho menor de 1 vatio. En cambio, el Pentium-IV actual tiene 42 millones de transistores alimentados a 1,75 voltios, con un reloj de 2 gigahercios y un consumo superior a los 60 vatios, equivalente a casi 30 vatios por centímetro cuadrado.

Los chips se quemarían si no fuera porque se aplican técnicas sofisticadas de control de la actividad interna, así como disipadores de calor y encapsulados muy complejos y caros. Hace unos años que la densidad de potencia consumida por un chip es superior a la de un plato caliente y nos vamos acercando a densidades muy parecidas a las que puede haber en las barras generadoras de calor en las centrales nucleares. Por ejemplo, en la central nuclear de Ascó, la densidad es de 64 vatios por centímetro cuadrado, mientras que en algunos microprocesadores actuales la densidad de potencia es ya superior a los 30 vatios por centímetro cuadrado. Realmente, este es un problema claro y una restricción más en el diseño de los procesadores de altas prestaciones del futuro. En la actualidad, existe una intensa investigación orientada a proponer técnicas para reducir esa potencia consumida.

CONSUMO DE ENERGÍA ELÉCTRICA ASOCIADO A INTERNET

Como una de las reacciones al lanzamiento del satélite ruso Sputnik, los americanos implementaron el proyecto ARPAnet, cuyo objetivo era permitir el uso de los computadores de manera más interactiva. Fruto de esta iniciativa, en 1969 se estableció la primera conexión entre los computadores de UCLA, SRI en Berkeley, la Universidad de Santa Bárbara y la Universidad de Utah. En el año 1971 se envía el primer mensaje electrónico y en 1977 se puede decir que Internet ya es una realidad tecnológica. En 1991 se inventa el web en el CERN y a partir de ahí, Internet se hace global. Si el número de sus usuarios en 1995 era de 25 millones, a mediados de 1999 ascendía a 150 millones, y en agosto de 2001 eran más de 500 millones. El número de procesadores conectados a Internet será a corto plazo mucho mayor que el número de personas del planeta: pronto veremos cómo electrodomésticos, automóviles, teléfonos móviles, computadores que llevaremos asociados a nosotros y señalizadores de cualquier tipo estarán conectados a Internet.

En la actualidad, la mayoría de las conexiones a Internet se realizan mediante ordenadores personales que consumen electricidad. Internet está formada por una serie de nodos que reciben mensajes y los encaminan a otros nodos hasta que llegan al nodo de destino. Dichos nodos son cada vez más numerosos y el consumo de potencia que realizan es, como veremos, bastante elevado, ya que están siempre activos recibiendo y enviando mensajes, haciendo cálculos a partir de las peticiones y accediendo a sus grandes discos, que es donde tienen toda la información.

Es difícil calcular el costo energético de Internet, por lo que aquí nos limitaremos a realizar algunas aproximaciones. La primera dificultad está en establecer cuántas horas de promedio están conectados los PC a Internet, y, por lo tanto, su consumo, lo que obviamente afecta en gran medida a los números finales. Evaluando un poco por encima, si los 500 millones de los PC actuales estuvieran conectados a Internet durante todo el día, el consumo anual asociado a ellos sería de 4.000 teravatios/hora anuales, cifra superior a la potencia eléctrica producida en Estados Unidos (3.600 teravatios/hora).

En realidad, el número de los PC en Estados Unidos es de alrededor de 160 millones, un tercio del mundial, y gastarían en promedio más de 1.000 teravatios/hora, que sería equivalente a un 30% de la potencia total producida en dicho país. Sin embargo, bastaría suponer que el promedio es de tres horas de conexión al día para que las cifras anteriores se dividan casi por diez, lo que de todos modos supone la mitad de toda la potencia que producimos en España.

He comentado la importancia de los servidores en la red. Los procesadores que integran esos servidores son del tipo de los computadores personales, aunque lo importante en cuanto a su consumo energético es que sí que están siempre trabajando. Como ejemplo concreto de servidor, diremos que el de Amazon consume una potencia de un millón de vatios por hora, equivalente al 1 de la producción de una central nuclear como la de Vandellós. En general, estos servidores tienen las mismas características que los centros de datos de las empresas, cuyo consumo se suele estimar en un kilovatio por metro cuadrado. Así, un centro de datos de una empresa grande que suele tener unos 1.000 metros cuadrados, consume un millón de vatios por hora, cantidad equivalente a la que hemos dado para el servidor de Amazon o al consumo de mil hogares. En el mundo se estima que pueden existir alrededor de 20.000 de estos centros de datos empresariales, que consumirían 160 teravatios anuales, equivalentes a casi el 5% de la producción anual de electricidad en Estados Unidos. A título de ejemplo, digamos que la ciudad de Seattle ha experimentado durante los últimos veinticuatro meses un aumento del consumo eléctrico en un 25%, atribuible en gran parte a las necesidades de las empresas de tecnología informática con servidores de Internet.

Otro componente importante de consumo eléctrico es el costo de fabricar un PC, que se estima en un millón de vatios. La fabricación de cien millones de PC costaría el equivalente a 100 teravatios, o lo que es lo mismo, la mitad de la producción española de energía. Los circuitos o chips se producen en factorías sofisticadas y costosas. Por ejemplo, las últimas han costado más de 250.000 millones de pesetas. Estas factorías también son una fuente de consumo eléctrico. Se calcula que cada una de ellas puede consumir entre 10 y 15 millones de vatios por hora. Sólo en Estados Unidos existen unas trescientas, que necesitarían alrededor de 25 teravatios anuales, casi el 1% de toda la potencia eléctrica producida en el país.

Con los números y los comentarios anteriores, es arriesgado establecer con claridad cuáles son los costes de Internet en energía eléctrica, ya que los elementos que más consumen tienen un gasto que depende del número de horas de actividad diaria. Tampoco se ha evaluado que la energía eléctrica que los aparatos necesitan es de una pureza innecesaria en otras aplicaciones. Lo que sí es cierto es que la red actual de distribución de energía eléctrica se diseñó hace doscientos años, para dar energía a lámparas y motores. Hace veinte años se especulaba con que la red ya no necesitaba crecer más ni en cantidad ni en calidad de electricidad. Internet ha cambiado totalmente esta teoría. El funcionamiento de la mayoría de los dispositivos electrónicos es muy sensible a la calidad de la energía que los alimenta en lo que respecta a fluctuaciones del voltaje e intensidad, así como a cortes en la alimentación, lo que supone un gasto adicional de energía. A modo de resumen, podríamos estimar que en el país actualmente más informatizado (Estados Unidos), los ordenadores personales vienen a consumir el 3% de la energía eléctrica producida, mientras que los servidores pueden estar consumiendo alrededor de otro 3%, y la fabricación de chips y de PC, junto con otros aparatos para Internet, necesitan casi el 1%. Esto supone ya una ingente cantidad que puede crecer hasta niveles difícilmente viables si no se buscan soluciones tecnológicas apropiadas. Por terminar esta carta en tono optimista, confiemos en que se encuentren dichas soluciones. Al fin y al cabo, los frigoríficos de hoy en día consumen casi un tercio de lo que consumían hace treinta años, los fluorescentes consumen menos de la mitad que hace veinte años y la industria, en general, cada vez necesita menos potencia para producir lo mismo.

image_pdfCrear PDF de este artículo.

Ficha técnica

8 '
0

Compartir

También de interés.

La encrucijada del euro

Como anticipo del decimoquinto aniversario de la puesta en circulación del euro, Joseph Stiglitz…

Lo barato es caro

Nuestra madre, que por mor de su profesión de modista antes de casarse (algún…