La electrónica siempre ha sido un caldo de cultivo para los ciclos virtuales. En la década de 1980, las unidades de disco de alta capacidad permitieron a las empresas de software como Microsoft crear aplicaciones más potentes que requerían más almacenamiento. Esto permite aplicaciones más potentes que requieren aún más almacenamiento.
La electrónica siempre ha sido un caldo de cultivo para los ciclos virtuales. En la década de 1980, las unidades de disco de alta capacidad permitieron a las empresas de software como Microsoft crear aplicaciones más potentes que requerían más almacenamiento. Esto permite aplicaciones más potentes que requieren aún más almacenamiento. A medida que Intel introdujo más procesamiento en sus microprocesadores, las aplicaciones de computación intensiva, como gráficos y video, parecieron llenar el margen de procesamiento. Y, por supuesto, está Internet, y todos los ciclos virtuales hasta ahora parecen pequeños.
Por lo tanto, no debería sorprender que los centros de datos (y, más recientemente, la computación en la nube) se estén beneficiando de la tecnología de hardware en todos los niveles dentro del centro de datos, impulsando la innovación. Con la llegada de la computación en la nube, el procesamiento más rápido, la recuperación de datos más rápida, la mayor capacidad de almacenamiento y la comunicación más rápida entre máquinas son más importantes que nunca.
El término “computación en la nube” se refiere a las “nubes” amorfas que se muestran en los libros de texto y las pizarras que conforman la compleja arquitectura informática y de comunicaciones detrás de Internet. La computación en la nube tuvo un comienzo falso en la década de 1990. Fue cuando algunos proveedores anunciaron “clientes ligeros”. Esta era esencialmente una PC degradada que dependía de servicios de red remotos. Desafortunadamente, la infraestructura era lenta e incapaz de mantenerse al día con la tarea. Esta vez, el enfoque ha cambiado ya que la comunicación y el procesamiento de la red son mucho más rápidos.
Mientras que los centros de datos tradicionales suelen tener servidores, recursos informáticos, aplicaciones y almacenamiento prácticamente en la misma ubicación física, la informática en la nube son máquinas virtuales en las que el paralelismo y la redundancia son primordiales. Diferentes subprocesos de una sola aplicación pueden ejecutarse en múltiples computadoras en todo el mundo, recuperar información de múltiples ubicaciones de almacenamiento conectado a la red (NAS) y compartir recursos de servidor y canales de comunicación geográficamente diversos.
La proliferación de comunicaciones de fibra óptica de larga distancia ha hecho realidad la computación en la nube. Pero los mismos cuellos de botella de rendimiento que han afectado a los ingenieros durante décadas (interconexiones entre subsistemas e interfaces entre chips) aún existen. Intel encendió un rayo de esperanza en septiembre de 2013 al anunciar una interconexión óptica de chip a chip basada en “fotónica de silicio”, en la que los láseres crean el enlace de la interfaz. El primer prototipo público alcanzará velocidades de datos de 100 Gigabits por segundo. Eso es aproximadamente un orden de magnitud más rápido que los cables de datos PCIe de cobre que conectan servidores en un rack. La tecnología Silicon Photonics de Intel no se integrará en las placas base de los servidores durante varios años. Mientras tanto, los ingenieros que diseñan productos para centros de datos necesitan obtener la mayor velocidad posible de las interconexiones de cobre.
tecnología de centro de datos
Con un tamaño de mercado global de $52.8 mil millones en 2012, según la firma de investigación Gartner, hay mucho espacio para la innovación de hardware en la porción de servidores del mercado de centros de datos. Llevamos más de dos meses sin presentar una nueva familia de servidores más potente porque ajustar el rendimiento del hardware puede darnos una ventaja significativa en el mercado. Cada nuevo centro de datos suele tener más de 100 000 servidores implementados, por lo que la ventaja de estar a la cabeza es significativa. En menor medida, las nuevas tecnologías de almacenamiento y comunicación también contribuyen al ciclo virtual.
Los microprocesadores son fundamentales para el diseño del servidor y, por lo general, representan la mayor parte del costo y el consumo de energía de la placa base. Hacer más con menos es la respuesta obvia. El desafío del diseño sigue siendo cómo implementar multiprocesamiento y subprocesos múltiples más eficientes. Recientemente, para los chips, el término más eficiente significa no solo más MIP por chip, sino también más MIP por vatio. La técnica más común para implementar el multiprocesamiento es diseñar chips con múltiples núcleos de procesamiento integrados. Esto habilita el subprocesamiento múltiple del software, lo que permite que el servidor ejecute varios flujos de código simultáneamente. Sin ella, la computación en la nube probablemente no sería posible. Multithreading también reduce el consumo de energía. Además de las mejoras multi-core/multi-threading, el procesador ahora puede ejecutar instrucciones de 124 bits para un rendimiento significativamente mejorado.