Hyperscale Computing

Los big data y la computación en la nube son temas de colérica actualidad. Conceptos como industria 4.0, Internet de las cosas y conducción autónoma están en boca de todos y por ello también el de Hyperscale Computing. Estas tecnologías requieren la conexión en red de gran cantidad de sensores, dispositivos y máquinas, lo que produce ingentes cantidades de datos que deben procesarse en tiempo real y transformarse de forma inmediata en acciones in situ. Estos volúmenes de datos medran a ritmo exponencial en todos y cada uno de los campos, tanto empresariales como privados, como en la ciencia y la investigación.

No siempre y en toda circunstancia es posible pronosticar qué capacidades se precisan de los servidores en todo instante. Para poder reaccionar a estas fluctuaciones, las capacidades de los servidores han de ser escalables. En esta guía de hyperscale computing, conseguirás más información sobre las estructuras físicas precisas para esto y de qué manera conectarlas mejor entre sí. Con estos conocimientos, vas a poder decidir qué soluciones de servidor específicas se amoldan mejor a tus necesidades.

¿Qué es hyperscale?

El término hyperscale puede traducirse al castellano como “escalabilidad desmesurada” y se emplea en el planeta de la informática para describir una forma concreta de organización de servidores.

Definición

Hyperscale: describe sistemas de computación en nube escalables en los que un elevado número de servidores están conectados en red. El número de servidores en empleo puede aumentarse o bien reducirse segúnsea preciso. Una red de este género puede administrar un enorme número de accesos, mas asimismo puede suministrar capacidades más bajas con cargas de trabajo menores.

La escalabilidad es la expresión del hecho de que la red se adapte a requisitos de desempeño fluctuantes. Los servidores de hyperscale son sistemas pequeños y fáciles que se amoldan con precisión a un objetivo específico. Para conseguir la escalabilidad, se conectan en red horizontalmente. En un caso así, horizontal describe el procedimiento de ir agregando capacidades de servidor auxiliares para acrecentar el desempeño de un sistema informático. En el empleo internacional, esto asimismo se conoce como scale-out.

hyperscale computing
Hyperscale computing

El procedimiento opuesto, el de la escalabilidad vertical (scale-up), describe la expansión de un sistema local existente. Para ello, se actualiza el sistema informático mejorando su hardware, o sea, agregando una memoria primordial más grande, una CPU más veloz, discos duros más potentes o bien tarjetas gráficas más veloces. En la práctica, ya antes de la escalada horizontal, se acostumbra a primero actualizar la tecnología in situ, hasta los límites de lo técnica o bien a nivel económico viable. Ahora, prácticamente siempre y en todo momento se debe dar el paso al hyperscale.

¿Cómo funciona el hyperscale?

En el hyperscale computing, muchos servidores simples se conectan horizontalmente en red. La palabra “simple” acá no se refiere a “primitivo”, sino más bien “fácil de conectar”. Así, hay menos protocolos, y los que hay son básicos, como, por poner un ejemplo, protocolos de red. Esto hace la comunicación entre servidores simple de dirigir.

El “direccionamiento” de los servidores requeridos en un instante determinado se realiza con un PC que administra las peticiones entrantes y las distribuye a las capacidades libres, el llamado balanceo de carga o bien cargar balancer. Este inspecciona continuamente exactamente en qué medida la capacidad a la que están marchando los servidores coincide con los volúmenes de datos a procesar y, si es preciso, activa o bien desactiva servidores auxiliares conforme cambia el número de peticiones.

Esquema del hyperscale computing

Cuando el volumen de datos es bajo, en el hyperscale computing se usan poquísimos servidores. El grado de empleo de cada servidor se inspecciona continuamente.

Distintos análisis han probado que, en las compañías, solo entre el veinticinco por ciento y el treinta por ciento de los datos libres se usan activamente. Entre los datos no usados están las copias de respaldo, los datos de clientes del servicio o bien de restauración, etcétera. Si el sistema no está bien organizado, estos datos son bastante difíciles de localizar cuando se precisan, y las copias de respaldo pueden tardar días.

El hyperscale computing facilita todo este proceso. La totalidad del hardware de computación, almacenaje y redes tiene un solo punto de contacto con las copias de respaldo, sistemas operativos y otros programas. La combinación de hardware y también instalaciones auxiliares deja ampliar el ambiente informático requerido en ese instante a miles y miles de servidores.

Conforme el volumen de datos aumenta, se agregan servidores horizontalmente de forma activa y automatizada para administrar la carga.
De esta manera, se evitan las copias innecesarias de datos y se facilita la aplicación de las políticas y los controles de seguridad en las compañías, lo que reduce los costos de personal y administrativos.

Ventajas e inconvenientes

La posibilidad de ampliar o bien reducir de forma fácil la capacidad de los servidores es una espada de doble filo.

Ventajas

  • No existen límites a la escalabilidad, lo que deja a las compañías estar preparadas de forma flexible para futuros volúmenes de datos y amoldarse al mercado de forma veloz y polivalente.
  • Las compañías deben tener estrategias en un largo plazo de cara al desarrollo de sus tecnologías de la información.
  • Los distribuidores de hyperscale computing garantizan un alto grado de confiabilidad por medio de soluciones redundantes.
  • Se evitan las dependencias a través de el empleo simultáneo de múltiples distribuidores.
  • La trasparencia y la alta eficacia en concepto de costos asisten a las compañías a lograr sus objetivos de forma perfecta.

Inconvenientes

  • Los datos se entregan sin control.
  • Las capacidades de almacenamiento/servidor recién añadidas pueden producir fallos.
  • Se crean mayores demandas en concepto de administración interna y responsabilidad de los empleados, si bien esto supone una ventaja en un largo plazo.
  • Los usuarios se vuelven dependientes del modelo de costes del distribuidor de hyperscale.
  • Cada distribuidor tiene su interfaz de usuario.

Para compensar los beneficios y también inconvenientes, las compañías pueden decantarse por una solución mixta y guardar grandes copias de respaldo o bien datos extrañamente empleados en la nube. De esta forma, los datos no ocupan la capacidad de almacenaje de un centro de datos interno. Por poner un ejemplo, se puede recurrir a esta alternativa para los datos personales de los usuarios de una tienda online, que se deben preguntar o bien suprimir a solicitud de los usuarios, o bien datos de empresa que deben guardarse.

¿Qué es un hyperscaler?

Un hyperscaler es el operador de un centro de datos que ofrece servicios de computación en nube escalables. Amazon fue la primera empresa en entrar en este mercado en la mitad de la primera década de siglo con Amazon Web Services (AWS). Se trata de una filial que ha ayudado a optimar el empleo de los propios centros de datos de Amazon en el mundo entero. Mientras tanto, AWS ofrece una extensa gama de servicios concretos. Su cuota de mercado es de más o menos el cuarenta por ciento.

Los otros 2 grandes actores en este mercado son Microsoft, con el servicio Azure y Google Cloud Platform (ambos surgieron en 2010). IBM asimismo es un esencial distribuidor de hyperscale computing. Puedes aprovechar estas posibilidades técnicas mediante asociados autorizados que cuentan con centros de datos en España. Para muchas empresas, esto es esencial, sobre todo desde la entrada en vigor de la nueva normativa de protección de datos.

Fuente del artículo: IONOS

¿Te ha resultado interesante? ¡Compártelo!
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp

Otras publicaciones relacionadas: