Cisco optimiza su gama Silicon One para despliegues de IA y ML
En diciembre de 2019, Cisco anunció la gama de procesadores Silicon One, diseñada para transformar la economía de Internet e impulsar la innovación. La compañía ha presentado ahora la cuarta generación, compuesta por los dispositivos Cisco Silicon One G200 y Cisco Silicon One G202, que ya están probando algunos clientes.
El modelo G200 se centra específicamente en despliegues mejorados de inteligencia artificial / aprendizaje automático (IA/ML) basados en Ethernet. Es un dispositivo serializador-deserializador (SerDes) de 5 nm, 51,2 Tbps, 512 x 112 Gbps. Programable y de baja latencia con visibilidad y control avanzados, constituye una opción ideal para redes web scale.
Por su parte, Cisco Silicon One G202 aporta ventajas similares a los clientes que quieren utilizar los SerDes 50G para conectar la óptica al conmutador. Se trata de un dispositivo SerDes de 5 nm, 25,6 Tbps, 512 x 56 Gbps con las mismas características que el modelo G200 pero con la mitad de rendimiento.
Arquitectura unificada y eficiencia energética
Cisco Silicon One G200 y G202 ocupan una posición única en el sector con funciones avanzadas para optimizar el rendimiento real de las cargas de trabajo de IA/ML, a la vez que reducen el coste y la latencia de la red con innovaciones significativas.
Ambos ofrecen las ventajas de la arquitectura unificada de Cisco, facilitando distintos despliegues en las redes de los clientes, desde funciones de enrutamiento hasta redes frontales y redes back-end a escala web, minimizando significativamente los plazos y los costes operativos.
La gama Silicon One condensa más de 2.300 elementos en un solo chip, reduciendo lo que antes era un chasis de más de 2 metros de altura a una unidad de un solo rack del tamaño de una caja de pizza. Y el modelo G200 multiplica por dos la eficiencia energética y tiene una latencia dos veces menor en comparación con su predecesor, el dispositivo Cisco Silicon One G100 ya optimizado.
Los clientes de Silicon One pueden ahora desplegar menos dispositivos y más eficientes, disfrutar de nuevas topologías con SerDes de alcance ultra-largo, mejorar el rendimiento de AI/ML con innovadoras técnicas de equilibrio de carga y detección de fallos, y aprovechar en sus redes la telemetría avanzada.