HayCanal.com

Construir el futuro con el código abierto

Construir el futuro con el código abierto

Hace poco más de una década, Marc Andreessen dijo que el software se estaba comiendo el mundo. Hoy podemos actualizar de manera categórica su cita para que sea más precisa: El software se comió el mundo. El software se ha apoderado de nuestros negocios y de la forma de crear valor para los clientes.

Yo lo veo así: somos una fábrica de software y ayudamos a las empresas a convertirse en fábricas de software. Con estas capacidades, se puede construir el futuro que se desea. Se puede elegir dónde ejecutar las aplicaciones en función de las necesidades empresariales con la flexibilidad de la nube híbrida (basada en Linux y el código abierto). Encontrar la repetibilidad en los pipelines de producción de software para evitar errores humanos con una plataforma común como OpenShift. Se puede domar la complejidad de los sistemas distribuidos con la automatización mediante Ansible y eliminar el riesgo de la seguridad en las cadenas de suministro de software desde el desarrollo hasta la producción con herramientas como ACS.

El software es un negocio, y nadie podría estar en el negocio del software sin desarrolladores. La capacidad de pasar rápidamente del experimento a la producción es la seña de identidad de un equipo de desarrollo que sobresale. Esa capacidad es aún más importante cuando se trabaja con el edge.

Algunos de nuestros retos de sobrecarga de datos se parecen a los que hemos experimentado en el desarrollo de software, pero hoy estamos trabajando en un nuevo espacio, con mucha complejidad. En otras palabras, mientras el software se comía el mundo, la inteligencia artificial se está comiendo el software.

Esto sucede porque ahora hay mucho software que interactúa con el mundo. Al igual que las empresas se diferencian con el software, están buscando ideas a partir de los datos. Las empresas quieren estar más orientadas a los datos y están aprovechando los datos y la IA para conseguirlo; así es como podemos permitir a nuestra gente tomar decisiones más inteligentes, como he mencionado al principio. No solo podemos hacer un mejor uso de los datos para tomar decisiones más informadas, sino que también podemos ofrecer mejores experiencias a los clientes incorporando inteligencia en los productos y servicios que utilizan nuestros clientes.

Red Hat tenía los mismos retos, y mientras trabajábamos para gestionar nuestras propias necesidades -o satisfacer nuestros deseos- descubrimos que no estábamos solos. Fieles a nuestras raíces, sacamos nuestro trabajo a la luz, creando un proyecto comunitario. Y allí pudimos compartir lo que habíamos aprendido sobre la ciencia de los datos y el machine learning con clientes y partners. Ese proyecto es Open Data Hub, un plan para construir una plataforma de IA como servicio.

Sirve de base para la plataforma de ciencia de datos e IA que lanzamos el año pasado: Red Hat OpenShift Data Science. Y como hemos aprendido, la IA no es un esfuerzo que se hace una sola vez y se acaba. Se tiene un pipeline de desarrollo de software. ¿Acaso se tiene un pipeline de desarrollo de IA?

Si lo pensamos: el código fuente es análogo a los datos, y las aplicaciones desplegadas son análogas a los modelos de machine learning desplegados. La disciplina de pasar del código fuente a las pruebas y a la producción de software a escala es bien conocida. Pero con la IA, ¿se aplica esa misma disciplina desde el desarrollo hasta el despliegue? Y eso tiene que ocurrir a escala.

Si consideramos que una empresa media está formada por unos cuantos miles de aplicaciones, también estará formada por miles de modelos de machine learning. A medida que las decisiones se basan cada vez más en la IA/ML, queremos establecer la confianza en el modelo que toma esas decisiones para tener la seguridad de tomar medidas.

Parte de la construcción de esa confianza pasa por:

●      Colaboración: ayudar a construir el modelo

●      Transparencia: entender lo que se ha hecho con el modelo

●      Auditabilidad: ver qué cambios se hicieron en los modelos y el impacto que tuvieron esos cambios en los resultados.

Para los CIOs, hace tiempo que desapareció la tranquilidad que proporcionaban los centros de datos y los activos informáticos que permanecían a salvo dentro de las cuatro paredes de la sede central. La llegada de la nube, los procesadores ultrarrápidos, las mejoras en las redes inalámbricas y la difusión de operaciones remotas lejanas pero cruciales se han unido para asegurarse de ello. Pero las libertades técnicas de las que nos aprovechamos hoy en día no están exentas de desafíos. Aquí es donde creemos que el edge computing será transformador.

El edge computing es la capacidad de generar información a partir de los datos y de actuar sobre ellos localmente donde sea necesario. Los dispositivos inteligentes están ampliando los límites de los lugares en los que puede tener lugar la computación: en la tierra, en el espacio y en cualquier otro lugar en el que haya un beneficio para una empresa o, quizás, para la propia humanidad.

El edge computing puede tener lugar en o cerca de la ubicación física del usuario o de la fuente de datos, ya sea un todoterreno que circula a toda velocidad por la autopista, los sensores que controlan una tubería de gas natural en medio de la nada o a bordo de un satélite que orbita la Tierra.

Eso es híbrido, y eso es el futuro.

Con Red Hat, las cargas de trabajo pueden abarcar los entornos típicos de TI, desde los centros de datos hasta las nubes y el edge. Ofrecemos innovación de las comunidades de código abierto que proporciona consistencia con la que puede contar y la flexibilidad para elegir dónde y cómo construir e implementar de forma segura sus aplicaciones y modelos de ML.

Hablemos de seguridad. Hay muchos riesgos ahí fuera: Las vulnerabilidades de Apache log4j demostraron que las empresas tienen que ser conscientes de qué código abierto han desplegado y de cómo lo están gestionando activamente.

El código abierto está en casi el 99% de las bases de código auditadas. Ahora, pensándolo bien, creo que podemos decir que "el software de código abierto se comió el mundo". Pero esa ubicuidad lo convierte en un objetivo: en 2021, hubo un aumento del 650% interanual en los ataques a la cadena de suministro de software dirigidos a explotar las debilidades de la comunidad, de los ecosistemas de código abierto.

Sin duda, esto es lo más importante para las empresas, como Red Hat, que producen software. Y, por supuesto, para todas las demás empresas: mientras todos continúan construyendo negocio y diferenciación a través del software. Está en la cima de las agendas de los gobiernos de todo el mundo, especialmente con el continuo aumento del ransomware y protest-ware. Debemos asegurarnos de que la integridad de las actualizaciones de software está protegida y verificada a lo largo de todo el ciclo de vida del desarrollo.

En otras palabras, la clave para el uso empresarial del código abierto es asegurarse de que se conoce lo que se utiliza, dónde se utiliza y cómo se utiliza. Por supuesto, Red Hat se ocupa de la procedencia y la seguridad del código abierto que ofrecemos en nuestros productos. También estamos construyendo y entregando herramientas para todas aquellas empresas que hacen cosas por su cuenta.

Chris Wright, Senior Vice President and Chief Technology Officer, Red Hat


Noticias que marcan tendencia en el sector IT

Últimas Noticias

Nombramientos