DEFINIENDO UN CAMINO PRÁCTICO HACIA LA INTELIGENCIA ARTIFICIAL
Por Julio César Castrejón, Country Manager México de Pure Storage
Extraer información procesable de datos no procesados es fundamental para el éxito de prácticamente cualquier empresa u organización sin importar la industria, desde finanzas, salud, gobierno y manufactura. Los conjuntos de datos que se utilizan para obtener este conocimiento se están volviendo exponencialmente más grandes y se están creando más rápido. El ritmo de crecimiento de los datos solo continuará acelerándose.
Pure Storage evalúa el camino hacia la IA para las empresas del sector público y las organizaciones empresariales, identifica preguntas clave y opciones a considerar, y determina cómo acelerar la implementación y la gestión dentro de sus presupuestos existentes.
Reconociendo obstáculos hacia la IA
La IA es la próxima evolución de las iniciativas de big data y análisis de datos que han estado en juego en las organizaciones durante una década. ¿Qué impide que las empresas avancen en la adopción de IA? Se reduce a tres problemas principales:
- Una lucha por el "hágalo usted mismo" (bricolaje), construir una práctica de IA
- Encontrar el talento para construir y apoyar una práctica de IA
- Financiación de IA
A medida que las nuevas tecnologías ingresan al mercado, las empresas a menudo se ven atrapadas en la construcción de sus propias soluciones. Lo mismo vale para la IA.
Cuando el “hágalo usted mismo" es la única opción, las iniciativas de IA se detienen.
- Los usuarios de software se ven obligados a tomar código fuente abierto, a menudo con documentación limitada, y luego compilar y ajustar el código.
- Los usuarios de hardware pasan repetidamente meses investigando diferentes opciones y ejecutando pruebas de concepto (POC, por sus siglas en inglés) para ver cuál ofrece el mejor rendimiento. Incluso después de comprar el sistema, se requiere un mantenimiento constante.
- Cargas de trabajo lentas, incluso cuando todo esto está hecho, los usuarios encuentran que las cargas de trabajo son lentas. Esto se debe a que el sistema está construido con componentes heredados, que se combinan, creando cuellos de botella.
Al igual que la evolución de cualquier otra tecnología, la preocupación inicial a menudo se basa en tener una fuerza laboral con las habilidades y el talento para respaldar la TI. El nuevo concepto de IA todavía se centra en las redes neuronales, alimentando datos y ajustando continuamente los coeficientes para minimizar el margen de error. Por lo tanto, el proceso que la fuerza laboral ha llegado a comprender con el análisis temprano de datos es el mismo.
Colisión tecnológica con sincronización perfecta: infraestructuras de IA construidas específicamente
El dilema del "bricolaje" se vuelve obsoleto, gracias a una perfecta colisión de tecnología. Ahora es más práctico que teórico. ¿Qué pasó?
- Mejoras de hardware: la evolución del hardware en los últimos años ha cambiado drásticamente el volumen de datos que pueden procesarse y la velocidad a la que puede suceder. Gracias a las industrias de juegos e investigación, las GPU son ubicuas y las compañías como NVIDIA ahora crean GPU especialmente diseñadas para IA, que procesan datos 45 veces más rápido que las CPU tradicionales. La tecnología de almacenamiento moderna de los fabricantes, como Pure Storage, ahora admite IOP y velocidades extremadamente altas con NVMe. PCIe y NVLink ahora pueden transferir muchos GB por segundo para estas cargas de trabajo masivamente paralelas y concurrentes.
- Software: los primeros usuarios en la frontera con IA han desarrollado soluciones de software fáciles de usar diseñadas para redes neuronales. CUDA de NVIDIA, MXNet de Apache y Google Tensorflow-GPU son opciones de software robustas que hacen que la IA sea más fácil de ejecutar. Dataiku, que aprovecha estas tecnologías antes mencionadas, ha ido tan lejos como para hacer que la IA sea un ejercicio de clic y arrastre, accesible para cualquier nivel de usuario.
- Contenedorización: esta es una alternativa a la virtualización completa de la máquina que implica encapsular una aplicación en un contenedor con su propio entorno operativo. La adopción de la Containerización permite a los arquitectos de TI aprovechar el software, la ciencia de datos y este enfoque estandarizado del algoritmo que ha catapultado a la industria hacia adelante. La contenedorización permite una rápida innovación y desarrollo de algoritmos, reduciendo drásticamente el tiempo desde el desarrollo inicial hasta el despliegue de producción.
¿Qué es una infraestructura lista para IA?
El aprendizaje profundo requiere más que computación rápida e interconexiones de alto ancho de banda. Al diseñar una plataforma completa para el aprendizaje a gran escala a gran escala, el objetivo del arquitecto del sistema es proporcionar un conjunto bien integrado, adaptable y escalable de capacidades de computación, almacenamiento, redes y software que funcionen perfectamente y brinden la máxima eficiencia y eficacia.
Al definir el almacenamiento para sistemas de aprendizaje profundo, los arquitectos deben considerar tres requisitos:
- Rendimiento misceláneo
- Capacidad escalable
- Fuerte resistencia
La resolución de problemas de costos
Aunque la infraestructura lista para IA se vuelve accesible y desplegable por todas las razones descritas, la pregunta permanece en el aire: ¿cómo pagar y cómo implementar este modelo rápidamente y escalar para el futuro? Aquí es donde la colisión perfecta de necesidades y tecnología continúa ganando impulso adicional con el advenimiento de los modelos modernos de adquisición que brindan una mayor flexibilidad financiera.
Así como la democratización de la informática de alto rendimiento ha catapultado la IA, el modelo como servicio ha simplificado la adquisición de esta tecnología. La adquisición de la infraestructura de inteligencia artificial como servicio permite a los usuarios administrarla y mantenerla con un presupuesto operativo mensual en lugar de invertir dólares CapEx por adelantado. Con el modelo "como servicio", los costos son más predecibles y las organizaciones pueden escalar a medida que cambian las necesidades.
Implementación de IA: evaluación del impacto operativo
A medida que la evaluación de la tecnología se vuelve más granular, la velocidad de los datos comienza a ocupar un lugar central. Los equipos más rápidos pueden iterar en un modelo, mejor. Y eso significa hacer todo lo posible para eliminar el tiempo de transferencia de datos y otras variables similares, de modo que los modelos puedan iterar dramáticamente más rápido.
Las necesidades de IA continuarán evolucionando y forzarán la infraestructura para mantener el ritmo de los esfuerzos de velocidad y rendimiento. En ese proceso de evaluación, las organizaciones deberían dar un gran valor a lo que satisfará sus necesidades actuales, pero también reconocer que superarlas es inevitable. La infraestructura de datos debe estar preparada para el futuro para ofrecer un alto rendimiento y aumentar la productividad de los científicos de datos, de lo contrario también quedará obsoleto.
Acerca de Pure Storage:
Pure Storage (NYSE: PSTG) ayuda a los innovadores a construir un mundo mejor con datos. Las soluciones de datos de Pure permiten a las compañías SaaS, proveedores de servicios en la nube y clientes del sector público y de la empresa entregar datos en tiempo real y seguros para impulsar su producción de misión crítica, DevOps y los entornos de análisis modernos en un entorno de múltiples nubes. Una de las empresas de TI empresariales de más rápido crecimiento en la historia, Pure Storage permite a los clientes adoptar rápidamente tecnologías de próxima generación, que incluyen inteligencia artificial y aprendizaje automático, para ayudar a maximizar el valor de sus datos para obtener una ventaja competitiva. Y con una calificación de satisfacción del cliente NPS certificada en el 1% de las empresas B2B, la lista de clientes en constante crecimiento de Pure se encuentra entre las más felices del mundo.