F5 se asocia con Intel para ofrecer una solución de inferencia de IA segura y escalable

  • Actualidad
F5 LLM inteligencia artificial

La solución combina el kit de herramientas OpenVINO, que optimiza y acelera la inferencia del modelo de IA, con F5 NGINX Plus, que proporciona robustez a la gestión y seguridad del tráfico. “Asociarnos con Intel nos permite superar los límites de la implementación de IA”, afirma Kunal Anand, CTO de F5.

A medida que las organizaciones adoptan la IA para impulsar aplicaciones y flujos de trabajo inteligentes, la inferencia de IA eficiente y segura se vuelve fundamental. Para abordar esta necesidad, F5 anuncia una nueva solución conjunta con Intel, que combina la seguridad y la gestión del tráfico de NGINX Plus de F5 con la optimización y el rendimiento del kit de herramientas de distribución OpenVINO y las unidades de procesamiento de infraestructura (IPU) de Intel, con el fin de ofrecer protección, escalabilidad y rendimiento para la inferencia de IA avanzada.

Inferencia de IA avanzada

El kit de herramientas OpenVINO simplifica la optimización de modelos desde casi cualquier framework para permitir un enfoque de escritura única e implementación en cualquier lugar. Este kit de herramientas es idóneo para los desarrolladores que buscan crear soluciones de IA escalables y eficientes con cambios mínimos en el código.

F5 NGINX Plus mejora la seguridad y la fiabilidad de estos modelos de IA. Al actuar como un proxy inverso, NGINX Plus administra el tráfico, garantiza una alta disponibilidad y proporciona controles de estado activos. También facilita la terminación SSL y el cifrado mTLS, lo que protege las comunicaciones entre las aplicaciones y los modelos de IA sin comprometer el rendimiento.

Para aumentar aún más el rendimiento, las IPU de Intel descargan los servicios de infraestructura del host de la CPU, lo que libera recursos para los servidores de modelos de IA. Las IPU administran de manera eficiente las tareas de infraestructura, lo que libera recursos para mejorar la escalabilidad y el rendimiento de NGINX Plus y de OpenVINO Model Servers (OVMS).

Esta solución integrada es particularmente beneficiosa para aplicaciones de edge, como análisis de video e IoT, donde la baja latencia y el alto rendimiento son cruciales. Al ejecutar NGINX Plus en la IPU de Intel, la solución ayuda a garantizar respuestas rápidas y fiables, lo que la hace ideal para redes de distribución de contenido e implementaciones de microservicios distribuidos.

“Asociarnos con Intel nos permite superar los límites de la implementación de IA. Esta colaboración destaca nuestro compromiso de impulsar la innovación y ofrece una solución de inferencia de IA segura, fiable y escalable que permitirá a las empresas brindar servicios de IA de manera segura y rápida. Nuestra solución combinada garantiza que las organizaciones puedan aprovechar el poder de la IA con un rendimiento y una seguridad superiores”, afirma Kunal Anand, CTO de F5.

Pere Monclus, director de tecnología del Network and Edge Group de Intel, añade que “aprovechar la aceleración de infraestructura de vanguardia de las IPU de Intel y el kit de herramientas OpenVINO junto con F5 NGINX Plus puede ayudar a que las empresas implementen soluciones de inferencia de IA innovadoras con mayor simplicidad, seguridad y rendimiento a escala para múltiples mercados verticales y cargas de trabajo”.