Confluent y Databricks garantizan a las empresas datos en tiempo real y listos para IA

  • Actualidad
Confluent Databricks

Esta nueva alianza, por la que Confluent ha adoptado Unity Catalog y Delta Lake de Databricks como sus soluciones abiertas preferidas para almacenamiento y governance, elimina los silos de datos para las empresas que trabajan con Apache Kafka y Delta Lake.

Confluent y Databricks han anunciado una expansión de su alianza para integrar la plataforma completa de data streaming de Confluent y la plataforma de inteligencia de datos de Databricks con el fin de proporcionar a las empresas datos en tiempo real para que puedan tomar de decisiones impulsadas por inteligencia artificial. Las nuevas integraciones entre Tableflow de Confluent y Databricks Unity Catalog gestionarán sin problemas los datos en los sistemas operativos y analíticos, permitiendo a las empresas una creación más eficiente de aplicaciones de inteligencia artificial.

“Los datos en tiempo real son el combustible de la IA”, asegura Jay Kreps, cofundador y CEO de Confluent. “Sin embargo, con demasiada frecuencia las empresas se ven frenadas por sistemas desconectados que no pueden proporcionar los datos que necesitan, en el formato que necesitan y en el momento en que los necesitan. Junto con Databricks, estamos garantizando que las empresas puedan aprovechar el poder de los datos en tiempo real para crear aplicaciones sofisticadas impulsadas por IA para sus casos de uso más críticos”.

Datos, IA, analítica y governance en un mismo lugar

La integración bidireccional entre Tableflow de Confluent y Delta Lake y Unity Catalog de Databricks se traduce en una solución de governance unificada y abierta para datos e IA que proporcionará datos consistentes y en tiempo real a través de todos los sistemas operativos y analíticos que sean detectables, seguros y fiables.

Delta Lake, una capa de almacenamiento de formato abierto desarrollada por Databricks, se ha convertido en el formato lakehouse más adoptado. Ahora, Tableflow con Delta Lake hace que los datos operativos estén disponibles de inmediato para el rico ecosistema de Delta Lake. Los clientes de Confluent y Databricks podrán incorporar cualquier motor o herramienta de IA (como Apache Spark, Trino, Polars, DuckDB y Daft) a sus datos en Unity Catalog.

Además, las integraciones personalizadas entre Tableflow y Unity Catalog de Databricks garantizarán que los metadatos (un elemento fundamental para las aplicaciones de IA) se apliquen automáticamente a los datos intercambiados entre plataformas. Esto hace que los datos operativos sean detectables y procesables para los científicos de datos y analistas que trabajan en Databricks, al tiempo que garantiza que los datos analíticos sean igualmente accesibles y útiles para los desarrolladores de aplicaciones e ingenieros de streaming en Confluent. Asimismo, la suite Stream Governance de Confluent proporcionará governance y metadatos ascendentes para mejorar la gobernanza a detalle, el linaje de los streams end-to-end y la monitorización automatizada de la calidad de los datos en Unity Catalog.

Con estas nuevas funcionalidades, los datos operativos de Confluent se convierten en ciudadanos de primera clase en Databricks, de la misma forma en que cualquier procesador de datos de una empresa puede acceder fácilmente a los datos de Databricks.

“Para que las empresas maximicen el rendimiento de sus inversiones en IA, necesitan que sus datos, IA, analítica y governance estén todos en un mismo lugar”, afirma Ali Ghodsi, cofundador y CEO de Databricks. “A medida que ayudamos a más organizaciones a construir inteligencia de datos, los datos empresariales fiables ocupan un lugar central. Nos entusiasma que Confluent haya adoptado Unity Catalog y Delta Lake como sus soluciones abiertas preferidas para almacenamiento y governance, y esperamos trabajar juntos para ofrecer valor a largo plazo a nuestros clientes.”