“La IA en local es una capacidad fundamental y a largo plazo del PC, no una moda pasajera”, Marcos Manzano, Dell Technologies
- Entrevistas
Hablamos con Marcos Manzano, field product manager, Client Solutions de Dell Technologies, acerca de la evolución que está viviendo la categoría emergente de ordenadores capaces de ejecutar IA en local, con la llegada en 2026 de nuevas CPU y NPU, y con nuevos casos de uso impulsados por el software. Además, comenta las novedades de la compañía para este segmento del mercado.
Desde el lanzamiento de los primeros Copilot+ PC, este tipo de equipos ha ido mejorando sus capacidades de ejecución de IA en local, gracias a las NPU integradas en las CPU y a las GPU dedicadas. ¿Cómo perciben que está siendo esta evolución?
Vemos la evolución como muy rápida y, sobre todo, muy clara en su dirección. En solo unas pocas generaciones, los PC han pasado de no tener apenas aceleración específica para IA a integrar NPU capaces de decenas o incluso cientos de TOPS, junto con GPU cada vez más potentes. Ese cambio ya está modificando la forma en que se diseñan los equipos: la IA deja de ser una carga “añadida” para convertirse en un eje central de diseño que afecta a la refrigeración, la autonomía, la seguridad y la experiencia de usuario.
Desde nuestro punto de vista, lo más importante no es solo la potencia bruta en TOPS, sino la madurez de la capa de software y la integración con el sistema operativo. Con Windows exponiendo de forma nativa marcos y experiencias de IA, y los ISV optimizando para NPU y GPU, el cliente empieza a notar el beneficio en el día a día y no solo en los benchmarks.
¿Qué acogida han tenido en el mercado este tipo de equipos a lo largo del último año?
La adopción ha sido muy positiva, especialmente en los segmentos empresarial y de consumo “premium”. Al principio, las decisiones de compra se guiaban sobre todo por el “future proofing” y la eficiencia energética; los clientes querían estar preparados para las próximas cargas de IA y valoraban que la NPU descargue trabajo de la CPU y la GPU.
En el último año, a medida que Copilot y otras aplicaciones enriquecidas con IA han madurado, vemos una demanda más clara desde el usuario final: los compradores de TI incluyen cada vez más la aceleración de IA como requisito en los pliegos, y algunos trabajadores empiezan a pedir explícitamente equipos que “ejecuten IA de forma rápida y silenciosa” para tareas como resumen, traducción, creación de contenido y colaboración inteligente.
La necesidad real de ejecutar inteligencia artificial en local se cuestiona mucho, pero cada vez hay más aplicaciones con IA integrada que contemplan su uso en local. ¿Creen que esta funcionalidad será fundamental en el futuro de los PC, o una tecnología pasajera?
Consideramos que la IA en local es una capacidad fundamental y a largo plazo del PC, no una moda pasajera. Por tres motivos:
- Latencia y experiencia: algunas interacciones deben ser instantáneas (por ejemplo, la transcripción en tiempo real, los efectos de vídeo en directo o la asistencia contextual), algo difícil de garantizar si todo se ejecuta en la nube.
- Privacidad y cumplimiento: muchos clientes, especialmente en sectores regulados, quieren que los datos sensibles y ciertos modelos permanezcan en el dispositivo o se procesen localmente.
- Coste y escalabilidad: no es viable económicamente ejecutar todas las inferencias en la nube para todos los usuarios y todos los casos de uso.
Esperamos un modelo híbrido en el que la IA en la nube y la IA en local se complementen. El PC se convierte en un endpoint inteligente que puede preprocesar, personalizar y filtrar datos en local, mientras aprovecha la nube para modelos grandes o cargas muy pesadas.
Las capacidades de las NPU y las GPU son clave para usar la inteligencia artificial sin depender de una aplicación en cloud o en on-premise. ¿Creen que los fabricantes de procesadores podrán seguir el ritmo que impongan los casos de uso reales que están surgiendo?
La hoja de ruta de los fabricantes de CPU en aceleradores es muy ambiciosa, y no vemos que vaya a desacelerarse a corto plazo. El rendimiento de NPU y GPU crece más rápido que el de la CPU tradicional, y los fabricantes se centran también en la eficiencia por vatio, que es crítica en formatos móviles.
El reto no será tanto la potencia absoluta en TOPS como encajar el acelerador adecuado con la carga adecuada y lograr que el software use de forma transparente el mejor motor disponible. Ahí es clave la colaboración estrecha entre Dell, los socios de silicio, Microsoft y los ISV. Nuestro papel es traducir los casos de uso reales de los clientes en requisitos de plataforma y ayudar a orientar las hojas de ruta de silicio y producto para que se alineen con lo que realmente necesitan los usuarios.
¿Cómo valoran el aumento de rendimiento de TOPS en las últimas CPU de Intel, AMD y Qualcomm? ¿Hasta qué punto mejoran la experiencia de usuario con respecto a las generaciones anteriores?
Más TOPS son importantes, pero el beneficio para el usuario depende de tres factores:
- Que las aplicaciones estén optimizadas para usar la NPU/GPU y no solo la CPU.
- Que esos TOPS se entreguen de forma eficiente a bajo consumo, de modo que mejoren autonomía y térmicas, en lugar de empeorarlas.
- Que el sistema operativo y los drivers gestionen bien las cargas de IA entre CPU, GPU y NPU.
Cuando estas piezas encajan, vemos mejoras tangibles: funciones de colaboración en tiempo real más fluidas, asistentes más reactivas y capacidad de ejecutar más tareas de IA en paralelo sin degradar la respuesta general del sistema. En la práctica, el salto de un equipo sin NPU a una plataforma moderna con NPU puede ser muy evidente en flujos intensivos de IA; de una generación de NPU a la siguiente, las mejoras son más incrementales pero siguen siendo relevantes en rendimiento sostenido y eficiencia.
¿Enfocan la CPU de cada fabricante a un tipo de producto o usuario final en concreto, o la elección del chip se debe a otros factores, como el rendimiento, el precio o la disponibilidad en el mercado de estos chips?
Adoptamos un enfoque holístico, guiado por el caso de uso. Diferentes familias y arquitecturas de CPU tienen puntos fuertes que encajan mejor con determinados segmentos:
- Algunas plataformas son ideales para gestión empresarial y compatibilidad amplia.
- Otras priorizan autonomía y experiencias siempre conectadas.
- Otras se orientan a gráficos y creación de contenido, o al precio-rendimiento en grandes despliegues.
Por tanto, aunque rendimiento, precio y disponibilidad son factores clave, partimos sobre todo del perfil de uso y el punto de diseño (factor de forma, térmicas, batería, gestionabilidad, seguridad, capacidades de IA) y, a partir de ahí, elegimos el silicio que mejor encaja con la misión de ese producto. Trabajamos con todos los grandes fabricantes de CPU para ofrecer la combinación adecuada en nuestro porfolio, en lugar de un enfoque único para todos.
¿Qué novedades incluyen los nuevos Copilot+ PC de Dell Technologies en cuanto a la IA en local? ¿Cómo aprovechan estas capacidades las aplicaciones propias de Dell?
Nuestros últimos Copilot+ PC integran NPU y GPU de alta eficiencia diseñadas específicamente para cargas de IA sostenidas en el dispositivo. Sobre ese silicio, nos centramos en:
- Diseño de sistema optimizado: arquitecturas de potencia y refrigeración ajustadas para mantener el rendimiento de IA sin ruido excesivo de ventilador ni “throttling”.
- Seguridad y privacidad: uso de IA local para tareas como detección de anomalías, clasificación de datos y protección del dispositivo, manteniendo la información sensible en el endpoint.
- Experiencias específicas de Dell: enriquecemos nuestras propias herramientas (por ejemplo, utilidades de gestión, soporte y optimización) con funciones de IA que pueden ejecutarse en local, como diagnósticos proactivos, ajuste personalizado del rendimiento y recomendaciones contextuales para TI y usuarios finales.
Nuestro objetivo es que el cliente no solo compre “hardware de IA”, sino que perciba un valor real aportado por Dell en forma de endpoints más inteligentes, resilientes y fáciles de gestionar.
¿Qué peso creen que tendrá en el mercado de Copilot+ PC el fin del ciclo de vida de Windows 10, que en España llegará en octubre de este año?
El fin de soporte de Windows 10 es un catalizador natural para la renovación de hardware, especialmente en organizaciones que aún tienen una base instalada amplia de equipos antiguos. Muchos de esos sistemas no son los candidatos ideales para experiencias modernas asistidas por IA, por limitaciones de rendimiento y gestionabilidad.
Esperamos que una parte de la migración de Windows 10 a Windows 11 coincida con una transición más amplia hacia PC preparados para IA y compatibles con Copilot. Para muchos clientes, la pregunta no será solo “¿Puede ejecutar Windows 11?”, sino “¿Este dispositivo está listo para los flujos de trabajo impulsados por IA de los próximos 4-5 años?”.
¿Creen que los tiempos de renovación de PC se acelerarán en base a la necesidad de ejecutar de cargas de IA cada vez más pesadas en local?
Sí prevemos que la IA sea uno de los factores que acorte los ciclos de renovación en determinados segmentos, especialmente:
- Usuarios cuya productividad depende en gran medida de la creación de contenido, el análisis o la colaboración asistidos por IA.
- Organizaciones que buscan una seguridad y un gobierno del dato más robustos apoyados en IA local en el endpoint.
Dicho esto, no todos los usuarios necesitarán la última generación de NPU o GPU cada año. Esperamos una estrategia de renovación más segmentada, en la que los colectivos y roles que más se beneficien de la aceleración de IA renueven antes y con más frecuencia, mientras que otros sigan ciclos más tradicionales. Nuestro papel es ofrecer un porfolio claro y bien segmentado para que los clientes puedan alinear la inversión con sus necesidades reales de IA.