La UE identifica los riesgos de la inteligencia artificial en la conducción autónoma

  • Seguridad

Cara y cruz. Los coches autónomos podrán reducir en el futuro los accidentes de tráfico y las muertes provocadas por errores humanos, pero traerán otros peligros de la mano de la tecnología. La UE, consciente de que la seguridad es un requisito previo, ha analizado los riesgos de la aplicación de la inteligencia artificial a la conducción y han emitido una serie de recomendaciones para la industria.

Recomendados: 

Un futuro digital para la construcción mundial Leer

SCW: Creando ciudades realmente abiertas Leer

Poniendo al ciudadano en el centro de las ciudades inteligentes Leer 

Aunque un reciente estudio asegura que la presencia de los coches autónomos en las carreteras va a ser muy residual aún en 2035, la Agencia de la Unión Europea para la Ciberseguridad (ENISA) y el Joint Research Centre (JRC) de la Comisión Europea han analizado los riesgos de ciberseguridad que entraña la Inteligencia Artificial (IA) en vehículos autónomos, y sus conclusiones se han compilado en un informe con recomendaciones para mitigarlos.

Los vehículos autónomos podrán reducir en el futuro los accidentes de tráfico y las muertes, ya que sacan de la ecuación la causa más común: el conductor humano. Sin embargo, van a surgir otros riesgos completamente diferentes para los conductores, pasajeros y peatones. Estos coches utilizan sistemas de inteligencia artificial que emplean técnicas de aprendizaje automático para recopilar, analizar y transferir datos, con el fin de tomar decisiones que en los automóviles convencionales tomamos los humanos. Estos sistemas, como todos los de TI, son vulnerables a ataques que podrían comprometer el correcto funcionamiento del vehículo.

Los sistemas de inteligencia artificial de un vehículo autónomo funcionan sin parar para reconocer las señales de tráfico y las marcas viales, y para detectar vehículos, calcular su velocidad y planificar la ruta. Aparte de las amenazas no intencionales, como los fallos repentinos de funcionamiento, son vulnerables a ataques intencionados que pretenden interferir en las funciones críticas de seguridad.

Por eso, el informe recomienda que se realicen evaluaciones de seguridad con regularidad de todos los componentes de inteligencia artificial a lo largo de su ciclo de vida. “Esta validación sistemática de los modelos y datos de la IA es fundamental para garantizar que el vehículo siempre se comporte correctamente ante situaciones inesperadas o ataques maliciosos”, señala el documento.

Otro consejo es que los procesos continuos de evaluación de riesgos respaldados por inteligencia de amenazas podrían facilitar la identificación de peligros potenciales y amenazas emergentes relacionadas con la adopción esta tecnología en la conducción autónoma.

El informe concluye que deben regir “las políticas de seguridad de IA adecuadas, así como una cultura de seguridad, en toda la cadena de suministro del sector del automóvil”.

La industria debe un enfoque de seguridad por defecto desde el diseño para desarrollar y desplegar las funcionalidades de inteligencia artificial y convertir la ciberseguridad en pieza central. Finalmente, los autores subrayan que las empresas de este vertical deben aumentar su nivel de preparación y reforzar sus capacidades de respuesta ante los posibles incidentes para poder gestionar las situaciones que se puedan dar.