Dos de cada tres expertos son partidarios de la regulación inmediata de la IA generativa

  • Actualidad
Expert.ai - IA

Según un estudio de la firma expert.ai, dos de cada tres expertos en inteligencia artificial son partidarios de una regulación inmediata para el desarrollo de los grandes modelos de lenguaje. Coinciden en que presentan importantes retos relacionados en su mayoría con la seguridad y el cumplimiento normativo.

  Recomendados....

» Guía 360º de la Inteligencia Artificial Informe
» Mejorar resultados empresariales con la integración de comunicaciones unificadas y contact center Leer
» Ventajas y retos de la nueva era del Dato Acceder

Dos de cada tres expertos en esta tecnología son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos (LLM), si bien en su mayoría no consideran necesaria una moratoria para seguir desarrollando esta tecnología. Así lo refleja el último informe de expert.ai, multinacional líder en inteligencia artificial (IA) para la comprensión del lenguaje natural.

El informe, titulado “Large Language Models: Opportunity, Risk and Paths Forward”, muestra los resultados de una encuesta realizada el pasado mes de abril entre más de 300 expertos en IA de empresas, proveedores tecnológicos y personal académico para identificar los riesgos asociados a la implantación de los LLM en las compañías en materia de sostenibilidad, responsabilidad social y gobernanza (ESG, por sus siglas en inglés).

En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una "pausa" de seis meses en el desarrollo de IA a gran escala más allá del GPT-4. argumentando que el uso de IA debería ser "transparente, explicable y empíricamente sólido, fomentando la responsabilidad", y que GPT-4 "no cumple ninguno de estos requisitos, ya que es parcial, engañoso y un riesgo para la privacidad y la seguridad pública".

Preguntados sobre esto, más de la mitad de los participantes (52,2%) afirmó que no es necesaria la moratoria de seis meses en el desarrollo de los LLM, pero más del 70% está a favor de una regulación gubernamental inmediata para lidiar con el uso malicioso de la IA generativa y promover su adopción en las organizaciones.

Principales desafíos
El informe incluye una pregunta específica en cuanto a los principales hándicaps y desafíos que se encuentran actualmente a la hora de explotar los LLM. Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.

Así, la principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles. En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”.

Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados.

Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones.

Otra de las cuestiones clave planteadas en la encuesta es la forma en que el uso de LLMs impactará en la política de gobernanza de la organización, y cómo debe trasladarse a los empleados por lo que respecta a su utilización. La respuesta mayoritaria entre los profesionales de la IA (38,8%) fue que se debe controlar su uso, pero aplicando un cierto grado adicional de libertad, mientras que un 24% indicó que se deben implementar restricciones.