El Foro AI Insight del Senado del gobierno de EE. UU. discutió soluciones para la seguridad de la IA, incluido cómo identificar quién tiene la culpa de los resultados dañinos de la IA y cómo imponer responsabilidad por esos daños. El comité escuchó una solución desde la perspectiva de la comunidad de IA de código abierto, presentada por el presidente de la Fundación Mozilla, Mark Surman.
Hasta ahora, el Foro Senatorial AI Insight ha estado dominado por los guardianes corporativos dominantes de AI, Google, Meta, Microsoft y OpenAI.
Como consecuencia, gran parte de la discusión ha surgido desde su punto de vista.
El primer AI Insight Forum, celebrado el 13 de septiembre de 2023, fue criticado por la senadora Elizabeth Warren (D-MA) por ser una reunión a puerta cerrada dominada por los gigantes tecnológicos corporativos que más se beneficiarían al influir en las conclusiones del comité.
El miércoles fue la oportunidad para que la comunidad de código abierto ofreciera su versión de cómo debería ser la regulación.
Mark Surman, presidente de la Fundación Mozilla
La fundación Mozilla es una organización sin fines de lucro dedicada a mantener Internet abierto y accesible. Recientemente fue uno de los contribuyentes al fondo de 200 millones de dólares para apoyar una coalición de interés público dedicada a promover la IA para el bien público. La Fundación Mozilla también creó Mozilla.ai, que está fomentando un ecosistema de inteligencia artificial de código abierto.
El discurso de Mark Surman ante el foro del Senado se centró en cinco puntos:
- Incentivar la apertura y la transparencia
- Distribuir la responsabilidad de manera equitativa
- Defender la privacidad por defecto
- Inversión en tecnologías que mejoran la privacidad
- Distribución equitativa de la responsabilidad
De esos cinco puntos, el punto sobre la distribución de la responsabilidad es especialmente interesante porque aconseja cómo identificar quién tiene la culpa cuando las cosas van mal con la IA e imponer la responsabilidad a la parte culpable.
El problema de identificar quién tiene la culpa no es tan sencillo como parece a primera vista.
El anuncio de Mozilla explicó este punto:
“La complejidad de los sistemas de IA requiere un enfoque matizado de la responsabilidad que considere toda la cadena de valor, desde la recopilación de datos hasta la implementación del modelo.
La responsabilidad no debe concentrarse sino distribuirse de manera que refleje cómo se desarrolla y comercializa la IA.
En lugar de limitarse a observar a los implementadores de estos modelos, quienes a menudo podrían no estar en condiciones de mitigar las causas subyacentes de los daños potenciales, un enfoque más holístico regularía las prácticas y los procesos en toda la ‘pila’ de desarrollo”.
La pila de desarrollo es una referencia a las tecnologías que trabajan juntas para crear IA, que incluye los datos utilizados para entrenar los modelos fundamentales.
Los comentarios de Surman utilizaron el ejemplo de un chatbot que ofrece asesoramiento médico basado en un modelo creado por otra empresa y luego perfeccionado por la empresa médica.
¿Quién debería ser considerado responsable si el chatbot ofrece consejos perjudiciales? ¿La empresa que desarrolló la tecnología o la empresa que perfeccionó el modelo?
La declaración de Surman explicó con más detalle:
“Nuestro trabajo en la Ley de IA de la UE en los últimos años ha demostrado la dificultad de identificar quién tiene la culpa y asignar la responsabilidad a lo largo de la cadena de valor de la IA.
Desde conjuntos de datos de entrenamiento hasta modelos básicos y aplicaciones que utilizan ese mismo modelo, pueden surgir riesgos en diferentes puntos y capas durante el desarrollo y la implementación.
Al mismo tiempo, no se trata sólo de dónde se origina el daño, sino también de quién puede mitigarlo mejor”.
Marco para imponer responsabilidad por daños a la IA
La declaración de Surman ante el comité del Senado enfatiza que cualquier marco desarrollado para abordar qué entidad es responsable de los daños debe tener en cuenta toda la cadena de desarrollo.
Señala que esto no solo incluye considerar todos los niveles de la pila de desarrollo, sino también cómo se utiliza la tecnología, el punto es que quién es responsable depende de quién es más capaz de mitigar ese daño en su punto de lo que Surman llama ” cadena de valor.”
Eso significa que si un producto de IA alucina (lo que significa mentir e inventar hechos falsos), la entidad más capaz de mitigar ese daño es la que creó el modelo fundamental y, en menor grado, la que afina y despliega el modelo.
Surman concluyó este punto diciendo:
“Cualquier marco para imponer responsabilidad debe tener en cuenta esta complejidad.
Lo que se necesita es un proceso claro para navegarlo.
Por lo tanto, la regulación debería ayudar a descubrir y notificar el daño (independientemente de la etapa en la que es probable que surja), a identificar dónde se encuentran sus causas fundamentales (lo que requerirá avances técnicos en lo que respecta a los modelos de transformadores) y a un mecanismo para responsabilizar a los responsables de solucionar o no las causas subyacentes de estos acontecimientos”.
¿Quién es responsable de los daños causados por la IA?
El presidente de la Fundación Mozilla, Mark Surman, plantea puntos excelentes sobre cómo debería ser el futuro de la regulación. Habló de cuestiones de privacidad, que son importantes.
Pero de particular interés es la cuestión de la responsabilidad y el exclusivo consejo propuesto para identificar quién es el responsable cuando la IA falla.
Lea la publicación del blog oficial de Mozilla:
Mozilla se une al último foro AI Insight
Lea los comentarios del presidente de Mozilla, Mark Surman, en el Foro Senatorial AI Insight:
Foro AI Insight: Privacidad y responsabilidad (PDF)
Imagen destacada de Shutterstock/Ron Adar