La Administración Nacional de Telecomunicaciones e Información (NTIA), una división del Departamento de Comercio de los Estados Unidos, solicitó comentarios públicos sobre estrategias para fomentar la responsabilidad en sistemas de inteligencia artificial (IA) confiables.
El objetivo era solicitar comentarios de las partes interesadas para formular sugerencias para un próximo informe sobre los marcos de responsabilidad y garantía de IA. Estas sugerencias podrían haber guiado futuras regulaciones federales y no gubernamentales.
La promoción de una IA confiable que defienda los derechos humanos y los principios democráticos fue un enfoque federal principal según la solicitud de la NTIA. No obstante, quedaron brechas para garantizar que los sistemas de IA fueran responsables y se adhirieran a reglas de IA confiables sobre equidad, seguridad, privacidad y transparencia.
Los mecanismos de rendición de cuentas, como auditorías, evaluaciones de impacto y certificaciones, podrían ofrecer garantías de que los sistemas de IA se adhieren a criterios confiables. Sin embargo, la NTIA observó que implementar una rendición de cuentas efectiva aún presentaba desafíos y complejidades.
La NTIA discutió una variedad de consideraciones en torno al equilibrio entre objetivos confiables de IA, obstáculos para implementar la responsabilidad, cadenas de suministro y cadenas de valor complejas de IA, y dificultades para estandarizar las mediciones.
Más de 1450 comentarios sobre la responsabilidad de la IA
Se aceptaron comentarios hasta el 12 de junio para ayudar a dar forma al informe futuro de la NTIA y orientar los posibles desarrollos de políticas en torno a la responsabilidad de AI.
El número de comentarios superó los 1.450.
Los comentarios, que se pueden buscar mediante palabras clave, ocasionalmente incluyen enlaces a artículos, cartas, documentos y juicios sobre el impacto potencial de la IA.
Las empresas tecnológicas responden a la NTIA
Los comentarios incluyeron comentarios de las siguientes empresas tecnológicas que se esfuerzan por desarrollar productos de inteligencia artificial para el lugar de trabajo.
Carta de OpenAI a la NTIA
En la carta de OpenAI, dio la bienvenida al encuadre de la cuestión por parte de la NTIA como un “ecosistema” de medidas de responsabilidad de IA necesarias para garantizar una inteligencia artificial confiable.
Los investigadores de OpenAI creían que un ecosistema de responsabilidad de IA maduro consistiría en elementos generales de responsabilidad que se aplican ampliamente en todos los dominios y elementos verticales personalizados para contextos y aplicaciones específicos.
OpenAI se ha concentrado en el desarrollo de modelos básicos: modelos de IA ampliamente aplicables que aprenden de extensos conjuntos de datos.
Considera la necesidad de adoptar un enfoque centrado en la seguridad para estos modelos, independientemente de los dominios particulares en los que puedan emplearse.
OpenAI detalló varios enfoques actuales para la responsabilidad de la IA. Publica “tarjetas de sistema” para ofrecer transparencia sobre problemas de rendimiento significativos y riesgos de nuevos modelos.
Realiza pruebas cualitativas de “equipo rojo” para probar las capacidades y los modos de falla. Realiza evaluaciones cuantitativas para diversas capacidades y riesgos. Y tiene políticas de uso claras que prohíben los usos nocivos junto con mecanismos de aplicación.
OpenAI reconoció varios desafíos importantes sin resolver, incluida la evaluación de capacidades potencialmente peligrosas a medida que las capacidades del modelo continúan evolucionando.
Discutió preguntas abiertas sobre evaluaciones independientes de sus modelos por parte de terceros. Y sugirió que los requisitos de registro y licencia pueden ser necesarios para futuros modelos de fundaciones con riesgos significativos.
Si bien las prácticas actuales de OpenAI se centran en la transparencia, las pruebas y las políticas, la empresa parecía dispuesta a colaborar con los legisladores para desarrollar medidas de responsabilidad más sólidas. Sugirió que los marcos regulatorios personalizados pueden ser necesarios para modelos de IA competentes.
En general, la respuesta de OpenAI reflejó su creencia de que una combinación de esfuerzos de autorregulación y políticas gubernamentales jugaría un papel vital en el desarrollo de un ecosistema de responsabilidad de IA eficaz.
Carta de Microsoft a la NTIA
En su respuesta, Microsoft afirmó que la responsabilidad debería ser un elemento fundamental de los marcos para abordar los riesgos que plantea la IA y maximizar sus beneficios. Las empresas que desarrollan y utilizan IA deben ser responsables del impacto de sus sistemas, y las instituciones de supervisión necesitan la autoridad, el conocimiento y las herramientas para ejercer la supervisión adecuada.
Microsoft describió las lecciones de su programa de inteligencia artificial responsable, cuyo objetivo es garantizar que las máquinas permanezcan bajo el control humano. La rendición de cuentas está integrada en su estructura de gobierno y en el Estándar de IA responsable e incluye:
- Realización de evaluaciones de impacto para identificar y abordar los daños potenciales.
- Supervisión adicional para sistemas de alto riesgo.
- Documentación para garantizar que los sistemas son aptos para su propósito.
- Prácticas de gobierno y gestión de datos.
- Avanzar en la dirección y el control humanos.
- Microsoft describió cómo lleva a cabo equipos rojos para descubrir posibles daños y fallas y publica notas de transparencia para sus servicios de IA. El nuevo motor de búsqueda Bing de Microsoft aplica este enfoque de IA responsable.
Microsoft hizo seis recomendaciones para promover la responsabilidad:
- Aproveche el marco de gestión de riesgos de IA de NIST para acelerar el uso de mecanismos de rendición de cuentas como evaluaciones de impacto y equipos rojos, especialmente para sistemas de IA de alto riesgo.
- Desarrolle un marco legal y regulatorio basado en la pila tecnológica de IA, incluidos los requisitos de licencia para los modelos básicos y los proveedores de infraestructura.
- Avanzar en la transparencia como facilitador de la rendición de cuentas, por ejemplo, a través de un registro de sistemas de IA de alto riesgo.
- Invierta en el desarrollo de capacidades para legisladores y reguladores para mantenerse al día con los desarrollos de IA.
- Invierta en investigación para mejorar los puntos de referencia de evaluación de IA, la explicabilidad, la interacción humano-computadora y la seguridad.
- Desarrolle y alinee con los estándares internacionales para respaldar un ecosistema de aseguramiento, incluidos los estándares ISO AI y los estándares de procedencia del contenido.
- En general, Microsoft parecía estar listo para asociarse con las partes interesadas para desarrollar e implementar enfoques efectivos para la responsabilidad de la IA.
Microsoft, en general, parecía estar listo para asociarse con las partes interesadas para desarrollar e implementar enfoques efectivos para la responsabilidad de la IA.
Carta de Google a la NTIA
La respuesta de Google dio la bienvenida a la solicitud de comentarios de la NTIA sobre las políticas de responsabilidad de AI. Reconoció la necesidad tanto de autorregulación como de gobernanza para lograr una IA confiable.
Google destacó su propio trabajo sobre seguridad y ética de IA, como un conjunto de principios de IA centrados en la equidad, la seguridad, la privacidad y la transparencia. Google también implementó prácticas de inteligencia artificial responsable internamente, incluida la realización de evaluaciones de riesgo y evaluaciones de equidad.
Google respaldó el uso de los marcos regulatorios existentes cuando corresponda y las intervenciones basadas en el riesgo para la IA de alto riesgo. Alentó el uso de un enfoque colaborativo basado en el consenso para desarrollar estándares técnicos.
Google estuvo de acuerdo en que los mecanismos de responsabilidad como auditorías, evaluaciones y certificaciones podrían garantizar sistemas de inteligencia artificial confiables. Pero señaló que estos mecanismos enfrentan desafíos en la implementación, incluida la evaluación de la multitud de aspectos que afectan los riesgos de un sistema de IA.
Google recomendó centrar los mecanismos de rendición de cuentas en los factores de riesgo clave y sugirió utilizar enfoques dirigidos a las formas más probables en que los sistemas de IA podrían impactar significativamente en la sociedad.
Google recomendó un modelo “hub-and-spoke” de regulación de IA, con reguladores sectoriales que supervisan la implementación de IA con la orientación de una agencia central como NIST. Apoyó aclarar cómo se aplican las leyes existentes a la IA y alentar medidas de responsabilidad proporcionales basadas en el riesgo para la IA de alto riesgo.
Al igual que otros, Google creía que requeriría una combinación de autorregulación, estándares técnicos y políticas gubernamentales limitadas y basadas en riesgos para promover la responsabilidad de la IA.
Carta Antrópica a la NTIA
La respuesta de Anthropic describió la creencia de que un ecosistema sólido de rendición de cuentas de IA requiere mecanismos adaptados a los modelos de IA. Identificó varios desafíos, incluida la dificultad de evaluar rigurosamente los sistemas de IA y acceder a la información confidencial necesaria para las auditorías sin comprometer la seguridad.
Anthropic apoyó fondos para lo siguiente:
- Evaluaciones modelo: las evaluaciones actuales son un mosaico incompleto y requieren experiencia especializada. Recomendó estandarizar las evaluaciones de capacidad enfocadas en riesgos como el engaño y la autonomía.
- Investigación de interpretabilidad: las subvenciones y la financiación para la investigación de interpretabilidad podrían permitir modelos más transparentes y comprensibles. Sin embargo, las regulaciones que exigen interpretabilidad son actualmente inviables.
- Registro previo de grandes ciclos de capacitación de IA: los desarrolladores de IA deben informar los ciclos de capacitación de gran tamaño a los reguladores para informarles sobre riesgos novedosos bajo las protecciones de confidencialidad adecuadas.
- Equipos rojos externos: pruebas contradictorias obligatorias de los sistemas de IA antes del lanzamiento, ya sea a través de una organización centralizada como NIST o mediante el acceso de investigadores. Sin embargo, el talento de los equipos rojos reside actualmente en laboratorios privados de IA.
- Auditores con experiencia técnica, conciencia de seguridad y flexibilidad: los auditores necesitan una experiencia profunda de aprendizaje automático mientras previenen fugas o piratería, pero también deben operar dentro de restricciones que promuevan la competitividad.
- Anthropic recomendó medidas de responsabilidad de alcance basadas en las capacidades de un modelo y los riesgos demostrados, evaluados a través de evaluaciones de capacidades específicas. Sugirió aclarar los marcos de propiedad de propiedad intelectual para la IA a fin de permitir una concesión justa de licencias y proporcionar orientación sobre cuestiones antimonopolio para permitir colaboraciones de seguridad.
- En general, Anthropic enfatizó las dificultades de evaluar rigurosamente y acceder a información sobre sistemas avanzados de IA debido a su naturaleza sensible. Argumentó que las evaluaciones de capacidades de financiación, la investigación de interpretabilidad y el acceso a recursos computacionales son fundamentales para un ecosistema de responsabilidad de IA efectivo que beneficie a la sociedad.
Qué esperar a continuación
Las respuestas a la solicitud de comentarios de la NTIA muestran que, si bien las empresas de IA reconocen la importancia de la rendición de cuentas, aún existen preguntas abiertas y desafíos en torno a la implementación y la ampliación efectiva de los mecanismos de rendición de cuentas.
También indican que tanto los esfuerzos de autorregulación de las empresas como las políticas gubernamentales desempeñarán un papel en el desarrollo de un ecosistema sólido de responsabilidad de la IA.
En el futuro, se espera que el informe de la NTIA haga recomendaciones para avanzar en el ecosistema de responsabilidad de la IA aprovechando y aprovechando los esfuerzos de autorregulación, los estándares técnicos y las políticas gubernamentales existentes. Es probable que los aportes de las partes interesadas a través del proceso de comentarios ayuden a dar forma a esas recomendaciones.
Sin embargo, implementar recomendaciones en cambios de políticas concretos y prácticas de la industria que puedan transformar la forma en que se desarrolla, implementa y supervisa la IA requerirá la coordinación entre las agencias gubernamentales, las empresas tecnológicas, los investigadores y otras partes interesadas.
El camino hacia la responsabilidad madura de la IA promete ser largo y difícil. Pero estos pasos iniciales muestran que hay impulso para lograr ese objetivo.
Imagen destacada: EQRoy/Shutterstock