Google publicó un documento de Agenda de políticas de IA que describe una visión para el despliegue responsable de IA y sugerencias sobre cómo los gobiernos deben regular y alentar la industria.
Agenda de políticas de IA de Google
Google anunció la publicación de una agenda de políticas de IA con sugerencias para el desarrollo y las regulaciones responsables de la IA.
El documento señala que las políticas gubernamentales de IA se están formando de forma independiente en todo el mundo y exige una agenda de IA cohesiva que logre un equilibrio entre la protección contra los resultados dañinos y eludir la innovación.
Google escribe:
“Conseguir que la innovación en IA sea correcta requiere un marco de políticas que garantice la responsabilidad y permita la confianza.
Necesitamos una estrategia holística de IA centrada en:
(1) desbloquear oportunidades a través de la innovación y el crecimiento económico inclusivo;
(2) garantizar la responsabilidad y permitir la confianza; y
(3) proteger la seguridad global.
Una agenda cohesiva de IA debe promover los tres objetivos, no uno a expensas de los demás”.
La agenda de políticas de IA de Google tiene tres objetivos principales:
- Oportunidad
- Responsabilidad
- Seguridad
Oportunidad
Esta parte de la agenda pide a los gobiernos que alienten el desarrollo de la IA invirtiendo en:
- Investigación y desarrollo
- Crear un entorno legal sin fricciones que libere el desarrollo de la IA
- Planificación del apoyo educativo para capacitar a una fuerza laboral preparada para la IA
En resumen, la agenda pide a los gobiernos que se quiten del camino y apoyen a la IA para ayudar a avanzar en la tecnología.
La agenda política observa:
“Históricamente, los países se han destacado cuando maximizan el acceso a la tecnología y la aprovechan para lograr importantes objetivos públicos, en lugar de tratar de limitar el avance tecnológico”.
Responsabilidad
La agenda de políticas de Google argumenta que la implementación responsable de la IA dependerá de una combinación de leyes gubernamentales, autorregulación corporativa y aportes de organizaciones no gubernamentales.
La agenda política recomienda:
“Algunos desafíos se pueden abordar a través de la regulación, asegurando que las tecnologías de IA se desarrollen e implementen de acuerdo con las prácticas responsables de la industria y los estándares internacionales.
Otros requerirán una investigación fundamental para comprender mejor los beneficios y riesgos de la IA, y cómo gestionarlos, y desarrollar e implementar nuevas innovaciones técnicas en áreas como la interpretabilidad y las marcas de agua.
Y otros pueden requerir nuevas organizaciones e instituciones”.
La agenda también recomienda:
“Fomentar la adopción de enfoques comunes para la regulación y la gobernanza de la IA, así como un léxico común, basado en el trabajo de la OCDE. “
¿Qué es la OCDE?
La OCDE es el Observatorio de Políticas OECD.AI, que cuenta con el apoyo de socios corporativos y gubernamentales.
Las partes interesadas del gobierno de la OCDE incluyen el Departamento de Estado de EE. UU. y el Departamento de Comercio de EE. UU.
Las partes interesadas corporativas están compuestas por organizaciones como la Fundación Patrick J McGovern, cuyo equipo de liderazgo está repleto de inversores y ejecutivos de tecnología de Silicon Valley que tienen un interés propio en cómo se regula la tecnología.
Google aboga por menos regulación corporativa
La recomendación de política de Google sobre la regulación es que menos regulación es mejor y que la transparencia corporativa podría obstaculizar la innovación.
recomienda:
“Enfocar las regulaciones en las aplicaciones de mayor riesgo también puede disuadir la innovación en las aplicaciones de mayor valor donde la IA puede ofrecer los beneficios más significativos.
La transparencia, que puede respaldar la rendición de cuentas y la equidad, puede tener un costo en precisión, seguridad y privacidad.
Las democracias deben evaluar cuidadosamente cómo lograr el equilibrio correcto”.
Luego recomienda tomar en consideración la eficiencia y la productividad:
“Exigir a las agencias reguladoras que consideren las compensaciones entre diferentes objetivos de política, incluida la mejora de la eficiencia y la productividad, la transparencia, la equidad, la privacidad, la seguridad y la resiliencia. “
Siempre ha habido, y siempre habrá, un tira y afloja entre las entidades corporativas que luchan contra la supervisión y los reguladores gubernamentales que buscan proteger al público.
La IA puede resolver los problemas más difíciles de la humanidad y brindar beneficios sin precedentes. Google tiene razón en que se debe encontrar un equilibrio entre los intereses del público y las corporaciones.
Recomendaciones sensatas
El documento contiene recomendaciones sensatas, como sugerir que las agencias reguladoras existentes desarrollen pautas específicas para la IA y que consideren la adopción de los nuevos estándares ISO actualmente en desarrollo (como ISO 42001).
La agenda política recomienda:
“a) Instruir a los reguladores sectoriales para que actualicen los regímenes existentes de supervisión y cumplimiento para aplicarlos a los sistemas de IA, incluso sobre cómo las autoridades existentes aplican el uso de IA, y cómo demostrar el cumplimiento de un sistema de IA con las regulaciones existentes utilizando estándares de consenso internacional de múltiples partes interesadas como el Serie ISO 42001.
b) Instruir a las agencias reguladoras para que emitan informes periódicos que identifiquen las brechas de capacidad que dificultan tanto que las entidades cubiertas cumplan con las regulaciones como que los reguladores realicen una supervisión efectiva”.
En cierto modo, esas recomendaciones indican lo obvio, es un hecho que las agencias desarrollarán pautas para que los reguladores sepan cómo regular.
Escondido en esa declaración está la recomendación de ISO 42001 como modelo de cómo deberían ser los estándares de IA.
Cabe señalar que el estándar ISO 42001 es desarrollado por el comité ISO/IEC para Inteligencia Artificial, que está presidido por un ejecutivo de tecnología de Silicon Valley de veinte años y otros de la industria de la tecnología.
IA y seguridad
Esta es la parte que presenta un peligro real por el uso malicioso para crear desinformación e información errónea, así como daños cibernéticos.
Google describe los desafíos:
“Nuestro desafío es maximizar los beneficios potenciales de la IA para la seguridad y la estabilidad global y, al mismo tiempo, evitar que los actores de amenazas exploten esta tecnología con fines maliciosos”.
Y luego ofrece una solución:
“Los gobiernos deben invertir simultáneamente en I + D y acelerar la adopción de IA pública y privada mientras controlan la proliferación de herramientas que podrían ser abusadas por actores malintencionados”.
Entre las recomendaciones para que los gobiernos combatan las amenazas basadas en IA:
- Desarrollar formas de identificar y prevenir la interferencia electoral
- Compartir información sobre vulnerabilidades de seguridad
- Desarrollar un marco de control de comercio internacional para tratar con entidades que se dedican a la investigación y el desarrollo de IA que amenaza la seguridad global.
Reducir la burocracia y aumentar la adopción de IA por parte del gobierno
A continuación, el documento aboga por la racionalización de la adopción de la IA por parte del gobierno, incluida una mayor inversión en ella.
“Reformar las políticas de adquisición del gobierno para aprovechar y fomentar la IA líder en el mundo…
Examine las barreras institucionales y burocráticas que impiden que los gobiernos eliminen los silos de datos y adopte el mejor gobierno de datos de su clase para aprovechar todo el poder de la IA.
Aproveche los conocimientos de datos a través de la formación de equipos hombre-máquina, creando equipos ágiles con las habilidades para construir/adaptar/aprovechar rápidamente sistemas de IA que ya no requieren títulos en informática…”
Agenda de políticas de IA de Google
La agenda de políticas brinda sugerencias bien pensadas para que los gobiernos de todo el mundo las consideren al formular regulaciones sobre el uso de la IA.
La IA es capaz de realizar muchos avances positivos en la ciencia y la medicina, avances que pueden brindar soluciones al cambio climático, curar enfermedades y prolongar la vida humana.
En cierto modo, es una pena que los primeros productos de IA lanzados al mundo sean las aplicaciones ChatGPT y Dall-E comparativamente triviales que hacen muy poco por beneficiar a la humanidad.
Los gobiernos están tratando de comprender la IA y cómo regularla a medida que estas tecnologías se adoptan en todo el mundo.
Curiosamente, la IA de código abierto, la versión más importante de la misma, se menciona solo una vez.
El único contexto en el que se aborda el código abierto es en las recomendaciones para abordar el uso indebido de la IA:
“Aclarar la posible responsabilidad por el uso indebido/abuso de los sistemas de IA de propósito general y especializados (incluidos los sistemas de código abierto, según corresponda) por parte de varios participantes: investigadores y autores, creadores, implementadores y usuarios finales”.
Dado que se dice que Google está asustado y cree que ya ha sido derrotado por la IA de código abierto, es curioso cómo la IA de código abierto solo se menciona en el contexto del mal uso de la tecnología.
La agenda de políticas de IA de Google refleja preocupaciones legítimas por el exceso de regulación y las reglas inconsistentes impuestas en todo el mundo.
Pero las organizaciones que la agenda de políticas cita como que ayudan a desarrollar estándares y regulaciones de la industria están llenas de expertos de Silicon Valley. Esto plantea interrogantes sobre los intereses de quién reflejan las normas y reglamentos.
La agenda de políticas comunica con éxito la necesidad y la urgencia de desarrollar regulaciones significativas y justas para evitar resultados dañinos y permitir que avance la innovación beneficiosa.
Lea el artículo de Google sobre la agenda política:
Una agenda política para el progreso responsable de la IA: oportunidad, responsabilidad, seguridad
Lea la agenda política de IA en sí (PDF)
Una agenda política para el progreso responsable de la inteligencia artificial
Imagen destacada de Shutterstock/Shaheerrr