OpenAI ha descontinuado su clasificador de IA, una herramienta diseñada para identificar texto generado por IA, luego de las críticas sobre su precisión.
La terminación se anunció sutilmente a través de una actualización de una publicación de blog existente.
El anuncio de OpenAI dice:
“A partir del 20 de julio de 2023, el clasificador de IA ya no está disponible debido a su baja tasa de precisión. Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto. Nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA”.
El ascenso y la caída del clasificador de OpenAI
La herramienta se lanzó en marzo de 2023 como parte de los esfuerzos de OpenAI para desarrollar herramientas de clasificación de IA que ayuden a las personas a comprender si el contenido de audio o visual es generado por IA.
Su objetivo era detectar si los pasajes de texto fueron escritos por un humano o por una IA mediante el análisis de las características lingüísticas y la asignación de una “clasificación de probabilidad”.
La herramienta ganó popularidad, pero finalmente se suspendió debido a deficiencias en su capacidad para diferenciar entre la escritura humana y la de la máquina.
Dolores crecientes para la tecnología de detección de IA
El cierre abrupto del clasificador de texto de OpenAI destaca los desafíos actuales de desarrollar sistemas de detección de IA confiables.
Los investigadores advierten que los resultados inexactos podrían tener consecuencias no deseadas si se implementan de manera irresponsable.
Kristi Hines de Search Engine Journal examinó recientemente varios estudios recientes que descubrieron debilidades y sesgos en los sistemas de detección de IA.
Los investigadores encontraron que las herramientas a menudo etiquetaban erróneamente el texto escrito por humanos como generado por IA, especialmente para los hablantes no nativos de inglés.
Enfatizan que el avance continuo de la IA requerirá un progreso paralelo en los métodos de detección para garantizar la equidad, la responsabilidad y la transparencia.
Sin embargo, los críticos dicen que el desarrollo de IA generativa supera rápidamente a las herramientas de detección, lo que permite una evasión más fácil.
Peligros potenciales de la detección de IA no confiable
Los expertos advierten que no se debe confiar demasiado en los clasificadores actuales para decisiones de alto riesgo, como la detección de plagio académico.
Posibles consecuencias de confiar en sistemas de detección de IA inexactos:
- Acusar injustamente a escritores humanos de plagio o hacer trampa si el sistema marca por error su trabajo original como generado por IA.
- Permitir que el contenido plagiado o generado por IA pase desapercibido si el sistema no identifica correctamente el texto no humano.
- Sesgos de refuerzo si es más probable que la IA clasifique erróneamente los estilos de escritura de ciertos grupos como no humanos.
- Difundir información errónea si el contenido fabricado o manipulado no es detectado por un sistema defectuoso.
En resumen
A medida que el contenido generado por IA se vuelve más generalizado, es crucial continuar mejorando los sistemas de clasificación para generar confianza.
OpenAI ha declarado que sigue dedicado a desarrollar técnicas más sólidas para identificar contenido de IA. Sin embargo, la rápida falla de su clasificador demuestra que perfeccionar dicha tecnología requiere un progreso significativo.
Imagen destacada: photosince/Shutterstock