Over 10 years we helping companies reach their financial and branding goals. Onum is a values-driven SEO agency dedicated.

CONTACTS
Noticias

Google sobre contenido de bajo esfuerzo que se ve bien


John Mueller de Google usó una imagen generada por IA para ilustrar su punto sobre el contenido de bajo esfuerzo que se ve bien pero que carece de una verdadera experiencia. Sus comentarios rechazaron la idea de que el contenido de bajo esfuerzo es aceptable solo porque tiene la apariencia de competencia.

Una señal que lo inclinó a artículos de baja calidad fue el uso de imágenes destacadas dudosas generadas por AI. No sugirió que las imágenes generadas por IA sean una señal directa de baja calidad. En cambio, describió su propia percepción de “lo sabes cuando lo ves”.

Comparación con la experiencia real

El comentario de Mueller citó las prácticas de contenido de los expertos reales.

Él escribió:

“¿Qué tan común es en los círculos que no son de ESO que los artículos” técnicos ” /” expertos “usan imágenes generadas por IA? Me encanta verlos [*].

[*] Porque sé que puedo ignorar el artículo que ignoraron mientras escribían. Y, ¿por qué no deberían bloquearlos en las sociales también? “.

Contenido de bajo esfuerzo

A continuación, Mueller llamó a un trabajo de bajo esfuerzo que resulta en el contenido que “se ve bien”.

Él siguió con:

“Lucho con los comentarios” pero nuestro trabajo de bajo esfuerzo en realidad se ve bien “. Siendo realistas, barato y rápido reinarán cuando se trata de la producción de contenido masivo, por lo que nada de esto desaparecerá pronto, probablemente nunca. “Bajo esfuerzo, pero bueno” sigue siendo un esfuerzo bajo “.

No se trata de imágenes de IA

La publicación de Mueller no se trata de imágenes de IA; Se trata de contenido de bajo esfuerzo que “se ve bien”, pero realmente no lo es. Aquí hay una anécdota para ilustrar lo que quiero decir. Vi un SEO en Facebook alardear sobre lo bueno que era su contenido generado por IA. Entonces pregunté si confiaban en que generar contenido de SEO local. Respondieron: “No, no, no, no”, y comentaron cuán pobre y no confiable era el contenido sobre ese tema.

No justificaron por qué confiaban en el otro contenido generado por la IA. Supongo que no hicieron la conexión o que el contenido se verifica por un experto en la materia real y no lo mencionaron. Lo dejé allí. Sin juicio.

¿Debería plantear el estándar para bien?

ChatGPT tiene una advertencia de descargo de responsabilidad contra confiar en él. Entonces, si no se puede confiar en AI para un tema en el que se conoce y aconseja la precaución en sí misma, ¿debería el estándar para juzgar la calidad del contenido generado por la IA es más alto que simplemente verse bien?

Captura de pantalla: La IA no garantiza su confiabilidad, ¿deberías?

Captura de pantalla de la interfaz ChatGPT con la siguiente advertencia debajo de la caja de chat: ChatGPT puede cometer errores. Verifique la información importante.

ChatGPT recomienda verificar la salida

Sin embargo, el punto es que tal vez sea difícil para un no experto discernir la diferencia entre el contenido experto y el contenido diseñado para parecerse a la experiencia. El contenido generado por IA es experto en la apariencia de experiencia, por diseño. Dado que incluso ChatGPT mismo recomienda verificar lo que genera, tal vez podría ser útil obtener un experto real para revisar ese contenido antes de lanzarlo al mundo.

Lea los comentarios de Mueller aquí:

Lucho con los comentarios de “pero nuestro trabajo de bajo esfuerzo en realidad se ve bien”.

Imagen destacada de Shutterstock/ShotPrime Studio

hola@juanrecio.com

Author

hola@juanrecio.com

"¡ALERTA! El Error Fatal que Está Saboteando tu Éxito (Y Cómo Solucionarlo) ⚠️"