La caída masiva de Facebook, Instagram y WhatsApp de este miércoles, la cual principalmente afectó y aún sigue afectando las imágenes, ha mostrado involuntariamente a los internautas cómo su sistema de aprendizaje automático clasifica el contenido.
En particular, desde que dichas redes sociales empezaran a experimentar problemas, varios usuarios han podido ver etiquetas de imagen asociadas en vez de fotos.
Así, si un internauta navega por sus fotos publicadas, podrá ver en lugar de imágenes un texto que dice: ‘imagen puede contener: gente sonriendo, gente bailando, boda’ o simplemente ‘imagen puede contener: perro’.
Esa serie de ‘tags’ se basa en el sistema de reconocimiento de objetos de Facebook, lo que significa que las etiquetas se asignan independientemente de que un usuario haya agregado su propia descripción o no.
La empresa de Mark Zuckerberg ha estado usando el aprendizaje automático para describir imágenes de esta manera desde el 2016. El proyecto es una parte importante de los esfuerzos de accesibilidad de la compañía, ya que estos ‘tags’ se utilizan para explicar fotos y videos a usuarios con discapacidades visuales, según explica The Verge.
Sin embargo, no está claro si Facebook también usa esta información para orientar anuncios.