¿Qué tal esta imagen de pastel podría haber activado el filtro de contenido de Instagram?

Un enfoque estándar para el filtrado de contenido automático (que supongo que Instagram podría estar usando) sería formularlo como un problema de clasificación supervisada con dos categorías. Los pasos (simplificados) son los siguientes:

  1. Genere muestras positivas y negativas para el entrenamiento [Las imágenes que Instagram quiere censurar están etiquetadas (+) y las imágenes que quiere permitir Instagram están etiquetadas (-)]. Estos están etiquetados por humanos
  2. Extraiga las características estándar de visión por computadora de la imagen.
  3. Entrene un clasificador (SVM) con las características extraídas.

El clasificador se usa luego en las nuevas imágenes que se cargan. Si el clasificador lo predice como (+) con una confianza alta, entonces Instagram decide censurarlo.

Como Instagram censura las imágenes que contienen los pezones femeninos, tales imágenes se utilizan en el entrenamiento como muestras positivas. Varias porciones de la torta se parecen a los pezones femeninos y probablemente se clasificó como (+) con una alta confianza durante la prueba.

El método anterior funciona razonablemente bien, sin embargo, es susceptible de fallas (como en el caso anterior). Una de las razones es que cuando extraemos características, perdemos cierta información. Las características ven un mundo visual diferente de lo que vemos.

Aquí hay un ejemplo diferente, un caso en el que un detector de objetos falló y no es trivial (como el caso del pastel y el pezón) aquí para descubrir por qué falló al solo mirar la imagen.

El descriptor HOG es una característica estándar de visión por computadora utilizada para la detección de objetos y funciona razonablemente bien. Sin embargo, cuando se probó esta imagen, predijo que la imagen era la de un automóvil (con una alta confianza).

Para entender esto, necesitamos echar un vistazo a la visualización [1] en el espacio de características HOG en lugar de la imagen visual RGB que vemos

Aunque no vemos un automóvil en las imágenes RGB, hay un automóvil oculto en el descriptor HOG.

Del mismo modo, si podemos visualizar la imagen de la torta en el espacio de características que usa Instagram, probablemente encontraríamos pezones en ella. (Intentaré agregar la visualización si es posible)

Referencias
[1] HOGgles: visualización de características de detección de objetos

Cualquiera que sea el algoritmo de visión por computadora que usaron, busca claramente ciertas combinaciones de formas y matices y los señala; éste probablemente fue confundido con una docena de pechos, nótese el color rosado casi similar a la piel de los malvaviscos o lo que sea, con areolas desproporcionadamente grandes.

El algoritmo de procesamiento de imágenes de Instagram probablemente identifica múltiples pares de pezones y considera que la imagen es de naturaleza sexual o pornográfica, lo que, según sus términos, no está permitido.

La cuenta se reactivó más tarde después de que se aclaró el error con Instagram.

¡obviamente porque el pastel es DEMASIADO pecaminoso! Quiero decir MIRAR esos malvaviscos dorados (?)

pero sí, ¡definitivamente estoy de acuerdo con lo que dicen los demás! Los robots de algoritmo tienen mentes sucias XP

Eso es parte del curso. Quora me golpeó durante dos semanas cuando traté de cuestionar si un póster que presenta 64,000 preguntas (a veces 20 por hora), realmente es algo bueno … la “cantidad” gratificante parece ser su rúbrica, una mala en mi humilde opinión . A veces obtienes lo que pagas.

Tetas. Tetas por todos lados. Eso es lo que probablemente vio el bot de Instagram.