General

Inmediatamente te das cuenta de eso antes de porno. ¿La computadora entiende?

A principios del mes pasado, Tumblr anunció queprohibirá la pornografía. Cuando la nueva política de contenido entró en vigor, después de aproximadamente dos semanas, el 17 de diciembre, se hizo evidente que habría problemas. Después de implementar un sistema de inteligencia artificial que supuestamente eliminaría toda pornografía en el sitio, etiquetó erróneamente publicaciones inocentes en 455.4 millones de blogs en el sitio entre 168.2 mil millones de publicaciones: jarrones, brujas, peces, etc.

Pornografía para inteligencia artificial.

Aunque no está claro qué filtro automáticoUsó Tumblr o creó el suyo propio. La compañía no respondió a las solicitudes sobre este tema. Es obvio que la red social está bloqueada entre sus propias políticas y tecnologías. Por ejemplo, la posición inconsistente del sitio en relación con "mujeres mostrando pezones" y desnudez artística, por ejemplo, llevó a decisiones contextuales que demuestran que incluso Tumblr no sabe qué prohibir en su plataforma. ¿Cómo determina una empresa privada lo que considera obsceno?

En primer lugar, bloquear el contenido de riesgo.Difícil, porque inicialmente es difícil determinar qué es. La definición de obscenidad es una trampa para osos, que tiene más de cien años, en 1896, los Estados Unidos aprobaron por primera vez leyes que regulan la obscenidad. En 1964, en el caso de Jacobellis v. Ohio, sobre si Ohio puede prohibir mostrar una película de Louis Malle, la Corte Suprema probablemente ha dado la definición más famosa de pornografía dura hoy: como lo entiendo, se incluirá en la descripción abreviada; y tal vez nunca pueda hacerlo inteligible ", dijo el juez Potter Stewart. "Pero sé lo que es cuando lo veo, y la película asociada con este caso no es eso".

Los algoritmos de aprendizaje automático tienen el mismo problema. Este problema está tratando de resolver a Brian Delorge, CEO de Picnix, una compañía que vende tecnología especializada de inteligencia artificial. Uno de sus productos, Iris, es una aplicación del lado del cliente que detecta pornografía para "ayudar a las personas", como dice Delorge, "que no quieren pornografía en sus vidas". Señala que un problema de la pornografía por separado es que puede haber cualquier cosa, un montón de cosas diferentes, y las imágenes que no son pornográficas pueden tener elementos similares. La imagen de una fiesta en la playa se puede bloquear, no porque tenga más piel que en la foto de la oficina, sino porque está al borde. "Es por eso que es muy difícil entrenar un algoritmo de reconocimiento de imágenes a la vez", dice Delorge. "Cuando la definición se vuelve difícil para las personas, la computadora también enfrenta dificultades". Si la gente no puede ponerse de acuerdo sobre qué es la pornografía y qué no, ¿puede una computadora esperar saber la diferencia?

Para enseñar a la IA a detectar pornografía,Lo primero que debes hacer es alimentarlo porno. Mucha pornografía. ¿Dónde conseguirlo? Bueno, lo primero que la gente hace es descargar un montón de videos de Pornhub, XVideos, dice Dan Shapiro, cofundador de la startup Lemay.ai, que crea filtros de AI para sus clientes. "Esta es una de esas áreas grises de naturaleza legal; por ejemplo, si está aprendiendo del contenido de otras personas, ¿le pertenece?"

Después de que los programadores descarguen toneladasEn la pornografía, se eliminan los marcos de video, que no son pornografía, para asegurarse de que los marcos utilizados no conduzcan al bloqueo de los vendedores ambulantes de pizza. Las plataformas pagan a las personas, en su mayor parte, fuera de los EE. UU., Para etiquetar dicho contenido; El trabajo es mal pagado y aburrido, como si se introdujera "captcha". Simplemente se sientan y dicen: esto es porno, esto es esto. El filtro tiene un poco, porque toda la pornografía viene con una etiqueta. La capacitación es mejor si usa no solo fotografías, sino grandes muestras de datos.

"A menudo no se trata solo de filtrar porno,sino más bien un material de acompañamiento ", dice Shapiro. "Me gustan los perfiles falsos con una foto de una chica y un teléfono". Se refiere a los trabajadores sexuales que buscan clientes, pero podría ser cualquier cosa, no completamente legal. "Esto no es porno, pero no quieres ver este tipo de cosas en tu plataforma, ¿verdad?" Un buen moderador automatizado aprende millones, si no decenas de millones, de ejemplos de contenido, lo que significa que puede ahorrar muchas horas de trabajo.

"Puedes comparar esto con la diferencia entre un niño yadultos ”, dice Matt Zeiler, CEO y fundador de Clarifai, una startup de visión artificial que realiza este tipo de filtrado de imágenes para clientes corporativos. “Puedo asegurarlo, hace un par de meses tuvimos un hijo. No saben nada sobre el mundo, todo es nuevo para ellos ". Tenemos que mostrarle al niño (algoritmo) muchas cosas para que quede claro. “Millones y millones de ejemplos. Pero como adultos, cuando creamos tanto contexto sobre el mundo y entendimos cómo funciona, podemos aprender algo nuevo con solo un par de ejemplos ". (Sí, enseñar a la IA a filtrar el contenido para adultos es como mostrarle mucha pornografía a un niño). Compañías como Clarifai están creciendo rápidamente hoy. Tienen una buena base de datos del mundo, pueden distinguir a los perros de los gatos vestidos de desnudos. La compañía de Zeiler usa sus modelos para entrenar nuevos algoritmos para sus clientes, ya que el modelo original ha procesado una gran cantidad de datos, las versiones personales solo requerirán nuevos conjuntos de datos para funcionar.

Sin embargo, el algoritmo es difícil de hacer todo.correctamente. Con contenidos de carácter pornográfico, obviamente, lo hace bien; pero clasificador puede marcar incorrectamente el anuncio de la ropa interior como un tabú, ya que la imagen más piel que, por ejemplo, en la oficina. (Bikinis C y la ropa interior, de acuerdo Tseylera, muy difícil). Esto significa que las personas que participan en el marcado, deben centrarse en estos casos extremos en su trabajo, dando prioridad al hecho de que es difícil de clasificar el modelo.

¿Y qué es lo más difícil?

"Anime porno", dice Zayler. "La primera versión de nuestro detector de desnudos no utilizó pornografía de dibujos animados para entrenar". Muchas veces la IA calculó mal porque el hentai no reconoció. "Después de haber trabajado en esto para el cliente, introdujimos un montón de sus datos en el modelo y mejoramos significativamente la precisión del filtro de imágenes animadas, mientras manteníamos la precisión de las fotos reales", dice Zayler.

Tecnología que se enseña a olfatear porno,Se puede usar en otras cosas. Las tecnologías subyacentes a este sistema son sorprendentemente flexibles. Esto es más que tetas de anime. El rompecabezas alfabético, por ejemplo, se usa ampliamente como moderador automático de comentarios en un periódico. Este software funciona de manera similar a los clasificadores de imágenes, excepto que se clasifica por toxicidad, no por desnudez. (La toxicidad en los comentarios de texto es tan difícil de determinar como la pornografía en las imágenes). Facebook utiliza un filtrado automático similar para detectar mensajes suicidas y contenido relacionado con el terrorismo, y trató de usar esta tecnología para detectar noticias falsas en su plataforma masiva.

Todo sigue dependiendo de los humanos.supervisión Mejor nos ocupamos de la ambigüedad y el contexto ambiguo. Zeiler dice que no cree que su producto haya privado a alguien de trabajo. Resuelve el problema de escalar internet. La gente seguirá enseñando la IA, clasificando y etiquetando el contenido para que la AI pueda distinguirlo.

Este es el futuro de la moderación: Soluciones individuales y listas para usar proporcionadas por compañías que hacen que todo su negocio capacite a más y más clasificadores avanzados para obtener más datos. De la misma manera que Stripe y Square ofrecen soluciones de pago listas para las empresas que no desean procesarlas por su cuenta, las empresas nuevas como Clarifai, Picnix y Lemay.ai implementarán la moderación en línea.

Dan Shapiro de Lemay.ai está lleno de esperanza. “Al igual que con cualquier otra tecnología, todavía está en proceso de invención. Por lo tanto, no creo que vamos a ceder en caso de fracaso ". Pero, ¿puede la IA actuar alguna vez de manera autónoma sin supervisión humana? No claro "No hay ningún hombrecito en una caja de rapé que filtre cada imagen", dice. "Necesitamos obtener datos de todas partes para entrenar el algoritmo en ellos".

Zeiler, por otro lado, piensa que una vezLa inteligencia artificial moderará todo por su cuenta. Al final, el número de intervenciones por parte de las personas se reducirá a cero o a esfuerzos insignificantes. Gradualmente, los esfuerzos de la persona se convertirán en lo que la IA no puede hacer ahora, como el razonamiento de alto nivel, la autoconciencia, todo lo que las personas tienen.

Reconocer la pornografía es parte de ello. La identificación es una tarea relativamente trivial para las personas, pero es mucho más difícil entrenar un algoritmo para reconocer matices. Determinar el umbral cuando un filtro marca una imagen como pornográfica o no pornográfica también es una tarea difícil, en parte matemática.

La inteligencia artificial es imperfecta.El espejo de cómo vemos el mundo, así como la pornografía es un reflejo de lo que sucede entre las personas cuando están solas. Hay algo de verdad en ello, pero la imagen completa no lo es.

No olvides suscribirte a nuestro feed de noticias.

Aviso de Facebook para la UE! ¡Debe iniciar sesión para ver y publicar comentarios de FB!