Curaduría Smart: la cultura según Amazon y Facebook

Share on facebook
Share on twitter
Share on email
Share on facebook
Share on twitter
Share on whatsapp
Share on email
Tercera de cinco entregas

“The Long Click” o el fin de la crítica así como la conocemos

¡76, 897 géneros! Desde que los periodistas de la revista norteamericana The Atlantic descubrieron este secreto de Netflix, no dejan de asombrarse. Su encuesta original a partir de los URL de las películas consultadas, permitió decodificar el algoritmo de Netflix. Pues el gigante del cine y de las series en streaming diseñó un sistema muy sofisticado para proponerles a sus suscriptores recomendaciones “personalizadas”. Gracias a 600 ingenieros de tiempo completo en Los Gatos, Silicon Valley, Netflix perfeccionó un algoritmo basado en categorías predefinidas de géneros: los famosos 76, 897 géneros personalizados o micro-géneros hasta entonces desconocidos. La ecuación genérica de cada contenido corresponde, a grandes rasgos, a los datos siguientes que son tantos “tags”. Región de contenido + Adjetivos del género + Nombre del género + Basado en… + Que se sitúa… + Adaptación/Basado en + Tema del contenido + Edad típica del público al que va dirigido, etc. A partir de estos tags, las categorías son mezcladas por los algoritmos e inscritas en cada contenido, lo cual da 76, 887 micro-géneros de nombres delirantes, como por ejemplo: “Witty Dysfunctional-Family TV Animated Comedies” (comedia animada de una familia ingeniosa y disfuncional para TV) o “Quirky TV Shows Featuring a Strong Female Lead” (excéntrico show de TV interpretado por un personaje femenino de personalidad fuerte). Así, el suscriptor de Netflix se asocia automáticamente, en función de sus consultas dentro el sitio, a una categoría de películas. Se le harán nuevas recomendaciones en función de estos micro-géneros y sus “deseos” se verán por consiguiente limitados. Esta ventaja de Netflix, cuantitativa y cualitativa a la vez, permite ya intentar predecir los gustos del público por sus series como House of Cards, Orange is the New Black o Sense8, y describir las posibilidades en función de estos resultados.

Netflix no es un caso aislado. La mayor parte de los gigantes de la net ya dispone de algoritmos de recomendación para filtrar: Amazon (con Amazon Prime), Facebook (con su newsfeed dirigido por el algoritmo EdgeRank), Apple (con iTunes Radio y Apple Music) o Google (con Google Play y Music Key). El algoritmo de prescripción está también en el corazón de los modelos de servicios culturales ilimitados en streaming, Spotify, Deezer y Pandora para la música; Steam y Twitch para los juegos de video y también Scribd y Oyster para los libros. (Nótese que estos servicios ilimitados en streaming “independientes” se apoyan en el cloud, y casi siempre, en Amazon Web Services: el cloud principal, el cual popularizó la expresión en el 2006 y democratizó su uso.)

Gracias a los poderosos algoritmos que están constantemente ajustándose al comportamiento de los usuarios –lo que llaman collaborative filtering, los sitios y las aplicaciones ofrecen, para sus suscriptores, sugerencias basadas en las ventas generales y en las tendencias del mercado y también en sus hábitos personalizados de consumo (es el famoso “te va a gustar también” de Amazon).

Frente a la mutación anunciada de la crítica tradicional, hay quienes piensan que los algoritmos, combinados con la big data, van a volverse los prescriptores culturales del mañana. Podrán incluso brindar a los internautas, según los pronósticos más optimistas, recomendaciones que los seres humanos no serían capaces de hacer sin software ni poder de cálculo. Los movimientos de la opinión pueden ser percibidos; los artistas que están despuntando son detectados; los nichos particulares descubiertos. Esta evolución se hizo posible gracias a la invención de las cookies, un mini programa que permite reconocer a un usuario: los sitios utilizan a este “soplón” para guardar en la memoria el histórico de sus actividades. Esta innovación mayúscula que debemos desde 1994 a un ingeniero de Netscape, Lou Montulli, permite hoy alimentar a la mayoría de los algoritmos de personalización. Se habla desde entonces del On Long Click para resumir esta mutación, cuando navegamos por internet y damos click a un contenido, cuando linkeamos un artículo o retwitteamos un mensaje, contribuimos sin saberlo a alimentar diferentes algoritmos que conservan los datos de los internautas y pueden deducir sus centros de interés o preferencias de compras en línea. A cambio, los algoritmos permiten una personalización de las respuestas y un diálogo y un esfuerzo publicitario a la medida lo que ha abierto el camino a todas las innovaciones recientes y espectaculares de la publicidad en línea o del marketing social.


La crítica cultural según Amazon y Facebook

Los algoritmos de recomendación no son infalibles, tampoco son necesariamente “justos” ya que las distorsiones en las recomendaciones existen.

Está en primer lugar el problema de su manipulación con fines comerciales. Lo sabemos poco, pero como reveló la encuesta de George Packer en el New Yorker, el gigante norteamericano Amazon utiliza en su sitio un sistema de publicidad –lindo eufemismo- “Co-Op”. Estos famosos “cooperative advertising agreement” se traducen en “recomendaciones”, presentadas como resultado de criterios objetivos de un algoritmo, mas en realidad son publicidad financiada por los editores. Esta manipulación, desconocida por los clientes, explica quizás en parte la relativa ineficiencia de las sugerencias de Amazon que pocas veces se traduce en actos de compra. (Amazon no propone este sistema de pay-for-display bajo la forma de publicidad sino que negocia rudamente con los editores, al margen de las leyes anticompetencia, un porcentaje adicional sobre las ventas realizadas por este medio –de 3 a 5 %–, que puede llegar en total, como en el caso de Random House, a 53 % del precio de un libro).

Un segundo tipo de distorsión de las recomendaciones proviene de los límites mismos de los algoritmos. Las máquinas son excelentes para medir lo que sea, el agrupamiento, las estadísticas de uso, el seguimiento de los históricos de consumo, el registro, la evaluación de la satisfacción, el manejo de datos de masas, etc., pero les cuesta trabajo predecir los comportamientos y los gustos a la hora de elegir o, más aun, juzgan mal las emociones y las sensibilidades. Imbatibles a la hora de encontrar el mejor precio de un boleto de avión o una habitación en un hotel, anticipan mal la prescripción cultural, contrariamente a lo que se cree con frecuencia.

¿Quién no se ha dado cuenta de que luego de haber escuchado por largo tiempo un tipo de música, Pandora, Spotify o Deezer recomendaran indefinidamente el mismo tipo de música? El algoritmo no innova, no propone más allá, no imagina, no hace asociación de ideas, cosa que lo conduce inexorablemente hacia recomendaciones cada vez más limitadas. (Este fenómeno de desgaste, también conocido como “agotamiento”, tiende a reducir las elecciones, sobre todo si el usuario no dice lo que opina. Se habla de “algoritmos de encierro”. Para encontrar nuevamente diversidad los ingenieros reintegran artificialmente, de vez en cuando, propuestas musicales aleatorias, desfasadas, para provocar la reacción del usuario y permitir que el algoritmo se renueve.)

En general, los algoritmos no logran percibir las expectativas de los usuarios que tienen gustos eclécticos también llamados multigéneros o los de aquellos que siempre están evolucionando. Puede ocurrir que por la mañana al despertarnos queramos escuchar hip hop por ejemplo pero en el trabajo preferimos escuchar música pop y en la noche para dormir “smooth jazz” –un número de situaciones, sensibilidades y estados de ánimo que un algoritmo no sabe anticipar–.

En el caso de la música clásica es más revelador todavía. Spotify y Deezer son criticados primero por la presentación caótica de sus títulos: es muy difícil escuchar los fragmentos de una ópera en el orden correcto o las sinfonías de Beethoven de manera ordenada. En cuanto a la posibilidad de elegir la interpretación, su solista o director de orquesta –Martha Argerich o Sviatoslav Richter en el piano, Furtwängler o Karajan para dirigir a Wagner–, se convierte en una empresa imposible. Esto ocurre porque los metadatos son muchas veces insuficientes y porque los algoritmos no saben todavía bien cómo clasificar o evaluar la música clásica. “Estos algoritmos no funcionan. No toman en cuenta suficientes datos, funcionan por muestras o de manera fortuita. Los que los programan no entienden es la singularidad de lo clásico. No curan lo suficiente”, me explica Klaus Heymann, el fundador internacional del portal de música clásica y jazz Naxos (entrevistado en Hong Kong). Para los nichos particulares, Heymann está convencido: la curaduría será decisiva. En el caso de la música clásica y de los otros géneros vamos a necesitar la fórmula del crítico musical del New Yorker Alex Ross, una verdadera “estética y ética del streaming”.

Hallamos estas distorsiones de recomendación con Netflix y Amazon. A pesar de que los criterios se afinan, de que la técnica mejora y de que los algoritmos aprenden, los resultados siguen siendo más cuantitativos que cualitativos y finalmente siguen siendo muy impersonales. Producen lo que se llama en la jerga “ruido”, es decir datos y contenidos que no son pertinentes. Por una parte esto ocurre por el hecho de que el data mining –o el arte de recabar datos– funciona a base de muestras, por la falta de potencia necesaria para tratar todos los datos recabados. Los resultados son objeto de permanentes correcciones. Esto vuelve las recomendaciones, ya de por sí complicadas, más precarias. Los “filtros” mejoran, las palabras clave y metadatos se afinan, el agrupamiento automático progresa pero los resultados siguen siendo decepcionantes, poco personalizados al final –sin carne ni “alma”–.

Aquí se suma un problema que es el de los límites de los “filtros”. Aun cuando los usuarios los seleccionan deliberadamente, los filtros producen “ruido”. Esto explica por un lado el fracaso de los flujos RSS y del Google Reader y, a largo plazo, el probable agotamiento de los podcasts. En estos tres casos, las recomendaciones se topan con la profusión. Por falta de tiempo es humanamente imposible consultar los contenidos enlistados por los flujos RSS o propuestos por el Google Reader. Los podcats corren el riesgo de sufrir la misma suerte: podemos suscribirnos libremente y gratuitamente pero ya no tenemos tiempo de escucharlos conforme se van acumulando en un iPod o un smartphone. Al “filtro” inicial habría que agregar una nueva capa de “recomendaciones”.

“El problema del Google Reader o de las redes RSS, es la cúmulo de información –explica Alistair Fairweather. Al principio eso nos pareció bien pero rápidamente nos sentimos ahogados por la cantidad. La pertinencia disminuía y la abundancia se volvía insoportable. Recomendar permite arreglar el problema de la avalancha de contenidos. Y esto devuelve paradójicamente a los internautas una función activa: elegir, ya no ser pasivos. Recomendar puede nutrir las conversaciones y ayudar a elegir.”

Queda pendiente el inmenso campo de análisis de las distorsiones de recomendaciones en las redes sociales. El caso de Facebook es revelador: contrariamente a Google, Apple o Amazon, Facebook es el único de los gigantes de la red que no quiere vender directamente contenidos culturales. En su lugar, los suscriptores de Facebook pueden hacer “recomendaciones” a sus “amigos” y sus socios comerciales “sugestiones” basadas en acuerdos de marketing (Facebook tiene como cliente privilegiado a Netflix para los videos, Spotify pora la musica, Zynga para los juego de video, los estudios Warner, Miramax y Lions Gate para el cine, el Washington Post, BuzzFeed, Vice y Yahoo para la información, Ticketmaster para los conciertos, y muchas marcas más para los viajes o la hotelería. Si no han verificado correctamente sus parámetros de confidencialidad en Facebook –que son complejos, numerosos, variables, elásticos y a veces incomprensibles–, los usuarios de Spotify o de Netflix pueden asombrase de que sus playlists o sus elecciones cinéfilas se posteen automáticamente en su cuenta de Facebook, prácticamente sin saberlo. En lo que respecta a la nueva funcionalidad “Instant Articles”, busca incrementar sus socios de acuerdo con el modelo “visibilidad contra publicidad” (los clientes de Facebook leen estos artículos en su timeline pero se quedan en la plataforma misma sin posibilidad de dar click; a cambio, los medios obtienen una cuota mayor de publicidad). A fin de cuentas, las redes sociales pueden contribuir a recomendar contenidos vinculados a acuerdos comerciales, arriesgando con ello una cierta interferencia entre la prescripción y el marketing.

Otras evoluciones recientes de Facebook provocan distorsiones en la recomendación. A imagen de Google y de su algoritmo PageRank, Facebook puso en marcha desde 2006, un “newsfeed” administrado por el algoritmo EdgeRank. Inicialmente este contaba con tres criterios: la afinidad del usuario, la importancia del contenido y un factor de tiempo. Desde entonces EdgeRankse se ha perfeccionado al combinar múltiples criterios, hasta 100, 000 parámetros constantemente actualizados. La movilidad y la geolocalización frecuentemente son tomados en cuenta ya que la mitad de los mil millones de usuarios de Facebook tienen acceso desde su teléfono móvil (y la mitad de sus ingresos provienen también de la publicidad móvil).

Hace poco, Facebook eligió “editorializar” los contenidos de sus usuarios, en particular las publicaciones de las cuentas “Pages” (gestionadas por medios, marcas o personalidades, ilimitadas en número de fans) y también en cierta medida las de las cuentas personales (limitadas a 5, 000 amigos). A partir de ahora, cuando un medio, una empresa o un artista postea un mensaje en su página de Facebook, el algoritmo no le permite alcanzar sino un porcentaje ínfimo de sus propios fans (entre el 5 y el 7 %). Facebook limita deliberadamente el alcance de los posts y condiciona, a través de su algoritmo, la difusión de un contenido ya sea a su buzz inicial (si el mensaje esta linkeado, compartido o comentado, el algoritmo amplia la publicación), o a la compra de espacios “patrocinados”. En otras palabras: para llegar a los amigos de su propia “página” de ahora en adelante, un usuario de Facebook tiene que comprar publicidad. (Por su parte cuando los usuarios de Facebook “likean” una “página”, piensan inocentemente que se están uniendo cuando en realidad están alimentando un algoritmo de la red social y su modelo de publicidad, sin que reciban en su timeline los mensajes de la página que les gustó.)

Un algoritmo similar existe para YouTube, Google+ y LinkedIn. En cambio, Twitter conserva el sistema de publicación que lo hizo exitoso: les tweets se publican sin algoritmo, de manera lineal, en orden cronológico invertido y en tiempo real, pero ¿por cuánto tiempo seguirá así?

Esta técnica comercial de Facebook pone al descubierto la falta de seguridad que caracteriza a las redes sociales. ¿De qué sirve, por ejemplo, para un autor, un editor o un productor, construir una comunidad en Facebook si, sin aviso alguno, la firma de Menlo Park puede reducir a la nada esta inversión y pedir que compren publicidad para poder llegar a los “fans” de su propia página? Corre el mimo riesgo, a mediano plazo, la publicación de contenidos en Instagram, Pinterest, Path, Tumblr, Snapchat, Meerkat, Periscope o Vine. A final de cuentas los medios, las industrias culturales, las marcas y todos aquellos que quieren incrementar la visibilidad de sus contenidos o de sus críticas sobre Facebook, caen en la trampa de la “ley del clic”: apostando todo a su visibilidad en las redes sociales deben pagar para llegar a su propia comunidad. De golpe, las informaciones o recomendaciones que se vuelven virales en las redes sociales ya no son necesariamente las que se dan por un verdadero buzz, por las mejores ideas o por una gran creatividad y tampoco las que son mejor localizadas por un algoritmo: a veces, son solamente los mensajes mejor patrocinados por compras de espacio.

Y hay más. Se sabe poco pero las redes sociales, Facebook y Twitter en particular, utilizan sistemáticamente los contenidos y las recomendaciones de sus suscriptores para hacer sus estudios que luego comercializan. Se habla por ejemplo del “F-comercio” para esta modalidad de marketing de Facebook. Esto funciona en dos tiempos: por un lado, los algoritmos de las redes sociales analizan minuciosamente las conversaciones de sus suscriptores, las fotografías que publican y los videos que ven y le agregan publicidad personalizada, “contextualizada” y “nativa”. Intercalado en la conversación, engañoso incluso, son tramposos también en el camuflage 2.0, a veces en el límite de la mezcla de los géneros, estos “anuncios nativos” o “tweets patrocinados” y otros promoted trends parecen menos intrusivos aun cuando dejan mucho dinero (varios cientos de miles de dólares por 24 horas de exposición en el conjunto de los cuentas de Twitter de los Estados Unidos, por ejemplo). Las redes sociales venden luego los datos de recomendación de los millones de mensajes intercambiados cada día por los usuarios. Los anunciantes, así como los responsables de las industrias creativas, de los medios o de las agencias de consultoría y de medición de las audiencias están en busca de datos precisos y en tiempo real acerca de los centros de interés de los consumidores, sus usos, los movimientos de opinión más allá de los trending topics que se hacen públicos. A final de cuentas, las industrias culturales, las marcas y los medios que publican contenidos en sus páginas de Facebook, a partir de ahora tienen que comprar publicidad para llegar a su propia comunidad antes de que sean invitados a pagar nuevamente y a un alto precio para obtener los resultados de los estudios que ellos mismos contribuyeron a generar.

Se puede pensar, como yo creo, que las redes sociales tendrán un papel preponderante en la prescripción y la diseminación de la información relativa a la cultura pero no hay que olvidar que existen estas distorsiones de recomendación.


Este artículo –publicado en cinco entregas en Horizontal– es parte de los trabajos de un programa de investigación sobre Smart Curation en la Escuela Superior de las Artes de Zurich (ZHdK). Complementa la publicación en español del libro Smart. Internet(s): una investigación (Penguin Random House, 2015).


Traducción del francés: Marcela González Durán.

Crédito de imagen: curiousflux.

Share on facebook
Share on twitter
Share on email
Share on facebook
Share on twitter
Share on whatsapp
Share on email

TIENES
QUE LEER

Shopping Basket