Un pequeño equipo de ingenieros en Menlo Park. Un panel de usuarios anónimos de poder en todo el mundo. Y, cada vez más, tú.
Cada vez que abres Facebook, uno de los algoritmos más influyentes, controvertidos e incomprendidos del mundo entra en acción. Escanea y recopila todo lo publicado por cada uno de tus amigos, todos los que sigues, cada grupo al que perteneces y cada página de Facebook que te ha gustado. Para el usuario promedio de Facebook, eso es más de 1,500 mensajes. Si tienes varios cientos de amigos, podría ser hasta 10,000. Luego, de acuerdo con una fórmula cuidadosamente guardada y en constante cambio, el algoritmo de alimentación de noticias de Facebook los clasifica a todos, en lo que cree que es el orden preciso de la probabilidad de que cada publicación valga la pena. La mayoría de los usuarios solo verán los primeros cientos.
Nadie fuera de Facebook sabe con certeza cómo lo hace, y nadie dentro de la compañía se lo dirá. Y aún así, los resultados de este proceso de clasificación automatizado dan forma a las vidas sociales y los hábitos de lectura de más de mil millones de usuarios activos diarios, una quinta parte de la población adulta del mundo. El poder viral del algoritmo ha dado vuelta la industria de los medios de comunicación, impulsando a nuevas empresas como BuzzFeed y Vox a la prominencia nacional, mientras que los periódicos de 100 años se marchitan y mueren. Alimentó el aumento estratosférico de compañías de miles de millones de dólares como Zynga y LivingSocial, solo para chuparles el helio un año o dos más tarde con algunos ajustes a su código, dejando atrás a los inversionistas vacíos y trabajadores despedidos. El algoritmo de alimentación de noticias de Facebook puede modificarse para hacernos felices o tristes; Nos puede exponer a ideas nuevas y desafiantes o aislarnos en burbujas ideológicas.
La realidad del algoritmo de Facebook es algo menos fantástica, pero no menos fascinante. Recientemente tuve una rara oportunidad de pasar tiempo con el equipo de noticias de Facebook en su sede de Menlo Park, California, y ver cómo se ve realmente cuando hacen uno de esos infames “cambios” en el mercado para el algoritmo: por qué lo hacen. esto, cómo lo hacen y cómo deciden si funcionó. Un vistazo a su funcionamiento interno arroja luz no solo sobre los mecanismos de la alimentación de noticias de Facebook, sino también sobre las limitaciones del aprendizaje automático, los escollos de la toma de decisiones basada en datos y los movimientos que Facebook está realizando cada vez más para recopilar y abordar los comentarios de personas individuales. usuarios, incluido un creciente panel de evaluadores que se están convirtiendo en el equivalente de Facebook de la familia Nielsen.
El algoritmo de Facebook, según aprendí, no es defectuoso debido a algún error en el sistema. Tiene fallas porque, a diferencia de los algoritmos conscientes y perfectamente realizados de nuestros sueños de fiebre de ciencia ficción, la inteligencia detrás del software de Facebook es fundamentalmente humana. Los seres humanos deciden qué datos entran en ella, qué pueden hacer con esos datos y qué quieren que salga por el otro lado. Cuando el algoritmo falla, los humanos son los culpables. Cuando evoluciona, es porque un grupo de humanos leyó un montón de hojas de cálculo, sostuvo un montón de reuniones, corrió un montón de pruebas y decidió mejorarlo. ¿Y si sigue mejorando? Eso será porque otro grupo de humanos les sigue contando todas las formas en que se está quedando corto: nosotros.
Alison me guía a través de un laberinto de cubículos y mini cocinas abiertas hacia una pequeña sala de conferencias, donde promete desmitificar la verdadera naturaleza del algoritmo de Facebook. En el camino, me doy cuenta de que necesito usar el baño y preguntar por direcciones. Una mueca involuntaria cruza su rostro antes de que se disculpe, sonríe y dice: “Te acompañaré allí”. Al principio creo que es porque él no quiere que me pierda. Pero cuando salgo del baño, él todavía está parado afuera, y se me ocurre que no puede dejarme solo.
Por la misma razón, la feroz protección de los secretos comerciales de Facebook, Alison no puede decirme mucho sobre el código real que compone el algoritmo de noticias. Sin embargo, puede decirme qué hace y por qué, y por qué siempre está cambiando. Comienza, como suelen hacer los ingenieros, en la pizarra.
“Cuando estudias ciencias de la computación, uno de los primeros algoritmos que aprendes es un algoritmo de clasificación”, dice Alison. Él garabatea una lista de enteros positivos en borrado en seco:
4, 1, 3, 2, 5
La tarea simple que nos ocupa: diseñar un algoritmo para ordenar estos números en orden ascendente. “Los seres humanos saben cómo hacer esto”, dice Alison. “Simplemente lo hacemos en nuestras cabezas”.
Las computadoras, sin embargo, deben ser explicadas precisamente cómo. Eso requiere un algoritmo: un conjunto de instrucciones concretas mediante las cuales se puede resolver un problema dado. El algoritmo que Alison me muestra se llama “ordenación de burbuja” y funciona así:
Para cada número en el conjunto, comenzando con el primero, compárelo con el número que sigue y vea si están en el orden deseado.
Si no, revertirlos.
Repita los pasos 1 y 2 hasta que pueda continuar con el conjunto de principio a fin sin invertir ningún número.
La virtud del género burbuja es su simplicidad. El inconveniente: si su conjunto de datos es grande, es computacionalmente ineficiente y requiere mucho tiempo. Facebook, por razones obvias, no utiliza burbuja de clasificación. Utiliza un algoritmo de clasificación para ordenar el conjunto de todas las publicaciones que podrían aparecer en su fuente de noticias cuando abre la aplicación. Pero esa es la parte trivial, un subalgoritmo menor dentro del algoritmo maestro. La parte no trivial está asignando a todas esas publicaciones un valor numérico en primer lugar. Ese es, en resumen, el trabajo del equipo de clasificación de fuentes de noticias: diseñar un sistema capaz de asignar a cualquier publicación de Facebook un “puntaje de relevancia” específico para cualquier usuario de Facebook.
Ese es un problema difícil, porque lo que es relevante para usted, una publicación de su amigo de la infancia o de una celebridad que sigue, podría ser absolutamente irrelevante para mí. Para eso, explica Alison, Facebook usa un tipo diferente de algoritmo, llamado algoritmo de predicción. (El algoritmo de alimentación de noticias de Facebook, como el algoritmo de búsqueda de Google o el algoritmo de recomendación de Netflix, es realmente un complejo extenso de software formado por algoritmos más pequeños).
“Digamos que te pido que elijas al ganador de un futuro juego de baloncesto, Bulls vs. Lakers”, comienza Alison. “Toros”, solté un gruñido. Alison se ríe, pero luego asiente vigorosamente. Mi cerebro tomó su aporte y produjo una salida verbal inmediata, tal vez de acuerdo con algún algoritmo propio. (Los algoritmos de la mente humana son mucho más sofisticados que cualquier cosa que Silicon Valley haya diseñado aún, pero también dependen en gran medida de la heurística y son notoriamente propensos a la locura).
La adivinación aleatoria está bien cuando no tienes nada que perder, dice Alison. Pero digamos que había mucho dinero en mis predicciones de baloncesto, y las estaba haciendo millones de veces al día. Necesitaría un enfoque más sistemático. “Es probable que empieces a ver datos históricos”, dice. “Vas a ver el registro de victorias y derrotas de cada equipo, los registros de los jugadores individuales, que están lesionados, que están en una racha”. Tal vez tengas en cuenta los factores ambientales: ¿Quién es el equipo local? ¿Un escuadrón juega en el descanso breve o después de un vuelo de travesía? Su algoritmo de predicción podría incorporar todos estos factores y más. Si es bueno, no solo predecirá el ganador del juego, sino que le dirá su grado de confianza en el resultado.
Eso es análogo a lo que hace el algoritmo de alimentación de noticias de Facebook cuando intenta predecir si le gustará una publicación determinada. Le pregunto a Alison cuántas variables, “características”, en la jerga del aprendizaje de máquinas, el algoritmo de Facebook tiene en cuenta. “Cientos”, dice.
¿Qué pasa si a las personas les gustan las publicaciones que realmente no les gustan?
Sin embargo, no importa cuán meticulosamente construyas un algoritmo, siempre habrá datos de los que no estás al tanto: los planes de juego de los entrenadores, cómo se siente la rodilla de Derrick Rose ese día, si la pelota está inflada correctamente. En resumen, el juego no se juega por datos. Es jugado por personas. Y las personas son demasiado complejas para que cualquier algoritmo las modele.
El algoritmo de predicción de Facebook enfrenta otra complicación, esta un poco más epistemológica. La puntuación de relevancia debe ser análoga a la probabilidad de que los Bulls ganen el juego. Ese es un resultado discreto que es completamente medible: ganan o no ganan. El algoritmo de clasificación de Facebook se utiliza para tratar de predecir un resultado similar medible: si interactuarías de alguna manera con la publicación en cuestión. Las interacciones, los humanos detrás de las noticias de Facebook, son un buen indicador de que una publicación dada ha tocado un punto importante. También resultan ser el combustible que impulsa la economía de Facebook: los clics, los “me gusta”, los compartidos y los comentarios son lo que hace que las publicaciones se vuelvan virales, conviertan a los usuarios individuales en comunidades y dirijan el tráfico a los anunciantes en los que Facebook confía para obtener ingresos.
Pero esas interacciones son solo un proxy aproximado de lo que los usuarios de Facebook realmente quieren. ¿Qué sucede si a las personas les gustan las publicaciones que realmente no les gustan o si hacen clic en las historias que resultan ser poco satisfactorias? El resultado podría ser una fuente de noticias que optimiza la viralidad, en lugar de la calidad, una que alimenta a los usuarios con una dieta constante de dulces, dejándolos mareados y un poco nauseabundos, gustando las cosas de la izquierda a la derecha pero gradualmente creciendo para odiar todo el juego tonto. ¿Cómo se optimiza contra eso?
Dentro de la empresa, los responsables de la transmisión de noticias estaban encantados con el crecimiento. Pero si bien la participación de los usuarios se disparó, no quedó claro si su satisfacción general con Facebook se mantuvo a la par. A la gente le gustaban más cosas en Facebook que nunca. ¿Pero les gustaba menos Facebook?
Para comprender cómo surgió esa pregunta, debe retroceder a 2006. Facebook, que originalmente era poco más que un compendio masivo de páginas de perfil y grupos, algo como MySpace, creó el servicio de noticias de ese año como un centro de actualizaciones sobre sus amigos. ‘actividades en el sitio. Los usuarios se enfadaron ante la idea de que sus actualizaciones de estado, los cambios en la imagen del perfil y las notas coquetas en las páginas de otros se incrustarían en los feeds de todos sus amigos, pero Facebook siguió adelante.
Incluso entonces, no todo lo que hicieron tus amigos lo hizo en tu feed de noticias. Para evitar abrumar a las personas con cientos de actualizaciones todos los días, Facebook creó un algoritmo básico para filtrarlos según la probabilidad de que fueran de su interés. Sin una forma real de medir eso, el botón me llegó tres años después, los ingenieros de la empresa simplemente hicieron suposiciones basadas en su propia intuición. Los primeros criterios para la inclusión de una publicación en tu feed de noticias incluían la antigüedad y la cantidad de amigos que mencionaron. Con el tiempo, el equipo intentó ajustar esas suposiciones y probar cómo los cambios afectaban la cantidad de tiempo que los usuarios pasaban en el sitio. Pero sin la posibilidad de evaluar qué tipo de publicaciones encantaban a las personas y cuáles eran aburridas, ofensivas o confusas, los ingenieros esencialmente lanzaban dardos.
151230_FT_Facebook-Mosseri-Whiteboard
Adam Mosseri (de pie), el director de productos para noticias, con su equipo de gerentes de productos. En el sentido de las agujas del reloj, desde el extremo izquierdo: Greg Marra, Vibhi Kant, Uzma Barlaskar, Chris Tosswill, Mosseri, Scott Thomson y Sammi Krug.
Foto por Christophe Wu / Facebook
El botón “Me gusta” no era solo una nueva forma para que los usuarios interactúen en el sitio. Fue una forma en que Facebook pudo alistar a sus usuarios para resolver el problema de cómo filtrar mejor sus propias fuentes de noticias. Que los usuarios no se dieran cuenta de que estaban haciendo esto era quizás la parte más ingeniosa. Si Facebook les hubiera dicho a los usuarios que tenían que clasificar y revisar las publicaciones de sus amigos para ayudar a la compañía a determinar cuántas personas más deberían verlos, habríamos encontrado el proceso tedioso y distraído. El algoritmo de alimentación de noticias de Facebook fue uno de los primeros en reclutar a los usuarios de manera subrepticia para personalizar su experiencia e influir en los demás.
De repente, el algoritmo pudo identificar las publicaciones más populares y hacerlas “virales”, un término que se aplicaba previamente a las cosas que se comunicaban de persona a persona, en lugar de transmitirlas de forma algorítmica a una audiencia masiva. Sin embargo, los empleados de Facebook no eran los únicos que podían ver lo que se necesitaba para que una publicación determinada se volviera viral. Los editores, anunciantes, estafadores e incluso usuarios individuales comenzaron a recoger los elementos que las publicaciones virales solían tener en común: las características que parecían desencadenar gustos reflexivos de un gran número de amigos, seguidores e incluso extraños al azar. Muchos comenzaron a adaptar sus publicaciones para obtener la mayor cantidad de “me gusta”. Los consultores de redes sociales surgieron para aconsejar a las personas sobre cómo utilizar el algoritmo de Facebook: las palabras correctas para usar, el momento adecuado para publicar, la combinación correcta de palabras e imágenes. “ME GUSTA ESTO”, una publicación para sentirse bien imploraría, y la gente lo haría, incluso si realmente no les importara mucho la publicación. No pasó mucho tiempo antes de que los feeds de los usuarios de Facebook comenzaran a sentirse inquietantemente similares: todos estaban llenos de contenido que fue diseñado para volverse viral, gran parte de lo contrario o condescendiente. Se ahogó la sustancia, los matices, la tristeza y cualquier cosa que provocó pensamientos o emociones más allá de un simple pulgar hacia arriba.
Un algoritmo puede optimizar para un resultado dado, pero no puede decirle cuál debe ser ese resultado. Solo los humanos pueden hacer eso. Cox y los otros humanos detrás de las noticias de Facebook decidieron que su objetivo final sería mostrar a las personas todas las publicaciones que realmente les interesan y ninguna de las que no lo hacen. Sabían que eso podría significar sacrificar algunos compromisos a corto plazo, y quizás ingresos, en nombre de la satisfacción del usuario. Con Facebook acumulando dinero, y el fundador y CEO Mark Zuckerberg controlando la mayoría de las acciones con derecho a voto, la compañía tuvo el raro lujo de optimizar el valor a largo plazo. Pero eso aún dejó la cuestión de cómo hacerlo exactamente.
Las organizaciones de medios han definido históricamente lo que le importa a su audiencia a través de su propio juicio editorial. Presione sobre lo que hace que una historia valga la pena, y apelarán a valores como la verdad, el interés periodístico y el interés público. Pero Cox y sus colegas en Facebook se han esforzado por evitar poner su propio sello editorial en las noticias. En su lugar, su definición de trabajo de lo que le importa a cualquier usuario de Facebook dado es solo esto: lo que él o ella clasificaría en la parte superior de sus feeds dada la elección. “La forma perfecta de resolver este problema sería preguntar a todos qué historias querían ver y cuáles no, pero eso no es posible ni práctico”, dice Cox. En cambio, Facebook decidió preguntar a algunas personas qué historias querían ver y cuáles no. Había alrededor de 1,000 de esas personas, y hasta hace poco, la mayoría vivía en Knoxville, Tennessee. Ahora están en todas partes
El impulso para humanizar las entradas y salidas de la fuente de noticias comenzó bajo el antecesor de Mosseri, Will Cathcart. (Escribí sobre varias de esas innovaciones aquí.) Cathcart comenzó por recopilar formas más sutiles de datos de comportamiento: no solo si alguien hizo clic, sino cuánto tiempo pasó leyendo una historia una vez que hizo clic en ella; No solo si le gustaba, sino si le gustaba antes o después de leer. Por ejemplo: si te gusta una publicación antes de que la hayas leído, Facebook aprendió, se corresponde mucho más débilmente con tu sentimiento real que después de haberle gustado.
Después de tomar las riendas a finales de 2013, la gran iniciativa de Mosseri fue configurar lo que Facebook llama su “panel de calidad de alimentación”. Comenzó en el verano de 2014 como un grupo de varios cientos de personas en Knoxville a quienes la compañía pagó para ir a una oficina cada año. día y proporcione comentarios continuos y detallados sobre lo que vieron en sus noticias. (Su ubicación era, dice Facebook, un “accidente histórico” que surgió de un proyecto piloto en el que la empresa se asoció con un subcontratista no identificado). Mosseri y su equipo no solo estudiaron su comportamiento. También les hicieron preguntas para tratar de entender por qué les gustó o no les gustó una publicación determinada, cuánto les gustó y qué hubieran preferido ver en su lugar. “De hecho, escriben un pequeño párrafo sobre cada historia en sus noticias”, señala Greg Marra, gerente de productos del equipo de clasificación de noticias. (Este es el grupo que se está convirtiendo en el equivalente de Facebook de las familias de Nielsen).
“La pregunta era: ‘¿Qué podríamos estar perdiendo?'”, Dice Mosseri. “¿Tenemos puntos ciegos?”. Por ejemplo, agrega: “Sabemos que hay algunas cosas que ves en tu feed que te encantaron y sobre las que estabas emocionado, pero en realidad no interactuaste”. Una forma de medir eso, el algoritmo devaluaría tales publicaciones en favor de otras que se prestan de forma más natural a los “me gusta” y los clics. Pero, ¿qué señal podría usar Facebook para capturar esa información?
En unos meses, Mosseri y su equipo se habían vuelto tan dependientes de los comentarios del panel que lo tomaron en todo el país, pagando a una muestra demográficamente representativa de personas de todo el país para calificar y revisar sus comentarios de Facebook diariamente desde sus propios hogares. A fines del verano de 2015, Facebook disolvió el grupo de Knoxville y comenzó a expandir el panel de calidad de alimentación en el extranjero. El instinto de Mosseri era correcto: el algoritmo de alimentación de noticias tenía puntos ciegos que los científicos de datos de Facebook no podrían haber identificado por sí mismos. Tomó un tipo diferente de datos (retroalimentación humana cualitativa) para comenzar a llenarlos.
Ese acto de equilibrio es tarea del pequeño equipo de ingenieros de noticias, científicos de datos y gerentes de productos que vienen a trabajar todos los días en Menlo Park. Son personas como Sami Tas, un ingeniero de software cuyo trabajo es traducir los cambios propuestos por el equipo de clasificación de noticias al lenguaje que una computadora puede entender. Esta tarde, mientras miro por encima de su hombro, me está guiando a través de un problema que puede parecer tan pequeño como para ser trivial. Sin embargo, es exactamente el tipo de pequeño problema que Facebook considera crítico.
La mayoría de las veces, cuando las personas ven una historia que no les importa en sus noticias, se desplazan justo por delante. Algunas historias les irritan tanto que se mueven para hacer clic en el pequeño menú desplegable en la parte superior derecha de la publicación y seleccionar “Ocultar publicación”. El algoritmo de Facebook considera que una señal negativa fuerte y se esfuerza por mostrarles menos publicaciones como esa. en el futuro.
Sin embargo, no todos usan Facebook de la misma manera. Los científicos de datos de Facebook estaban conscientes de que una pequeña proporción de usuarios, el 5 por ciento, estaban haciendo el 85 por ciento de la ocultación. Cuando Facebook profundizó, descubrió que un pequeño subconjunto de ese 5 por ciento ocultaba casi todas las historias que vieron, incluso las que les gustaron y comentaron. Para estos “superhiders”, resultó que ocultar una historia no significaba que no les gustara; fue simplemente su forma de marcar la publicación “leer”, como archivar un mensaje en Gmail.
Sin embargo, sus acciones estaban sesgando los datos en los que Facebook confiaba para clasificar las historias. Por más intrincado que sea, el algoritmo de noticias no intenta modelar individualmente el comportamiento de cada usuario. Trata tus gustos como idénticos en valor a los míos, y lo mismo ocurre con nuestras pieles. Para los superhiders, sin embargo, el equipo de clasificación decidió hacer una excepción. Tas tuvo la tarea de ajustar el código para identificar a este pequeño grupo de personas y descontar el valor negativo de sus pieles.
Una vez que se haya probado un cambio como el de Tas en cada una de estas audiencias, presentará los datos resultantes en una de las “reuniones de clasificación” semanales del equipo de noticias y responderá a las preguntas de Mosseri, Allison, Marra y sus colegas. En cuanto a su efecto en diversas métricas. Si el equipo está convencido de que el cambio es positivo, libre de consecuencias no deseadas, los ingenieros a cargo del código en los equipos de iOS, Android y Web lo implementarán gradualmente para el público en general.
Incluso entonces, Facebook no puede estar seguro de que el cambio no tendrá algún efecto sutil a largo plazo que no haya podido anticipar. Para protegerse contra esto, mantiene un “grupo reservado”, una pequeña proporción de usuarios que no ven el cambio durante semanas o meses después del resto de nosotros.
Hablar del algoritmo de alimentación de noticias de Facebook en singular, entonces, puede ser engañoso. No es solo que el algoritmo sea realmente una colección de cientos de algoritmos más pequeños que resuelven los problemas más pequeños que conforman el problema más grande de qué historias mostrar a las personas. Es que, gracias a todas las pruebas y los grupos reservados, hay más de una docena de versiones diferentes de ese algoritmo maestro que se ejecutan en el mundo en un momento dado. El truco de “ocultar historias” de Tas se anunció el 31 de julio, y su publicación al respecto en el blog “News Feed FYI” de Facebook pasó casi inadvertida para el público en general. Sin embargo, es de suponer que los superhideres del mundo ahora están ligeramente más satisfechos con sus noticias y, por lo tanto, es más probable que sigan usando Facebook, compartiendo historias con amigos y viendo los anuncios que mantienen a la compañía en el mercado.
La encuesta que Facebook ha estado realizando durante los últimos seis meses, que le pide a un subconjunto de usuarios que escojan sus favoritos entre dos publicaciones en paralelo, es un intento de recopilar el mismo tipo de datos de una muestra mucho más amplia de lo que es posible a través de El panel de calidad de alimentación. Pero la creciente participación de los usuarios ordinarios no solo está en el lado de entrada de la ecuación. En los últimos dos años, Facebook también ha dado a los usuarios más poder para controlar la salida de sus feeds de noticias.
El algoritmo sigue siendo la fuerza impulsora detrás del ranking de publicaciones en tu feed. Pero Facebook está dando a los usuarios cada vez más la capacidad de afinar sus propios feeds, un nivel de control al que durante mucho tiempo se había resistido como oneroso e innecesario. Facebook ha pasado siete años trabajando para mejorar su algoritmo de clasificación, dice Mosseri. Cuenta con asistentes de aprendizaje automático que desarrollan regresiones logísticas para interpretar cómo el comportamiento pasado de los usuarios predice con qué publicaciones es probable que participen en el futuro. “Podríamos pasar 10 años más, y lo haremos, tratando de mejorar esas [técnicas de aprendizaje automático]”, dice Mosseri. “Pero puedes obtener mucho valor ahora solo con preguntar a alguien:” ¿Qué quieres ver? ¿Qué no quieres ver? ¿Qué amigos siempre quieres ver en la parte superior de tu feed? “
La edad del algoritmo no ha terminado, pero ha habido un cambio en la velocidad.
Esas ahora son preguntas que Facebook le permite a cada usuario responder por sí misma. Ahora puede “dejar de seguir” a un amigo cuyas publicaciones ya no quiere ver, “ver menos” de cierto tipo de historia, y designar a sus amigos y páginas favoritos como “ver primero”, para que sus publicaciones aparezcan en la parte superior. de su fuente de información cada vez que inicie sesión. La forma de hacer todas estas cosas no es inmediatamente obvia para el usuario ocasional: debe hacer clic en una pequeña flecha gris hacia abajo en la esquina superior derecha de una publicación para ver esas opciones. La mayoría de la gente nunca lo hace. Pero a medida que se aclaran las limitaciones de la alimentación totalmente automatizada, Facebook se ha vuelto más cómodo al resaltar estas opciones a través de recordatorios emergentes ocasionales con enlaces a explicaciones y páginas de ayuda. También está probando nuevas formas para que los usuarios interactúen con la fuente de noticias, incluyendo fuentes de noticias alternativas basadas en temas y nuevos botones para transmitir reacciones que no sean similares.
El cambio es en parte defensivo. Los mayores desafíos para el dominio de Facebook en los últimos años, los advenedizos que amenazan con hacer con Facebook lo que Facebook hizo con Myspace, han evitado este tipo de enfoque basado en datos. Instagram, que Facebook adquirió en 2012 en parte para sofocar la amenaza que representa su creciente popularidad, simplemente le muestra cada foto de cada persona que sigue en orden cronológico. Snapchat ha eclipsado a Facebook como la red social elegida por los adolescentes al evitar la viralidad y el filtrado automatizado en favor de formas más íntimas de interacción digital.
Facebook no es la única empresa basada en datos que se enfrenta a los límites de la optimización algorítmica en los últimos años. El famoso motor de recomendación de películas de Netflix ha llegado a depender en gran medida de los humanos a quienes se les paga por ver películas todo el día y clasificarlas por género. Para contrarrestar la influencia de las pruebas A / B automáticas de Amazon, el CEO Jeff Bezos considera muy importante las quejas específicas de los usuarios individuales y mantiene una dirección de correo electrónico pública para ese propósito. Sería prematuro declarar la antigüedad del algoritmo antes de que realmente comenzara, pero ha habido un cambio en la velocidad. El Mosseri de Facebook, por su parte, rechaza la palabra de moda “basada en datos” en referencia a la toma de decisiones; él prefiere “informados”.
Sin embargo, hay un inconveniente potencial para dar a los usuarios este tipo de control: ¿Qué pasa si se equivocan, como suelen ser los humanos, sobre lo que realmente quieren ver? ¿Qué pasaría si la base de datos de Facebook de nuestros comportamientos en línea realmente nos conociera mejor, al menos de alguna manera, de lo que nos conocíamos a nosotros mismos? ¿Podría dar a la gente la fuente de noticias que dicen que quieren en realidad hacerla menos adictiva de lo que era antes?
Mosseri me dice que no está particularmente preocupado por eso. Los datos hasta el momento, explica, sugieren que asignar más peso a las encuestas y darles a los usuarios más opciones ha llevado a un aumento en el compromiso general y el tiempo dedicado al sitio. Si bien los dos objetivos pueden parecer estar en tensión en el corto plazo, “encontramos que las mejoras cualitativas de las noticias parecen estar relacionadas con el compromiso a largo plazo”. Esa puede ser una feliz coincidencia si continúa siendo cierta. Pero si hay algo que Facebook ha aprendido en 10 años de publicar las noticias, es que los datos nunca cuentan la historia completa, y el algoritmo nunca será perfecto. Lo que parece que está funcionando hoy podría ser desenmascarado como un error mañana. Y cuando lo hace, los humanos que van a trabajar todos los días en Menlo Park leerán un montón de hojas de cálculo, realizarán un montón de reuniones, realizarán un montón de pruebas, y luego cambiarán el algoritmo una vez más.