Re: Facebook: pétition à Mark Zuckerberg

Scientiste a écrit:

Mais d'où vient ce puritanisme stupide ?


Facebook a censuré cette merveille :

Il vient simplement de la :

Facebook - Statement of Rights and Responsibilities:
7- You will not post content that: is hateful, threatening, or pornographic; incites violence; or contains nudity or graphic or gratuitous violence.

902

Re: Facebook: pétition à Mark Zuckerberg

Je ne savais pas trop où le mettre mais pour info, ce soir il y a le premier apéro twitter Sciences Po au Basile :
http://tinyurl.com/6ersvl5

Pour ma part j'y serai !

Lolita, light of my life, fire of my loins. My sin, my soul. Lo-lee-ta: the tip of the tongue taking a trip of three steps down the palate to tap, at three, on the teeth. Lo. Lee. Ta

903

Re: Facebook: pétition à Mark Zuckerberg

Charmante surprise, SdE.

"Et sans races, comment peut-on parler de racisme?" - sabaidee, 16/05/2014
"Allez, rince ton visage et enlève la merde dans tes yeux, va lire les commentaires des lecteurs du monde (le monde, hein, pas présent ou national hebdo) et tu percevras le degré d'agacement que suscitent ces associations subventionnées..." - sabaidee, 06/09/2016

"(influence léniniste de la "praxis historique réalisante et légitimée par sa propre réalisation historique effective", au sens hégélien du terme, dans l'action islamiste, au travers de l'état islamique - je n'utilise volontairement pas de majuscule pour cet "état" en ce que je lui dénie toute effectivité historique)" - Greg, 18/07/2016

"Oui oui, je maintiens. Il n'y a rien de plus consensuel que le Point. " - FDL, 28/07/2016

Re: Facebook: pétition à Mark Zuckerberg

critique du film The Social Network par votre serviteur avec des vrais extraits du film dedans.

905

Re: Facebook: pétition à Mark Zuckerberg

Une petite question : comment fait-on, quand on veut rédiger un nouveau statut dans le profil FB, pour aller à la ligne sans appuyer sur Entrée ? (car si j'appuie sur Entrée, ça publie automatiquement le message ; nouvelle fonctionnalité absurde...)

"François Hollande, qui est et reste à mes yeux un très bon Président, un décideur juste et bon, d'une intelligence fine et curieuse de tout, posé, humble et droit, un grand homme politique, bien élu, qui a engagé de très nombreuses réformes qui s'imposaient depuis des années voire des décennies" (Greg)
"Dès que je vois inscrit "FDL", je ne lis pas. C'est perte de temps. Il est totalement timbré, violent, et ses écrits me révulsent.  Son idéologie qui a évolué vers l'extrême droite est symptomatique d'une véritable dégénérescence intellectuelle." (Greg)
"Le CCIF défend les libertés fondamentales." (Broz)

906

Re: Facebook: pétition à Mark Zuckerberg

FDL a écrit:

Une petite question : comment fait-on, quand on veut rédiger un nouveau statut dans le profil FB, pour aller à la ligne sans appuyer sur Entrée ? (car si j'appuie sur Entrée, ça publie automatiquement le message ; nouvelle fonctionnalité absurde...)

Shift + Entrée

M'enfin bon.

907

Re: Facebook: pétition à Mark Zuckerberg

Ah, merci !

"François Hollande, qui est et reste à mes yeux un très bon Président, un décideur juste et bon, d'une intelligence fine et curieuse de tout, posé, humble et droit, un grand homme politique, bien élu, qui a engagé de très nombreuses réformes qui s'imposaient depuis des années voire des décennies" (Greg)
"Dès que je vois inscrit "FDL", je ne lis pas. C'est perte de temps. Il est totalement timbré, violent, et ses écrits me révulsent.  Son idéologie qui a évolué vers l'extrême droite est symptomatique d'une véritable dégénérescence intellectuelle." (Greg)
"Le CCIF défend les libertés fondamentales." (Broz)

908

Re: Facebook: pétition à Mark Zuckerberg

Attention danger !
Cf la fin de l'article pour désactiver ce machin.

Le Figaro a écrit:

Facebook identifie vos amis par reconnaissance faciale

La reconnaissance automatique des visages permet de gagner du temps, vante Facebook.
Lors de l'ajout de photos, le site suggère de «taguer» des amis dont il a reconnu les visages.

Facebook veut s'assurer que vous soyez le meilleur des amis. De ceux qui n'oublient jamais un visage. Lors de l'ajout de nouveaux albums, le réseau social cherche désormais à déterminer les personnes présentes sur les photos grâce à un procédé de reconnaissance faciale et vous suggère, en fonction des résultats, de signaler leur présence en les marquant d'un «tag». Testée depuis décembre, la nouvelle fonction est aujourd'hui proposée à la plupart des membres du site dans le monde, a annoncé Facebook mardi.

Dans une note publiée en décembre, Facebook assurait que ce procédé de reconnaissance automatique des visages n'avait que des avantages. Il évite en effet d'identifier les mêmes personnes à plusieurs reprises dans un album, une étape qui peut se révéler particulièrement fastidieuse. Jusqu'alors, les 100 millions de personnes identifiées chaque jour sur les photos de Facebook étaient «taguées» manuellement. L'algorithme utilisé, encore perfectible, est appelé à s'affiner à mesure que les internautes confirmeront les identités de leurs proches.
Google tacle cette méthode «très inquiétante»

En dépit de ces avancées, l'éditeur de sécurité Sophos regrette que Facebook n'ait pas suffisamment sensibilisé ses membres à l'arrivée de cette fonction. «Une fois de plus, il semble que Facebook rogne discrètement sur la vie privée de ses utilisateurs», déplore Sophos sur son blog. La reconnaissance des visages a en effet été activée d'office et discrètement. Pour y échapper, il faut décocher une case, nichée dans les réglages de confidentialité (*). Une fois ce réglage choisi, votre nom ne sera plus suggéré lorsque vos amis chargeront des photos de vous.

Si elle est proposée par plusieurs logiciels de photo, comme iPhoto d'Apple et Picasa de Google, la reconnaissance faciale des visages pose davantage de questions lorsqu'elle est adossée à un réseau social qui totalise plus de 700 millions de membres. Le mois dernier, le président exécutif de Google, Eric Schmidt, avait taclé son concurrent en jugeant que le procédé d'analyse des visages, «très inquiétant», était un terrain où il ne fallait pas s'aventurer. Google, qui sait reconnaître des visages dans son moteur de recherche, n'appliquera donc pas l'algorithme à ses membres, a-t-il promis.

* Rendez-vous dans les paramètres de confidentialité, repérez le réglage «Suggérer à mes amis les photos où j'apparais», cliquez à droite sur «Modifier les paramètres» et choisissez «Désactivé» ou «Activé» dans le menu qui apparaît.

"François Hollande, qui est et reste à mes yeux un très bon Président, un décideur juste et bon, d'une intelligence fine et curieuse de tout, posé, humble et droit, un grand homme politique, bien élu, qui a engagé de très nombreuses réformes qui s'imposaient depuis des années voire des décennies" (Greg)
"Dès que je vois inscrit "FDL", je ne lis pas. C'est perte de temps. Il est totalement timbré, violent, et ses écrits me révulsent.  Son idéologie qui a évolué vers l'extrême droite est symptomatique d'une véritable dégénérescence intellectuelle." (Greg)
"Le CCIF défend les libertés fondamentales." (Broz)

Re: Facebook: pétition à Mark Zuckerberg

FDL a écrit:
Le Figaro a écrit:

Facebook identifie vos amis par reconnaissance faciale

The Economist a écrit:

But could such technology soon be used by anyone at all, to identify random passers-by and unearth personal details about them? A study which is to be unveiled on August 4th at Black Hat, a security conference in Las Vegas, suggests that day is close. Its authors, Alessandro Acquisti, Ralph Gross and Fred Stutzman, all at America’s Carnegie Mellon University, ran several experiments that show how three converging technologies are undermining privacy. One is face-recognition software itself, which has improved a lot. The researchers also used “cloud computing” services, which provide lots of cheap processing power. And they went to social networks like Facebook and LinkedIn, where most users post real names and photos of themselves.

http://www.economist.com/node/21524829

Oder so ähnlich.

Re: Facebook: pétition à Mark Zuckerberg

Craig Johnson  a écrit:

A new law in Missouri that makes it illegal for teachers to privately contact current or former students on Facebook and other social networking sites is not a friend of education, teaching professionals told CNN on Monday.
[...]
"The law doesn't prohibit social media contact," Cunningham told CNN. "If anybody says it does then they have not read the law," she said. "It just stops exclusivity, we just want those conversations to be available to the parents and school districts,” Cunningham said.

So while social networking sites would be OK - as long as the communication was public - conversations that take place, say, in Facebook's built-in e-mail feature or Twitter's direct messaging feature may be unlawful.

When the bill was signed into law last month Cunningham said the measure was needed to make sure schools were aware of sexual misconduct by potential hires and employees.

http://news.blogs.cnn.com/2011/08/01/mi … her-sites/

Oder so ähnlich.

911

Re: Facebook: pétition à Mark Zuckerberg

Les privacy settings de facebook ont été modifiés, il est presque impossible de bloquer le wall maintenant hmm

Autant les paramètres avancés étaient géniaux, autant là, la simplification à l'extrème rend impossible tout contrôle. (plus de bloquage sur l'onglet info, pas de contrôle de visibilité sur les attending events...)

Bref, c'est emmerdant.

Re: Facebook: pétition à Mark Zuckerberg

ecrans.fr a écrit:

Facebook : la mémoire cachée

par Camille Gévaudan

L’appétit vorace de Facebook pour les données personnelles n’est un secret pour personne. Régulièrement, son estomac numérique gargouille auprès de ses membres pour réclamer son dû. « Donnez-moi votre numéro de mobile, que je puisse renvoyer votre mot de passe en cas d’oubli ! » « Expliquez-moi vos opinions politiques, que je puisse mieux cibler mes publicités ! » « Dites-moi ce que vous lisez, ce que vous écoutez, ce que vous regardez, ce que vous cuisinez, que vos amis puissent en profiter ! » Et la plupart des 800 millions d’inscrits, dociles, jettent leurs gros steaks de vie privée dans la gueule béante du réseau social. Ce que personne ne semble savoir, en revanche, c’est que le monstre est dépourvu de système digestif. Il se contente de stocker les données, toujours plus de données, sans jamais en effacer aucune.

Les découvertes du jeune Max Schrems sont effarantes. Au mois de juillet, cet étudiant autrichien en droit a réussi à se procurer l’ensemble des données dont Facebook dispose sur lui. En épluchant les 1222 pages ( !) de son dossier, il a constaté que le réseau social avait soigneusement archivé toutes les informations qu’il croyait avoir supprimées depuis belle lurette. Anciens pseudonymes, messages privés, demandes d’amis refusées... Il soupçonne même l’existence de fiches sur les internautes non inscrits à Facebook. Max Schrems a décidé de saisir les autorités compétentes en Irlande, où Facebook a son siège européen, pour demander une enquête approfondie. À 24 ans, il est en passe de devenir une sérieuse épine dans le pied du réseau qui valait 70 milliards de dollars.


« Je ne cherche aucun gain financier ou personnel. Je veux simplement pouvoir aller sur Facebook sans me soucier du traitement de ma vie privée », justifie-t-il. Lors de son échange universitaire en Californie, l’an dernier, il a eu l’occasion de rencontrer des responsables de Facebook et de parler avec eux des différences de législation entre les États-Unis et l’Europe en matière de protection de la vie privée. Les premiers sont très laxistes, et le vieux Continent beaucoup plus strict. « J’ai écrit un article sur ce sujet, et j’ai alors découvert que tous les utilisateurs de Facebook vivant en dehors des États-Unis et du Canada étaient liés par contrat à Facebook Irlande », une société « qu’ils ont probablement installée là pour bénéficier d’une fiscalité avantageuse ». Hors Amérique du Nord, donc, « Facebook dépend des lois européennes sur la vie privée. Et bien sûr, il ne les respecte pas. » La bataille commence.

Dégainant sa directive 95/46/CE qui garantit un tel droit à tout citoyen européen, Max Schrems écrit à Facebook pour réclamer l’accès à l’ensemble des données le concernant, via un formulaire très bien caché sur le site du réseau. Il doit insister un peu, et finit par recevoir sur CD-Rom un fichier PDF lourd de plusieurs centaines de mégaoctets et long de 1222 pages. Avec les quelques étudiants qui l’accompagnent dans sa démarche, il a créé le site « Europe versus Facebook » pour partager ses découvertes et expliquer aux internautes comment faire de même. Il y publie son dossier PDF après l’avoir anonymisé, et liste très précisément le type d’informations stockées par Facebook pour chacun de ses membres.





- Facebook connaît bien sûr la liste d’amis liée à un profil, mais conserve également le nom de tous les prétendants refusés. Puisque leur demande a été rejetée, il y a des chances non négligeables ces personnes soient totalement étrangères à l’internaute en question. Mais Facebook conserve tout de même, pour une durée indéterminée, la trace d’un lien virtuel entre ces individus étrangers l’un à l’autre.

- Même son de cloche du côté des « événements ». Facebook garde la liste complète des invitations adressées à un membre depuis la date de son inscription, quelle qu’ait été sa réponse. S’il a dit qu’il viendrait à la soirée, Facebook le sait. S’il a dit « non » ou « peut-être », idem. S’il n’a pas répondu parce qu’il ne se sentait pas concerné par cet événement, Facebook retient qu’il n’a pas répondu mais qu’il était invité.

- Les messages sont sans doute l’aspect le plus scandaleux du dossier. Courriers privés et tchats entre amis sont tous archivés dans le même système de messagerie sur Facebook et y restent pour toujours. Le bouton « Supprimer » n’a qu’une fonction cosmétique : il permet de masquer le message aux yeux de l’internaute, mais reste sur les serveurs de Facebook avec la mention « statut : effacé ».





- Même subterfuge pour les statuts, les pokes... et les tags de photos : ils sont indélébiles sur les serveurs. Quand un membre de Facebook décide de marquer la présence d’un autre membre sur une photo, le consentement de ce dernier n’est pas requis. Il peut retirer le « tag » après coup s’il ne souhaite pas être associé à l’image, mais celui-ci devient simplement invisible sur le site. Facebook garde la trace du lien entre la personne et la photographie.

- Que de réjouissances, encore, au chapitre « Machines » du dossier ! « Facebook place un fichier “cookie” sur chaque ordinateur qui se connecte au site. Outre le traçage des internautes, ils s’en servent aussi pour créer des liens entre les utilisateurs et leurs ordinateurs. Ils ont une liste complète des ordinateurs qu’une personne a utilisés pour aller sur Facebook, et une liste de toutes les personnes ayant utilisé un même ordinateur pour aller sur Facebook. » En clair, Facebook sait qui fréquente qui, au travail ou à domicile, y compris parmi les personne n’étant pas « amies » sur le réseau social.

- Quant au chapitre « Checkins », il liste tout simplement toutes les connections d’un internaute à Facebook depuis son inscription. Chaque checkin est associé à un numéro unique, une date, une heure, une longitude et une latitude.


« Shadow profiles »



À la page 3 de son dossier, Max Schrems a froncé les sourcils. « Il y avait des adresses e-mail que je n’ai jamais communiquées à Facebook, raconte-t-il à Ecrans.fr. Et pourtant il les connaissait ! » Étrange, très étrange. Il soupçonne l’outil « Rechercher des amis », qui permet d’importer son carnet d’adresses sur Facebook et donc de fournir au réseau ce genre de coordonnées. Une de ses connaissances aurait ainsi enrichi le profil de Schrems sans même en avoir conscience.

Puis il fait le lien avec une autre bizarrerie. « Quand on invite à un événement quelqu’un qui n’est pas sur Facebook, il faut rentrer son adresse e-mail. Cette personne reçoit alors un courrier l’encourageant à s’inscrire sur le réseau, avec le nom et la photo de tous les gens que Facebook pense qu’il peut connaître. » On comprend que Facebook ait fait le lien entre l’émetteur de l’invitation et son destinataire, mais comment peut-il suggérer dix autres connaissances potentielles ? Pour Max Schrems, il n’y a qu’une possibilité : ce non-inscrit dispose d’une fiche secrète sur Facebook — un « shadow profile » alimenté par les membres du réseau.

Quand on tape un nom dans le moteur de recherche, que l’on synchronise son mobile ou son carnet d’adresses avec le réseau social, toutes les informations grappillées seraient ainsi conservées et recoupées entre elles de manière automatique. Facebook pourrait ainsi piocher dans ces « shadow profiles » pour envoyer des e-mails très personnalisés aux internautes non inscrits.





Entre mi-août et mi-septembre, Max Schrems a adressé exactement 22 plaintes au Commissaire irlandais à la protection des données — une pour chaque point de fonctionnement de Facebook qu’il estime être illégal. Six d’entre elles concernent les informations que Facebook conserve alors que l’internaute les croit supprimées. D’autres dénoncent la reconnaissance faciale, le système de « tags » sur les photos ou encore les conditions d’utilisation du site, floues et trop souvent changées. Les fiches secrètes sur les non-membres du réseau sont particulièrement problématiques : « Facebook Irlande rassemble une quantité excessive d’informations sur les non-membres sans les en informer ni leur demander leur consentement », accuse la plainte.

Max Schrems est optimiste : « Dans une interview, le Commissaire a dit que si le contenu qu’on « supprime » de Facebook n’est pas réellement effacé, c’est bien illégal. Donc on est plutôt sûrs de nous : on va gagner cette bataille. » L’enquête a débuté cette semaine et les résultats devraient être connus d’ici la fin de l’année.

http://www.ecrans.fr/Facebook-la-memoir … 13424.html

« Hit me right in my white guilt »

Re: Facebook: pétition à Mark Zuckerberg

Très très intéressant... effrayant aussi. C'était la minute paranoïa mais nécessaire de Mr Cyclopède. Merci. Je te le pique pour faire circuler... mais pas sur facebook.

Re: Facebook: pétition à Mark Zuckerberg

Privacy a écrit:

Les privacy settings de facebook ont été modifiés, il est presque impossible de bloquer le wall maintenant hmm

Autant les paramètres avancés étaient géniaux, autant là, la simplification à l'extrème rend impossible tout contrôle. (plus de bloquage sur l'onglet info, pas de contrôle de visibilité sur les attending events...)

Bref, c'est emmerdant.

Chez moi ça n'a pas bougé, j'ai tjrs deux listes, les gens qui voient le mur et ceux qui ne le voient pas. J'en suis sûre car j'ai deux comptes bidon, un dans chacune des listes, pour vérifier.

Re: Facebook: pétition à Mark Zuckerberg

Encore un bug dans les gestion des droits d'accès:

Sébastien Lavandon a écrit:

Mercredi matin, des photos privées de Mark Zuckerberg qu'un internaute a réussi à se procurer ont été publiées sur la plateforme d'hébergement d'images Imgur. Comment les a-t-il trouvées? Simplement en utilisant la fonction "signaler/bloquer" du réseau social. Son but? Montrer les dysfonctionnements de sécurité du site qui rassemble 800 millions de membres.

http://www.lexpress.fr/actualite/high-t … 59083.html

La révolution orange: Casimir président !

916

Re: Facebook: pétition à Mark Zuckerberg

Une petite question : l'espèce de machin immonde et illisible appelé Timeline, sur FB, va devenir automatique sous peu ou bien peut-on y échapper ?

"François Hollande, qui est et reste à mes yeux un très bon Président, un décideur juste et bon, d'une intelligence fine et curieuse de tout, posé, humble et droit, un grand homme politique, bien élu, qui a engagé de très nombreuses réformes qui s'imposaient depuis des années voire des décennies" (Greg)
"Dès que je vois inscrit "FDL", je ne lis pas. C'est perte de temps. Il est totalement timbré, violent, et ses écrits me révulsent.  Son idéologie qui a évolué vers l'extrême droite est symptomatique d'une véritable dégénérescence intellectuelle." (Greg)
"Le CCIF défend les libertés fondamentales." (Broz)

Re: Facebook: pétition à Mark Zuckerberg

FDL a écrit:

Une petite question : l'espèce de machin immonde et illisible appelé Timeline, sur FB, va devenir automatique sous peu ou bien peut-on y échapper ?

Oui, visiblement le 22 ou 23, on n'y échappera pas. D'ailleurs, il en rajoute encore trois couches sur la vie privée.

918

Re: Facebook: pétition à Mark Zuckerberg

Merci. C'est un coup à ce que je supprime mon compte, ça...

"François Hollande, qui est et reste à mes yeux un très bon Président, un décideur juste et bon, d'une intelligence fine et curieuse de tout, posé, humble et droit, un grand homme politique, bien élu, qui a engagé de très nombreuses réformes qui s'imposaient depuis des années voire des décennies" (Greg)
"Dès que je vois inscrit "FDL", je ne lis pas. C'est perte de temps. Il est totalement timbré, violent, et ses écrits me révulsent.  Son idéologie qui a évolué vers l'extrême droite est symptomatique d'une véritable dégénérescence intellectuelle." (Greg)
"Le CCIF défend les libertés fondamentales." (Broz)

Re: Facebook: pétition à Mark Zuckerberg

C'est ce que je me disais aussi... mais bon, ils conserveront mes données...

Re: Facebook: pétition à Mark Zuckerberg

Bon, bah mes excuses, mais apparemment c'était pas obligé dès le 23. Je vais aller taper sur les doigts de mes amis qui avaient sorti ça. neutral

Tant mieux, cela dit !

Re: Facebook: pétition à Mark Zuckerberg

Personnellement je trouve que Timeline est dotée d'outils assez intéressants concernant la protection de la vie privée, la gestion de l'"historique personnel" permet réellement de contrôler le moindre post de façon très simple.
Le réel problème c'est que tout ce qui n'est pas affiché ou "supprimé" reste en réalité dans les serveurs de fb, ce qui je pense est illégal. J'espère que des sanctions considérables seront imposées, mais il s'agit d'une question plus vaste : face aux abus de plus en plus importants de compagnies qui ont une puissance financière considérable (c'est pareil avec google), est-ce qu'on dispose d'options qui dissuadent réellement d'enfreindre la loi ?

It ain’t what you don’t know that gets you into trouble. It’s what you know for sure that just ain’t so.

"Un terroriste ne mérite pas de mourir. Il mérite de vivre l'enfer. A perpétuité. Et seule la déchéance de la nationalité le permet." Greg

Re: Facebook: pétition à Mark Zuckerberg

Barney a écrit:

Le réel problème c'est que tout ce qui n'est pas affiché ou "supprimé" reste en réalité dans les serveurs de fb, ce qui je pense est illégal.

Selon quelle loi de quelle pays ?

La révolution orange: Casimir président !

Re: Facebook: pétition à Mark Zuckerberg

Bal d'Aquin a écrit:
Barney a écrit:

Le réel problème c'est que tout ce qui n'est pas affiché ou "supprimé" reste en réalité dans les serveurs de fb, ce qui je pense est illégal.

Selon quelle loi de quelle pays ?

Selon les directives européennes, car en réalité pour l'Europe, le contrat d'utilisation passé ne l'est qu'avec Facebook Irlande, et non pas Facebook US.

Donc c'est bel et bien le droit européen qui s'applique pour facebook, et ils ne peuvent pas changer le contrat d'utilisation aussi facilement que ça, pour un paquet de raisons juridiques et fiscales. Ce droit européen interdit strictement de stocker des données personnelles sans le consentement de l'utilisateur, c'est à dire de conserver des données supprimées.

Il y a trois procédures en cours contre facebook :

- une procédure initiée par l'équivalent de la CNIL, en Irlande.
- une procédure par la Commission Européenne
- Un procès intenté par un particulier (en Allemagne) sur le fondement de la violation de la vie privée qui a toutes les chances d'aboutir au vu des preuves accumulées contre facebook.

Dans les trois cas, facebook prend l'affaire vraiment très au sérieux car ils ont compris que potentiellement ils pouvaient prendre des amendes d'un montant astronomique.

PS 1 : il ne leur est plus possible de transiger par un accord à l'amiable
PS 2: ils perdent une procédure et ce sont tous les particuliers, en Europe, qui pourront intenter un procès à Facebook.

Last edited by kobayashi (26-12-2011 21:52:41)

"Un gamin de 18 ans tutoie une mama en boubou, oubliant qu'on ne donne plus du camarade dans le coin depuis une paie."

Re: Facebook: pétition à Mark Zuckerberg

Et pour répondre à Barney sur les procédures face aux entreprises ayant une énorme puissance financière : pense à la Standard Oil...

Le salut viendra de la Commission Européenne.

"Un gamin de 18 ans tutoie une mama en boubou, oubliant qu'on ne donne plus du camarade dans le coin depuis une paie."

Re: Facebook: pétition à Mark Zuckerberg

Le manuel à destination des modérateurs FB.

http://www.scribd.com/doc/81863464/oDeskStandards

« Hit me right in my white guilt »

926

Re: Facebook: pétition à Mark Zuckerberg

Les Echos a écrit:

Bug Facebook : Fleur pellerin appelle à porter plainte si le problème est avéré

La ministre déléguée à l'Economie numérique Fleur Pellerin, peu convaincue par les explications données par Facebook sur le « bug » de lundi, conseille aux utilisateurs qui s'estiment lésés de porter plainte si le problème était prouvé.

Le bug, infraction pénale ? Peut-être faudrait-il aussi une cellule d'assistance psychologique aux victime.

(L'article ici.)

Last edited by Bouh (25-09-2012 13:24:00)

"Moult a appris qui bien connut ahan"

927

Re: Facebook: pétition à Mark Zuckerberg

Et moi, Slate me dit que c'était même pas un bug, mais une hallucination collective.

http://www.slate.fr/story/62277/faceboo … collective

"Et sans races, comment peut-on parler de racisme?" - sabaidee, 16/05/2014
"Allez, rince ton visage et enlève la merde dans tes yeux, va lire les commentaires des lecteurs du monde (le monde, hein, pas présent ou national hebdo) et tu percevras le degré d'agacement que suscitent ces associations subventionnées..." - sabaidee, 06/09/2016

"(influence léniniste de la "praxis historique réalisante et légitimée par sa propre réalisation historique effective", au sens hégélien du terme, dans l'action islamiste, au travers de l'état islamique - je n'utilise volontairement pas de majuscule pour cet "état" en ce que je lui dénie toute effectivité historique)" - Greg, 18/07/2016

"Oui oui, je maintiens. Il n'y a rien de plus consensuel que le Point. " - FDL, 28/07/2016

928

Re: Facebook: pétition à Mark Zuckerberg

Si "avérée", l'infraction serait l'atteinte à la vie privée.

M'enfin bon.

929

Re: Facebook: pétition à Mark Zuckerberg

Yo Barney, j'ai envie de t'ajouter sur Facebook, y'a moyen ?

"Et sans races, comment peut-on parler de racisme?" - sabaidee, 16/05/2014
"Allez, rince ton visage et enlève la merde dans tes yeux, va lire les commentaires des lecteurs du monde (le monde, hein, pas présent ou national hebdo) et tu percevras le degré d'agacement que suscitent ces associations subventionnées..." - sabaidee, 06/09/2016

"(influence léniniste de la "praxis historique réalisante et légitimée par sa propre réalisation historique effective", au sens hégélien du terme, dans l'action islamiste, au travers de l'état islamique - je n'utilise volontairement pas de majuscule pour cet "état" en ce que je lui dénie toute effectivité historique)" - Greg, 18/07/2016

"Oui oui, je maintiens. Il n'y a rien de plus consensuel que le Point. " - FDL, 28/07/2016

Re: Facebook: pétition à Mark Zuckerberg

Bien sûr ! Message privé si nécessaire.

It ain’t what you don’t know that gets you into trouble. It’s what you know for sure that just ain’t so.

"Un terroriste ne mérite pas de mourir. Il mérite de vivre l'enfer. A perpétuité. Et seule la déchéance de la nationalité le permet." Greg

Re: Facebook: pétition à Mark Zuckerberg

Petit rappel à ceux qui n'utilisent pas FB en version English (us): il est encore temps de faire le changement avant que graphsearch ne soit disponible en France.
Vous avez surement du ménage à faire dans votre profil.

http://globalnews.ca/news/710936/worrie … -settings/

« Hit me right in my white guilt »

932

Re: Facebook: pétition à Mark Zuckerberg

Un très bel article, très intéressant, sur l'algorithme de Facebook, dont on entend parler depuis longtemps sans avoir aucune information sur son élaboration et ses critères de paramétrage.

La seule chose que je me demande, c'est pourquoi Facebook ne nous permettrait pas de choisir de se voir appliqué l'algorithme ou pas ? Après tout, pour toute expérience, il faut un "groupe témoin", et ce groupe témoin  serait celui qui n'aurait pas l'algorithme. Ce faisant, Facebook pourrait laisser ses utilisateurs comparer entre la version avec et la version sans algorithme de tri, lui permettant plus facilement d'atteindre un "optimum", pour Fb et pour ses utilisateurs.

http://www.slate.fr/story/112681/qui-co … l-facebook
Voici ceux qui contrôlent votre fil d'actualité Facebook

Will Oremus

Traduit par Yann Champion

Tech & internet
18.01.2016 - 4 h 45

mis à jour le 18.01.2016 à 15 h 59

Illustrations: Lisa Larson-Walker.

Une petite équipe d’ingénieurs en Californie. Un panel d’utilisateurs anonymes à travers le monde. Et, de plus en plus, vous-même.

À chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, controversés et incompris au monde se met à en œuvre. Il scanne et collecte tout ce qui a été posté dans la semaine passée par chacun de vos amis, chaque personne que vous suivez, chaque groupe auquel vous appartenez et chaque page Facebook que vous aimez. Pour un utilisateur standard, cela correspond à plus de 1.500 posts. Si vous avez plusieurs centaines d’amis, cela peut monter à 10.000. Ensuite, grâce à une formule jalousement gardée et en constante évolution, l’algorithme de Facebook les classe dans ce qu’il croit être l’ordre précis de l’intérêt que vous allez leur porter. La plupart des utilisateurs ne verront que les cent premiers environ.

Personne en dehors de Facebook ne sait exactement comment il fait cela et personne à l’intérieur de la société ne vous le dira. Et pourtant, les résultats de ce processus de classement automatique structurent la vie sociale et les habitudes de lecture de plus d’un milliard d’utilisateurs chaque jour (soit un cinquième des adultes du monde). Le pouvoir viral de l’algorithme a révolutionné le secteur médiatique en propulsant des startups comme BuzzFeed ou Vox au premier plan, tandis que des journaux centenaires sombrent et meurent. Il a alimenté l’essor incroyable de sociétés à un milliard de dollars comme Zynga et LivingSocial –avant de leur couper les vivres un ou deux ans plus tard en faisant seulement quelques ajustements au code, entraînant la ruine des investisseurs et le licenciement de salariés. Modifier légèrement l’algorithme du fil d’actualité de Facebook peut nous rendre plus ou moins tristes ou heureux, peut nous exposer à des idées nouvelles ou, au contraire, peut nous isoler dans des bulles idéologiques.

Et pourtant, en dépit de cette puissance, le nouvel algorithme de Facebook est étonnamment inélégant, horriblement changeant et définitivement opaque. Et il reste susceptible de nous proposer des posts que nous trouvons agaçants, énervants ou même juste ennuyeux. Facebook en a conscience. Ces derniers mois, le réseau social a organisé un test auprès de certains utilisateurs, en leur montrant le premier post de leur fil d’actualité à côté d’un autre, moins important, afin qu’ils choisissent celui qu’ils préfèreraient lire. Le résultat? Les classements effectués par l’algorithme correspondent «parfois» aux préférences de l’utilisateur, a reconnu Facebook, en refusant d’en dire plus. Lorsque les résultats ne correspondent pas, la société affirme que cela indique «un point à améliorer».

«Parfois» n’est pas le genre de taux de succès que l’on attendrait d’un bout de code aussi admiré et redouté. L’influence démesurée de l’algorithme a engendré tout un ensemble de critiques qui le traitent comme s’il possédait un esprit propre (une sorte de forme d’intelligence runique, lâchée dans le monde afin de poursuivre une mission dont les objectifs se situent bien au-delà des limites de l’entendement humain). À une époque où Facebook et les autres géants de la Silicon Valley filtrent chaque jour un peu plus nos choix et guident nos décisions au travers de logiciels d’apprentissage automatique, où des géants de la technologie comme Elon Musk et de grands scientifiques comme Stephen Hawking nous préviennent de la menace existentielle posée par l’intelligence artificielle, le mot algorithme lui-même commence à paraître inquiétant. Dans l’imaginaire populaire, les algorithmes sont des entités puissantes et mystérieuses qui désignent toutes les manières par lesquelles la technologie et la modernité peuvent à la fois assouvir tous nos désirs et menacer les valeurs qui nous sont chères.
Redoutables modifications

La réalité de l’algorithme de Facebook est quelque peu moins fantastique, mais non moins fascinante. J’ai eu le rare privilège de pouvoir passer un peu de temps avec l’équipe de Facebook en charge du fil d’actualité dans leurs bureaux de Menlo Park, en Californie, afin de voir de quelle manière se font ces redoutables tweaks (modifications) de l’algorithme –comment ils sont décidés, comment ils sont faits et comment l'on juge si cela a fonctionné ou non. Un aperçu de son fonctionnement interne devrait mettre en lumière non seulement les mécanismes du fil d’actualité de Facebook, mais aussi les limitations de l’apprentissage automatique, les pièges de la prise de décision à partir de données et les mesures prises de plus en plus par Facebook pour avoir (et tenir compte) des retours des utilisateurs individuels, notamment d’un panel grandissant de testeurs qui sont en train de devenir pour Facebook une sorte d’équivalent à 60 millions de consommateurs.

L’algorithme de Facebook, ai-je appris, n’est pas imparfait en raison d’un problème quelconque dans le système. Il est imparfait parce que, à l’inverse de ce qui se passe avec les algorithmes savants et idéaux de nos rêves les plus fous, l’intelligence à la base du logiciel de Facebook est fondamentalement humaine. Ce sont des humains qui décident quelles données doivent entrer, ce que le logiciel peut en faire et ce qui doit en ressortir au final. Si l’algorithme se trompe, la faute en incombe à des humains. Lorsque l’algorithme évolue, c’est parce qu’un groupe d’humains a analysé tout un tas de tableaux, organisé tout un tas de réunions, conduit tout un tas de tests et décidé de l’améliorer. Et s’il s’améliore, c’est parce qu’un autre groupe d’humains, nous, leur signale ses défauts.

À mon arrivée dans les vastes bureaux, conçus par Frank Gehry, de Facebook, j’ai été accueilli par un grand type élancé de 37 ans, à l’allure juvénile et dont le visage ne cessait d’alterner entre sourire sincère et expression de concentration intense. Tom Alison est le directeur de l’ingénierie pour le fil d’actualité; il est à la tête des humains qui s’occupent de l’algorithme.

Il me guide à travers un dédale de bureaux et de minicuisines ouvertes vers une petite salle de conférence, où il me promet de démystifier la véritable nature de l’algorithme de Facebook. En chemin, je me rends compte qu’il faut que j’aille aux toilettes et je lui en demande la direction. Une grimace involontaire traverse son visage, puis il s’excuse, sourit et me dit «Je vais vous accompagner». Au début, je me dis que c’est parce qu’il a peur que je me perde. Mais lorsque je ressors, je me rends compte qu’il m’a attendu dehors et qu’il n’est, en fait, sans doute pas autorisé à me laisser seul.

Les bureaux de Facebook à Menlo Park. Christophe Wu/Facebook.

Pour la même raison (la protection farouche par Facebook de ses secrets professionnels), Tom Alison ne peut trop m’en dire sur le code qui compose l’algorithme du fil d’actualité. Il peut, néanmoins, me dire ce qu’il fait et pourquoi (et pourquoi il est sans cesse modifié). Tout commence, comme souvent chez les ingénieurs, par un tableau blanc.

«Lorsque l’on étudie l’informatique, l’un des premiers algorithmes que l’on apprend est un algorithme de tri», explique Tom Alison. Il inscrit une liste de nombres entiers positifs au stylo effaçable:

4, 1, 3, 2, 5

Première tâche simple à réaliser: concevoir un algorithme pour classer ces nombres par ordre croissant. «Les êtres humains savent très bien faire cela, dit Alison. Mais nous le faisons plus ou moins inconsciemment.»

Pour qu’un ordinateur le fasse, en revanche, il faut lui expliquer précisément comment procéder. Cela nécessite un algorithme: un ensemble d’instructions concrètes pour résoudre un problème donné. L’algorithme qu’il me montre se nomme «tri à bulles» et fonctionne de cette façon:

1. Pour chaque nombre de la liste, en commençant par le premier, le comparer au nombre qui suit et voir s’ils sont dans l’ordre désiré.

2. Les inverser si ce n’est pas le cas.

3. Répéter les étapes 1 et 2 jusqu’à pouvoir avancer dans toute la liste, du début à la fin sans inverser aucun nombre.

L’avantage du tri à bulles est qu’il est très simple. L’inconvénient: si l’ensemble des données est important, il est inefficace et demande beaucoup trop de temps. Facebook, pour des raisons évidentes, n’a pas recours au tri à bulles. Il a bien recours à un algorithme de tri pour classer la liste de tous les posts qui pourraient apparaître dans votre fil d’actualité lorsque vous ouvrez l’application, mais c’est la partie triviale (un subalgorithme mineur à l’intérieur du véritable algorithme). La partie non triviale consiste à assigner à chacun de ces posts une valeur numérique de départ. C’est, pour faire court, le travail de l’équipe de classement du fil d’actualité: concevoir un système capable d’assigner à tout post Facebook donné un «score de pertinence» spécifique à chaque utilisateur.
Algorithme de prédiction

Ce n’est pas une tâche aisée, car ce qui est pertinent pour vous (le post d’un ami d’enfance ou d’une célébrité que vous suivez) peut ne pas l’être du tout pour moi. Pour cette raison, comme me l’explique Tom Alison, Facebook utilise une autre sorte d’algorithme, appelé algorithme de prédiction (l’algorithme du fil d’actualité de Facebook, comme l’algorithme de recherche de Google ou l’algorithme de recommandation de Netflix, n’est en fait qu’un grand logiciel complexe composé d’algorithmes plus petits).

«Disons que je vous demande de choisir le vainqueur d’un futur match de basket, Bulls contre Lakers», commence Tom Alison. Je m’exclame: «Les Bulls!» Il rit, puis il secoue la tête vigoureusement. Mon cerveau a reçu l’information (input) et produit une réponse verbale immédiate (output), peut-être en raison de quelque algorithme espiègle dont il a le secret (Les algorithmes de l’esprit humain sont bien plus sophistiqués que tout ce que la Silicon Valley ait jamais pu produire, mais ils dépendent aussi lourdement de l’heuristique et sont notoirement sujets à la folie.)

Faire des suppositions à l’aveugle, c’est bien lorsque l’on n’a rien à perdre, m’explique Alison. Mais imaginons que mes prédictions sportives impliquent des sommes d’argent considérables et que j’en fasse des millions par jour. Une approche plus systématique serait nécessaire. «Vous commenceriez sans doute par jeter un œil aux données historiques, me dit-il. Vous regarderiez le bilan des matchs gagnés et perdus de chaque équipe, les statistiques des joueurs, savoir lesquels sont blessés, etc.» Je tiendrais aussi sans doute compte de facteurs environnementaux: qui joue à domicile? Est-ce qu’une équipe joue sans avoir eu le temps de récupérer ou après un long vol en avion? Mon algorithme de prédiction pourrait incorporer tous ces facteurs et bien d’autres encore. S’il est bon, il m’indiquera non seulement le nom de l’équipe qui va gagner le prochain match, mais aussi le degré de confiance qu’il a dans le résultat.

Cela s’apparente à ce que fait l’algorithme de Facebook lorsqu’il essaie de prédire si vous allez aimer ou non un post donné. J’ai demandé à Alison combien de variables l’algorithme de Facebook peut prendre en compte. «Des centaines», m’a-t-il répondu.

Le post que vous voyez au sommet de votre fil d’actualité a été choisi parmi des milliers d’autres comme celui qui est le plus susceptible de vous faire rire, pleurer, sourire, cliquer, aimer, partager ou commenter

L’algorithme ne se contente pas de prévoir si vous allez ou non aimer un post en fonction de vos comportements passés. Il prédit aussi si vous allez cliquer dessus, le commenter, le partager, le masquer ou même le considérer comme du spam. Il va prédire chacun de ces résultats, et d’autres, avec un certain degré de confiance, puis tous les combiner avant de produire une note de pertinence spécifique à vous-même et à ce post. Lorsque chaque post de votre fil d’actualité s’est vu attribuer un degré de pertinence, l’algorithme de tri procède au classement que vous voyez à l’écran. Le post que vous voyez au sommet de votre fil d’actualité a été choisi parmi des milliers d’autres comme celui qui est le plus susceptible de vous faire rire, pleurer, sourire, cliquer, aimer, partager ou commenter.

Pourtant, aussi bien construit soit votre algorithme, il y aura toujours des données dont vous n’aurez pas tenu compte: les plans des entraîneurs, le genou de Derrick Rose, le degré de gonflage du ballon… En bref, ce ne sont pas des données qui jouent le jeu. Ce sont des êtres humains. Et les gens sont trop complexes pour qu’un algorithme puisse les modéliser.

L’algorithme de prédiction de Facebook doit faire face à une autre complication, cette fois-ci un peu plus épistémologique. Le degré de pertinence a pour but de correspondre aux chances que les Bulls ont de gagner le match. C’est un résultat simple et pleinement mesurable: soit ils gagnent, soit ils ne gagnent pas. L’algorithme de tri de Facebook essayait auparavant de prédire un résultat tout aussi mesurable: l’interaction de l’utilisateur avec le post en question. Les humains qui sont derrière le fil d’actualité avaient en effet estimé que les interactions sont de bons indicateurs pour savoir si tel ou tel post a suscité un intérêt quelconque. Il s’avère qu’elles constituent également le carburant économique de Facebook: les clics, les likes, les partages et les commentaires sont ce qui rend viraux certains posts, regroupe les utilisateurs individuels en communautés et fournit du trafic aux annonceurs, dont les revenus de Facebook dépendent.

Le problème est que ces interactions ne sont qu’une indication vague sur ce que veulent vraiment les utilisateurs de Facebook. Que se passe-t-il si les gens «likent» des posts qu’ils n’aiment pas vraiment ou cliquent sur des histoires qui se révèlent décevantes? Il pourrait en résulter un fil d’actualité privilégiant la viralité à la qualité –qui donne aux utilisateurs un flux constant de sucreries, des posts à aimer à droite et à gauche, mais qui finit par leur donner la nausée et les dégoûter complètement de ce jeu stupide. Comment se prémunir contre cela?
Tournant de 2013

Nous étions fin 2013 et Facebook était la société la plus importante du monde. Le réseau social était passé à plus d’un milliard d’utilisateurs et était entré en bourse avec une valorisation dépassant les 100 milliards de dollars. L’entreprise avait passé l’année précédente à élaborer une application repensée pour mobiles qui était rapidement devenue la plus populaire aux États-Unis, devant Google Search et Google Maps. Dépassant le simple moyen de rester en contact avec ses amis, Facebook était devenu, de fait, le journal mondial du XXIe siècle: un flux quasi ininterrompu d’informations, de divertissements et de nouvelles d’amis et de personnes chères, automatiquement adapté aux intérêts personnels de chaque utilisateur.

Chez les personnes en charge du fil d’actualité de Facebook, cette croissance avait été accueillie avec excitation. Mais si l’implication des utilisateurs atteignait des sommets, personne n’était certain de leur satisfaction générale. Les gens n’avaient jamais «aimé» autant de choses sur Facebook… mais était-on sûr qu’ils aimaient toujours autant Facebook?

Pour comprendre comment cette question s’est posée, il faut remonter à 2006. Le fil d’actualité mis en place cette année-là par Facebook (qui n’était alors qu’un vaste agrégat de pages de profil et de groupes, un peu comme Myspace) avait pour objectif de vous tenir au courant des différentes activités et mises à jour de vos amis sur le site. Les utilisateurs s’irritèrent à l’idée de voir leurs mises à jour de statut, leurs changements de photo de profil ou leurs petits mots doux envoyés à d’autres pages alimenter le fil d’actualité de leurs amis, mais Facebook ne céda pas.

Mais même à cette époque, tout ce que faisaient vos amis ne finissait pas par apparaître dans votre fil d’actualité. Afin d’éviter de submerger les utilisateurs sous des centaines de mises à jour quotidiennes, Facebook élabora un algorithme rudimentaire destiné à les filtrer en fonction de l’intérêt qu’ils pouvaient représenter. Ne disposant d’aucun moyen pour en prendre réellement la mesure (le bouton «like» apparut trois ans plus tard), les ingénieurs de Facebook se contentèrent de faire des suppositions en fonction de leurs propres intuitions. Les premiers critères pris en compte pour justifier l’apparition, ou non, d’un post dans votre fil d’actualité étaient notamment sa date et le nombre de vos amis qu’il mentionnait. Au fil du temps, l’équipe tenta de modifier ces suppositions en testant de quelle manière les changements affectaient le temps passé par les utilisateurs sur le site. Toutefois, ne disposant d’aucun moyen pour évaluer quelles sortes de posts ravissaient les gens et quelles autres les ennuyaient, les fâchaient ou les gênaient, les ingénieurs tentaient des solutions au petit bonheur la chance.

Le bouton «like» était un moyen pour Facebook de faire en sorte que ses utilisateurs l’aident à résoudre le problème du classement de leur fil d’actualité

Le bouton «like» («j’aime») n’était pas uniquement un nouveau moyen pour les utilisateurs d’interagir avec le site. C’était un moyen pour Facebook de faire en sorte que ses utilisateurs l’aident à résoudre le problème du classement de leur fil d’actualité. Et le plus extraordinaire est que les utilisateurs n’ont pas eu conscience que c’était ce qu’ils étaient en train de faire. Si Facebook avait demandé à ses utilisateurs de classer les posts de leurs amis pour aider la société à déterminer combien d’autres personnes devaient les voir, nous aurions trouvé cela gênant. L’algorithme du fil d’actualité de Facebook était l’un des premiers à subrepticement pousser les utilisateurs à personnaliser leur contenu (et à influencer celui de tous les autres).

Soudain, l’algorithme avait un moyen d’identifier les posts les plus populaires… et de les rendre «viraux», terme auparavant employé pour des contenus qui se communiquaient de personne à personne et non pour des choses diffusées grâce à un algorithme à un public de masse. Mais les employés de Facebook ne furent pas les seuls à voir ce qu’il fallait à un post pour qu’il devienne viral. Les médias, les publicitaires, les faiseurs de hoax et même les utilisateurs individuels commencèrent à glaner les éléments que les posts viraux semblaient avoir en commun (les caractéristiques qui semblaient susciter des likes réflexes de la part de nombreux amis, followers et même d’inconnus). Beaucoup commencèrent à adapter leurs posts pour recevoir autant de likes que possible. Des consultants en médias sociaux commencèrent à conseiller les gens sur les meilleurs moyens de jouer avec l’algorithme de Facebook: les bons mots à utiliser, la bonne heure où poster, les bonnes proportions de mots et d’images. «Cliquez sur j’aime», implorait un post quelconque et les gens le faisaient, même s’ils s’en fichaient plus qu’autre chose. Rapidement, tous les fils d’actualités finirent par sembler horriblement similaires, tous remplis de contenus conçus pour devenir viraux, le plus souvent mièvres ou moralisateurs. Le fond, la nuance, la tristesse et tout ce qui pouvait faire réfléchir ou provoquer des émotions étaient noyés sous un déluge de pouces bleus.
«Regarder au-delà des simples clics et likes»

Les statistiques d’implication étaient à leur comble, mais était-ce vraiment ce qui était recherché par l’optimisation du fil d’actualité? La question préoccupait Chris Cox, 33 ans, un «ancien» de Facebook, architecte intellectuel du fil d’actualité. «Observer les likes, les clics, le nombre de commentaires et de partages est une manière de déterminer ce qui intéresse les gens, m’a-t-il dit par e-mail (il est désormais le responsable des produits chez Facebook). Mais nous savions qu’il y avait des endroits où c’était imparfait. Par exemple, vous pouvez lire un post tragique que vous n’avez pas envie de liker, de commenter ou de partager, mais si nous vous le demandions, vous nous diriez qu’il était important pour vous de l’avoir lu. Il y a quelques années, nous savions qu’il nous fallait regarder au-delà des simples clics et likes pour améliorer le fonctionnement du fil d’actualité dans ce type de cas.»

Vous pouvez lire un post tragique que vous n’avez pas envie de liker, mais si nous vous le demandions, vous nous diriez qu’il était important pour vous de l’avoir lu

Chris Cox, responsable des produits
chez Facebook

Un algorithme peut être optimisé pour un résultat donné, mais il ne peut vous dire ce que doit-être ce résultat. Il n’y a que les humains qui peuvent faire ça. Cox et les autres humains responsables du fil d’actualité de Facebook décidèrent que leur objectif ultime était de montrer aux gens tous les posts qui comptent vraiment pour eux et aucun de ceux qui ne leur importent pas. Ils savaient que cela pouvait impliquer de sacrifier des engagements à court terme (et peut-être des revenus) au nom de la satisfaction de l’utilisateur. Mais compte tenu des fonds levés par Facebook et du fait que son fondateur et PDG Mark Zuckerberg contrôlait la majorité des votes, la société pouvait se payer le luxe d’une optimisation pour un résultat à long terme. Ne restait plus qu’à savoir comment le faire, techniquement parlant.

Les organisations médiatiques définissent traditionnellement ce qui importe à leur public au travers de leur propre jugement éditorial. Demandez-leur ce qui fait un bon article et ils vous parleront de valeurs telles que la vérité, la pertinence et l’intérêt du public. Mais Cox et ses collègues de Facebook se sont donné du mal pour ne pas mettre leur propre cachet éditorial dans le fil d’actualité. Au lieu de cela, leur définition de ce qui intéresse l’utilisateur de Facebook est simplement la suivante: ce qu’il ou elle classerait en premier dans son fil d’actualité si on lui en donnait le choix. «Le meilleur moyen de résoudre ce problème serait de demander à tout le monde quelles histoires ils veulent voir et quelles autres ils ne veulent pas voir, mais ce n’est ni possible, ni pratique», affirme Cox. Au lieu de cela, Facebook a décidé de demander à certaines personnes quelles histoires ils voulaient voir et quelles histoires ils ne voulaient pas voir. Ils étaient un millier environ et, il y a encore peu de temps, la plupart résidaient à Knoxville, dans le Tennessee. Aujourd’hui, ils sont répartis dans le monde entier.
«Panel qualité»

Adam Mosseri, 32 ans, directeur de produit pour le fil d’actualité de Facebook, est l’homologue moins technique d’Alison (c’est un fuzzie plutôt qu’un techie dans le jargon de la Silicon Valley). Il parle de problèmes et de généralités, quand Alison s’occupe des solutions et de spécificités. C’est en quelque sorte le philosophe du fil d’actualité.

Cette envie d’humaniser le classement du fil d’actualité a débuté sous le prédécesseur de Mosseri, Will Cathcart (j’avais écrit à propos de plusieurs de ces innovations). Cathcart a commencé par rassemblé des formes plus subtiles de données comportementales: il ne s’agissait plus seulement de savoir si l’utilisateur avait cliqué ou avait liké un post, mais de savoir s’il l’avait liké avant ou après lecture. Par exemple: si vous likez un post avant de l’avoir lu, comme l’a découvert Facebook, cela correspond beaucoup moins à vos véritables sentiments que si vous le likez après lecture.

Après être passé aux commandes fin 2013, la grande initiative de Mosseri a été de mettre en place ce que Facebook appelle son «panel qualité». Cela a commencé à l’été 2014 avec un groupe de plusieurs centaines de personnes à Knoxville, que la société payait pour venir tous les jours au bureau et fournir un retour continu et détaillé sur ce qu’ils avaient vu dans leur fil d’actualité (leur localisation était, d’après Facebook, un «accident historique» provenant d’un projet pilote que la société avait fait en partenariat avec un sous-traitant dont elle n’a pas indiqué le nom). Mosseri et son équipe ne se contentaient pas d’étudier les comportements. Ils leur posèrent également des questions pour essayer de comprendre pourquoi ils aimaient tel ou tel post, à quel point ils l’aimaient et ce qu’ils auraient préféré voir à la place. «Ils écrivaient un petit paragraphe sur chaque post de leur fil d’actualité», remarque Greg Marra, chef de produit pour l’équipe de classement du fil d’actualité.

«La question était "Qu’est-ce qui peut nous échapper?", raconte Mosseri. Est-ce que nous passons à côté de certains éléments? Par exemple, nous savons qu’il y a des choses que vous voyez dans votre fil d’actualité que vous aimez ou qui vous plaisent, mais avec lesquelles vous n’interagissez pas.» Sans moyen de mesurer cela, l’algorithme déclasserait les posts de ce type à la faveur d’autres, qui se prêtent plus naturellement aux likes et aux clics. Mais quels signaux Facebook pourrait-il utiliser pour avoir accès à cette information?

Max Eulenstein et Lauren Scissors. Christophe Wu/Facebook.

Mosseri a délégué le chef de produit Max Eulenstein et la chercheuse en expérience utilisateur Lauren Scissors pour superviser le panel et leur poser des questions de ce genre. Par exemple, Eulenstein s’est servi du panel pour tester une hypothèse selon laquelle le temps qu’un utilisateur passe à regarder un post sur son fil d’actualité pourrait être un bon indicateur pour montrer qu’il l’apprécie, même s’il ne clique pas sur like. «Nous pensions que cela pouvait être le cas, mais l’on peut aussi imaginer des raisons pour lesquelles ce ne le serait pas, m’a dit Eulenstein. Cela pourrait s’expliquer par le fait, par exemple, qu’il y a des choses choquantes, que l’on regarde, mais que l’on n’a pas forcément envie de voir.» Les notes des panellistes permirent à Eulenstein et Scissors non seulement de confirmer leurs suppositions, mais aussi d’en examiner les subtilités et de commencer à quantifier le tout. «Ce n’est pas “5 secondes c’est bien, 2 secondes ce n’est pas bien”, explique Eulenstein. C’est plus en rapport avec le temps que vous passez sur un post particulier par rapport au temps passé sur les autres posts de votre fil d’actualité.» La recherche mit aussi en avant le besoin de contrôler la vitesse de la connexion à Internet des utilisateurs, qui pouvait faire penser qu’ils passaient beaucoup de temps sur un post donné alors qu’ils étaient juste en train d’attendre que la page soit chargée. C’est cette recherche qui a abouti à la modification révélée par Facebook en juin dernier, poussant l’algorithme à faire monter dans le classement les posts que les utilisateurs passaient plus de temps à voir dans leurs fils.

Mosseri et son équipe avaient été si satisfaits des retours donnés par le panel en quelques mois qu’ils décidèrent de porter l’expérience au niveau national, rémunérant un échantillon de personnes démographiquement représentatif à travers le pays pour noter et commenter les posts de leur fil d’actualité depuis leur domicile. À la fin de l’été 2015, Facebook abandonna le groupe de Knoxville et commença à étendre le panel à l’étranger. Mosseri l’avait bien ressenti: il y avait des choses qui échappaient à l’algorithme du fil d’actualité et que les ingénieurs de Facebook n’auraient pu identifier par eux-mêmes. Il leur fallait une nouvelle sorte de données (des retours qualité humains) pour commencer à combler les lacunes.

Aussi crucial soit devenu le panel qualité pour l’algorithme de Facebook, la société est de plus en plus consciente qu’une seule source de données ne peut suffire. Pour répondre à cela, elle a développé une sorte de système de contrôle et d’équilibre conformément auquel chaque nouvelle modification du fil d’actualité doit passer une batterie de tests auprès de différents types de public et être jugée selon tout un ensemble de critères.
Données plus riches et humaines

La gestion de ce système d’équilibre incombe à la petite équipe d’ingénieurs, d’analystes et de chargés de produits du fil d’actualité, qui vient travailler tous les jours à Menlo Park. Il s’agit de gens comme Sami Tas, un ingénieur logiciel dont le travail est de traduire les changements proposés par l’équipe de classement du fil d’actualité en un langage compréhensible par l’ordinateur. Cet après-midi, alors que je regarde par-dessus son épaule, il me guide à travers un problème qui pourrait sembler trivial tant il est petit. Pourtant, c’est exactement le type de problèmes que Facebook considère critiques aujourd’hui.

La plupart du temps, lorsque les gens voient une histoire dont ils se fichent dans leur fil d’actualité, ils se contentent de la passer. Certaines histoires les irritent néanmoins assez pour qu’ils fassent l’effort de cliquer sur le petit menu déroulant en haut à droite du post et sélectionnent «Masquer la publication». L’algorithme de Facebook considère qu’il s’agit d’un signal négatif fort et s’efforce de leur montrer moins de posts de cette nature par la suite.

Cependant, tout le monde n’utilise pas Facebook de la même manière. Les analystes de Facebook étaient déjà conscients qu’une petite proportion d’utilisateurs (5%) réalisait 85% de tous les «masquages». En creusant un peu plus, ils ont découvert qu’une petite partie de ces 5% masquaient presque tout ce qu’ils voyaient (même les posts qu’ils avaient aimés ou commentés). Pour ces «supermasqueurs», il s’est avéré que masquer un post ne voulait pas dire qu’ils ne l’avaient pas aimé. C’était simplement leur façon de marquer le post comme «lu», de la manière que l’on archive un message sur Gmail.

Le problème est que leurs actions introduisaient un biais dans les données dont Facebook a besoin pour classer les posts. Aussi étonnant que cela puisse paraître, l’algorithme du fil d’actualité ne tente pas de modéliser les comportements individuels de chaque utilisateur. Il traite vos likes comme une valeur identique à la mienne, et il en va de même pour ce que nous masquons. Pour les «supermasqueurs», en revanche, l’équipe de classement a décidé de faire une exception. Tas a eu pour mission de modifier le code afin d’identifier ce petit groupe de gens et de faire en sorte que la valeur négative de leurs masquages ne soit pas prise en compte.

L’algorithme est si précieux pour Facebook que chaque modification, même infime, au code doit faire l’objet de tests

Cela peut ressembler à une simple rustine, mais l’algorithme est si précieux pour Facebook que chaque modification, même infime, au code doit faire l’objet de tests –d’abord par une simulation hors ligne, puis auprès d’un petit groupe d’employés de Facebook, puis sur une petite fraction de tous les utilisateurs de Facebook– avant d’être mise en ligne. À chaque étape, la société collecte les données relatives aux effets du changement sur diverses variables allant de l’implication des utilisateurs au temps passé sur le site, en passant par les revenus publicitaires et le temps de chargement de la page. Des outils de diagnostic sont mis au point pour détecter en temps réel tout changement anormal sur ces données critiques, qui fait sonner, le cas échéant, une sorte d’alarme interne qui informe automatiquement les membres clés de l’équipe du fil d’information.

Lorsqu’un changement comme celui de Tas a été testé sur chacun de ces publics, il présente les données résultantes lors de l’une des «réunions tri» hebdomadaires de l’équipe du fil d’actualité et répond aux questions de Mosseri, Allison, Marra et ses autres collègues quant à ses effets sur diverses variables. Si l’équipe est satisfaite et considère que le changement a été positif, sans conséquence non voulue, les ingénieurs en charge du code dans les équipes iOS, Android et Web le mettent graduellement à disposition du grand public.

Mais même alors, Facebook ne peut être sûr que le changement n’aura pas d’effet subtil, à plus long terme, que la société avait été incapable d’anticiper. Pour se prémunir contre cela, il maintient un «groupe témoin», une petite proportion d’utilisateurs qui ne voient apparaître le changement que des semaines ou des mois après les autres.

Mais parler du nouvel algorithme du fil d’actualité de Facebook au singulier peut être trompeur. Et je ne parle pas uniquement du fait qu’il s’agisse en réalité d’une collection de centaines d’algorithmes plus petits résolvant les petits problèmes qui se posent lorsque l’on essaie de savoir quels posts montrer aux gens. Le fait est que, avec tous ces tests et groupes témoins, il y a actuellement plus d’une dizaine de versions différentes de cet algorithme qui sont utilisées dans le monde. La modification de Tas sur le «masquage» de posts a été annoncée le 31 juillet et son post qui en parlait sur le blog «News Feed FYI» de Facebook sont largement passés inaperçus du grand public. On suppose toutefois que les «supermasqueurs» du monde sont désormais plus satisfaits de leur fil d’actualité et donc plus susceptibles de continuer à utiliser Facebook, à partager des posts avec leurs amis et à voir les publicités qui font vivre la société.

Le panel qualité a fourni à l’équipe du fil d’actualité des données plus riches et humaines que jamais. Tas et le reste de l’équipe de classement parviennent de mieux en mieux à identifier et à réparer les manques de l’algorithme. Mais il y a un autre groupe humain auquel Facebook s’adresse de plus en plus pour que son fil d’actualité soit pertinent: les utilisateurs ordinaires comme vous et moi.
«Qu’est-ce que vous voulez voir? Qu’est-ce que vous ne voulez pas voir?»

L’enquête menée par Facebook ces six derniers mois (en demandant à certains utilisateurs de choisir leur préféré entre deux posts placés côte à côte) est une tentative de rassembler le même type de données auprès d’un échantillon de personnes bien plus vaste que le panel précédent. Mais cette implication croissante des utilisateurs lambda ne se fait pas uniquement du côté des «intrants». Ces deux dernières années, Facebook a aussi donné à ses utilisateurs de plus en plus de pouvoir sur les résultats de leur fil d’actualité.

L’algorithme est toujours la force motrice du classement des posts de votre fil. Mais Facebook donne de plus en plus à ses utilisateurs la possibilité d’en affiner les résultats (un niveau de contrôle auquel la société avait longtemps résisté, le jugeant onéreux et inutile). Facebook a travaillé sept années durant à l’amélioration de son algorithme de tri, affirme Mosseri. La société a embauché des spécialistes de l’apprentissage automatique pour développer des régressions logistiques visant à interpréter de quelle manière les comportements passés des utilisateurs peuvent permettre de prédire quels posts ils risquent d’apprécier à l’avenir. «Nous pourrions encore passer dix ans –et c’est ce que nous allons faire– à essayer d’améliorer ces techniques d’apprentissage automatique, explique Mosseri. Mais on peut d’ores et déjà obtenir beaucoup de choses intéressantes en demandant simplement aux gens: “Qu’est-ce que vous voulez voir? Qu’est-ce que vous ne voulez pas voir? Quels amis voulez-vous toujours voir en haut de votre fil d’actualité?”»

Ce sont désormais des questions auxquelles chaque utilisateur peut désormais répondre par lui-même. Vous pouvez désormais «ne plus suivre» un ami dont vous ne voulez plus voir les posts, «en voir moins» d’un certain type de posts et désigner les amis dont vous souhaitez «voir en premier» les posts à chaque fois que vous vous connectez. Toutes ces choses ne sont pas forcément évidentes pour l’utilisateur occasionnel: il faut cliquer sur une petite flèche grise en haut à droite du post pour voir ces options. La plupart des gens ne les utilisent jamais. Mais face aux limites de l’automatisation totale du fil d’actualité, Facebook commence à mettre ces options en avant au travers de pop-ups occasionnels renvoyant vers des pages d’aide et d’explication. L’entreprise teste aussi de nouvelles manières pour les utilisateurs d’interagir, comme un fil d’actualité par sujets et de nouveaux boutons permettant d’exprimer des réactions autres que «J’aime».

Ce mouvement est en partie défensif. Les principaux concurrents qui s’opposent à la domination de Facebook ces dernières années (c'est-à-dire les nouveaux venus qui menacent de faire à Facebook ce que Facebook a fait à Myspace) rejettent en bloc ce type d’approche par données. Instagram, que Facebook a acquis en 2012 en partie afin d’étouffer la menace posée par son impressionnante popularité, se contente de vous montrer toutes les photos de chaque personne que vous suivez dans un simple ordre chronologique. Snapchat a éclipsé Facebook auprès des adolescents en refusant la viralité et le filtrage automatique en faveur de formes d’interaction plus intimes.

Facebook n’est pas la seule société de ce type à avoir tenté ces dernières années de dépasser les limites posées par l’optimisation algorithmique. Le célèbre moteur de recommandation de Netflix repose de plus en plus sur des êtres humains payés pour voir des films toute la journée et les classer par genre. Afin de contrebalancer l’influence des tests A/B automatisés d’Amazon, son PDG Jeff Bezos accorde une importance démesurée aux plaintes spécifiques des utilisateurs individuels et a ouvert une adresse e-mail publique à cet effet. Il serait prématuré de déclarer la fin de l’ère de l’algorithme avant qu’elle ait vraiment vu le jour, mais nous assistons à un changement de vitesse. Adam Mosseri de Facebook, refuse pour sa part de dire que les prises de décision sont data-driven («conduites» par les données), préférant l’appellation data-informed («informées» par les données).

L’équipe de classement du fil d’actualité de Facebook pense que cette approche s’avérera payante. «À mesure que nous continuons à améliorer le fil d’actualité en fonction de ce que nous disent les gens, nous voyons que notre classement s’améliore, qu’il se rapproche de la manière dont les gens classeraient eux-mêmes les posts», affirme Scissors, la chercheuse en expérience utilisateur qui aide à superviser le panel qualité.

Il y a toutefois un inconvénient potentiel à donner ce type de contrôle aux utilisateurs: que se passe-t-il s’ils se trompent, comme les humains le font souvent, sur ce qu’ils désirent vraiment voir? La base de données de Facebook pourrait-elle nous connaître mieux, du moins d’une certaine manière, que nous ne sous connaissons nous-mêmes? Donner aux gens le fil d’actualité qu’ils disent désirer ne risque-t-il pas de rendre Facebook moins addictif qu’auparavant?

Mosseri m’affirme ne pas être vraiment inquiet à propos de cela. Jusqu’ici, explique-t-il, les données semblent montrer que le fait de laisser plus de choix aux utilisateurs a conduit à une augmentation de l’implication générale et du temps passé sur le site. Et même si ces deux objectifs peuvent sembler menacés à court terme, il pense «que les améliorations qualitatives apportées au fil d’actualité sont nécessaires à un engagement à long terme». Si cela se vérifie, ce serait une bonne nouvelle pour Facebook. Mais s’il y a bien une chose que l’entreprise a apprise en dix ans de fil d’actualité, c’est que les données ne disent pas toujours toute l’histoire et que l’algorithme ne sera jamais parfait. Ce qui semble marcher aujourd’hui pourrait bien apparaître comme une erreur demain. Et lorsque ce sera le cas, les êtres humains qui vont tous les jours travailler dans les bureaux de Facebook à Menlo Park devront analyser tout un tas de tableaux, organiser tout un tas de réunions, conduire tout un tas de tests… et modifier une fois de plus l’algorithme.

Will Oremus

"Sapere aude, aie le courage de te servir de ton propre entendement."(E. Kant)
"Le secret douloureux des Dieux et des Rois, c'est que les hommes sont libres" (Jupiter à Egisthe in Les Mouches de Sartre)