Épisode 164 : Suite à la diffusion en direct sur Facebook du massacre de Christchurch par le terroriste lui-même, Facebook a réagi. Nous revenons sur cette déclaration et sur l’impuissance des plateformes comme Facebook à modérer leurs vidéos diffusées en direct.

Le 15 mars à Christchurch, une petite ville de Nouvelles Zélande, un terroriste déboule dans 2 mosquées et abat de sang froid 50 personnes. 50 innocents morts, 1 fous furieux et plusieurs milliers de témoins…

La vidéo du massacre de Christchurch a été diffusée largement sur Facebook en direct, passant outre ses systèmes de contrôle.

Depuis 3 semaines le débat fair rage et Facebook est sommé de s’expliquer quant à sa capacité à contrôler les contenus diffusés sur sa plateforme.

Que s’est-il passé exactement ?

Le sordide assassinat a été diffusé en direct sur Facebook. Le tueur avait préparé minutieusement son acte à des fins de propagande, recouvrant ses armes de références racistes, et installant son portable sur sa poitrine pour filmer ses crimes de plus près et les diffuser au plus vite. 

Une vidéo de 17 minutes absolument insoutenable, balancée comme ça en direct sur la toile !

Pendant ces interminables 17 minutes de live la vidéo a été vue par un peu moins de 200 personnes qui assiste à la tuerie tranquillement installés derrières leur écran. Dégueulasse !

12 minutes après la fin du direct, la police Néo zélandaise signale à Facebook ce « contenu inapproprié » et la vidéo est retirée de la plateforme.

La vidéo originale aura donc été présente sur Facebook pendant 29 minutes et vue par 4.000 personnes sur la planète.

Des millions de copies immédiatement balancées à travers la toile

Et là on se dit 29 minutes pour supprimer un contenu en ligne, FB a fait preuve d’une réactivité qu’on ne lui connait pas… Sauf que l’histoire ne s’arrête pas là.

Avant même son signalement, la vidéo était déjà dupliquée et partagée par un utilisateur du forum « 8chan ». Un forum bien connu de la mouvance extrême droite.

Résultat des millions de copie de la vidéo originale sont balancées sur Facebook mais aussi sur des tonnes de forum et a peu près toutes les autres plateformes sociales.

Dans les premières 24 heures, Facebook a supprimé 1,5 millions de copies des images de l’attaque terroriste.

Facebook sommé de s’expliquer !

Journalistes et politiques pointent rapidement du doigts le Fiasco de la plateforme et l’accuse d’inaction.

Et Facebook se défend et tente de rassurer sur sa bonne volonté et sa productivité.

Dans un long article de blog le vice-président de Facebook Guy Rosen s’explique très rapidement et reviens sur la chronologie des faits.

Il précise aussi que la vidéo a été visionnée moins de 200 fois au cours de la diffusion en direct et surtout qu’aucun utilisateur n’a signalé la vidéo lors de la diffusion en direct.

Facebook explique que tout a été mis en oeuvre pour tromper les filtres de vigilance

Facebook explique aussi avoir dû affronter une « communauté de militants mal intentionnés qui ont travaillé de concert pour télécharger des versions modifiées de cette vidéo, dans le but de tromper notre filtrage ».  

Facebook tente de rassurer sur sa capacité à maitriser sa plate-forme de diffusion en live mais admet des faiblesses.

Dans son article de blog, Guy Rosen reconnait que l’immédiateté de Facebook Live pose des défis uniques.

Il explique que Facebook emploie désormais 15.000 modérateurs qui tentent de garder un oeil sur les principales vidéos en live et sur les contenus qui lui sont signalés.

Facebook explique aussi utiliser l’intelligence artificielle pour détecter et classer par ordre de priorité les vidéos susceptibles de contenir des actes suicidaires ou violents.

Sauf que l’intelligence artificielle a bien du mal à détecter les contenus

Les systèmes d’intelligence artificielle sont basés sur des «données d’apprentissage», ce qui signifie que vous avez besoin de plusieurs milliers d’exemples de contenu pour former un système capable de détecter certains types de texte, d’images ou de vidéos.

Cette approche a très bien fonctionné dans des domaines tels que la nudité, la propagande terroriste et la violence graphique, où il existe un grand nombre d’exemples que nous pouvons utiliser pour entraîner nos systèmes.

Et puis, à l’heure du streaming de jeu video, comment faire la part des choses entre un contenu réel et un contenu jeu vidéo

Sauf que sur FB le contrôle se fait a posteriori

Seulement voilà, il est un principe qui demeure inchangé : le contrôle se fait a posteriori, après diffusion, donc. 

Face au scandal, certains utilisateurs se demandent si il ne faut pas que Facebook intègre un léger différé à ses lives

Faut-il, renoncer à la fonction « live », c’est à dire au direct, et imposer un léger différé comme le font la plupart des émissions de télévision qui ne veulent pas perdre le contrôle de ce qui pourrait se produire sur leur plateau ?

Sur le différé Facebook est catégorique, c’est non !

Le différé ne changerait pas grand-chose à la réactivité du réseau social. Le volume de vidéos vues par jour (trois milliards) est tellement énorme.

Facebook avance aussi que le différé retarderait l’intervention des secours que le direct sur Facebook sert aussi à alerter. 

Mais alors comment faire ? Facebook annonce travailler à de nouveaux outils de signalement.

Facebook affirme travailler à affiner les critères de signalement des vidéos.

Les utilisateurs n’ont à ce jour que la mention « autre que le suicide ». Il faudrait y ajouter des catégories telles que « meurtre » ou « terrorisme ».

Ça fait froid dans le dos.

Mark Zuckerberg prend la parole et en appel aux législateurs

Dans une très longue tribune sur le Washington Post, Zuckerberg prend la parole. Un peu en mode self défense.

« Je crois que les gouvernements et les régulateurs doivent jouer un rôle plus actif. […] Je pense qu’une nouvelle réglementation est nécessaire »

« Il est impossible de supprimer tout le contenu préjudiciable d’Internet, mais lorsque les utilisateurs utilisent des dizaines de services de partage différents – tous dotés de leurs propres politiques et processus – nous avons besoin d’une approche plus normalisée. »

« L’une des idées est que les organismes tiers établissent des normes régissant la distribution de contenu préjudiciable et mesurent les entreprises par rapport à ces normes. »

Et si la réponse était ailleurs ?

Soyons clair, le problème ce n’est pas FB. Ce n’est pas non plus le live sur FB.Faisons une suggestions, tiens. Et si ce pays arrêtaient de vendre des armes. Ah oui tiens !

Notons que la Première ministre de Nouvelle-Zélande Jacinda Ardern a annoncé la semaine dernière l’interdiction de la vente des fusils d’assaut et fusils semi-automatiques.

. . .

Le Super Daily est fabriqué avec une pluie d’amour par les équipes de Supernatifs.

Nous sommes une agence de content marketing et social media basée à Lyon. Nous aidons les entreprises à créer des relations durables et rentables avec leurs audiences. Nous inventons, produisons et diffusons des contenus qui engagent vos collaborateurs, vos prospects et vos consommateurs.

Contact : bonjour@supernatifs.com



Partager cet épisode