À l’Assemblée nationale, Guillaume Blanchot, directeur général du Conseil supérieur de l’audiovisuel, s’est interrogé sur le traitement des attentats sur Internet, « en particulier par les plateformes numériques ». Celui-ci milite du coup pour une plus grande emprise de cette autorité sur le Web.
Les députés ont poursuivi hier avec le CSA le round d’auditions de la commission d’enquête visant à jauger les moyens mis en œuvre par l’État pour lutter contre le terrorisme depuis les attentats de Charlie Hebdo.
À la suite de ces drames, l’autorité indépendante a froncé les sourcils à l’égard des chaînes qui, sans recul, ont pu donner des informations sensibles sur le déroulé des faits. Après un état des lieux des modalités du contrôle du CSA sur l’ancestrale télévision, Guillaume Blanchot a marqué un vif intérêt sur ce qui se passe sur les réseaux. Avec un élément moteur : l’accentuation des pouvoirs de l’autorité sur une partie du web.
Les vidéos des sites de presse en ligne
D’une part, il a visé le « prolongement sur Internet des médias traditionnels, les services en ligne liés à une radio et à des journaux de la presse écrite, par exemple ». Selon le directeur général, en effet, « des réflexions sont en cours pour déterminer s’ils peuvent qualifiés de services de médias audiovisuels à la demande, les SMàD ».
Pour mieux comprendre cette petite phrase un peu chimique, il faut scruter l’activité, pas si éloignée, de la Cour de justice de l’Union européenne. En octobre 2015, celle-ci a en effet considéré que la section vidéo d’un site de d’actualités pouvait relever de cette catégorie juridique, à savoir un service comparable à celui d’un service de télévision.
Dans sa décision, la CJUE a chargé les juges nationaux de vérifier si telle ou telle section vidéo « a un contenu et une fonction autonomes par rapport à ceux des articles de presse écrite de l’éditeur du journal en ligne ». Dans l’affirmative, alors sa régulation relève de la directive du 10 mars 2010 et donc, en France, des compétences du CSA. Le travail d’étude mené actuellement entre les murs de l’institution pourrait ainsi déboucher sur un contrôle futur des sections vidéo des sites de Libération, du Monde, ou tout autre organe de presse en ligne disposant d’un flux vidéo, afin de vérifier le respect des obligations des SMàD (déontologie, protection des mineurs, promotion des œuvres, etc.).
Les réseaux sociaux, les plateformes d'hébergement de vidéos
Toujours lors de cet échange à l’Assemblée nationale, l’appétit du directeur général du CSA a également débordé du côté des réseaux sociaux et des hébergeurs de vidéos. « La question posée par la profusion d’informations sur Internet est particulièrement sensible pour ce qu’on appelle les plateformes numériques. Le caractère ouvert de ces plateformes, je pense en particulier évidemment aux réseaux sociaux et aux plateformes de vidéo, offre un outil de communication de très large portée à ceux qui veulent propager des discours d’incitation à la discrimination, à la haine raciale ou à des discours faisant l’apologie du terrorisme ou portant atteinte à la dignité de la personne. »
Or, d’après le représentant du CSA, « le rôle de ces plateformes est de plus en plus difficile à appréhender selon le régime de responsabilité prévu par la loi sur la confiance dans l’économie numérique du 21 juin 2004 ». Cette fameuse LCEN, rappelons-le, distingue la responsabilité directe des éditeurs et celle, conditionnelle, des hébergeurs. On en déduit que pour le CSA, les plateformes telles donc YouTube et Dailymotion seraient trop permissives sur les contenus hébergés dans leurs serveurs, quand bien même les différentes lois sécuritaires ont accentué la pression pénale sur la diffusion de l’apologie ou de l’incitation au terrorisme.
« Ces plateformes sont souvent considérées (...) comme des hébergeurs, quand bien même il apparait qu’elles jouent sous certains aspects et dans des proportions variables un rôle d’éditeur et de distributeur. Et donc elles bénéficient d’un régime de responsabilité qui leur laisse une très large de manœuvre pour exercer un contrôle a posteriori sur les contenus qu’elles diffusent, selon des critères qui restent flous, qui changent d’une plateforme à l’autre et alors même que le juge intervient très rarement. »
Une situation non satisfaisante pour le CSA. « Afin d‘éviter la critique d’une police privée des contenus », celui-ci estime (à nouveau) nécessaire d’accompagner une plus grande intervention de la puissance publique. Il propose que tous les acteurs concernés, la société civile, les représentants des internautes et les pouvoirs publics éditent des chartes ou des labels pour éradiquer les contenus jugés problématiques. Et bien entendu, « l’expérience du CSA en matière de conciliation entre la liberté d’expression et la protection des valeurs nécessaires à notre démocratie peut sembler, dans ce cadre, utile. »