La SNCF teste la détection des comportements suspects par vidéosurveillance

Pour crier gare ? 223
En bref
image dediée
Crédits : SNCF
Sécurité
Marc Rees

La SNCF teste actuellement dans plusieurs gares un logiciel qui pourrait être à terme couplé à ses 40 000 caméras de vidéosurveillance truffant ses enceintes. L’objectif ? Détecter les comportements suspects dans l'objectif affiché de prévenir notamment le risque d'attentats.

« Mais cours, Gérard ! On va rater le Transilien pour Melun ! » Ce genre de situations risque bien à l'avenir d’être automatiquement ingurgitée par les yeux électroniques planqués dans les gares si l'on en croit cette dépêche AFP. La SNCF expérimente en effet actuellement un logiciel pour renifler les signes d'une potentielle menace. Comment ? En s’appuyant « sur le changement de température corporelle, le haussement de la voix ou le caractère saccadé de gestes qui peuvent montrer une certaine anxiété » explique très sérieusement la société à l’agence de presse. « On teste pour savoir si ça n'identifie que les gens qui ont une intention négative, un agresseur, ou un tripoteur, mais aussi l'acceptabilité sociale. »

Toutes les données sécrétées par ces indiscrets sont ensuite avalées par un logiciel prédictif qui, à partir de scénarios déterminés, va ou non tirer la sonnette d’alarme. Ces premières bribes révèlent que les finalités pourraient dépasser le risque d'attentats. De plus, elles indiquent l’usage de caméras thermiques mais aussi de micros de surveillance d’ambiance, histoire de jauger approximativement la température corporelle des clients et le volume des propos tenus dans l'enceinte d'une gare.

Des dispositifs soumis à l'attention de la CNIL

Ces expérimentations ne sont pas juridiquement liées à l’état d’urgence, mais avant tout à un contrôle de la CNIL. Si le dispositif est validé, il pourra donc perdurer au-delà de la situation actuelle.

Sur le terrain de la régulation, dans un rapport sénatorial datant de 2008, il avait déjà été suggéré de « ne pas interdire a priori les systèmes de vidéosurveillance « intelligente », mais de les soumettre à des conditions plus strictes sous le contrôle de la CNIL ». Ce document expliquait que ces systèmes étaient capables « de détecter, par exemple dans une foule, des mouvements ou des sons anormaux (une personne qui court, des cris...). »

En 2008 toujours, la CNIL s’était quelque peu émue de ces logiciels intelligents en constant développement : « Il ne s’agit plus seulement aujourd’hui d’opérer le simple comptage du nombre de passagers ou de détecter automatiquement un objet abandonné, mais bien de permettre la détection automatisée de « comportements suspects ». Si la définition de tels modèles comportementaux reste encore relativement malaisée, les potentialités de surveillance comportementale de la population filmée augmentent à mesure que ces outils d’analyse automatisée d’images se perfectionnent. »

Toujours plus loin

Dans un autre document de 2012, la même Commission évoquait d’autres technologies comme celle visant à isoler une personne par vidéosurveillance. « Cette personne est ensuite suivie par caméras lors de ses déplacements tandis qu’une information est transmise à un agent afin que ce dernier arrive à sa rencontre. La technologie met en œuvre de la détection de contour et de la détection de la tenue vestimentaire, sans pour autant utiliser de technologies d’identification ».

Le sujet, qui fait l’objet de nombreux travaux au sein de l’INRIA, peut également s'enrichir par le biais de la biométrie. Le rapport sénatorial précité retenait les propos de Frédéric Péchenard, alors directeur général de la police nationale. Celui-ci faisait état en effet des réflexions actuelles « sur la constitution d'un fichier « photos » sur le modèle du fichier national automatisé des empreintes génétiques (FNAEG) qui permettrait de reconstituer un visage et de le comparer avec des enregistrements sur une scène d'infraction ».


chargement
Chargement des commentaires...