Les robots en sécurité privée : quelle éthique pour la profession ?

Groupe Sgp Article Site Web 2025 AdobeStock 839700133 27

Partager sur les réseaux

Chaque année, l’intelligence artificielle gagne du terrain, au sein même d’une société qui ne cesse de se développer en quête de succès et de progrès. Le secteur de la sécurité privée est également touché par cette « robotisation », présentée immanquablement comme une innovation du monde professionnel, mais à quel prix ?

En 2025, le sujet n’est presque plus tabou. Depuis quelque temps, notre pays se place comme un acteur majeur dans la montée en puissance de l’intelligence artificielle. Emmanuel Macron a d’ailleurs toujours revendiqué son souhait de faire de la France « un des leaders de l’IA », et de l’Europe « une grande puissance de l’intelligence artificielle ». Le sommet pour l’action sur l’intelligence artificielle des 10 et 11 février 2025 n’a fait que renforcer cette posture.

Aujourd’hui, nombreuses sont les entreprises de sécurité privée qui elles aussi investissent, à tort ou à raison, dans quelques collections que d’aucuns qualifieraient de « gadgets »[1] tels que des drones, des chiens robots, des caméras de vidéosurveillances sous IA… Plusieurs questions entrent alors en compte dès lors qu’une collaboration entre une machine et un agent de sécurité a lieu, qu’elles soient liées à l’efficacité réelle des engins ou qu’elles concernent tout simplement le côté éthique de notre métier.

Les robots en sécurité privée

Le robot pour remplacer l’humain

En réalisant son film Retour vers le futuren 1985, Robert Zemeckis avait imaginé les voitures volantes de l’année 2015, mais que dirait-il des chiens robots qui assurent la sécurité du nouveau président américain en 2024 ?

En effet, au mois de novembre dernier lors de la réélection de Donald Trump à la Maison Blanche, Le Figaro republiait des images de l’agence de presse Reuters filmant un chien robot aux abords de la résidence de Mar-a-Lago, en Floride, où résidait le président républicain. Ce canidé artificiel dénommé « Spot » appartient au Secret Service[2], la branche de l’administration chargée de protéger les présidents et ex-présidents américains. Dans un communiqué relayé par la BBC, le porte-parole de l’agence, Anthony Guglielmi, expliquait que « Les chiens robots sont équipés d’une technologie de surveillance et d’une gamme de capteurs avancés qui soutiennent [leurs] opérations de protection ».

Déjà brièvement utilisé par la police de New York, Spot, qui est décrit ici comme un associé haut de gamme pour assurer la sécurité, soulève tout de même de potentiels problèmes. Au plan purement technique, le robot mesure 70 centimètres, pèse 32 kilogrammes, peut monter et descendre des marches, ouvrir des portes, échanger avec des agents, est muni d’un microphone et d’une caméra, pour un coût d’environ 110 000 euros… bref, une vraie machine multifonction capable de protéger n’importe qui, n’importe quoi. Dénuée d’affect, sa capacité de discernement quant à la dangerosité de son environnement et des humains sur son chemin découlera directement de son entraînement algorithmique.

Par ailleurs, il serait naïf de croire que cette automatisation, qui ne cesse de croître, n’aura aucun impact réel sur l’emploi dans certains secteurs. Il est en effet à craindre une aggravation des inégalités tant sur le plan économique que social des agents les plus âgés ou les moins qualifiés. Spot, comme bien d’autres engins, est capable d’assurer des tâches dangereuses, à répétition, avec une efficacité et une endurance supérieure à celles qu’offrent les capacités humaines.

Historiquement, le secteur de la sécurité privée, qui a été fondé sur des principes d’interactions humaines, fait face aujourd’hui et de plus en plus à une question éthique majeure, qui est de savoir quelle place il reste pour l’humain.

Les robots, une fiabilité maximale ?

En évoquant l’entièreté des capacités exploitées par la plupart des robots dans la sécurité privée, le commun des mortels se questionne naturellement sur l’efficacité et la fiabilité de ces machines. Que se passerait-il en cas d’erreur ? Qui serait le premier responsable entre le fabricant, l’entreprise de sécurité ou l’utilisateur ? Ce sont des questions éthiques qui méritent évidemment d’être posées.

En novembre 2023 par exemple, un employé sud-coréen d’une quarantaine d’années a été retrouvé mort, tué par un bras robotique, explique Le Parisien. La mission de la machine était de soulever des boîtes de poivrons et de les transférer sur des palettes. Or, le robot aurait confondu l’homme avec une boîte de légumes, le saisissant, poussant son corps contre le tapis roulant et l’écrasant, détaille Le Parisien. La police sud-coréenne annonçait alors qu’une enquête avait été ouverte sur les agents chargés de la sécurité du site en question. Pour poursuivre les analogies avec le monde culturel, un épisode de la série britannique Black Mirror illustre également de manière glaçante la dangerosité potentielle de tels robots.

Bien évidemment, l’attrait pour cette technologie ne serait pas aussi fulgurant si elle n’était pas accompagnée d’alléchantes perspectives financières, mais aussi opérationnelles. Les solutions robotiques ou à base d’IA offrent actuellement des services accroissant aussi bien la sécurité que la réactivité des réponses apportées. On peut citer les engins de déminage, qui n’ont plus besoin de pilote. Ou encore les caméras de vidéosurveillance, qui grâce à l’IA sont capables d’identifier rapidement des personnes ou des véhicules, ou de détecter des départs de feux par leurs fonctions thermiques. Pour les caméras dotées d’IA, notons malgré tout que les premiers retours d’expérience semblent plus mesurés que les dithyrambiques promesses qui avaient accompagné leur lancement.[3]

Malgré cela, en janvier dernier, sur le salon Expoprotection, à Paris, Vivotek (fabricant taïwanais spécialiste de la vidéosurveillance) expliquait sa volonté de démocratiser l’intelligence artificielle à travers ses caméras, « de la mettre à portée de tous », explique le magazine PSM[4].

Que ce soient pour les caméras de vidéosurveillances ou les microphones et capteurs toujours plus innovants installés sur les robots, comment garantir la sécurité tout en respectant et en préservant l’intimité des citoyens ?

En allant un peu plus loin, quelles sont réellement les limites de l’IA dans la reconnaissance faciale ? La fin de la vie « privée » est-elle déjà actée ?

La CNIL[5] a déjà commencé à tirer la sonnette d’alarme. Et la résistance au pillage effectué par les GAFAM[6] sur le travail d’innombrables artistes pour entraîner leurs IA génératives s’organise également. Car la conscience ne viendra pas spontanément aux créateurs d’IA, leur intérêt n’étant pas de limiter leurs propres outils. Il appartient au contraire aux utilisateurs et aux gouvernants de mesurer les équilibres acceptables entre l’apport technologique, les conséquences écologiques et énergétiques induites par son usage, et quelque chose de plus impalpable mais de plus profond que sont la dignité et l’éthique.


Demande de devis

Formation non définie