Community Rail n’a pas répondu aux questions sur les essais envoyés par WIRED, y compris aux questions sur l’état actuel de l’utilisation de l’IA, la détection des émotions et les problèmes de confidentialité.
“Nous prenons la sécurité du réseau ferroviaire extrêmement au sérieux et utilisons une gamme de applied sciences avancées dans nos gares pour protéger les passagers, nos collègues et l’infrastructure ferroviaire contre la criminalité et d’autres menaces”, a déclaré un porte-parole de Community Rail. “Lorsque nous déployons des applied sciences, nous travaillons avec la police et les companies de sécurité pour garantir que nous prenons des mesures proportionnées, et nous respectons toujours la législation en vigueur concernant l’utilisation des applied sciences de surveillance.”
On ne sait pas exactement dans quelle mesure l’analyse de détection des émotions a été déployée, les paperwork indiquant parfois que le cas d’utilisation devrait être « considéré avec plus de prudence » et les rapports des stations affirmant qu’il est « unattainable de valider l’exactitude ». Cependant, Gregory Butler, PDG de la société d’analyse de données et de imaginative and prescient par ordinateur Purple Remodel, qui a travaillé avec Community Rail sur les essais, affirme que la fonctionnalité a été interrompue pendant les exams et qu’aucune picture n’a été stockée lorsqu’elle était energetic.
Les paperwork de Community Rail sur les essais d’IA décrivent plusieurs cas d’utilisation impliquant la possibilité pour les caméras d’envoyer des alertes automatisées au personnel lorsqu’elles détectent certains comportements. Aucun des systèmes n’utilise technologie controversée de reconnaissance facialequi vise à faire correspondre les identités des personnes à celles stockées dans les bases de données.
« L’un des principaux avantages est la détection plus rapide des incidents d’intrusion », explique Butler, qui ajoute que le système d’analyse de son entreprise, SiYtE, est utilisé sur 18 websites, y compris les gares et le lengthy des voies ferrées. Au cours du mois dernier, dit Butler, il y a eu cinq cas graves d’intrusion détectés par les systèmes sur deux websites, notamment un adolescent ramassant une balle sur les pistes et un homme « passant plus de cinq minutes à ramasser des balles de golf le lengthy d’un prepare à grande vitesse ». doubler.”
À la gare de Leeds, l’un des le plus fréquenté en dehors de Londres, il y a 350 caméras de vidéosurveillance connectées à la plateforme SiYtE, explique Butler. « Les analyses sont utilisées pour mesurer le flux de personnes et identifier des problèmes tels que l’encombrement des plates-formes et, bien sûr, les intrusions, où la technologie peut filtrer les travailleurs à travers leur uniforme EPI », dit-il. « L’IA aide les opérateurs humains, qui ne peuvent pas surveiller toutes les caméras en permanence, à évaluer et à résoudre rapidement les risques et les problèmes de sécurité. »
Les paperwork de Community Rail affirment que les caméras utilisées dans une gare, Studying, ont permis à la police d’accélérer les enquêtes sur les vols de vélos en étant succesful d’identifier les vélos dans les pictures. “Il a été établi que même si les analyses ne pouvaient pas détecter avec certitude un vol, elles pouvaient détecter une personne avec un vélo”, indiquent les dossiers. Ils ajoutent également que les nouveaux capteurs de qualité de l’air utilisés dans les essais pourraient permettre au personnel de gagner du temps en effectuant des contrôles manuels. Une occasion d’IA utilise les données des capteurs pour détecter les sols « transpirants », devenus glissants à trigger de la condensation, et alerter le personnel lorsqu’ils doivent être nettoyés.
Bien que les paperwork détaillent certains éléments des essais, les specialists en matière de safety de la vie privée se disent préoccupés par le manque général de transparence et de débat sur l’utilisation de l’IA dans les espaces publics. Dans un doc conçu pour évaluer les problèmes de safety des données avec les systèmes, Hurfurt de Large Brother Watch affirme qu’il semble y avoir une « perspective dédaigneuse » envers les personnes susceptibles d’avoir des problèmes de confidentialité. Un query demande: « Est-ce que certaines personnes sont susceptibles de s’y opposer ou de trouver cela intrusif ? » Un membre du personnel écrit : « Généralement, non, mais il n’y a pas de comptabilité pour certaines personnes. »
Dans le même temps, des systèmes de surveillance similaires utilisant l’IA, qui utilisent cette technologie pour surveiller les foules, sont de plus en plus utilisés dans le monde. Lors des Jeux Olympiques de Paris en France plus tard cette année, la vidéosurveillance IA surveillera des milliers de personnes et tentera de repérer les afflux de foule, l’utilisation d’armes et les objets abandonnés.
“Les systèmes qui n’identifient pas les personnes sont meilleurs que ceux qui le font, mais je crains une pente glissante”, déclare Carissa Véliz, professeure agrégée de psychologie à l’Institut d’éthique de l’IA de l’Université d’Oxford. Véliz pointe du doigt des choses similaires Essais d’IA dans le métro de Londres qui avait initialement flouté les visages de personnes qui auraient pu esquiver les tarifs, mais a ensuite changé d’approche, en supprimant le flou des pictures et en conservant les pictures plus longtemps que prévu initialement.
«Il existe une volonté très instinctive d’étendre la surveillance», explique Véliz. « Les êtres humains aiment voir plus, voir plus loin. Mais la surveillance conduit au contrôle, et le contrôle à une perte de liberté qui menace les démocraties libérales.»