Startup

Ambient.ai vise à fournir une sécurité des bâtiments alimentée par l’IA, moins les préjugés et les pièges de la confidentialité – TechCrunch

Ambient.ai vise à fournir une sécurité des bâtiments alimentée par l’IA, moins les préjugés et les pièges de la confidentialité – TechCrunch
Written by admin
Ambient.ai vise à fournir une sécurité des bâtiments alimentée par l’IA, moins les préjugés et les pièges de la confidentialité – TechCrunch

La sécurité – comme dans « hé toi, tu ne peux pas y aller » – devient rapidement un travail complexe, voire impossible, une fois que vous avez dépassé quelques bâtiments et caméras. Qui peut surveiller partout à la fois et envoyer quelqu’un à temps pour prévenir un problème ? Ambiance.ai n’est pas le premier à prétendre que l’IA le peut, mais ils sont peut-être les premiers à le faire à grande échelle – et ils ont levé 52 millions de dollars pour continuer à croître.

Le problème avec les processus d’aujourd’hui est le genre de chose que tout le monde peut signaler. Si vous avez une entreprise moderne ou un campus scolaire avec des dizaines ou des centaines de caméras, elles produisent tellement de séquences et de données que même une équipe de sécurité dédiée aura du mal à suivre. Par conséquent, non seulement ils sont susceptibles de manquer un événement important au fur et à mesure qu’il se produit, mais ils sont également à la hauteur des fausses alarmes et du bruit.

« Les victimes regardent toujours les caméras, s’attendant à ce que quelqu’un vienne les aider… mais ce n’est tout simplement pas le cas », a déclaré Shikhar Shrestha, PDG et co-fondateur d’Ambient.ai, à TechCrunch. « Dans le meilleur des cas, vous attendez que l’incident se produise, vous sortez la vidéo et vous travaillez à partir de là. Nous avons les caméras, nous avons les capteurs, nous avons les officiers – ce qui manque, c’est le cerveau au milieu.

De toute évidence, la société de Shrestha cherche à fournir le cerveau : une unité centrale de traitement visuel pour les images de sécurité en direct qui peut dire quand quelque chose ne va pas et avertir immédiatement les bonnes personnes. Mais sans le parti pris qui menace de tels efforts, et sans reconnaissance faciale.

D’autres ont fait des percées sur cette idée particulière avant maintenant, mais jusqu’à présent, aucun n’a vu une adoption sérieuse. La première génération de reconnaissance automatique d’image, a déclaré Shrestha, était une simple détection de mouvement, un peu plus que de vérifier si les pixels se déplaçaient sur l’écran – sans savoir s’il s’agissait d’un arbre ou d’un envahisseur domestique. Vient ensuite l’utilisation de l’apprentissage en profondeur pour faire de la reconnaissance d’objets : identifier une arme à la main ou une vitre brisée. Cela s’est avéré utile mais limité et un entretien assez élevé, nécessitant beaucoup de formation spécifique à la scène et à l’objet.

« L’idée était que si vous regardez ce que les humains font pour comprendre une vidéo, nous prenons beaucoup d’autres informations : la personne est-elle assise ou debout ? Ouvrent-ils une porte, marchent-ils ou courent-ils ? Sont-ils à l’intérieur ou à l’extérieur, de jour ou de nuit ? Nous rassemblons tout cela pour créer une sorte de compréhension globale de la scène », a expliqué Shrestha. « Nous utilisons l’intelligence de la vision par ordinateur pour extraire les images de toute une gamme d’événements. Nous décomposons chaque tâche et l’appelons une primitive : interactions, objets, etc., puis nous combinons ces blocs de construction pour créer une « signature ». ”

Le système Ambient.ai utilise des éléments de comportement et les connecte les uns aux autres pour dire s’ils sont un problème.

Une signature peut être quelque chose comme « une personne assise dans sa voiture pendant une longue période la nuit », ou « une personne se tenant près d’un point de contrôle de sécurité sans interagir avec qui que ce soit », ou un certain nombre de choses. Certains ont été modifiés et ajoutés par l’équipe, d’autres ont été élaborés indépendamment par le modèle, que Shrestha a décrit comme « une sorte d’approche semi-supervisée gérée ».

L’avantage d’utiliser une IA pour surveiller une centaine de flux vidéo à la fois est évident, même si vous deviez supposer que ladite IA n’est, disons, que 80% aussi bonne qu’un humain pour repérer quelque chose de mal qui se passe. En l’absence de lacunes telles que la distraction, la fatigue ou n’ayant que deux yeux, une IA peut appliquer ce niveau de succès sans limite de temps ou de nombre de flux, ce qui signifie que les chances de succès sont en fait assez élevées.

Mais on aurait pu dire la même chose d’un système proto-IA d’il y a quelques années qui ne cherchait que des armes à feu. Ce que vise Ambient.ai est quelque chose de plus complet.

« Nous avons construit la plate-forme autour de l’idée de la confidentialité dès la conception », a déclaré Shrestha. Avec la sécurité basée sur l’IA, « les gens supposent simplement que la reconnaissance faciale en fait partie, mais avec notre approche, vous avez ce grand nombre d’événements de signature, et vous pouvez avoir un indicateur de risque sans avoir à faire de reconnaissance faciale. Vous n’avez pas qu’une seule image et un seul modèle qui dit ce qui se passe – nous avons tous ces différents blocs qui vous permettent d’être plus descriptifs dans le système.

Essentiellement, cela se fait en gardant chaque activité individuelle reconnue exempte de biais pour commencer. Par exemple, si quelqu’un est assis ou debout, ou depuis combien de temps il attend devant une porte – si chacun de ces comportements peut être audité et détecté à travers les données démographiques et les groupes, alors la somme de ces inférences doit également être libre de biais. De cette manière, le système réduit structurellement les biais.

Il faut cependant dire que les préjugés sont insidieux et complexes, et notre capacité à les reconnaître et à les atténuer est en retard par rapport à l’état de l’art. Néanmoins, il semble intuitivement vrai que, comme l’a dit Shrestha, « si vous n’avez pas de catégorie d’inférence pour quelque chose qui peut être biaisé, il n’y a aucun moyen pour que le biais vienne de cette façon ». Esperons-le!

Les cofondateurs d'Ambient.ai, Vikesh Khanna (directeur technique, à gauche) et Shikhar Shrestha (PDG).

Les cofondateurs d’Ambient.ai, Vikesh Khanna (directeur technique, à gauche) et Shikhar Shrestha (PDG).

Nous avons vu quelques startups aller et venir dans ce sens, il est donc important que ces idées soient démontrées dans le dossier. Et bien qu’il reste relativement silencieux sur lui-même, Ambient.ai compte un certain nombre de clients actifs qui ont aidé à prouver son hypothèse de produit. Bien sûr, les deux dernières années n’ont pas été exactement comme d’habitude… mais il est difficile d’imaginer que « cinq des plus grandes entreprises technologiques américaines par capitalisation boursière » seraient toutes deux clientes (et elles le sont) si cela ne fonctionnait pas.

Un test effectué dans une «Société technologique Fortune 500» sans nom cherchait à réduire le «talonnage», où quelqu’un entre dans une zone sécurisée juste derrière une autre personne autorisée à le faire. Si vous pensez que personne ne fait cela, eh bien, ils ont identifié 2 000 incidents la première semaine. Mais en envoyant des GIF des événements en temps quasi réel à la sécurité, qui est probablement allée secouer les doigts aux délinquants, ce nombre a été réduit à 200 par semaine. Maintenant, c’est 10 par semaine, probablement par des gens comme moi.

Illustration de l'interface d'ambiant.ai, montrant les événements détectés comme les chutes et les tireurs actifs.

Crédits image : Ambiance.ai

Dans un autre cas test documenté par Ambient.ai, les caméras de sécurité d’une école ont surpris quelqu’un en train d’escalader la clôture après des heures. Le chef de la sécurité a immédiatement reçu les images et a appelé les flics. Il s’avère que le gars avait des antécédents. Le point que je prends ici n’est pas que nous devons verrouiller nos campus scolaires et cela aidera à le faire, mais quelque chose d’autre mentionné dans le document, à savoir que le système peut combiner la connaissance de « quelqu’un escalade une clôture » avec d’autres des trucs comme « ça arrive souvent un peu avant 8 h 45 », pour que les enfants qui prennent un raccourci ne se fassent pas appeler les flics. Et l’IA pouvait également discerner entre grimper, tomber et flâner, ce qui, dans différentes circonstances, pouvait avoir de l’importance ou non.

Ambient.ai affirme qu’une partie de la flexibilité du système réside dans le fait que tous ces « primitifs » sont faciles à réorganiser en fonction des besoins du site – peut-être que vous ne vous souciez vraiment pas si quelqu’un escalade une clôture, à moins qu’il ne tombe – en plus d’être capable d’apprendre de nouvelles situations : « Ah, voilà à quoi ça ressemble quand quelqu’un coupe une clôture. » L’équipe compte actuellement environ 100 « signatures » de comportements suspects et espère doubler ce chiffre au cours de la prochaine année.

Rendre le personnel de sécurité existant plus efficace en lui donnant plus de contrôle sur ce qui fait exploser son téléphone ou sa radio permet de gagner du temps et d’améliorer les résultats (Ambient.ai dit qu’il réduit le nombre d’alarmes courantes en général de 85 à 90 %). Et la catégorisation des séquences basée sur l’IA aide également les enregistrements et les archives. Dire « télécharger toutes les images de personnes escaladant une clôture la nuit » est beaucoup plus facile que de parcourir 5 000 heures manuellement.

Le cycle de 52 millions de dollars a été mené par a16z, mais il y a aussi un peu de who’s who dans la pile des investisseurs individuels : Ron Conway, Ali Rowghani de Y Combinator, le co-fondateur d’Okta Frederick Kerrest, le PDG de Crowdstrike George Kurtz, Microsoft CVP Charles Dietrick , et plusieurs autres qui savent dans quoi ils investissent.

« C’est un moment unique ; on s’attend à ce que les praticiens de la sécurité fassent beaucoup plus. La proposition de base de ne pas avoir quelqu’un qui regarde tous ces flux est universelle », a déclaré Shrestha. « Nous dépensons tellement d’argent pour la sécurité, 120 milliards de dollars… c’est fou que les résultats ne soient pas là – nous n’empêchons pas les incidents. C’est comme si toutes les routes menaient à la convergence. Nous voulons être une plate-forme qu’une organisation peut adopter et pérenniser sa sécurité.

About the author

admin

Leave a Comment