wintics environnement make.org

[FR] Wintics est partenaire de la grande cause Make.org ‘Agissons ensemble pour l’environnement’

Réchauffement climatique et ses multiples conséquences, pollution de l’air, chute de la biodiversité, multiplication des déchets, érosion des sols, les impacts de l’activité humaine sur la planète sont de plus en plus visibles et les Français placent désormais l’environnement au premier rang de leurs préoccupations !

Dans ce contexte, l’organisation Make.org a lancé le 5 novembre dernier une consultation citoyenne à l’échelle nationale sur le thème: « Comment agir ensemble dès maintenant pour l’environnement? ». Le but de cette démarche est d’interpeller chacun sur les grands enjeux environnementaux qui se présentent devant nous et de recueillir des propositions d’actions concrètes venant des citoyens. Chacun peut ainsi formuler ses propositions sur le site Make.org du 5 novembre 2019 au 19 janvier 2020 mais aussi voter pour les propositions rédigées par d’autres.

<< Pour participer, c’est ici ! >>

Ces propositions seront ensuite revues et triées par un comité de citoyens et d’experts afin de faire émerger une douzaine d’actions concrètes en faveur de l’environnement qui seront mises en œuvre dans les 24 mois suivants la consultation.

Réduire l’impact environnemental de la mobilité

La mobilité est aujourd’hui la première source d’émission de gaz à effet de serre en France. Elle représente 31% des émissions. En particulier, les voitures individuelles représentent 15% des émissions françaises.

mobilite emissions gaz effet serre

Source : Haut Conseil pour le Climat – Rapport 2019 « Agir en cohérence avec les ambitions »

Toute réflexion globale sur l’environnement passe donc nécessairement par un questionnement approfondi sur les sujets de mobilité.

Dès lors, Wintics, startup de référence sur les enjeux de la mobilité de demain, a décidé de s’associer à cette grande cause en devenant partenaire expert de l’initiative. Nous avons la volonté d’apporter aux différents groupes de travail notre connaissance des enjeux de mobilité et des différentes initiatives qui existent déjà ou qui sont en cours de préparation. Nous sommes aussi heureux de pouvoir apporter nos connaissances techniques en intelligence artificielle pour identifier les propositions dans lesquelles un usage intelligent des données peut être pertinent.

Grâce à son logiciel d’analyse vidéo, Wintics est en effet au cœur de nombreuses initiatives visant à réduire la pollution et la congestion et bénéficie donc d’une vision très large sur les différentes réflexions quant à la mobilité dans les villes. Par exemple, Wintics produit des données de trafic sur les différents modes de déplacement afin de permettre aux villes de déployer des initiatives contre la pollution : promotion du covoiturage en comptant le nombre de personnes dans un véhicule pour accorder des privilèges aux véhicules fortement occupés (ex : réduction aux péages ou dans les parkings), gestion intelligente des feux de circulation pour en adapter les rythmes aux mobilités douces afin de favoriser leur adoption plus large (vélos, piétons).

Travailler ensemble pour maximiser l’impact des initiatives

Baisse de la part modale de la voiture, taxation incitative, limitation de la puissance des véhicules, restriction d’accès dans les villes, les initiatives visant à réduire la pollution font parfois polémiques. A cet égard, la démarche collaborative mise en œuvre par Make.org nous a séduits. Elle permet de faire émerger des solutions consensuelles grâce à la consultation massive de citoyens.

Elle permet aussi de garantir l’efficacité de ces solutions en associant aux projets différents experts capables de les déployer de façon efficace. Sur les sujets de mobilités, le travail commun des pouvoirs publics, des grands groupes et des start-ups a déjà fait ses preuves, d’autant plus quand il est guidé par une volonté citoyenne forte.

Place à l’action

Vous pouvez dès à présent être acteur de cette grande consultation.

N’hésitez pas à donner votre avis sur les propositions formulées par Wintics en cliquant ici :

  • Il faut proposer aux automobilistes des moyens de transports alternatifs qui sont pertinents et confortables.
  • Il faut mettre en place des vraies incitations en faveur du co-voiturage.
  • Il faut améliorer le confort des usagers des transports en commun.
  • Il faut aménager des villes sûres pour les mobilités douces.

Vous pouvez aussi formuler vos propres propositions ou voter pour les propositions des autres en cliquant ici.

wintics building smart camera applications

Building Smart Camera applications at an industrial scale by leveraging cutting-edge deep learning techniques

Computer vision is a fast-moving field of research

Smart Cameras are all about Computer Vision, the sub-field of AI that aims to build machines having human-level understanding of images or videos. It underwent a series of major breakthroughs in many vision tasks (like image classification, object detection, etc) since 2012. Part of the progress made came from research advances on how to train bigger and bigger neural networks. Over the past few years, researchers and engineers have been working on how to make deep learning more efficient and how to run neural networks using fewer resources. It is for instance today’s AI industry practice to reduce the arithmetic precision of real numbers when running neural nets in production. Roughly, we use 32 bits for representing neural nets weights and outputs during training, but we use much less (16 or 8 bits) in production. Despite all the research done so far, for numerous use cases neural networks still demand too much computing power to meet low latency constraints.

Hardware producers keep on innovating to follow algorithms breakthroughs

It is worth noting that the major part of the workload to run neural networks is linear algebra (matrix and vector operations). Companies like Nvidia, Google and Intel have been developing specialized software and hardware to perform this kind of arithmetic very efficiently. In 2017, Nvidia introduced the Volta micro-architecture containing Tensor Cores. These Tensor Cores are programmable chips allowing fused matrix-multiply-and-accumulate units that run concurrently alongside regular GPU cores. Tensor Cores implement new 16-bit floating-point HMMA (Half-Precision Matrix Multiply and Accumulate) and 8-bit integer IMMA (Integer Matrix Multiply and Accumulate) instructions for accelerating dense linear algebra computations. Google introduced in 2016 the Tensor Processing Unit (TPU) which was specifically designed for their deep learning platform called TensorFlow. Each TPU consists of two Tensor Cores that each consist of scalar, vector and matrix units (MXU). Currently, TPUs are not commercially available for purchase but can be used as a cloud service. The edge computing market has been targeted by NVIDIA and Google as well: Nvidia promotes the Jetson product line of embedded computing boards integrating small GPUs, and Google announced in March 2019 the Coral lightweight TPU.

wintics edge computing hardware

In addition to the hardware trend, we have witnessed the rise of software designed for optimizing neural networks for production, like Intel’s OpenVINO and NVIDIA’s TensorRT. More recently, Facebook open-sourced FBGEMM, a high-performance linear algebra library for running neural nets on CPU-servers. All these developments make new industrial AI use cases possible and generate great opportunities for innovation.

At Wintics, we combine the lastest innovations in both hardware and software to deliver high-performance solutions

At Wintics, we leverage NVIDIA technology. In terms of software, we have been extensively using their main high-performance low-level libraries in all our products: CUDA, CuDNN and TensorRT. In terms of hardware, we leverage high-performance GPUs for server applications and the Jetson product line for edge computing. We are currently able to process thousands of images per second on a single GPU, or even, to run real-time high-level directional traffic analysis from surveillance cameras on the lightweight Jetson Nano.

Here we share the results of some of our current works on Optimizing Siamese Neural Networks. This architecture has become popular in single object tracking in the past couple of years. We present the latency gains on the SiamRPN architecture brought by porting the neural network to C++, by optimizing it using TensorRT and by reducing arithmetic precision.

We performed benchmarks on 4 pieces of hardware: RTX 2080ti, Jetson Xavier, Jetson TX2 and Jetson Nano. Each device presents different architectures and delivers different computing power capabilities.

  Specs
Hardware Computing Power Architecture
RTX 2080Ti 4352 cores + 544 Tensor Cores Turing
Jetson Xavier 512 cores + 64 Tensor Cores Volta
Jetson TX2 256 cores Pascal
Jetson Nano 128 cores Maxwell

We measure latency by the number of frames per second (fps) and the tracking accuracy is quantified by the mean intersection over union (mIoU) with the ground truth labels. We use three levels of precision: 32-bit and 16-bit floating-points (FP32 and FP16, respectively) and 8-bit integer numbers (INT8). The benchmark below compares an open source code against our in-house optimized implementation.

Note: Most real-time applications require at least 30 fps.

  Frames per second (fps)
GPU Device Open source

(Python & FP32)

C++ & TensorRT & FP32 C++ & TensorRT & FP16 C++ & TensorRT & INT8
RTX 2080ti 111.1 126.7 147.1 177.3
Jetson Xavier 20.8 29.8 73.6 92.2
Jetson TX2 9.1 10.6 17.3 INT8 not supported
Jetson Nano 3.7 4.7 8.0 INT8 not supported

In order to assure that these speed gains come with no accuracy loss, we tested all the implementations on the OTB-2013 dataset. The table below shows the results.

  Score (mIoU)
GPU Device Open source

(Python & FP32)

C++ & TensorRT & FP32 C++  & TensorRT & FP16 C++ & TensorRT & INT8
RTX 2080ti 0.6445 0.6409 0.6406 0.6446
Jetson Xavier 0.6458 0.6431 0.6483 0.6344
Jetson TX2 0.6443 0.6396 0.6487 0.6371
Jetson Nano 0.6422 0.6401 0.6470 0.6431

In summary, Computer Vision is still a fast moving field: we still witness major breakthroughs coming from research and engineering every day. At Wintics, we pay attention to all new developments and adapt the best algorithms to our products. We invest in applied research to develop in-house high-performance algorithms. Those algorithms are natively and specifically designed to analyze urban scenes and are therefore able to deliver unmatched performance on their mobility and smart city use cases.

We illustrated how SiamRPN can be accelerated using C++, TensorRT and reducing precision. As a fruit of our specialization, we currently have an in-house customized implementation of SiamRPN which is even faster and supports multiple object tracking.

It is challenging to keep the pace and provide cutting-edge deep learning-based technology today. We tackle this with a very modular software stack that welcomes changes and updates. This is how we develop smart camera specialized technology, aiming to leverage AI to contribute to a more sustainable future.

[FR] L’infrastructure intelligente et connectée permettra l’avènement du véhicule autonome

Les promesses du véhicule autonome

Les véhicules autonomes sont la promesse ultime d’une mobilité durable, fluide et sûre. Les dernières études de marché prévoient d’ailleurs que les ventes de voitures connectées et autonomes pourraient représenter un marché de 55 millions d’unités vendues d’ici 20 ans.

Dans cette quête enthousiasmante, les constructeurs historiques multiplient les initiatives et sont confrontés à la forte concurrence des géants de la Tech (Google, Apple, Baidu, Uber, etc.). Cette convergence entre le secteur automobile et la Tech se matérialise aussi par des alliances entre les grands acteurs (Cisco et Valeo, Intel et Toyota, etc) et des investissements colossaux : Volkswagen vient d’injecter 2,6 milliards de dollars dans Argo AI (start-up spécialisée dans le véhicule autonome), Uber a dépensé plus d’un milliards de dollars entre 2016 et 2018 dans le véhicule autonome, Audi a annoncé un plan d’investissement de 14 milliards d’euros sur 5 ans dans la voiture autonome et électrique, etc.

La course effrénée a permis des progrès technologiques majeurs, mais elle n’en est encore qu’à ses balbutiements tant les défis à relever restent nombreux avant de se laisser conduire par son véhicule n’importe où.

Etat des lieux de l’autonomie actuelle

L’autonomie des véhicules se mesure sur une échelle allant du niveau 0 (aucune fonctionnalité automatisée) au niveau 5 (conduite totalement automatisée sans assistance de conducteur). Dans chacun des trois premiers niveaux, la responsabilité légale du conducteur est toujours engagée en cas d’accident :

  • Niveau 1 «Hands on» : aides à la conduite sous surveillance du conducteur
  • Niveau 2 «Hands on » ou « Hands off» : conduite automatisée sous surveillance du conducteur
  • Niveau 3 «Eyes off» : conduite automatisée dans des situations définies sans surveillance du conducteur, avec reprise en main requise par le conducteur en cas de demande du système
  • Niveau 4 «Mind Off» : conduite automatisée dans des situations définies sans surveillance conducteur sans besoin de reprise en main
  • Niveau 5 « Driverless » : conduite automatisée sans conducteur

Les constructeurs ont pour l’instant atteint le niveau 3 en commercialisation, correspondant à une voiture semi-autonome dans laquelle le conducteur peut, dans certaines situations prédéfinies (embouteillages, stationnement), vaquer à d’autres occupations tout en restant capable de reprendre le volant à tout moment. De nombreux défis (juridiques, éthiques, technologiques) restent à relever pour aller au-delà.

De nombreux défis à relever pour atteindre l’autonomie complète

En mars 2018, un accident mortel causé par un véhicule Volvo opéré par Uber, a entrainé un arrêt général temporaire des tests sur route ouverte et a soulevé un doute sur la sécurité des véhicules autonomes dans l’opinion publique. Dans ce cas, l’opérateur à bord n’a pas réussi à reprendre les commandes et éviter l’accident. Ce drame a mis en lumière les limites du niveau 3 d’autonomisation : le conducteur ne sera pas toujours en mesure de reprendre le contrôle assez rapidement. Volvo a alors décidé de faire évoluer sa stratégie en visant de faire passer ses véhicules directement du niveau 2 d’autonomie au niveau 4 afin d’éviter les problèmes de reprise de volant.

La Californie a d’ailleurs autorisé les essais des véhicules sans opérateur mais avec contrôle du véhicule à distance. Cette nouvelle configuration soulève de nouvelles questions, notamment sécuritaires avec les risques de prise de contrôle à distance par un tiers malveillant.

La question de la responsabilité reste aussi largement ouverte : qui est responsable en cas d’accident impliquant une voiture autonome ? Volvo a pris la décision claire d’assumer la responsabilité juridique en cas d’accident impliquant l’une de ses voitures conduites en mode autonome, mais la question reste ouverte chez la plupart des constructeurs.

En plus de ces enjeux sécuritaires et juridiques, les défis technologiques restent aussi nombreux dans la course à l’autonomie.

La communication V2I indispensable au succès du véhicule autonome

Malgré la multitude de capteurs dont les prototypes de véhicules autonomes sont équipés, leur perception en conditions optimales se limite entre 200 et 300 mètres, ce qui, à 130 km/h, représente une distance parcourue entre 5 et 8 secondes. Cela reste donc faible pour s’adapter à un danger imprévu tel qu’une voiture immobilisée ou une zone de travaux. Surtout, cette distance de perception se réduit significativement en cas d’intempérie.

Pour de nombreux experts, seul un dialogue instantané entre la route et le véhicule permettra d’augmenter suffisamment la perception des véhicules en toutes circonstances pour garantir la sécurité des passagers. L’infrastructure intelligente est donc un atout essentiel au développement du véhicule autonome. Elle permettra d’enrichir les données contextuelles diffusées au système de guidage et d’offrir une perception avancée de la route pour optimiser la prise de décision du véhicule et sa trajectoire.

Certains équipements communiquent déjà des informations tant à destination des usagers et de certains véhicules, que des gestionnaires d’infrastructures. Par exemple, les véhicules connectés aux Etats-Unis peuvent connaitre dans plusieurs villes le temps restant avant le passage au vert d’un feu tricolore. Les unités de bords de route (UBR), les panneaux à messages variables (PMV) ou encore les feux de signalisation possèdent de telles fonctionnalités. Interconnectés entre eux grâce aux technologies « Cooperative Intelligent Transport Systems » (C-ITS), ils participent à la gestion du trafic routier.

À terme, les véhicules autonomes seront connectés à ces mêmes systèmes et optimiseront leur conduite grâce à la multitude d’informations envoyées par les infrastructures (état du trafic, présence d’objets dangereux, accidents, disponibilité des places de stationnement, travaux en voirie, etc.) Par exemple, au niveau des carrefours et intersections complexes, des UBR pourront organiser les priorités entre les véhicules autonomes, qui eux-mêmes interagiront entre eux.

Récemment, les constructeurs automobiles se sont entendus pour concevoir un standard de communication garantissant la compatibilité des échanges entre tous les types de véhicules. Ce système de communication « Vehicle to Infrastructure » (V2I) sera directement relié aux équipements de la route, qui l’alimenteront d’une multitude d’informations récoltées grâce aux technologies dont ils seront équipés : capteurs, thermomètres, caméras, etc.

Les constructeurs de véhicules et les gestionnaires d’infrastructure n’hésitent d’ailleurs pas à collaborer dans ce sens. PSA vient de mener une nouvelle expérimentation, en collaboration avec Vinci Autoroutes qui portait sur la mise en sécurité du véhicule : dans une situation complexe (ex. fin de voie rapide), après avoir constaté que le conducteur ne reprenait pas la main comme demandé par le système, le véhicule est allé se garer de lui-même dans une zone refuge.

Wintics et la communication V2I

Chez Wintics, nous voulons construire une vivre-ensemble plus durable grâce à l’IA. Nous sommes convaincus que les véhicules autonomes vont contribuer à rendre les villes plus confortables et plus durables et sommes fiers de participer à leur développement.

En effet, nous avons développé un boitier qui se branche sur n’importe quel type de caméra (optique ou thermique) pour transformer les images brutes en statistiques instructives sur les volumes et les directions des piétons et des véhicules. De cette façon, nous pouvons capitaliser sur les millions de caméras de vidéo-surveillance pour rajouter de l’intelligence aux infrastructures qui peuvent communiquer aux véhicules connectés, en temps réel, sur l’état du trafic, la présence de danger, la disponibilité des places de stationnement, la présence de véhicules non connectés (notamment mobilité douce), etc.