Nous avons consacré un épais dossier à l’autofocus, il y a quelques semaines, dans lequel nous avons brièvement évoqué le LIDAR (ou LiDAR). Il s’agit ici d’apporter quelques éléments d’information sur cette nouvelle technologie et ce qu’elle peut apporter à l’AF.
Pour rappel, l’autofocus est un système permettant à un appareil photo ou un capteur de faire automatiquement la mise au point sur un sujet. Il existe plusieurs types d’autofocus :
- AF à détection de contraste
- AF à détection de phase
- AF laser ou LiDAR
LiDAR pour Light Detection And Ranging
Le LIDAR est une technologie de télédétection qui utilise un laser pour mesurer les distances avec une grande précision. Il envoie des impulsions lumineuses et évalue le temps qu’elles mettent à revenir après avoir rebondi sur un objet. Il a été développé à partir de 1961 par la société Hugues Aircraft Compagny, peu après l’invention du laser en 1960 par Theodore Maiman. L’idée était déjà de calculer les écarts entre deux points.
Sans surprise, les militaires américains se sont emparés de l’invention pour leurs usages. Ainsi, très tôt l’armée US a commencé à intégrer cette technologie dans ce qui allait devenir les drones. Il s’agissait de concevoir un système de guidage d’objet volant sans pilote. Côté application moins secrète, c’est au travers de la NASA et l’USGS (United States Geological Survey) qu’on a vu apparaître le LIDAR, alors utilisé pour cartographier et étudier des surfaces terrestres. Par la suite, les programmes se sont étendus à la cartographie 3D, la topographie et la météorologie.
C’est dans les années 2010 que la technologie LIDAR va se révéler au grand public. Si, au travers de l’archéologie, on commence à l’exploiter, ce sont surtout les drones et la conduite autonome qui va faire connaître le LIDAR.
Et l’autofocus dans tout cela ?
Un AF LIDAR utilise donc un laser, souvent à infrarouge, afin de mesurer la distance et ajuster la mise au point. Cette technologie améliore considérablement la mise au point en basse lumière puisque, contrairement aux AF classiques, le LIDAR n’en a pas besoin !

En envoyant son faisceau laser, le dispositif va établir une cartographie 3D de la scène très précise. Le bénéfice est immédiat puisque le système va pouvoir ajuster de manière instantanée le focus.
Apple, iPhone et LIDAR
Apple intègre un capteur LIDAR dans ses modèles « PRO » à partir de 2020. Ce capteur, intégré à l’appareil photo, est destiné à améliorer plusieurs fonctionnalités, notamment la photographie et la réalité augmentée. En envoyant des impulsions laser infrarouges pour mesurer la distance entre l’iPhone et les objets environnants, le smartphone va créer une carte 3D de l’environnement avec une grande précision. Et ceci même dans des conditions de très basse lumière, puisqu’il n’a pas besoin de contraste visuel pour détecter la distance.
Les bénéfices sont importants pour la photo. Dès 2020, Apple obtient des gains allant jusqu’à fois 6 dans les conditions de mauvaises lumières. Toutes les photos de nuits sont améliorées, y compris les portraits qui proposent des flous d’arrière-plan plus réalistes et des détails plus nets. Des gains qui se retrouvent aussi dans des conditions de lumière normale, puisque les contours des sujets sont améliorés.
Parallèlement, Apple a développé des API de réalité augmentée basée sur le LIDAR. APIs qui permettent aux développeurs d’utiliser le système afin de proposer des applications permettant de placer des objets virtuels avec plus de précision dans l’environnement réel. Les réalisations vont de logiciels comme « Mesure » (qui permet de mesurer des distances entre l’iPhone et un objet, un mur de manière très précise) à des jeux intégrants des objets AR dans l’environnement, en passant par « IKEA Place » ou « RoomScan LIDAR » qui créent des plans 3D de pièces pour aménager des intérieurs de logement.
Comme Apple ne cesse d’améliorer son système à chaque nouvelle génération, évidemment protégé à coup de nombreux brevets, on devrait voir apparaître d’autres applications à l’avenir.
À noter que certains modèles haut de gamme de Samsung et d’autres marques utilisent un capteur ToF (Time-of-Flight)un capteur ToF est une version plus simple et rapide du LiDAR, utilisé pour de (très) courtes distances, pour la mise au point rapide
Pour les autres APN, qui va oser se lancer ?
Actuellement, les appareils photo traditionnels (Sony, Canon, Nikon, Fujifilm, Panasonic, etc.) n’intègrent pas encore de LIDAR natif. Un certain nombre de constructeurs ont certainement dû protéger leurs dispositifs, obligeant les autres à tenter de faire la même chose sans enfreindre les brevets existants. Ce qui est possible, mais plus compliqué.
Aujourd’hui, DJI s’est lancé sur le marché avec le pack DJI Focus Pro. Il s’agit d’un kit qui va contrôler, de manière externe, certains objectifs « ciné » montés sur des boîtiers hybrides. Ce kit est indépendant de toutes marques, moteur et détecteur étant inclus. L’objectif et le boîtier étant, évidemment, positionnés en mode manuel.

Il semble aussi que certaines caméras vidéo professionnelles comme RED ou BlackMagic utilisent un AF LIDAR (souvent au travers d’un outil externe connecté). Or RED appartient désormais à Nikon.
Et puis il y a le cas Panasonic, un des acteurs clés dans le développement de capteurs LIDAR, notamment pour les véhicules autonomes, la robotique et les systèmes de surveillance. Si une application aux hybrides devait arriver prochainement, ces deux constructeurs sont aujourd’hui les mieux placés. D’ailleurs, il se murmure qu’en 2025 ou 2026, l’un des deux se lance.
Le LIDAR est-il l’avenir de l’autofocus ? C’est possible. En tout cas, son application devrait améliorer fortement l’existant. Et comme on a connu déjà la fusion des AF à détection de phase et détection de contraste, on n’est pas à l’abri d’un nouvel apport. Toujours dans le but d’aider au mieux le photographe, bien évidemment.
Tant que la technologie ne remplacera pas ce dernier…