La technologie des capteurs présentée au CES 2026 a suivi deux voies distinctes : repousser les limites de l'imagerie dans des environnements extrêmes grâce à la détection d'un photon unique et éliminer la distorsion de mouvement grâce à des obturateurs globaux grand format.
Le capteur SPAD (Single Photon Avalanche Diode) de nouvelle génération de Canon est l'une des technologies les plus révolutionnaires du salon. Contrairement aux capteurs CMOS traditionnels qui mesurent le volume de lumière accumulée sous forme de signal analogique, le capteur SPAD utilise un mécanisme numérique de comptage de photons.
En enregistrant l'avalanche d'électrons déclenchée par un seul photon, ce capteur élimine intrinsèquement le bruit de lecture, maintenant un rapport signal/bruit exceptionnel même dans l'obscurité quasi totale. Canon a démontré la capacité du capteur à détecter clairement les piétons à 120 mètres sous un éclairage de 0,1 lux, essentiellement dans des conditions d'obscurité totale.Sa plage dynamique d'ingénierie de 26 valeurs (équivalent à 156 dB) lui permet de capturer simultanément les détails dans les ombres les plus sombres et les hautes lumières les plus lumineuses sans écrêtage.
Pour l’IA physique, cette technologie améliore considérablement la sécurité des systèmes de conduite autonome (AD) dans des conditions d’éclairage difficiles (par exemple, sorties de tunnel ou éblouissement nocturne). Associé au logiciel de traitement d'image d'Ubicept, le capteur SPAD élimine également le flou de mouvement, ce qui le rend indispensable pour l'inspection industrielle à grande vitesse et la vision robotique.
Alors que Canon repousse les limites de la lumière, Sony établit une nouvelle norme en matière de capture de mouvement. Sony a dévoilé l'IMX928, un capteur à obturateur global grand format de type 2.0 (diagonale de 31,9 mm) doté de l'architecture empilée Pregius S.
Les capteurs à volet roulant traditionnels souffrent d'effets « gelée » ou de distorsion géométrique lors de la capture d'objets en mouvement rapide. L'architecture Pregius S de Sony empile des circuits de traitement du signal sous la couche de photodiode, permettant une exposition simultanée de tous les pixels. Avec une haute résolution de 68,16 mégapixels, le capteur atteint une vitesse de lecture impressionnante de 138,9 ips (8 bits) .
| Modèle de capteur | Résolution | Fréquence d'images maximale | Format optique | Technologie de base | Application |
| Canon SPAD (Prototype) | N / A | Grande vitesse | N / A | Comptage de photons/numérique |
Conduite automatique / Industriel |
| SonyIMX927 | 105,51 MP | 100 images par seconde | Tapez 2,5 (39,7 mm) | Obturateur global Pregius S |
Inspection FPD / Semi-conducteurs |
| SonyIMX928 | 68,16 MP | 138,9 images par seconde | Type 2.0 (31,9 mm) | Grand Format / Pixel Carré | Vision 3D / Reconnaissance d'objets |
| SonyIMX929 | 50,79 MP | 200 images par seconde | Tapez 1,8 (28,1 mm) | Obturateur global à grande vitesse | Diffusion sportive / Analyse de mouvement |
La feuille de route de Sony indique que la technologie mondiale d'obturation ne se limite plus aux caméras industrielles à petite échelle. À mesure que les formats se rapprochent de la taille plein format, cette technologie pénètre les systèmes de qualité cinéma et la vision IA haut de gamme pour garantir une parfaite cohérence des données temporelles et spatiales.
Le CES 2026 a été témoin de la transition des lentilles métalliques des prototypes de laboratoire vers la commercialisation de masse. En utilisant des nanostructures (métasurfaces) pour manipuler la lumière, cette technologie bouleverse les exigences traditionnelles en matière de lentilles incurvées et épaisses.
MetaOptics, basée à Singapour, a présenté des lentilles métalliques à base de verre fabriquées à l'aide de procédés semi-conducteurs. Une exposition remarquable était un module pour smartphone 5G qui élimine complètement le « choc de la caméra » courant dans les appareils modernes.
MetaOptics utilise un processus de lithographie Deep Ultraviolet (DUV) de 12 pouces.Contrairement aux lentilles circulaires traditionnelles, les lentilles métalliques peuvent être fabriquées sous n'importe quelle forme. MetaOptics a présenté un métal rectangulaire qui épouse parfaitement la forme des capteurs CMOS, permettant une capture sur toute la zone sans perte de bord et offrant une résolution plus élevée dans un module beaucoup plus fin.
Ce changement implique que la chaîne d’approvisionnement en lentilles passe d’un meulage mécanique de précision à un modèle de fonderie de semi-conducteurs. Cela permet l'intégration monolithique d'optiques et de capteurs, ouvrant la voie aux robots micro-médicaux, aux lunettes intelligentes ultra-légères et aux capteurs de maison intelligente « invisibles ».
Kyocera a étendu l'application Metalens au champ d'affichage. En manipulant avec précision les positions focales en fonction de la longueur d'onde de la lumière, Kyocera a développé un prototype « Wearable Aerial Display » [15, 10, 10].
Ce système exploite le profil extrêmement fin des lentilles métalliques pour créer un système optique compact capable de reproduire des images avec une perception naturelle de la profondeur. Cela résout un problème majeur de la RA – Conflit de convergence-accommodation (VAC) – en permettant au cerveau de percevoir naturellement des objets à différentes profondeurs, réduisant ainsi considérablement la fatigue oculaire.
Avec une population mondiale vieillissante, les lentilles intelligentes ciblant la presbytie et la correction de la vue ont été l'un des points forts du CES 2026. Ces appareils sont passés d'outils d'enregistrement à des amplificateurs sensoriels humains dynamiques.
La startup finlandaise IXI a présenté des lunettes à mise au point automatique adaptative conçues pour remplacer les verres progressifs ou bifocaux traditionnels. Le système combine des lentilles à cristaux liquides avec un système de suivi oculaire à très faible consommation.
Contrairement au suivi par caméra, IXI utilise un système « tourné vers l'intérieur » dans lequel des LED infrarouges intégrées dans le cadre projettent de la lumière sur l'œil et des réseaux de photodiodes capturent le reflet de « l'empreinte digitale de l'œil ». Le système surveille la direction du regard à 60 ips. Lorsqu'un utilisateur passe de la vision de loin à la lecture de près, un microprocesseur réorganise les molécules de cristaux liquides en quelques millisecondes pour ajuster la puissance de la lentille.
Les indicateurs de performance clés comprennent :
Consommation d'énergie :Seulement 4 mW, permettant aux batteries du temple de 35 mAh de durer 18 heures.
Poids:Seulement 22 grammes (hors verres), comparables aux montures standards.
Informations sur la santé :Le système peut également estimer l'attention et détecter des conditions telles que la sécheresse oculaire en surveillant les taux de clignement et les modèles de regard.
Dans le secteur professionnel XR, Goeroptics a présenté un objectif à cristaux liquides à focale variable de moins de 1 mm d'épaisseur.En utilisant un entraînement électronique pour moduler l'alignement des cristaux liquides, il permet un réglage dioptrique continu de -3,00D à +3,00D. Cela élimine le besoin d’inserts de prescription dans les casques XR et résout fondamentalement le mal des transports causé par VAC.
Alors que les lunettes AR sont positionnées pour succéder aux smartphones en tant que prochaine plate-forme informatique, le CES 2026 a vu les entreprises s'attaquer au « triangle optique » que sont le champ de vision (FoV), la luminosité et la taille.
Lumus a présenté son guide d'ondes réfléchissant géométrique ZOE, qui pousse le FoV à 70 degrés, un bond considérable par rapport à la norme industrielle actuelle de 50 degrés.ZOE élimine également les « fuites de lumière », garantissant ainsi l'intimité de l'utilisateur tout en obtenant une transparence ambiante élevée.Cela permet à AR de passer de simples superpositions de notifications à des espaces de travail immersifs multi-fenêtres.
Pour pouvoir être porté toute la journée, le poids est essentiel. Meta-Bounds a présenté deux modèles primés au CES Innovation Award : des lunettes AR monochromes de 25 g et des lunettes AI+AR couleur de 38 g.Ceux-ci utilisent des guides d'ondes exclusifs en résine (polymère) plutôt que en verre. Goeroptics a également présenté son module de guide d'ondes en résine polychrome F15Pi, qui ne pèse que 4 g mais maintient une transmission de réseau supérieure à 92 % sans artefacts arc-en-ciel.
| Appareil/module AR/XR | Solution optique | Spécifications / avantages clés | Partenaires clés |
| Lumus ZOE | Guide d'onde réfléchissant géométrique | FoV 70° / Haute efficacité |
Méta (Potentiel) |
| ASUS ROG Xréal R1 | Micro-OLED + Prisme | Rafraîchissement 240 Hz / Écran virtuel 171" | XREAL, ASUS |
| Même les réalités G2 | Guide d'ondes + Mono Vert | Confidentialité sans caméra / Prêt pour prescription | Même les réalités |
| Spinelle de Goertek (IA) | Guide d'onde diffractif | 35g / Photo 4K / Vidéo 1080p |
Goeroptique |
| Vuzix/Himax Réf. | Guide d'ondes + LCoS | 0,34cc. Moteur léger / Prescription prête |
Vuzix, Himax |
Après des années de domination de la « photographie informatique », 2026 marque un retour aux avantages physiques et optiques grâce à l’innovation mécanique.
Le 17 Ultra de Xiaomi est doté d’une bague de zoom/mise au point manuelle physique entourant le module de caméra arrière.Cette bague peut détecter des déplacements aussi petits que 0,03 mm, permettant aux photographes d'obtenir une mise au point en rack linéaire et fluide ou un zoom avec retour tactile, corrigeant l'imprécision de la mise au point par pression sur l'écran.
Honor a présenté un prototype de « Robot Phone » qui intègre un cardan motorisé à trois axes directement dans le module de caméra. La caméra peut pivoter, s'incliner et suivre les sujets de manière indépendante, offrant ainsi une stabilisation et un suivi cinématographique de qualité professionnelle aux créateurs sans accessoires externes.
Le capteur ISOCELL HP5 de Samsung Semiconductor est doté des pixels de 0,5 μm les plus petits du secteur.Pour surmonter les défis de collecte de lumière à cette échelle, Samsung a intégré des micro-lentilles à indice de réfraction élevé (HRI) directement dans la structure du capteur, garantissant une pureté de 200 MP tout en permettant des modules de caméra plus fins.
Pour les photographes professionnels, le bokeh optique reste le « fossé » ultime. Sigma continue de repousser ces limites au CES 2026.
Sigma a annoncé le 135 mm f/1,4 DG DN Art, le premier objectif au monde à atteindre une ouverture f/1,4 à cette distance focale. Il offre un rendu et un bokeh qui dépassent même le légendaire 105 mm f/1.4 « Bokeh Master ». De plus, le 200 mm f/2 DG DN Sports de Sigma utilise des moteurs HLA (High-response Linear Actuator) pour une mise au point ultra-rapide, portant la vitesse f/2 à la plage 200 mm pour les sports en salle et les portraits.
Tamron a reçu des prix EISA pour ses 28-300 mm f/4-7.1 Di III VC VXD et 90 mm f/2.8 Macro.La stratégie de Tamron consistant à porter ses objectifs à monture E populaires (comme le 70-180 mm f/2.8 G2) sur la monture Nikon Z a continué d'étendre sa présence sur le marché par rapport aux offres des fabricants natifs.
Kyocera a présenté un capteur de profondeur basé sur l'IA utilisant une configuration unique à triple objectif.Contrairement aux systèmes à double objectif, la configuration à triple objectif gère plus efficacement les reflets et les matériaux translucides, mesurant des objets aussi petits que 0,30 mm. Ceci est conçu pour les cabinets médicaux (identification de l'anatomie) et l'inspection du câblage industriel [15, 10, 10].
Dans un développement surprenant, Lens Technology a lancé un UTG de qualité aérospatiale pour les panneaux solaires des satellites LEO.Utilisant des techniques de renforcement chimique et de découpe laser perfectionnées sur les smartphones pliables, ce verre est aussi fin qu’une aile de cigale et peut être enroulé comme un ruban à mesurer.Il protège les cellules solaires de l'oxygène atomique et des rayons UV dans l'espace tout en permettant aux satellites d'être rangés avec une efficacité « semblable à celle d'un origami » pendant le lancement.
La logique de conception des objectifs s’est étendue au rétroéclairage des téléviseurs. Samsung, LG et Hisense ont présenté des téléviseurs « Micro RVB ».Chaque LED de sous-pixel individuel (moins de 100 μm) est associée à un réseau de micro-lentilles pour contrôler avec précision les angles d'émission de lumière. Cela permet aux modèles phares comme le Hisense 116UXS d'atteindre 10 000 nits et 100 % de la gamme de couleurs BT.2020.
Le thème général du CES 2026 est le suivant :la lentille optique est passée d'une « carte de capture d'image » à un « capteur en boucle fermée pour l'interaction physique ».
Comme l'a souligné Jensen Huang, PDG de Nvidia, « l'IA physique » est la toile de fond de toutes ces avancées.Qu’il s’agisse de la plage dynamique de 26 valeurs de Canon ou de l’obturateur global sans distorsion de Sony, l’objectif est de fournir à l’IA physique (véhicules autonomes, robots, humanoïdes) des données physiques précises et réelles qui dépassent les capacités sensorielles humaines.
Pour l’industrie, trois orientations stratégiques se sont dégagées :
Intégration invisible :Piloté par des lentilles métalliques et des guides d'ondes en résine pour intégrer la technologie dans la vie quotidienne.
Fidélité absolue :Piloté par SPAD et Global Shutter pour éliminer les artefacts quel que soit l'éclairage ou la vitesse.
Couplage informatique :Les lentilles ne sont plus indépendantes ; ils sont étroitement couplés aux NPU IA (comme la plate-forme à trois puces de Goertek) pour obtenir une reconnaissance sémantique au moment où la lumière entre dans le système.
D’ici fin 2026, nous nous attendons à voir des lunettes intelligentes grand public qui ressemblent à des lunettes ordinaires, ajustent automatiquement la mise au point et agissent comme un assistant IA proactif. Les lentilles deviennent nos nouveaux yeux, la nouvelle peau de nos satellites et le nouveau cerveau du monde robotique.