Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Des pixels comme s'il en pleuvait

Avatar de l'auteur
Sébastien Gavois

Publié dans

Hardware

12/08/2019 2 minutes
14

Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Avec l'Isocell Bright HMX, Samsung dépasse pour la première fois la barrière des 100 Mpx avec un capteur pour smartphone et tablette. Il peut également enregistrer des vidéos jusqu'en 6K à 30 ips. Xiaomi, partenaire de cette annonce, devrait être le premier à l'intégrer dans un de ses produits.

En mai, Samsung lançait deux capteurs photo de 64 et 48 Mpixels : les Isocell Bright GW1 et GM2. Le fabricant vient de dévoiler son Bright HMX, réalisé en partenariat avec Xiaomi « de la conception initiale à la production ». Il propose une définition de 108 Mpixels, Samsung affirmant qu'il s'agit du « premier capteur mobile à dépasser les 100 millions de pixels ».

Cette association entre les deux sociétés n'est pas une surprise puisque Xiaomi l'avait largement teasée il y a quelques jours lors d'une conférence. Le constructeur chinois en profitait pour annoncer l'arrivée d'un smartphone Redmi (sans plus de précision pour l'instant) avec un capteur Samsung de 1/1,7" affichant 64 Mpixels.

Comme les GW1 et GM2, ainsi que leurs prédécesseurs les GD1 et GM1 d'octobre 2018, l'Isocell Bright HMX exploite des pixels de 0,8 μm. Concrètement, les photos affichent une définition de 12 032 x 9 024 pixels, tandis que les enregistrements vidéo à 30 ips peuvent grimper jusqu'à du 6K (6 016 x 3 384 pixels).

Samsung donne quelques détails techniques supplémentaires, notamment qu'il s'agit du premier modèle pour les terminaux mobiles à disposer d'un capteur plus grand de 1/1,33". Combiné avec la technologie Tetracell permettant de regrouper les pixels par paquet de quatre, il permet de meilleurs résultats en basse luminosité selon le coréen.

Une promesse faite à chaque nouvelle génération de capteurs, qu'il faudra comme toujours vérifier dans la pratique. La production débutera d'ailleurs ce mois-ci précise Samsung. Sans surprise, Xiaomi devrait être le premier à intégrer ce capteur dans un smartphone. D'après certaines rumeurs, il pourrait s'agir du Mi Mix 4.

Xiaomi 64 Mpx 100 Mpx Xiaomi 64 Mpx 100 Mpx

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Commentaires (14)


Pixel de 800nm, on arrive à la dimension des longueurs d’onde dans le visible. Bref avec la diffraction la qualité d’image ne va pas s’améliorer.
Sans parler en basse lumière où on voit qu’ils sont obligés de faire du bining.


Faire ces capteurs “à taille de pixels constante” par rapport à la génération précédente est une bonne chose. Sauf que du coup le capteur est plus gros, une idée de l’impact sur ça aura sur le système optique ?



Optrolight a dit:


Pixel de 800nm, on arrive à la dimension des longueurs d’onde dans le visible. Bref avec la diffraction la qualité d’image ne va pas s’améliorer. Sans parler en basse lumière où on voit qu’ils sont obligés de faire du bining.




Je n’ai pas saisis le lien entre longueur d’onde et largeur de pixel :/



Dans le premier cas il s’agit d’une longueur de fréquence, pas d’une taille (ou alors un photon est plus gros que ce que j’imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n’ont aucun lien.



Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu’ils compensent par des algorithmes plus ou moins efficaces en aval.



Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:



Furanku a dit:


Je n’ai pas saisis le lien entre longueur d’onde et largeur de pixel :/Dans le premier cas il s’agit d’une longueur de fréquence, pas d’une taille (ou alors un photon est plus gros que ce que j’imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n’ont aucun lien.Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu’ils compensent par des algorithmes plus ou moins efficaces en aval.Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:




Ça se voit que tu n’as jamais fait de physique :D



Le phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d’onde. Et la lumière est bien plus proche d’une onde que de ce qu’on appelle un photon.



http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg



anagrys a dit:


Faire ces capteurs “à taille de pixels constante” par rapport à la génération précédente est une bonne chose. Sauf que du coup le capteur est plus gros, une idée de l’impact sur ça aura sur le système optique ?




Il sera soit plus gros donc plus cher, soit de même taille mais mieux “taillé” pour éviter les défauts et avoir la même qualité d’image, donc plus cher là aussi.



Dans tous les cas, tu devras payer plus.



Salamandar a dit:


Ça se voit que tu n’as jamais fait de physique :DLe phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d’onde. Et la lumière est bien plus proche d’une onde que de ce qu’on appelle un photon.http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg




Disons que mon niveau de physique (appliquée) s’arrête en BAC+2 et qu’on n’a pas abordé ce type de sujet, d’où mon interrogation :transpi:



Mais je me rends compte que je connaissais ce soucis physique, pour avoir vu son explication dans divers documentaires, mais pas son nom. Comme quoi la science, on croit savoir jusqu’à se rendre compte que l’on ne sait pas.



Merci pour ces détails :)


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.



Il me semble que le problème à la base, c’est l’aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d’exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit. Si sur une surface donnée on a 40 photon qui frappe, qu’est ce que ça nous apporte de plus de savoir qu’il y en a eu 15 en haut à gauche, 7 en bas à gauche, 5 en haut à droite et 13 en bas à droite (il me semble que les capteurs ne sont pas des jolies grilles bien carrées, mais c’est pour l’exemple)? Comment cette information est exploitable ?


Il me semble que se pose aussi les phénomènes de tunnel quantiques des électrons qui passent d’un circuit à l’autre (d’un pixel à l’autre) et qui deviennent de plus en plus problématique à mesure que la taille des composants diminue.



Parfois on observe même des baisses de qualité suite à l’augmentation du nombre de pixel, ce qui est paradoxal. C’est d’ailleurs un argument en faveur des capteurs “full frame” face au micro4/3 ou au format plus petit (smartphone), car à quantité de pixel équivalent, plus le capteur est grand, plus la densité diminue (et avec les risques d’exciter le recepteur d’à côté que ce soit pour un problème de diffraction ou électrique), de même que la sensibilité du capteur augmenter, car en étant plus grand il perçoit plus de “lumière”.



tazvld a dit:


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.Il me semble que le problème à la base, c’est l’aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d’exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit. Si sur une surface donnée on a 40 photon qui frappe, qu’est ce que ça nous apporte de plus de savoir qu’il y en a eu 15 en haut à gauche, 7 en bas à gauche, 5 en haut à droite et 13 en bas à droite (il me semble que les capteurs ne sont pas des jolies grilles bien carrées, mais c’est pour l’exemple)? Comment cette information est exploitable ?




Elle est exploitable de la même façon qu’actuellement, en augmentant le nombre de point de mesure, on augmente l’échantillonnage, donc on est plus précis. Raison pour laquelle une image en 480p est plus “grossière” qu’une image en 4k.



En plus ce que tu oublies, c’est qu’on ne raisonne pas en terme de photon uniquement (luminance) mais aussi en terme de couleur (fréquence de la lumière = chrominance), donc chaque sous-pixel ne capte qu’une certaine fréquence lumineuse (souvent derrière un filtre de la couleur voulu), donc en fonction du nombre de “photon” qui vont frapper les sous-pixel R/G/B et de leur nombre (luminance) on va te créer un pixel d’une luminosité X et de couleur R+G+B.



Tu as donc bien à la fin une image plus détaillé, avec plus de pixel (Ie : avec un meilleur échantillonnage de la réalité).



Ps : Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).



tazvld a dit:


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo




Les capteurs numérique sont “par couleur” donc avant, si un photon rouge touchais une partie du capteur bleu, l’information était perdu. donc on gagne bien en précision sur l’information, le pixel d’à coté va utiliser les informations des capteurs de couleurs adjacence aussi donc statistiquement tu as quand même plus d’information source même si tu sort le même nombre de pixel



tazvld a dit:


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.Il me semble que le problème à la base, c’est l’aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d’exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit.




En effet, le rapport signal/bruit baisse avec la taille des pixels sur le capteur (c’est de la physique), c’est pour ça que les reflex plein format font de belles photos non bruitées, là où les compacts sont moins bons, et où les mobiles manquent de sensibilité et doivent lisser (et ont des couleurs pas toujours très belles quand on regarde de près).



C’est complètement absurde d’avoir des capteurs de mobile de plus de 8 MP, ça ne sert à rien ni à personne ; alors aller sur des 20, 50 et 100 MP :-(




Ramaloke a dit:


Elle est exploitable de la même façon qu’actuellement, en augmentant le nombre de point de mesure, on augmente l’échantillonnage, donc on est plus précis.
[..].Ps : Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).




Non tu n’y es pas du tout. Déjà, 4 pixels ont moins de surface utile qu’un de la taille des 4, et surtout, le bruit augmente beaucoup avec la diminution du pixel, entre le bruit de base, et celui en captation. Chaque pixel capte moins de photons et c’est comme si tu te bouches un peu les oreilles, tu distingues moins les sons. Ce n’est pas par hasard que les reflex ont au minimum des APS-C quand ce n’est pas du plein format, les contraintes sont dues à la physique et sont difficilement dépassables.




(quote:43079:Firefly’)
Les capteurs numérique sont “par couleur” donc avant, si un photon rouge touchais une partie du capteur bleu, l’information était perdu. donc on gagne bien en précision sur l’information




Non non.



Cherchez des documents un peu techniques (mais encore de vulgarisation) sur le pourquoi du bruit qui monte sur les capteurs numériques avec la diminution de taille, c’est parfois expliqué comme un verre de bière avec le dépôt au fond (bruit résiduel) et la mousse au-dessus (bruit global).



Ramaloke a dit:


Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).




En plus des commentaires de mon prédécesseur, je me permets de corriger plus en avant ce point : la plupart des capteurs d’appareils photos numériques utilisent 4 sous-pixels de couleurs, il y a en effet 2 sous-pixels verts par groupe de quatre (et donc un rouge et un bleu). Cette disposition s’appelle matrice de Bayer, et l’une des raisons de ce choix provient de la plus grande sensibilité au vert de l’œil humain (par rapport aux autres couleurs). Donc adapté à l’œil humain en captation, c’est RGBG, par RGB. ;)


Ils pourraient utiliser le même genre de système que Pentax (ou d’autres) qui consiste à générer une image d’une définition importante en combinant plusieurs images pour lesquelles le capteur se serait légèrement déplacé entre chaque prises de vues.



Et donc rester à une densité de pixel plus faible tout en laissant la possibilité de combiner plusieurs clichés pour réaliser une image avec une grosse définition (si le sujet est fixe bien entendu => paysages entre autre).



La photographie sur smartphone manque surtout de dynamique. Et je dirais aussi que la qualité de construction des “objectifs” donne des résultats bien faible en dehors du centre.



Reste à saluer les progrès software pour compenser cela



Ramaloke a dit:


Elle est exploitable de la même façon qu’actuellement, en augmentant le nombre de point de mesure, on augmente l’échantillonnage, donc on est plus précis. Raison pour laquelle une image en 480p est plus “grossière” qu’une image en 4k.En plus ce que tu oublies, c’est qu’on ne raisonne pas en terme de photon uniquement (luminance) mais aussi en terme de couleur (fréquence de la lumière = chrominance), donc chaque sous-pixel ne capte qu’une certaine fréquence lumineuse (souvent derrière un filtre de la couleur voulu), donc en fonction du nombre de “photon” qui vont frapper les sous-pixel R/G/B et de leur nombre (luminance) on va te créer un pixel d’une luminosité X et de couleur R+G+B.Tu as donc bien à la fin une image plus détaillé, avec plus de pixel (Ie : avec un meilleur échantillonnage de la réalité).Ps : Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).




Dans un article sur un autre site, ils expliquent que ce capteur n’est pas destiné à produire une image de 108Mpxl, mais de grouper les pixels pour en faire une photo qui est plus de l’ordre de 27Mpxl. C’est pour ça que je parlais de sous pixel. En gros, ça produit une image “4k” pour être ensuite réduit à un 1080*1920.
En augmentant le nombre de capteurs, on ne réduit pas la surface inter-capteurs, voir on l’augmente, du coup, on ne capte pas plus de lumière globalement pour un capteur de taille identique.




ArchangeGabriel a dit:


En plus des commentaires de mon prédécesseur, je me permets de corriger plus en avant ce point : la plupart des capteurs d’appareils photos numériques utilisent 4 sous-pixels de couleurs, il y a en effet 2 sous-pixels verts par groupe de quatre (et donc un rouge et un bleu). Cette disposition s’appelle matrice de Bayer, et l’une des raisons de ce choix provient de la plus grande sensibilité au vert de l’œil humain (par rapport aux autres couleurs). Donc adapté à l’œil humain en captation, c’est RGBG, par RGB. ;)




Il me semble qu’aujourd’hui, c’est même un peu plus compliqué, les capteurs ne sont plus “carré”, certain par exemple sont octogonaux, et il y a un partage de capteurs entre plusieurs pixels. J’avais rapidement discuté avec un doctorant qui bosser sur un algo pour générer les images a partir des données brutes des capteurs photos, c’était bien plus compliqué que la simple matrice de Bayer.