Quelle est la différence entre définition et résolution ?

Proposé par
le

La définition et la résolution d'une image ne sont pas la même chose. En effet, la définition correspond au nombre total de pixels dans l'image (par exemple une image ayant une définition de 2000x3000 fait 6 millions de pixels). La résolution quant à elle correspond à la densité de pixel c'est-à-dire le nombre de pixels par pouce (un pouce mesurant 2,54 cm).


Tous les commentaires (64)

A noter que la résolution d'un capteur (ou d'un écran) et celle d'un instrument optique, je pense notamment a un objectif, ne sont pas la même chose.

Un photographe prêtera attention a la résolution de l'objectif qu'il choisit.

a écrit : Je sais que ce n'est pas dit dans l'anecdote, mais à quoi ca correspond quand on parle du "1080p" voire "1080i" par exemple sur les televiseurs? lequel est le mieux merci pour la reponse! 1080 c est le nombre de ligne de pixels, sur de la hd actuel, elles sont coupées de 1920 colonnes, à chaque croisement un pixel, composé de 3 sous pixel (rouge jaune et bleu )

Les nouveaux tv auront le double, donc 4 fois plus de pixels, l ultra hd (aussi appelé à tord 4k )

Je me rappel plus l exact différence entre le i et le p, mais je suis certain que c est 1080p qui est le mieux en qualité

Posté le

android

(0)

Répondre

Sauf quand un écran fait exactement un pouce. Là, la définition et la résolution sont la même chose. C'est juste? Où je relance un débat futile. Ou comment couper un sujet comme un cheveu en 4 . Avec résolution. Quand à la définition je me poserais juste cette question. Et au final ce foutu pouce; il était à qui au fait?
ps: Si toi aussi tu as remarqué que mes "Ou" étaient inversés alors tu es winneur.

a écrit : Bah non :)

La definition d'une image caractérise bien son nombre de pixels et sa résolution définit le nombre de pixels par unité de mesure :)

Aucun doute la dessus :)

L'utilisation du mot résolution pour définir les "dimensions" d'une image est un abus de langage bien trop souvent utilisé (et finalement toléré).
Je persiste et signe, la résolution défini un nombre de pixels (V x H) et la définition renseigne sur la densité de pixels en intégrant une notion de taille physique, le terme technique anglais parle de pixel density, en PPI pour Pixel Per Inch ou à l'inverse avec directement la taille physique des pixels avec une valeur de "pitch" (0.22mm par ex.).
Le rapprochement du monde du broadcast et de l'informatique, la multiplication somme toute récente des types de diffuseurs (CRT, LCD, plasma par ex.) capables d'afficher plusieurs résolutions pour une même taille d’écran, ainsi que l'utilisation à tout va de termes comme "HD" dans le domaine du grand public, ont conduit à un amalgame flou de ces 2 caractéristiques techniques, flou entretenu par les services commerciaux des fabricants qui en ont profité pour produire d'autres "normes" tels que HDready, HDtv, fullHD, HD720, HD1080p ou i et j'en passe..., ceci soit disant afin de faciliter la compréhension de ces notions par la ménagère responsable des achats, certains se souviendront peut être de la tentative de simplification il y a quelques années tellement c’était devenu difficile à suivre.

Petite correction aussi au niveau du monde de l'impression pour lequel le terme de résolution ne veut absolument rien dire, si l'on n’intègre pas de notion de taille de la zone d'impression afin de spécifier la définition (ou finesse) de cette impression, le fameux DPI (Dot Per Inch) ou PPP (Points Par Pouces, beaucoup moins utilisé).
On peut également appliquer ceci à la photo numérique, où la résolution seule ne sert à rien, si l'on ne connait pas le type de capteur et donc : sa taille (23.6mm x 15.7mm pour le plus utilisé, l'APS-C), sa technologie (CMOS, CCD...) ainsi que le nombre de photosites (et non photocites) > un capteur APS-C de 15Mpxls sera plus performant que sa version 10Mpxls (en partant du principe que 1 pixel = 1 photosite, d'ailleurs de moins en moins vrai).

a écrit : Dans le même genre pour tout les jeux vidéos Il y a les fps (frame per second) image par secondes ce qui est un indice de performance qui doit être le plus haut sinon le joueurs ressent des lags Pas forcément, tu peux te permettre d'avoir un FPS assez bas tandis que ton œil ne ressentira aucun lags (30 est le minimum si mes souvenirs sont bons) puisque la vitesse de traitement de l'image par ton cerveau est limitée...

a écrit : Pas forcément, tu peux te permettre d'avoir un FPS assez bas tandis que ton œil ne ressentira aucun lags (30 est le minimum si mes souvenirs sont bons) puisque la vitesse de traitement de l'image par ton cerveau est limitée... Il y'a une grosse différence visible de "fluidité" à 30 fps et +
Fais toi un bench dur un d-like ou autre à 30 fps et le même à 60 ou plus, tu verras une grande différence.

Posté le

android

(1)

Répondre

a écrit : Il y'a une grosse différence visible de "fluidité" à 30 fps et +
Fais toi un bench dur un d-like ou autre à 30 fps et le même à 60 ou plus, tu verras une grande différence.
Oui mais c'est simplement une question de fluidité et non pas de lag ;)

a écrit : Notez qu’un pouce (2,54cm) sur un écran d’ordinateur classique contient une centaine de pixels (contraction de « picture-element »).

Sur les smartphones les plus hauts de gammes, cela peut aller jusqu’à 330 pixels par pouce, soit plus de 120 pixels par centimètre, ce qui est quand même énorme.
/> Pour voir ce que cela implique, prenez une capture d’écran sur votre smartphone et ouvrez cette image sur votre ordinateur en taille 1:1, puis comparez la taille de téléphone avec la taille de l’image sur l’écran de votre ordinateur : vous verez :). Afficher tout
C'est exact c'est pour celà qu'une image n'aura pas la même taille "physique" en fonction de l'écran sur laquelle elle est affichée. Exemple une image en 72dpi de 1920x1080, peut remplir à la fois un écran 24" d'ordinateur, une tv full hd classique et un écran de de téléphone portable. La différence sera donc le support, sur une Tv d'un mètre de diagonale l'image aura une définition bien inférieure que celle sur un téléphone portable ayant la même résolution.

a écrit : La définition ne représente pas forcément un nombre entier de fois la résolution, car la taille de l'image exprimée en pouces n'est pas forcément un nombre entier. La définition, c'est simplement la résolution fois la taille de l'image.

D'ailleurs, pour être rigoureux, on devrait
distinguer les deux dimensions de l'image, hauteur et largeur, et parler d'une résolution en hauteur, et d'une résolution en largeur. Classiquement, la résolution est la même dans les deux dimensions, c'est à dire que les pixels de l'image sont carrés, mais il y a des métiers où l'on manipule des images à pixels rectangulaires : les images satellitales, par exemple. Afficher tout
Dans tout les métiers de l'audiovisuel, on travaille souvent avec d'autres format que le pixel carre (1,00), on peut trouver du 1,33 ; 0,97 ; 1,66 ceci dépend du support sur lequel la vidéo (ou l'image) doit être diffusée

a écrit : A noter que la résolution d'un capteur (ou d'un écran) et celle d'un instrument optique, je pense notamment a un objectif, ne sont pas la même chose.

Un photographe prêtera attention a la résolution de l'objectif qu'il choisit.
Un objectif n'a pas de résolution puisque qu'il ne peut que capturer la lumière... pour un objectif ça sera l'ouverture qui sera importante... plus il ouvre grand plus il pourra capturer de lumière...

Posté le

android

(1)

Répondre

a écrit : Je persiste et signe, la résolution défini un nombre de pixels (V x H) et la définition renseigne sur la densité de pixels en intégrant une notion de taille physique, le terme technique anglais parle de pixel density, en PPI pour Pixel Per Inch ou à l'inverse avec directement la taille physique des pixels avec une valeur de "pitch" (0.22mm par ex.).
Le rapprochement du monde du broadcast et de l'informatique, la multiplication somme toute récente des types de diffuseurs (CRT, LCD, plasma par ex.) capables d'afficher plusieurs résolutions pour une même taille d’écran, ainsi que l'utilisation à tout va de termes comme "HD" dans le domaine du grand public, ont conduit à un amalgame flou de ces 2 caractéristiques techniques, flou entretenu par les services commerciaux des fabricants qui en ont profité pour produire d'autres "normes" tels que HDready, HDtv, fullHD, HD720, HD1080p ou i et j'en passe..., ceci soit disant afin de faciliter la compréhension de ces notions par la ménagère responsable des achats, certains se souviendront peut être de la tentative de simplification il y a quelques années tellement c’était devenu difficile à suivre.

Petite correction aussi au niveau du monde de l'impression pour lequel le terme de résolution ne veut absolument rien dire, si l'on n’intègre pas de notion de taille de la zone d'impression afin de spécifier la définition (ou finesse) de cette impression, le fameux DPI (Dot Per Inch) ou PPP (Points Par Pouces, beaucoup moins utilisé).
On peut également appliquer ceci à la photo numérique, où la résolution seule ne sert à rien, si l'on ne connait pas le type de capteur et donc : sa taille (23.6mm x 15.7mm pour le plus utilisé, l'APS-C), sa technologie (CMOS, CCD...) ainsi que le nombre de photosites (et non photocites) > un capteur APS-C de 15Mpxls sera plus performant que sa version 10Mpxls (en partant du principe que 1 pixel = 1 photosite, d'ailleurs de moins en moins vrai).
Afficher tout
Désolé mais tout votre premier paragraphe est faux. J'aimerais connaître vos sources.

Il ne suffit pas de penser et d'affirmer quelque chose pour que ce soit vrai.
Un peu de bon sens!

Posté le

android

(4)

Répondre

a écrit : Oui mais c'est simplement une question de fluidité et non pas de lag ;) Effectivement en dessous , le mouvement parait saccadé et au-delà, l'animation est plus fluide.
Mais le lag est la latence d'une connection internet et n'a rien a voir avec les fps.

Posté le

android

(1)

Répondre

a écrit : Notez qu’un pouce (2,54cm) sur un écran d’ordinateur classique contient une centaine de pixels (contraction de « picture-element »).

Sur les smartphones les plus hauts de gammes, cela peut aller jusqu’à 330 pixels par pouce, soit plus de 120 pixels par centimètre, ce qui est quand même énorme.
/> Pour voir ce que cela implique, prenez une capture d’écran sur votre smartphone et ouvrez cette image sur votre ordinateur en taille 1:1, puis comparez la taille de téléphone avec la taille de l’image sur l’écran de votre ordinateur : vous verez :). Afficher tout
Pour les nouveaux smartphones tels que le S4 ou le Xperia Z, cela atteint les 440 ppi (écran full HD 5"), ce qui ne sert strictement à rien étant donné qu'au delà de 320 ppi l'oeil humain ne distingue plus les pixels individuellement...

Posté le

android

(1)

Répondre

a écrit : Pour les nouveaux smartphones tels que le S4 ou le Xperia Z, cela atteint les 440 ppi (écran full HD 5"), ce qui ne sert strictement à rien étant donné qu'au delà de 320 ppi l'oeil humain ne distingue plus les pixels individuellement... "les meilleurs smartphones hauts de gamme atteignent plus de 400ppi. Le record étant détenu par le HTC One avec 469ppi "

Posté le

android

(0)

Répondre

a écrit : 1080 c est le nombre de ligne de pixels, sur de la hd actuel, elles sont coupées de 1920 colonnes, à chaque croisement un pixel, composé de 3 sous pixel (rouge jaune et bleu )

Les nouveaux tv auront le double, donc 4 fois plus de pixels, l ultra hd (aussi appelé à tord 4k )

Je me rappel plus l
exact différence entre le i et le p, mais je suis certain que c est 1080p qui est le mieux en qualité Afficher tout
Quelques erreurs quand même : la synthèse additive c'est RVB (RGB en anglais) pour rouge-vert-bleu et pas rouge-jaune-bleu... Quant aux télés 4K, l'appellation n'est pas fausse, le "K" signifiant x1000, comme pour 30K€ par exemple. La def 4K existe littéralement sur des caméras cinéma comme les RED ou la F65 (et d'autres), et dans le cas des téléviseurs on n'est pas exactement à 4000 lignes mais on considère que l'écart est peu significatif. Le terme d'ultra HD est en revanche une appellation marketing, un peu comme à l'époque HD Ready pour le 720 et Full HD pour le 1080.

Et pour le p et le i j'ai déjà répondu plus haut, et d'ailleurs je n'ai pas été le seul :)

a écrit : Cet indice ne doit pas forcement être très haut, du moment qu'il avoisine les 24+ ips pour l'oeil humain. Le "lag" est plus un soucis réseau que 'graphique' (il "rame" comme on dit). l'oeil humain voit a plus de 2000 fps, a 24fps c est juste que le jeux commence a etre fluide.

ps: moi j essaye d avoir au moins 60fps sur mon pc

Posté le

android

(0)

Répondre

a écrit : Pour les nouveaux smartphones tels que le S4 ou le Xperia Z, cela atteint les 440 ppi (écran full HD 5"), ce qui ne sert strictement à rien étant donné qu'au delà de 320 ppi l'oeil humain ne distingue plus les pixels individuellement... c est faux, vas voir la page wiki de pixels density en anglais.

la limite est de 480ppi

Posté le

android

(0)

Répondre

a écrit : Quelques erreurs quand même : la synthèse additive c'est RVB (RGB en anglais) pour rouge-vert-bleu et pas rouge-jaune-bleu... Quant aux télés 4K, l'appellation n'est pas fausse, le "K" signifiant x1000, comme pour 30K€ par exemple. La def 4K existe littéralement sur des caméras cinéma comme les RED ou la F65 (et d'autres), et dans le cas des téléviseurs on n'est pas exactement à 4000 lignes mais on considère que l'écart est peu significatif. Le terme d'ultra HD est en revanche une appellation marketing, un peu comme à l'époque HD Ready pour le 720 et Full HD pour le 1080.

Et pour le p et le i j'ai déjà répondu plus haut, et d'ailleurs je n'ai pas été le seul :)
Afficher tout
Pas tout à fait d'accord, UHD est juste le nom donné à la définition, comme VGA, WUXGA, FHD... Ce n'est pas vraiment marketing.

en.m.wikipedia.org/wiki/Graphics_display_resolution

Posté le

android

(0)

Répondre

Le 4K et l'UHD existent tous les deux mais sont deux choses différentes. Ces deux noms ont des applications différentes et des ratios différents.
"4K" vient du cinéma numérique, où le ratio est traditionnellement du 1.85:1 (ou 1.89:1) et correspond à une définition de 4096x2160 pixels. En Cinemascope ou d'autres formats plus panoramiques, la définition verticale utilisée est plus petite, mais on conserve une définition horizontale de 4096 pixels.
L'Ultra Haute Définiton est l'équivalent pour le monde de la vidéo, où le ratio est de 1.77:1 (ou 1.78:1 en arrondissant), autrement dit du 16/9. UHD correspond donc à une définition de 3840x2160 pixels, soit un tout petit peu moins que le 4K professionel.

C'est la même différence entre le 2K, format professionnel utilisé dans les cinémas et donc sur les caméras aussi, d'une définition de 2048x1080 pixels, et la HD (ou Full HD plus précisément) de 1920x1080 pixels, destiné à la vidéo donc aux téléviseurs.
Le choix du nombre de 1920x1080 pixels pour la HD avait pour but de se rapprocher le plus possible du format 2K, tout en respectant le ratio 16/9 de la télévision. Le 4K, qui équivaut à une définition 4 fois plus grande que le 2K, commençait à se répandre dans le monde professionel et dans de plus en plus de cinémas, donc lorsque l'idée de téléviseurs d'une définition 4 fois supérieure à la HD s'est développée, on a commencé à les qualifier de "4K", à défaut d'une autre appellation. Aujourd'hui ce n'est effectivement plus correct, mais comme la norme "UHD" a pris pas mal de temps avant d'être officialisée, certains constructeurs parlent encore de TV 4K.

a écrit : l'oeil humain voit a plus de 2000 fps, a 24fps c est juste que le jeux commence a etre fluide.

ps: moi j essaye d avoir au moins 60fps sur mon pc
Ah, je me pose une question, comment faisait t-on les images subliminales à l'époque alors ? Les téléviseurs étaient loin d'afficher ne fusse que 60 images secondes. On ne peut pas analyser plus de 2000 images/sec, impossible ! Sans parler de la persistance rétinienne en plus. Mais il est vrai qu'une 'fluidité' s'installe quand on passe au delà des 24ips, je suis d'accord.

Posté le

android

(2)

Répondre