Hier soir, j’ai refait fonctionner un écran d’ordinateur CRT de 2006, et j’ai l’impression qu’il a une plus grande définition que les tubes cathodiques des téléviseurs de la même époque. Lorsque je regardais une vidéo YouTube dessus, je voyais la différence entre le mode SD 480P, et le mode HD 1080P. J’ai fait des essais en réglant la résolution de la sortie VGA sur 1600×1200 et sur 1400×1050.
Au passage, cet écran semble avoir un tube à masque perforé avec des trous ronds, comme sur les Delta, et pas des fentes comme sur les PIL.
Dans les années 90 il a existé des téléviseurs cathodique Haute Définition, pouvant recevoir un signal analogique HD, par la péritel semblable au VGA. Donc des Tubes HD, on savait faire
Du coup, les moniteurs informatiques haut de gamme de 1994-1995, et par la suite tous les moniteurs informatiques possédaient-ils des tubes cathodiques mieux définis que ceux des téléviseurs classiques, que l’on pourrait qualifier de « HD »?
Ensuite, vu que les très rares téléviseurs CRT HD des années 90 utilisaient un signal type VGA, serait-il possible de leur faire afficher une image haute définition issue d’un boîtier TNT, en utilisant un adaptateur HDMI VGA, et éventuellement un Transcodeur pour avoir le bon nombre de lignes?
Oui, les moniteurs informatiques des années 90 avaient une bien meilleure définition que les TV de l’époque.
Les plus courants affichaient du 1024 x 768, ce qui est bien mieux que le 640 x 480 ou le 720 x 576 de la TV SD US ou Européenne. Le pas de leur tube était beaucoup plus fin que celui d’un tube TV.
De plus l’image était en balayage progressif et la fréquence trame allait de 60 à 75 Hz environ.
Les moniteurs des stations de travail graphique avaient une résolution encore plus grande (1600 x 1200 ou plus).
La TV HD des années 90 (HD-MAC en Europe) était à 1250 lignes (dont 1150 utiles) et les TV de l’époque pourraient afficher du 1080i/50 au format VGA en retouchant leur fréquence lignes (en l’abaissant d’environ 5%) et en retouchant l’amplitude verticale.
Pas besoin de faire une adaptation du nombre de lignes au niveau de la source.
Donc finalement, Windows 3.11 pouvait tourner en HD si on avait une carte graphique compatible. Par HD, je veux dire 1024×768 en 16 millions de couleurs! En revanche, à part le solitaire, je crois qu’aucun jeu n’utilisait cette résolution à l’époque On tournait plutôt en 640×480 au maximum. Ce qui reste tout de même supérieure aux consoles de l’époque.
Merci pour cette image Jérôme On voit bien la différence de définition entre le tube TV, et le tube informatique, ce dernier a beaucoup plus de « pixels ». En revanche, je ne comprends toujours pas pourquoi le tube TV à un masque à fente de type PIL, alors que celui pour l’informatique a un masque à trous ronds qui fait penser à celui des tubes couleurs des années 60.
ils sont alignés, ce sont évidemment des PIL
je suppose que le choix de la forme ronde, c’est justement pour pouvoir en caser plus au cm², enfin disons plutôt pouce carré dans le cas de ces moniteurs…
Comme le montrent les 2 photos publiées plus haut par JHalphen, ça permet de diminuer le pich et d’augmenter la définition :
masque à fentes, les fentes sont côtes à côte, et le pich (distance entre 2 luminophores de même couleur) est égal à 3 fentes…
masque à trous ronds : on décale les trous 1 ligne du masque sur deux, et le pich devient alors 2 trous pris en diagonale…
Il a quand même existé en THD informatique des tubes à masques à fentes verticales : les trinitrons SONY (en fait le masque est constitué de fils), et je ne me souviens pas qu’ils étaient moins bons que les tubes à masque à trous circulaires ?
Le Trinitron a été poussé jusqu’à des définitions étonnantes :
En 1984, Sony a présenté un systéme complet de télévision Haute Définition analogique 1125 lignes/60i dénommé HDVS.
1125 lignes équivaudrait à une résolution numérique de 1875x1125. Format vidéo composante avec vidéo entrelacée et un rapport d’aspect de 5:3
Le magnétoscope 1 pouce passait 30 MHz en Luminance et 2x 15 MHz en Chrominance.
Prix : 1,1million d’€/pièce (Francs convertis en €)
Un de mes clients (SEE-Captain Video/David Niles) avait à Paris un ensemble 3 caméras/3 magnétos/Mélangeur/Montage/disque Ralenti… en prêt par Sony Japon.
Utilisé notamment pour filmer tous les défilés de mode en HD pour la NHK Japonaise & clients privés.
Le HDVS a été tué par la France à la Conférence du CCIR de Dubrovnik : La HD mondiale NE SERA PAS en 60Hz.
Puis le numérique pointa son nez…
La quasi totalité des moniteurs informatiques couleurs des années 90 exploitaient un format carré 4/3, il est donc difficile de comparer avec les écrans d’aujourd’hui.
Il existait aussi des modèles destinés à la PAO au format A4 (pivotables H / V).
Apple a aussi exploité les Trinitron dès 1987 pour le Macintosh II.
En 1992, le 20 pouces Apple affichait déjà 1152×870 (4/3).
En 1997, les fameux Apple Studio Display procuraient 1024 × 768 pour 15 pouces (4/3).
Il ne faut pas non plus oublier les bons vieux premiers imacs de mars 2003 (4/3) ou encore les emacs en 2004 avec 1280 x 960 (4/3) qui délivraient un pitch assez correct pour l’époque et avec lesquels on faisait du montage semi-pro avec Final Cut Pro au grand dam des équipements Avid.
Apple a longtemps exploité les Trinitron Sony pour ses écrans fabriqués par LG (taille jusqu’à 21 pouces). Mitsubishi a aussi fourni des Diamondtron à Apple pour quelques modèles, toujours basés sur la même technologie.
J’ai personnellement exploité les Apple Display CRT durant les années 1990 / début 2000 et ils étaient capables d’afficher des images vidéo fluides et précises, y compris en HD (parfois avec une carte graphique dédiée à ajouter).
Le pitch des moniteurs d’ordinateurs a toujours été supérieur à celui des téléviseurs pour d’évidentes raisons de précisions des textes et des graphismes presse (PAO). Le format 16/9 (adopté en 1990 en TV) pour les moniteurs n’a été que tardivement exploité à la fin des années 1990 ou au tout début des années 2000 selon les marques. La pression pour maintenir le 4/3 venait des industriels et surtout des chaînes et studios TV américains.
Sinon, pour compléter les données présentées par Jérôme, voici d’autres détails concernant le modèle 38 pouces de chez Sony (16/9 géant et extrêmement lourd) : https://www.youtube.com/watch?v=NvX_yWdltiM
Ah ! je ne savais pas que 4/3 c’était carré .
Pour moi un carré a ses 4 cotés égaux …mais, bon on a compris quand même ce que tu voulais dire :mrgreen:
A une époque (début des années 2000) il y a même eu des moniteurs informatiques LCD au format 5/4 (1280 x 1024), peu avant le passage aux écrans larges (16/9).
En fait j’avais lu que ce rapport d’aspect bâtard (5/4) était uniquement destiné à optimiser le nombre de dalles qu’on pouvait tirer d’un panneau LCD complet avec un minimum de déchet.
En 1995, j’ avais vu le KV HD 3215 au PALEXPO à Genève, un tv 16/9 Trinitron, avec "GOLDEN SCART ", pour 1125 lignes et 1250 lignes, et la SD en 625 et 525 lignes.
Tuner analogique multistandard, et tuner satellite analogique intégré avec sortie bande de base pour décodeur HD( HD MAC et MUSE ), pouvant capter ASTRA 19 ° est, et TELECOM 2 sur 5° Ouest. Jamais commercialisé en France, mais en Suisse oui !
Avec un prix accessible uniquement pour l’ émir du QATAR ou pour un footballeur au PSG !
Effectivement, j’ai l’impression que les moniteurs informatiques LCD en vrai 4/3 sont assez rares, pour ne pas dire inexistants. Ce qui pose problème avec les vieux PC, car on a une image comprimée.
C’est peut-être un peu stupide de dire ça, mais la grande dalle LCD dans laquelle on découpe les petits écrans, c’est un peu comme une grosse tablette de chocolat dont on découpe des carrés Je ne savais pas que les écrans LCD étaient fabriqués comme ça. En revanche, je crois que c’est un peu la même chose pour les écrans OLED.
Pour le coup de la « HD », ces moniteurs informatiques CRT étaient certes en 4/3, mais du 4/3 avec une très bonne définition, bien meilleure que celle des téléviseurs, le tout en progressif. D’où mon appellation de « HD ».
Avec une bonne carte graphique, et les pilotes adéquates, Windows 3.1 pouvait déjà tourner en 1024 x 768 (XGA en appellation informatique), avec 16 millions de couleurs! Il me semble même qu’il pouvait monter jusqu’à 1600×1200 (UXGA), voir peut-être même au dessus si la carte graphique le permettait. Mais à l’époque, à part le solitaire de Windows, je crois qu’aucun jeu PC n’exploitait de telles définitions. On était limité à 640×480, voir moins à cause du manque de puissance des CPU, et de l’absence d’accélération graphique. Cependant, des définitions d’écran élevées étaient utiles pour le traitement d’image le graphisme, voir aussi la bureautique. Cela rendait aussi l’utilisation de Windows plus agréable.
Comme les décodeurs HD-MAC n’ont jamais été commercialisés pour le Grand Public (de plus en 1995 le MAC, HD ou pas, c’était fini), ça me semble assez normal qu’il n’ait pas été commercialisé en France.
Et je ne vois pas bien ce que les Suisses pouvaient en tirer puisqu’il n’y avait pas de sources HD …
Déçu par les premiers écrans plats, j’ai utilisé un écran à tube sur PC jusqu’en 2020. Le dernier a duré dix ans et était en 1600x1200 à 75Hz.
Il m’en reste encore un de rechange un peu moins bon. À 5€ l’écran c’est pas mal.
Mais mon écran plat actuel est quand même bien meilleur que tout ça.
Pratiquement tous les 15 pouces (dès 1997/98) en 1 024 x 768) et pas mal de 20 pouces au début des années 2000 en 1 600 x 1 200. Le 5:4, c’est essentiellement des 17/19 pouces, ce qui est resté longtemps l’entrée de gamme. Bon, depuis on a eu du 16:10 pendant longtemps, puis du 16:9 et on revient au 16:10 et à des formats plus larges depuis quelques années.