Informatique vintage

Marcopolo,
Entre le pavé graphique et le moniteur c’est quoi comme interface?
Si c’est de la video classique, il est peu être possible d’utiliser un moniteur monochrome avec une entrée vidéo standard

Anecdote pour faire suite à mon post précédent :

Pourquoi EDF a-t-il acheté un Cray-One (qui a été ensuite transformé en Cray-2 puis ils ont acheté un Cray-XMP. Les US se demandaient à quoi pouvait bien servir d’avoir deux Cray) ?

C’était juste après l’accident de Three Miles Island.

EDF avait développé ou acheté un programme permettant de simuler le parcours d’une nuée radioactive en fonction des conditions météorologiques.

Problème, sur les machines les plus puissantes dont disposait EDF, il fallait (de mémoire) 30 mn pour simuler 10 mn de temps réel.

EDF a donc acheté son premier Cray, a vectorisé le programme et… Il ne fallait plus alors que 70 secondes (de mémoire) pour simuler les 10 minutes.

Peut-être qu’aujourd’hui, avec un smartphone, on mettrait 1 seconde :blush:

Oui cela va plus vite pour calculer, mais depuis les nuages radioactifs s’arrêtent à la frontière grace à nos scientifiques intègres.

Science sans conscience…

Oui mais là, c’était au cas où il y aurait eu un accident chez nous. Et dans ce cas, je préfère que les frontières ne soient pas trop étanches pour ne pas tout garder chez nous et en faire profiter nos voisins :smile:

Bonjour,

S il y a des anciens du CNET des années 90 se souviennent -ils d’une structure devellopée par cette institution (service PAA OGE REC , patron Mr Hugon )à base de micro 32 bits appelée Z90 . Il servait entre autres à la télé surveillance des cabines téléphoniques . L 'acronyme du système était ANTILOPE ,je crois .Je n 'en sais pas plus étant absolument nul en informatique .

Bon, peut-être que je confusionne mais il s’agit peut-être de la fameuse SM90 effectivement développé par France-Télécom et dont Hubert Zimmermann (décédé en 2012, j’ai bien connu) était à l’origine il me semble. C’était plutôt dans les années 1980.

Pour Antilope, ne serait-ce pas le programme ANTIOPE (Acquisition de textes et d’images organisées en page d’écriture) ?

Si c’est ça, Bull à industrialisé cette machine sous le nom de SPS7. Mais la machine d’origine a d’abord été produite par la société française Telmat et fonctionnait beaucoup mieux que celle de Bull.

J’ai pas mal travaillé sur cette machine qui tournait sous un Unix adapté nommé SMX ou MPX en version multi-processeur.

Un de mes collègues qui avait reçu la machine n° 1 ou 2 de TELMAT a passé pas mal de semaines à débuguer le hard, en particulier, la MMU qui occupait la surface d’une carte double Europe. Bonne opération pour Telmat.

Le monsieur Hugon, ça ne serait pas plutôt Michel Ugon ?

Bonjour,
Ecran monochrome à cristaux liquides et imprimante ThinkJet intégré.

Oui oui , plutôt 1982, 83 . J’ ai passé un an au CNET puis les sirènes de la téloche m 'ont appelé aux Buttes Chaumont . Oui , la SM 90 , ma mémoire m’a trompé .Non c 'était bien antilope parce que ça galopait pour l 'époque . Oui probable, Ugon .

Oui Guy, c’est de la vidéo classique mais le tube est intégré à la machine.
Je pense effectivement cannibaliser un moniteur standard (tube + électronique) mais il m’en faut un aux bonnes dimensions.

Bonsoir,
J’ai commencé à jouer en assembleur sur une carte de 8086 reliée à une télétype (je ne me souviens plus du type ni du modèle de la carte). Puis a faire du Fortran sur le Mitra 15 de l’université (il lisait une carte, l’imprimait, réfléchissait beaucoup et longtemps, puis passait à la carte perfore suivante)…
Puis j’ai travaillé sur des PDP de Digital Equipement (le premier un PDP 11 à mémoire à tores, et on était nombreux reliés dessus avec nos VT100… ) Puis du Vax, puis des stations de travail Apollo, puis… puis…
Bref, on a aujourd’hui dans nos poches la puissance de calcul de la NSA des années 80 !

Puissance de calcul brute oui et de maniere indiscutable.

Par contre quand je vois le gaspillage de ressource pour faire un calcul un peu compliqué, je me dis qu’entre la performance pour l’utilisateur et celle consommée, y’a de la perte en route.
-Dans les années 60-70 la ressource hardware était rare et couteuse avec une main d’oeuvre qualifié relativement peu cher, ce qui permettait de chercher l’efficacité aussi bien en temps de calcul qu’en utilisation de ressources.
Depuis déjà pas mal de temps le hardware ne coute pratiquement plus rien et la main d’oeuvre est devenue assez couteuse, donc il y a gaspillage de ressource hard et empilage d’un tas de trucs soft pour éviter de redévelopper l’ensemble et plus personne ne maitrise globalement l’ensemble.
Ce qui donne une performance qui assez peu progressé au niveau des temps de réponse (en tout cas pas dans le rapport de la puissance des processeurs), mais des interfaces graphiques qui sont devenues fabuleuses.

2 « J'aime »

Peut être que quelqu’un a un CRT de la bonne ref dans son brol. Il faut tenter l’appel au bonnes volontés

Bonjour, j’étais au SCTT, on travaillait avec le CNET et la DAII. J’ai participé au H451 rattaché à AFnor pendant 10 ans pour normaliser les schémas des circuits intégrés et faire que les documentations ne soient pas des œuvres d’arts comprises que par leurs auteurs.