Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

21/11/2008

La Grande Gaufre (03)

Tableau 3: "Le sel, le sucre et le blanc d'œuf"

« Comme la Hongrie, le monde informatique a une langue qui lui est propre. Mais il y a une différence. Si vous restez assez longtemps avec des Hongrois, vous finirez bien par comprendre de quoi ils parlent. », Dave Barry

0.jpgAprès une incursion chez les informaticiens, reprenons le cheminement au niveau périphériques, des "computers" et de ceux qui étaient là, "acting".

Que serait la gaufre s'il n'y avait le sel, le sucre et le blanc d'œuf ? Dans cet environnement qui gravite autour de l'unité centrale, ce n'était d'ailleurs pas plus calme. Les périphériques avaient aussi pris du poil de la bête.

Une force de calcul, au centre, sans pouvoir donner des ingrédients en "input" ni en ressortir les résultats en "output" n'aurait pas eu beaucoup de sens.

C'est peut-être une occasion d'écraser des préjugés.

Avoir une conception numérique de la résolution d'un problème prend une voie particulière qui ne passe pas par la sensibilité, mais par les dichotomies multiples de résolutions.

Au départ, il y a des données, des datas, que l'on appelle "input".

A l'arrivée, ce sont des résultats à apporter, que l'on assemble dans un "output".

Au milieu un processus intellectuel, qui vise à l'efficacité en temps et en espace.

D'abord, pour communiquer, les cartes perforées en input s'étaient présentées sous deux formats : larges avec 80 colonnes et 12 rangées ou mini réduites par IBM à 96 colonnes dans un deuxième temps. Dix rangées pour les chiffres qui associées avec deux rangées supérieures pouvaient reconstituer l'alphabet complet et les caractères spéciaux. Les opératrices qui perforaient ses cartes, en ont vu défiler devant leurs yeux sans comprendre ce qu'elles encodaient... Un petit coin tronqué pour les repérer et surtout remettre à sa place facilement en cas de "catastrophe" complétait ces cartes qui devaient avoir été construites dans des normes très précises. Ce support permettait de trier les informations et de les sélectionner. Trier ces cartes, une opération dont on n'a plus idée de la méthode, aujourd'hui, cachée derrière des algorithmes très complexes pourtant mais intégrés dans un module de tri qui choisit sa meilleure technique automatiquement. Les cartes, elles, c'était trier colonne par colonne, de droite à gauche pour les chiffres avec deux passages supplémentaires pour l'alphabétique automatiquement rejeté dès le départ. Comme les trous n'étaient pas toujours très précis, les rejets n'étaient pas rares. Un sport qui avait ses spécialistes et ses gaffeurs. Aux jeunes qui étaient assignés à cette tâche, souvent, une mise à l'épreuve des plus "hasardeuses" de trier les cartes sur la couleur leur était demandée. Ce qui se terminait évidemment par un gloussement ironique.

Les bandes magnétiques étaient la voie parallèle. Plus concentrées, plus faciles à transporter, elles n'étaient pas nécessairement plus fiables au départ. Le magnétisme avait de ses secrets de lecture incompréhensibles. Une petite pression de crayon devant la tête de lecture pour "forcer" le passage se révélait souvent nécessaire après des essais à répétition. La fiabilité vint bien plus tard. Le problème au niveau input était ainsi résolu. Trier nécessitait trois bandes de travail et parfois des heures en fonction du nombre d'enregistrements à trier en "x" phases en avant et en arrière. Les bandes avaient un défaut : le manque d'accès direct, ce qu'avait les disques.

Les disquettes, d'abord, les floppy disk (5 1/4 inch) apparurent avec le PC. Très limitées en capacité, ils accédaient néanmoins, en direct, aux données.

Les tambours, eux, allaient faire résonner leurs batteries pour contenir ces précieuses données, une fois enregistrées. Ancêtres des disques durs, ils n'avaient qu'un charme relatif aux oreilles des opérateurs chargés de leur maintenance.

Les imprimantes, les perforatrices à la sortie de la machine et les bandes magnétiques constituaient les seuls moyens de contrôler les résultats, à l'output.

Pour les imprimantes, les rames de papiers attendaient de s'enfiler en accordéon sur leur imprimante en espérant qu'il n'y ait pas de bourrages de papier avec une tendance trop répétitive. Mais les producteurs d'imprimante avaient de l'imagination pour corriger les imprimantes par leurs insatiables envies de manger du papier de plus en plus vite. Des processus d'attraction du papier automatiques aidaient le classement en sortie des imprimantes. La vitesse effaçait tous les griefs. Pas pour les opérateurs qui s'apercevaient après une nuit, que l'imprimante avait décidé de sur-imprimer toutes les lignes sur une seule ligne.

Le marché parallèle des périphériques n'était pas moins juteux et s'évadait un peu trop souvent des constructeurs de l'unité centrale. Acheter la clientèle, les compétences et les techniques des autres compétiteurs pour rester en course se poursuivait à ce "Dallas, cet univers impitoyable" exporté. Le producteur de périphériques MDS avait été racheté dans la foulée par SPERRY. D'autres s'éclataient. Les télécoms attiraient déjà en coulisse comme l'aimant mais n'avait pas encore trouvé sa voie. Internet, s'il a existé assez vite, n'avait pas trouvé la bonne taille de sa Toile pour n'ouvrir les liens plus élargis qu'entre des machines universitaires.

Retour rapide vers les constructeurs des computers et leurs ambitions en accordéon ou en poupées russes :

General Electric s'empara de la société BULL. Celle-ci fut nationalisée par l'État français à la suite de la colère du Général De Gaule qui avait été traumatisé de voir Bull, entreprise française mais sous le contrôle américain. La politique prenait de plus en plus position dans ce champ de mines. On avait, enfin, senti l'importance stratégique de cet outil magique qu'était l'ordinateur.

En 1966, pour cette raison "politique" et de prestige français, se créait CII (C deux I pour les intimes) sous le chapeau du projet IRIS.

En 1973, UNIDATA reproduisait, plus tard, le même phénomène au niveau européen pour contrer les USA. Des "Plan Calcul", "Esprit", "Eureka" allaient également remettre du pouvoir dans les caisses des constructeurs par le domaine public devenu demandeur.

Le but avoué des États était de soutenir leur économie en envoyant le maximum de capacité humaine au travail en échange des contrats signés. Des quotas de 50% de travail effectués dans les frontières des généreux "donateurs" étaient signés entre publics et privés dans une envie commune d'augmenter les emplois. Siemens fut l'un d'entre eux en Belgique. Contrats qui n'étaient, en définitive, que rarement respectés dans leur intégralité. La mise au travail n'était que partielle ou trop temporaire. Les États n'étaient et ne voulaient qu'être des utilisateurs et n'ont jamais été intéressés à investir, eux-mêmes, dans la technologie de l'informatique. La complexité trop évidente faisait peur. Le publique avait lancé la balle au privé, ils devaient continuer à jouer. L'armée américaine, elle, restait en embuscade et n'hésitait pas à investir dans ce "computer" que l'on voyait presque comme remplaçant de l'homme sur les champs de bataille. L'ordinateur analogique aurait pu aller dans ce sens, mais il a été abandonné. Les armes robotisées intéressaient au plus haut point.

Dans le domaine de la gestion et du traitement de l'information civile, une véritable nécropole de l'ambition des marchés informatiques commerciaux allait commencer à vitesse constante dans une véritable jungle où seul le plus fort continua à vivre. Chaque avancée en vitesse représentait souvent un tel progrès qu'il était difficile de ne pas succomber devant les sirènes de la gloire et du prestige. Les potentiels financiers semblaient être là pour réaliser les ponts d'or. Véritables miroirs aux alouettes, en définitive, car la chute des prix commençait. Les investissements s'en ressentaient du côté des constructeurs. Le grand boom était stoppé. Tout devenait compatible. La machine propriétaire cédait la place.

Les échecs allaient souvent changer la donne dans plusieurs entreprises du secteur pour des raisons multiples mais très similaires dans leur processus de recherche de bénéfices. Si le phénomène a existé en même temps dans d'autres secteurs de l'activité humaine, l'informatique y allait en ajoutant une accélération inédite de manière aussi subite qu'incontrôlée.

La firme RCA jeta le gant, la première. Dans la foulée, SPERRY faisait offre pour RCA.

Les autres essayèrent de s'associer pour atténuer les dépenses et pour combiner leurs besoins au niveau de la machine par les spécialistes autour des périphériques. Pour ajuster à la taille des PME, des minis ordinateurs voyaient le jour, chez DEC. (Digital Equipment).

La bureautique était là avec des possibilités qui n'auront de fin de s'étendre bien en dehors des limites de l'imagination et cela comblait déjà toutes les ambitions.

Les micros commençaient leur percée avec des machines rudimentaires, avec des instructions qui ne travaillaient qu'avec l'entité du caractère. Tout transfert de mémoire plus important nécessitant un travail interne en boucle.

Mais, c'est INTEL qui jeta le trouble en créant des microprocesseurs qui permettaient de concevoir le micro-ordinateur pour les plus petites entreprises, longtemps en disgrâce et, plus tard, pour les particuliers. En 1970, chez Intel (Integrated Electronics), Marcian Hoff coinvente le microprocesseur architecturé avec Federico Faggin. Véritable big bang et pavé dans la mare, ce processeur 8088 qui permettait la naissance des PC. On ne croyait pas encore qu'il allait bouleverser complètement la donne pour l'utilisateur commercial mais aussi, et cela est encore plus important, pour le citoyen lambda. Mais c'est le processeur 4004 à base de silicium qui reste considéré comme le premier d'une longue lignée. Il travailla sur circuits intégrés de 2300 transistors à la vitesse de 108 kHz avec 4 bits. Les processeurs les plus évolués actuels avaient 1,3 milliards de transistors et atteignaient une vitesse de cycle de 3,3 MHz.

La relance de la machine à billet pouvait reprendre de plus belle avec ce nouveau départ très prometteur pour les nouveaux constructeurs de ces petites machines encore loin d'être portables. Le chant de signe pour les constructeurs de grosses bécanes, dans le même temps, était programmé. Seuls les serveurs gardaient une chance en concentrant le parc des futurs PC en grappes ou en réseaux.

Le 12 août 1981, l'ordinateur personnel, le PC d'IBM, bouleversa, donc, les habitudes en s'attaquant aux jeunes passionnés. L'Altair, en 1975, avait effleuré les hantises des "bricoleurs". Des marques telles qu'Atari, Comodore 64, sans écran, avaient gagné les marchés ds particuliers. John Opel avait senti qu'il perdait cette part du marché et chargea, en catastrophe, Bill Low de sortir une machine avec écran adressée aux utilisateurs particuliers. La taille d'IBM était un désavantage en manque de souplesse. Le 5150 fut présenté par le patron.  Le processeur 8088 à 4,7 MHz, 40K de ROM et 16K de RAM, avec un operating système MSDOS. Un prix de 1.565 $. Ce n'était pas gagné d'avance.

Schneider est arrivé avec son 8086 soi-disant plus performant que le 8088 et surtout moins cher, donc, plus accessible, mais toujours encore bien loin du prix du pain. Les clones étaient nés. Les processeurs qui allèrent l'alimenter devinrent de plus en plus puissants. Les mini ordinateurs avaient senti le vent contraire à la sortie des PC et accusèrent des croissances de ventes nulles.

Le PC jouait des coudes surtout en s'étant associé à un certain Bill Gates et à Paul Allen qui, à eux deux, avaient racheté l'Operating System DOS à base de CPM, à DIGITAL et retravaillé pour les besoins nouveaux et de circonstances sous le nom de MS Dos. Pas besoin de grosses infrastructures pour le software comparativement au hardware qui lui demandait des investissements monstrueux. Un garage suffisait et un peu d'idées...

Le vendre, ensuite, à IBM fut l'étape principale du succès de Bill Gates. IBM en fera le PC Dos, sans contrat d'exclusivité signé. En 1987, l'OS/2 et PS/2 seront des semi-échecs. En 2000, objectif "contrer Microsoft" et pour cela, IBM devint le sponsor de LINUX et de l'Open Source.

Les Serveurs RS/6000, AS400, S/390, Deep Blue, Blue Gen, se succèdent. En 1997, Deep Blue bat Gasparov aux échecs. L'avenir, à la puissance des ordinateurs.

La société IBM emmagasine quelques 37.000 brevets. En 2004, coup de théâtre, le PC IBM est racheté par le chinois Lenovo. Des pertes abyssales, pendant une décennie, ont annoncé la crise. Lou Gerstner reprend la direction de l'entreprise et un quart des effectifs de la grande maison IBM sont licenciés.  Il sera remplacé par Pamisano en 2002 avec 400.000 employés dans le monde. L'ambition n'est plus rien que cela : "l'expansion technologique contre la crise". 

Pour les États, on y voyait le look et l’aspect tangible, par l'écran interposé, du multimédia, de la CAO, de la PAO et du son, faisaient passer au mieux les images de leurs élus et intéressaient plus pour l'avenir des partis.

Internet ouvrirait, bien plus tard, le véhicule de la pensée du haut vers bas et de bas en haut. Mais, on n'y croyait pas encore en haut lieu. Microsoft se fit distancer sur la Toile.

L'ordi dut se poser une question initiale de base pour le citoyen lambda en dehors du rejeton qui y voyait le seul jeu : à quoi allait bien servir ce nouveau jouet ? On se questionnait et des livres d'initiation sont sortis pour donner quelques idées. Les "clones" vont bouleverser les prix avec une chute abyssale. On les imagine même dans les sociétés connectées entre eux et reliés en réseau avec un "serveur" centralisateur, maître et esclaves. Les années 90 voyaient les mainframes, ces monstres dans les salles climatisées, sortir de l'ambition de prestige des clients. Ils n'existeraient plus que sous le nom de « serveurs ». Plus question de salles climatisées, de faux planchers, d'hygrométrie fastidieuse et de toutes les précautions d'usage. La fiabilité augmentait en dehors de ces contraintes. Ce qui était petit et surtout moins cher et plus facilement agencé dans l'entreprise par l'encombrement, prenait seul l'envolée vers le succès.

Tout était à découvrir. Le langage Basic combla, pour longtemps, les besoins primaires et presque tous les espoirs des plus farfelus en herbe chez les particuliers. Quelques courbes résultats de fonctions, des applications de Bourse, des statistiques, écrire des lettres et mettre en balance ses fins de mois constituaient les seuls débouchés de l'utilisation de ce Personnal Computer à la maison. La convivialité n'y était pas encore, au départ. Les crashes systèmes avec l'écran bleu étaient monnaie courante. En 1963, Douglas Engelbart avait inventé la souris.

La convivialité et la fiabilité allaient se penser, en parallèle, chez APPLE, avec les Mackintosh en copiant les icônes de XEROX. La souris fut utilisée pour la première fois sur cette machine. Toucher l'information désirée en oubliant les touches du clavier, un progrès génial. En 1983, Steve Jobs, sur une idée de Jef Reskin, lance Lisa, une machine lourde mais déjà révolutionnaire. Son prix actualisé à 22.000 euros est resté trop prohibitif. Le 24 janvier 1984, le premier Mac, avec un écran monochrome de 9 pouces, un lecteur de disquette de 3,5 pouces et une souris, et ce fut l'envol. La légende était née. En 1987, ce fut le Mac II. En 1991, le Powerbook, portable, compact. Un désaccord avec John Scutley pousse Steve Jobs vers la sortie. Celui-ci fonde NeXt en 1989. La période de 1993 à 1997, Apple entre en errance commerciale. NeXt est racheté en 1996 pour avaler, du même coup, son OS NexTSTEP qui se retrouvera dans le Mac OSX. Retour de Steve Jobs. En 1998, avec iMac, iBook, en 1999, retour du succès. En 2006, le processeur Intel prend la place du Motorola. Du coup, l'Apple rejoint le PC et s'intègre en gardant la partie émergeante noble du PC, la beauté du software. iPod et autres "i" complètent (prononcez "aille").

Une véritable suprématie sur la convivialité que la société maintient encore aujourd'hui, malgré un risque important de disparition et de dépose de bilan pendant un temps de l'histoire. La fenêtre sur le monde, le fameux "Windows" s'attaqua à rendre, avec beaucoup de retard, plus convivial leur DOS en s'y inspirant fortement. La souris pour pointer une donnée sur l'écran, sortait de son trou pour ne plus jamais y rentrer. Seul, un marketing très efficace permit de battre les compétiteurs. Apple sur les genoux, Microsoft voyant son intérêt dans la concurrence et pour prouver sa bonne volonté de ne pas envahir le marché, renfloua les caisses en rachetant des actions Apple. C'est le 20 novembre 1985 que Microsoft lançait Windows 1.0. Il n'eut un succès commercial qu'à la version 3. En 1995, Windows 95 le rendait plus sûr, plus stable, mais en y arrivant à coup de correction pendant l'exploitation. Le moteur professionnel de Windows NT se greffa dans la version Windows 2000. Mais c'est la version XP qui resta le phare de la marque de 2001 à 2007. L'usine à gaz de Vista n'a été effacée dans les mémoires qu'avec Windows 7.

Windows ne fera pourtant que "personnaliser" ce "computer", adressé au commun des mortels, pour en camoufler la complexité toujours présente derrière des filtres cachés des programmes. En 1984, Microsoft rend la souris optique pour ne plus avoir à nettoyer les contacts trop sensibles à la poussière. Le Blue track poussera plus loin l'insensibilité à l'environnement par le laser et l'optique. Récemment Apple rend sa souris magique. Sans bouton, lisse, complètement tactile, encore plus, conviviale et instinctif.

Vite dit. Sa maîtrise se montre plus délicate et passer d'une photo à l'autre laissera rêveur à la pensée de la bonne vieille roulette de défilement.

Marché qui croit de manière importante et qui ne trouve un parallèle qu'avec l'écran tactile lui-même. Tâchez d'avoir des doigts précis et sans tremblement. Lavez-vous aussi les doigts avant utilisation pour ne pas vous rendre votre écran illisible.

Commander votre ordi par la voix, une autre méthode à ses débuts dans la version XP.

0.jpgIllusions et vanités de ces non-avertis que tout cela ne serait qu'une montée en puissance sans conséquences sur le long terme. La complexité s'était découverte progressivement dans la douleur, elle allait se poursuivre sur d'autres voies à un autre étage du savoir, pas moins avares de contraintes. Devant l'étendue des connaissances nécessaires, se découvrir, tout à coup, "informaticien hors circuit" eut le malheur de faire mal à plus d'un d'entre eux. Le stade de contrôler cette armada de puissance sous forme binaire très peu attachée à s’associer à l'esprit humain, était dépassé.

Les mutations se poursuivent désormais dans ce qui est de plus en plus "petit" mais pas nécessairement "gentil". Les premiers sacrifiés furent les encodeurs et surtout encodeuses. Ceux-ci encodaient en aveugles sur des machines. Perforatrices, Interprètes, Vérificatrices. N'était-ce pas le sigle choisi ? N'était-on pas dans le domaine des VIP à l'envers ? On se passait alors la main pour vérifier dans un ré-encodage et bloquer la chaîne en cas de "mismatch".

Décentralisés, l'encodage prenait du galon derrière la protection de programmes qui vérifiaient en arrière-plan, les données entrées avec les bases de données de référence par les utilisateurs eux-mêmes. Cela allait moins vite, mais au moins cela nécessitait moins de ré-encodage. Mais la confiance devait régner puisque le programme était censé contrôler. Les "check digits" pour les nombres comme les comptes en banque sont tellement providentiels !

Les opérateurs voyaient aussi leur fonction rétrécir à des tâches de contrôle de la console et non plus à introduire les bandes magnétiques dans leurs armoires. Cette fonction était orchestrée de plus en plus par des robots.

Les robots n'allaient dès lors plus s'endormir dans beaucoup d'autres fonctions. Un peu d'huile et une révision annuelle leur suffisent à ces robots providentiels. Le travail d'opérateur se rétrécissait dans le même temps à celui de pupitreur. L'automatisation de chargement des périphériques se poursuivait.

Cette histoire fut, incontestablement, une « Grande Trappe » et pas uniquement au niveau matériel. Dans l'effervescence, le jeu de chaise musicale, au niveau des "seconds couteaux" du management, continuait. La recherche du "comment être plus catholique que le pape" se jouait, avec les coudes, en passant par des tours de passe-passe dans lesquels la politique n'était pas très éloignée.

En fait, une bonne mise en bouche pour la vraie « Grande Gaufre » qui va prendre sa suite.

Les commentaires sont fermés.