Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

31/12/2008

Index

Tableaux Titres
0 Préface
1 L'irrésistible ascension
2 L'âge d'or
3 Le sel, le sucre et le blanc d'oeuf
4 Compatible ou clone? Une question à bulle
5 Méthode: la danse avec les loups
6 Ça s'en va et ça revient
7 Qui aime bien, châtie bien dans la virtualité
8 Rien ne vaut l'image
9 Les arbres ne montent pas au ciel, les vagues non plus
10 Changez, vous serez considérés
11 Passé, on ne t'oubliera jamais
12 La rivière ne revient jamais à la source
13 Cours, Forest Gump, cours
14 Mutez ou mutualisez pour vivre ou pour survivre
15 Sous les pavés des claviers... la plage?

Pour finir un karaoke sur l'informatique

Retour à la base 

24/11/2008

La Grande Gaufre (00)

L’Informatique sous un angle insolite et insolent 

Préface:Pourquoi une gaufre en parlant d'informatique?  

« Informatique : Alliance d'une science inexacte et d'une activité humaine faillible. », Luc Fayard

 

0.jpgJe me souviens d'un bouquin écrit, en 1996, par notre "General Manager" local, à la retraite. Il parlait des entreprises du secteur informatique qui grandissaient et s'effaçaient une à une, soit absorbées, soit emportées dans la course à la technologie.

Il avait titré son bouquin "La Grande Trappe". 0.jpg

Sa réflexion a été pour l'occasion : "Je vais écrire un livre sur l'histoire de l'évolution des ordinateurs, et je vivrai de ce que les constructeurs me payeront pour que je ne publie pas mon livre ". 

Les années qui ont suivi son départ, se sont montrées, non moins voraces, mais sous un autre jour qui ressemble plus à une «Grande Gaufre» par certains points de vue.

Les développements plus ou moins chronologiques ne sont pas une exclusivité du secteur. Elles jouent avec les mêmes armes et les mêmes travers, mais souvent, elles l'ont fait avec plus de zèle, plus ciblées, dans un degré d'excitation et une urgence très personnelle. Si les initiales "ADM" vous disent quelque chose, cela pourrait être un parallèle.

Je reprendrai, en le résumant, le bouquin de mon illustre GM qui a traversé l'histoire de 40 ans d'informatique avec une vue "managériale". Cela me servira de fil rouge pour en reprendre une vision plus personnelle, par l'autre bout de l'échelle, celle de la base.

Si l'histoire officielle vous intéresse seule, elle est, peut-être, sous ce lien, sous la forme d'une autre histoire sous Internet trouvée avec l'aide de Wikipedia.

Expliquons d'abord le titre. Choix volontairement allégorique, en effet. Une gaufre, parfois plus caustique ou plus sucré, selon le cas. Le parallèle entre la représentation allégorique et ce qui s'est déroulé, je le ferai au cours du "show".

1.jpgAu début, il y a avait la pâte fine destinée aux gaufres: avec une technologie toute fraîche, qui montait sans rien faire, toute pleine d'espoir. La volonté était de la produire au plus vite pour supprimer les tâches répétitives. Toute faite de calculs, de réflexions, de textes intégrées. Une belle pâte fraîche, quoi....

Cette pâte était montée sans beaucoup d'efforts, avec un peu de levure, avec des produits nouveaux conçus "maison". Tout avait, encore, à être inventé. Pour cela, il y avait des créateurs hors pair. Les nouveautés successives avaient pour tâche d'effacer les ratés des opérations manuelles, pour effacer leurs fragilités, leur lenteur d'homme. Beaucoup de contraintes et de mauvaises initiatives toujours destinées à répondre au seul progrès se présentèrent en vrac, sans beaucoup d'expériences préliminaires. La pâte, gorgée de levure, après sa phase ascendante, ne pouvait jamais monter plus haut que le récipient qui la contenait. Mais personne ne s'en souciait. En fin de course, même les nouveautés s'épuisaient. On apprenait ce principe en s'apercevant que rien n'atteint le ciel qu'après beaucoup de temps et d'argent. Mais, n'est ce pas la même chose. Le "Think" d'IBM n'était qu'un sommet parmi beaucoup d'icebergs. On fonçait, on travaillait sans compter, sans limites, trop enthousiasmés par le goût sucré de la nouveauté. L'avenir tout entier était dans les mains des audacieux et les nuits gonflaient les espoirs.

Toute dorée, au début de ce siècle, une bulle s'était formée au sommet de cette pâte encore molle. Les excès du progrès avaient usé les gaufriers les mieux conçus, les mieux aguerris contre la concurrence. Le "hardware" restait sujet à certaines convenances limitées par les potentiels de production des fournisseurs et de l'absorption par la clientèle.

Cette dernière, il ne suffisait plus de l’appâter, il fallait la gâter, la gaver de sucre jusqu'au diabète par le "customer focus", qu'on signalait, simplement, pour ne pas se faire distancer par les "autres".

Petite d'abord, la bulle s'était enflée entraînant la pâte bien molle sur les bords du récipient. Très vite, pourtant, poussée par ses suivantes, la pâte s'était mise à se répandre un peu partout sur les bords du gaufrier, d'abord. Sur le plan de travail, ensuite. La confusion générale, la surprise la plus totale s'en était suivie. On épongeait, on essuyait sans relâche. "L'informatique gaufrière", fonctionnelle avec un avenir certain suivant la compétition acharnée et annoncée. Mais en secret, elle avait subitement pris du plomb dans l'aile. "Qui trop embrasse, mal étreint", pensait-on. Il fallait consolider l'ensemble. Les producteurs venaient de partout, de tous les horizons de l'activité humaine et semblaient intéressés. On se bousculait au portillon jusqu'à oublier où était le "core business", le cœur des petites affaires. Tous les clients voulaient goûter les dernières gaufres, produites avec le plus d'assiduité, le plus d'assurance et au plus bas prix. On était même prêt à participer à la production pour accélérer le processus ... Ou pour le ralentir, qui sait?

Cela fera partie de ce qu'on appellera le "marketing viral".

Car, l'avenir de cette gaufre n'était-il plus totalement assurée qu'on le disait. Le prix de la pâte se payait de plus en plus cher, dès sa sortie. Le gaufrier, lui, avait été perfectionné de gadgets tout azimut le rendant automatique par touches successives. La "gadgetisation", le "user friendlyness" n'avaient pourtant pas été gratuits.

Au sujet des trous dans la gaufre, les uns les voulaient carrés, les autres ronds. Les habitudes qui devaient se réorienter en permanence, demandaient de plus en plus d'heures d'apprentissage pour assurer un tant soit peu d'expérience.

On "versionnait" les gaufriers. Ce fut d'abord les séries qui sortaient et qui ne nécessitaient qu'un ajustement de dernière minute. Bien plus tard, ce furent les programmes d'utilisation qui suivirent le même cheminement avec la complexité qui s'amplifiait. On supprimait ou sauvait des emplois du côté  de ceux qui étaient chargés de la confection des gaufres. On créait de nouvelles fonctions, des concepteurs de gaufriers, par la même occasion. Ils changeaient de nom et rataient quelques marches et quelques trous.

Ce furent l'invasion des designers. Que pouvait-on faire de plus et de mieux? 1.jpgEt pourtant... il fallait le retenir cet automatisme qui ne cherchait plus qu'à trouver un hypothétique besoin de progrès.

On se copiait aussi. On fantasmait surtout. 

On imaginait toutes les formes du succès.

On découvrait que la petite gaufre carrée, cela prenait moins de place dans l'emballage et pouvait intéresser d'autres acheteurs qui adoraient aussi le sucré-salé.

Le packaging était né. L'espionnage n'a jamais été une affaire de guerre ouverte. On s'observait pour, seulement, en trouver la substantifique moelle et pour, tout aussi vite, l'adapter à sa propre réflexion après l'adaptation de l'étiquette. Bien loin du stade du gros oeuvre, le look de l'appareil prenait de plus en plus d'importance en oubliant sa fonction de base: "faire des gaufres". Windows, la fenêtre sur le monde, ne fut qu'un des solvants de l'approche de convivialité.1.jpg

"Comment fidéliser sa clientèle?" était devenu la question la plus lancinante pour tous, l'un après l'autre. Les plus grands qui avaient une avance, un seul "gap" avec les suivant rejoignaient tout doucement le troupeau.

Personne ne se posait encore, avec courage, la question du pourquoi pousser le développement dans certaines voies limites, mais il le fallait pour les consommateurs. Le calcul du ratio prix-performance,  du P&L, seul, comptait faire des gaufres les plus dorées et les plus croustillantes possibles au meilleur prix performance et meilleure que la concurrence. "Vaincre ou mourir", devenait la devise.

En bas de l'échelle de production, du moment que le chef de la « boîte à gaufres » était content, tout allait bien, se disait-on. Cette course en avant fut entreprise en oubliant qu'à un moment, le coût de la production de ces gadgets dépasserait celui de la vente vu les investissements. La courbe de la rentabilité ne devait que redescendre après l'arrivée à cette apogée que personne ne décelait vraiment.

La bulle des années 2000 (en informatique, juste pour rappel) n'était que la remise à l'heure du processus.

Les apprentis sorciers en ont été pour leurs frais: les gaufres n'ont plus eu le goût de gaufre et la clientèle n'adhèrait plus par contrat. La pâte était produite au prix le plus bas. Les pâtissiers de première couche, devenaient payés au plus juste prix et rongeaient leur frein. Des pâtissiers, trop spécialisés pour rester en course quittaient mais, en s'éclipsant, contraint ou forcés, ils faisaient perdre les généralités du processus global de production qui se perdaient dans les oubliettes.

Financière et boursière, cette allégorie "pâteuse" rappelait les crisettes ou les véritables crises de confiance qui s'étaient déjà manifestées envers la science et les progrès technologiques.

Fracture numérique, qu'ils disaient. Eux devaient tout régler pour le progrès et le bien être de l'homme futur. Pour la bonne bouche mais sans bouche à bouche. Cette phase se préparait pourtant.

Avec la pâte qui restait dans la casserole, il avait fallu se résoudre à en faire des gaufrettes, toujours plus petites, avec de levure plus exotique.

Le prix de la levure montait dans le même temps. Les produits qui la composait se perdaient dans la nuit des temps. Beaucoup de déchets étaient à déplorer. On ne saura jamais si ce qui était passé à la poubelle de l'histoire, l'avait été à bon escient, mais il avait fallu choisir dans la précipitation. Les poubelles se retrouvaient dans le chemin inverse d'où elles venaient pour garder un tant soi peu de valeur dans le recyclage.

Les prix de la matière première et des ingrédients étaient devenus tellement chers, le gaufrier, tellement bon marché, les manutentionnaires dont on n'espérait un peu trop que respecter les dates de péremption très lointaines, que tout devenait aléatoire. Décongelée, la plus brutale. On pressa, de plus en plus fort, les deux plaques du gaufrier. On pressa, compressa pour atteindre le minimum d'espace entre les plaques du coût. On avait presque créé des churros ou des croque-monsieur en place des gaufres. Un peu secs, les churros... mais ceux qui s'en plaignaient, c'était ça ou la fuite vers une herbe qui n'était pas plus verte ailleurs.

Parfois, au mauvais moment, un court circuit se produisait. Les grèves du zèle, les fameux "bugs", étaient nés et faisaient des ravages dans la fine mécanique. Nombreux, ces bugs. Internes et externes. La gaufre était alors devenu trop brûlée sur le haut et pas assez sur le bas. Il fallait remplacer ou c'était le chômage technique et l'info qui ne passe plus. Changer les gaufriers dans leur structure, changer la pâte et les fournisseurs devenait les seules préoccupations. Cela prenait de plus en plus de temps pour faire le produit fini : la belle gaufre. Le "snacky gaufrier", d'autres appelaient cela PC, était devenu le futur immédiat et pour longtemps.

Tester se faisait, cette fois, à distance. En réseau, qu'on disait. C'était un peu l'aventure que l'on se refilait sans beaucoup d'expériences. Le gaufrier, on l'emportait à la maison. L'esprit d'équipe s'y perdait, mais était-il prépondérant, puisque tout le monde y gagnait un peu? C'était oser se tromper et partir en perdition dans certaines mauvaises gestions du risque. Le meilleur rapport se cantonnait en définitive à la seule norme du prix bas en n'oubliant pas la performance, mais tout de même un peu la gestion dans l'efficacité, en finale. Pour comprendre les desiderata de la clientèle et des prospects, Internet va offrir d'autres formes d’espionnite. Nouvelle appellation, le "fishing" en réseau allait apporter une source d'informations infinie sur le consommateur. Du poisson dans les gaufres !!! Un comble. Ensuite, les consommateurs, eux-mêmes, s'offraient au monde du virtuel par les blogs et des "ego" soigneusement détaillés, retrouvés sur les MySpace et autres. Comme compensation, on naviguait en plein "réseaux social". Parfois, le producteur, lui-même, scannait, plus ou moins incognito, derrière des pseudos, à la recherche de ce qui manquait pour s'attirer l'eau de Jouvence à mélanger avec la pâte.

1.jpgDans cette débandade de la gaufrette, prenant encore d'autres formes épiques, à en oublier jusqu'à l'origine et la finalité : plaire au client. La chantilly, au sommet de la gaufre, placée pour agrémenter, n'était plus tout à fait blanche et fondait de plus en plus vite.

Personne ne s'inquiétait plus que le gaufreur ne porte plus la toque sur la tête. Quant au pâtissier, censé seulement de placer la pâte dans le gaufrier, la motivation s'en allait comme elle était venue. La qualité laissait tout doucement à désirer vu la compétition trop virulente. Elle faisait place à la quantité. On n'allaient jamais assez vite. La notion du temps nécessaire était très suggestive et les déchets s'accumulaient. On allait chercher ailleurs, de plus en plus loin, si la pâte était meilleure, si l'ensemble des opérations ne pouvait s'y dérouler, en plus. On en perdait son âme et sa marque. La technologie, au service de la technique et plus l'inverse.1.jpg

Les clients, les grands amateurs de gaufres, étaient de moins en moins contents. Changer trop souvent, on n'aime pas trop dans ce milieu très terre à terre, trop peu pragmatique. A chacun sa gaufre. La patience et le travail des plus acharnés ont été les secours de ceux qui espéraient encore, de ceux qui restaient à bord, ce qui n'était pas nécessairement une chance après coup. Ce qui restait à l'intérieur s'était vu prendre des formes très coincées, très moulées dans un style "tout fait", pas très séant. Les clients avaient eu même l'audace de passer leur tour.

Le goût n'était manifestement plus le même avec le design tout fait. Pour s'en rappeler, on y accolait un numéro de série sur le dessous, un "serial number", qu'on disait pour ne pas confondre. On se mettait à rêver de jours meilleurs.

Où avait-on raté les marches? Une mauvaise adaptation aux besoins réels du client, une mauvaise appréciation du côté fournisseur, un manque de motivation pour les études "gaufrières"? Créer une pénurie pour les amateurs pour relancer la machine? Tout n'était qu'affaire de cycles, disait-on. A un creux d'une gaufre, correspondrait, pour un temps, une excroissance en alternance plus qu'honorable mais, cette fois, plus dans l'unanimité. On dénombrait plus de creux que de gaufres. Heureusement, le pensait-on, on avait appris et pris des dispositions de sauvetage, les mieux ajustées possible. Pourquoi pas modifier les constituants de la pâte? Affiner les ingrédients et s'inquiéter pour maintenir la pâte dans la casserole pour ne pas en perdre.

L'école pouvait remotiver les troupes pour remettre toute la "machinerie" en route. Les études pour devenir gaufreur étaient devenues aussi de plus en plus complexes. Ce n'était plus le dessert que l'on se servait à quatre heures. Les pâtissiers qui avaient quelques qualifications plus spéciales, s'échappaient vers des horizons les plus variés. Cela en devenait gênant car les gaufres, on en redemandait aussi en anciens formats. Les clients n'en feront jamais qu'à leur tête.

Aromatiser la gaufre pressée avec le flambé d'un « alcool de riz » allaient pour un temps, en améliorer le goût. Enfin, on l'espérait. Cela mènerait peut-être à devoir acheter des gaufres à la grande surface, empaquetées, plastifiées avec de petits caractères parfois illisibles sur l'emballage. Tout est une question de mesure, en somme.

Des ordinateurs, pour en revenir à eux, c'est un peu leur histoire avec ses hauts et ses bas.

Cette histoire, un subtil mélange de pâte, de gaufres, de gaufriers, de gaufreurs, de gaufrés, de "bits", de dichotomies digitales. Elle est loin d'être finie.

Vous n'avez pas tout compris dans ce monde onirique? Normal, c'était volontaire.

Le détail se retrouvera dans les chapitres suivants.

Se rappeler seulement qu'une gaufre est un dessert avec des creux et aussi des rebondissements des processus par secousses répétés sur toute sa surface.

Le virus "argent" a toujours motivé plus en tout, même si la passion du travail s'est réduite. Le bonheur du travail bien fait est un peu à la traîne. La chaleur est toujours là, latente, il suffit de la maintenir à feu doux pour la ranimer.

Critiques, parfois acerbes, que tout cela?

Il faut être critique. Si les informaticiens ne l'étaient pas qui le seraient. La profession d'invention qu'est celle d'informaticien, les besoins de progrès toujours en expansion en valent la peine.

Attachez, donc, vos ceintures sans nostalgie et avec ou sans abandonware car cela va secouer...

Pas trop de levure, à feu doux, sans trop d'agitation, disais-je, et elle sortira, cette gaufre, bien dorée et croustillante.

Alors, que dire de plus , sinon, "Bon appétit".

23/11/2008

La Grande Gaufre (01)

Tableau 1:"L'irrésistible ascension"

« Le cycle d'obsolescence des ordinateurs est devenu si rapide, que dans les hypermarchés informatiques du futur, il y aura des décharges juste en face des caisses enregistreuses. », Dave Barry

0.jpg

Le survol de l'histoire officielle des 40 premières années de l'informatique se passa, au départ, par la mécanographie.

Reprenons quelques chiffres du bouquin d'histoire du GM qui commençaient en 1945 et s'achevaient vers 1995.

Le coût horaire moyen d'un employé administratif et la capacité de stockage, deux méthodes pour évaluer la réduction du prix pour le traitement de l'information et les performances entre deux domaines distincts.

0.jpgEn 1945, le coût horaire d’un employé modèle équivalait à 1000 opérations arithmétiques sur la calculatrice électromécanique et en stockant 150 fiches imprimées. Le prix d'acquisition d'un ordinateur d'alors était amorti sur 9000 heures.

En 1960, cette même heure de travail correspondait, déjà, à l'agitation d'1,4 millions d'instructions ou de 5 millions de caractères sur disque magnétique.

En 1980, l'équilibre dans la balance "énergétique" s'établit avec quelques 250 millions d'instructions et 40 millions de caractères, pendant 5 heures.

En 1995, le même calcul mais, pour 3 milliards d'instructions et 1 milliard de caractères archivés.

0.jpgDepuis, l'exponentiation a continué de plus belle. La taille des machines s'est réduite sans rien perdre en efficacité.

Dès le début de l'ère informatique, l'algèbre booléenne rentrait dans la cour des grands après une longue période de sommeil. Herman Hollerith n'avait pas encore reçu les honneurs dus à son rang avant cette entrée fracassante dans l'informatique. Le 2 juin 1890, Hollerith crée la première machine à cartes perforées. Objectif, recenser la population. Inspiré par les métiers Jacquard, Hollerith qui travaille dans le recensement, invente une machine électro-magnétique qui utilise des cartes perforées. Comme elle est dix fois plus rapide que ses concurrents, il remporte le concours en 1889 lancé par la ville. Après quelques passages de noms de société, le nom IBM en ressortiras.

0.jpgBig Blue, IBM, fête son 100ème anniversaire en 2011. La société CTL (Computing Tabulating Company) est en effet créée en 1911. On la rebaptise en 1924 par IBM (International Business Machine). Elle vend d'abord des horloges industrielles, des tabulateurs. En 1944, c'est Mark1 qui sort en tant que calculateur analytique électromagnétique. En 1945, Mark2 apporte ses circuits en grilles. Le mot "bug" est né à cette époque à cause d'un insecte qui grille les circuits et provoque une panne. En 1953, le Modèle 650 sort d'usine et c'est le mot "ordinateur" qui prend jour en France. En 1956, le fondateur Watson meurt. Tom, son fils, reprend l'affaire. En 1957, le RAMAC 305 sort le 1er disque dur (50 disques magnétiques et 50 Mbytes de contenance), le Fortran devient le langage scientifique. Tout s'embale ensuite. L'âge d'or verra son apogée en 1985. Microsoft et Intel lui volent la vedette. n 1993, ce sont 8 milliards de pertes. En 2002, une renaissance se présente la tête dans les nuages (cloud computing) et les pieds en Asie.   

John Atanasoff avait construit le premier ordinateur électronique, nommé ABC (Atanasoff-Berry Computer) en utilisant le système binaire. L'ENIAC (Electronical Numeral Integrator And Computer), développé par Eckert, Mauchly et von Neumann, considéré comme le premier ordinateur, se voyait détrôné de cette première place après un procès en 1970. Elle contenait 18.000 lampes. Poids total 30 tonnes. 150.000 Watt de consommation. Vitesse: 5.000 additions ou 300 multiplications ou 40 divisions par seconde avec 200.000 Hz. Le contexte, l'armement nucléaire pour évaluer plus rapidement les tables balistiques.

Recenser la population américaine avait de quoi énerver par son côté mécanique et peu glorifiant de l'époque. Pour établir des statistiques, des cartes perforées Hollerith avaient déjà été utilisées dès 1890. Autre chance pour l'ENIAC.

L'information allait résider cachée dans des trous ! En 1951, UNIVAC était le nom de cette machine à statistiques. Le département de la Défense n'était pas loin du développement.

Le génial mathématicien, Alan Turing fonde la science informatique et  avec sa "machine de Turing", le Colossus ou Enigma, permet de casser les codes secrets allemands pendant la seconde guerre mondiale. Une article "Computable Numbers with an Application to the Entscheidungsproblem" le met en piste avec un algorithme qui s'exprime dans le langage formel pour donner une réponse par "vrai" ou "faux" aux expressions mathématiques et à la pensée abstraite de la logique. Il a l'idée de l'universalité d'une machine pensante, en véritable "computerwizz", qui pourrait servir pour tout. Le "test de Turing" lui permet d'aborder l'Intelligence Artificielle. Il crée le premier programme pour jouer aux échecs mais, face à une machine trop lente, ne lui permettra pas d'arriver à ses fins. Il meurt à 42 ans en croquant une pomme empoisonnée au cyanure. Cette pomme se retrouve-t-elle dans le logo de Apple? Peut-être, pas officiellement. Il faut garder des légendes. Une statue lui a été dédiée en 2002 à Manchester. On peut  y lire, gravé : "Lorsqu'on les considère avec justesse, les mathématiques ne possèdent pas seulement la vérité, mais aussi la plus grande beauté, une beauté froide et sévère comme celle d'une statue".

Peut-on tout calculer? Un question à son sujet dès le départ.

En 1948, John Bardeen, William Shockley et Walter Brattain inventent les transistors. en En 1958, Jack Kilby les insère dans des circuits intégrés.

Dans les années 70, les États ont accompagné et contribué mais sans s'impliquer dans la construction elle-même de ces nouveaux bolides véhiculant l'information. Sage précaution, peut-être, vu la complexité, les mutations incessantes et la rentabilité dégressive dans le temps.

Un peu plus tard, seulement quatre entreprises se partageront le marché: IBM, Remington Rand, Bull et ICL.

L'ordinateur relié à l'homme par l'intermédiaire des cartes perforées ou de bandes magnétiques suivant le choix de l'entreprise en fonction des fournisseurs de périphériques.

La progression de cette industrie va dépasser toutes les espérances de l'imagination. RCA, Honeywell, NCR, Burroughs, Control Data, Siemens, Nixdorff, Wang, Olivetti, Digital vont entrer dans la danse, dans un marché dont il semblait y avoir de plus en plus d'avenir mais dont on sous-estimait les budgets de développement pour venir à bout de la complexité. "Semblait" car personne n'en était convaincu.

Le 1ère numéro de la revue d'informatique Datamation, parue en 1957, ne contient aucune publicité pour une marque d'ordinateur. A l'intérieur de ses pages, des connecteurs, des câbles, des oscilloscopes seuls ont ce privilège. L'Université de Chicago va construire un "analogic computer". Cela intéressera le secteur des télécommunications, sans plus, pendant un demi siècle. Les impulsions électiques et électroniques sont utilisées pour calculer par l'intermédiaire de graphiques. Mais étant trop spécialisées et avec une précision douteuse, elles disparaissaient pour d'autres utilisateurs, plus tournés vers la comptabilité et la précision. Première opposition entre analogique et numérique qu'on appellera ensuite la "fracture numérique".

Le patron de RCA parlait déjà d'input pour les machines par l'intermédiaire de la voix. Troublant quand on reconnaît les problèmes de ce côté, encore aujourd'hui.

Les concepts de données à l'entrée, de mémoire, du processing interne et des résultats imprimés concentraient toutes les applications contrôlées par la suite logique d'un programme mémorisé, prêt à répéter indéfiniment la même séquence d'instructions, avant de trouver sa sortie. La période de mécanographie programmait ses programmes par l'intermédiaire de fils électriques enfichés dans un tableau et passaient au travers de tabulatrices. Un programme par tableau. Ensuite, par programmes intégrés dans la machine sous formes d'instructions enregistrées, les tores de ferrites constituèrent, dès lors, la nouvelle mémoire interne.

En Europe, l’année 1958 a vu les premières machines IBM de manière plus distrayante. L'Expo Universelle 58, à Bruxelles, ouvrait cette ère du virtuel. On comptait encore en gain dans le domaine du calcul pur avec vue sur la comptabilité. Le progrès de la puissance du calcul donnait le tournis aux visiteurs de l’Expo. On gagnait la confiance pour un futur enchanté. Dans le même temps, la machine faisait peur au management des premiers utilisateurs, au point d'être rejetée dans la plus grande panique, peur de ne plus pouvoir assumer le travail d'antan.

0.jpgBeaucoup de comptables, « rond de cuir », d'employés de l'administration ont disparu avec la peur de ce lendemain qui effrayait, avec ces machines du diable, poussés par la direction. Bouleversements, convoitises se sont succédés à un rythme de plus en plus accéléré.

Mécanographie, facturières, traitements de textes étaient bien dissociés sur des machines différentes. 
0.jpgTous les secteurs de l’entreprise et de la science vont pourtant se recentrer et adopter une machine unique aux fonctions multiples.

Véritable tournant de l'histoire de la mécanisation pré-informatique, le 1401 d'IBM, ordinateur à transistors, allait faire sensation au niveau du nombre inattendu de commandes avec des délais de livraison qui s'allongeaient sur 2 ans.
Des migrations, vers cette machine, se pressèrent grâce à une programmation relativement simple mais limitée de cette machine louée souvent à titre précaire. Mémoire: 1400 caractères ou mots extensibles à 4000, sans Operating System, câblés dans des circuits électroniques. Fonction principale: imprimante évoluée. Les concurrents vont, alors, réaliser les premiers "systèmes compatibles" avec un peu plus de mémoire. Un exode partiel s'en est suivi au niveau clientèle et personnel. Rien de grave, pourtant.

0.jpgEn 1964, l'IBM 360, compatibles entre modèles, avec ses circuits intégrés, ses logiciels interchangeables et ses périphériques, fut la première machine à faire le travail de complémentarité abordant à 360° la plupart des problèmes de gestion. Complète et aussi extensible en fonction des besoins grandissants des clients, cette machine révolutionnait en remplaçant toutes les précédentes trop spécialisées. Le succès fut total et inespéré. On allait s'arracher ce 360 avant les autres.

Une conspiration du silence allait seulement permettre ce succès. Si le hardware était bien beau, le software l'était beaucoup moins. Inachevé, ce dernier allait d'ailleurs faire partie du prix de la machine, faute de mieux. Les programmes étaient inclus ou à développer, à installer en même temps que la machine avec les concours des clients. Le client était devenu, une première fois, l'otage compatissant du fournisseur.

Dès lors, la concurrence allait se sentir obligée de se rendre compatible avec ce fameux "360" pour espérer attaquer une part du marché.

Siemens 4004, Univac 1100, le CDC 6600, B2500 de Burroughs...et autres (r)évolutions, des mini costauds, mais qui en font un maximum, le PDP8 de Digital Equipment associé à l'industrie suivait dans cette bagarre. Les applications "clé sur porte" se pontaient à l'horizon.

Les machines étaient louées à l'année pour rester abordables financièrement pour le client mais aussi pour rester dans la course du progrès qui évolua à vitesses soutenues par la force explosive de calcul et concrétisées aussi par les rentrées d'argent dans les caisses du constructeur.

Des clients, se sentant, tout à coup, trop liés aux locations, toujours plus chères, entamèrent des procès en justice pour pouvoir acheter le matériel. Bon ou mauvais calcul? Ce qui était plus gênant, c'est que certains équipements "exotiques", disques, bandes magnétiques, commençaient à se greffer sur cette machine de base louée en s’y intégrant plus ou moins bien. Les premiers compatibles se furent les périphériques.

IBM devait réagir. Il fallait fidéliser. Les concurrents se faisaient de plus en plus agressifs. Répondre aux procès anti-trust qui commençaient à tomber, devenait impératif. Lancé le culte d’IBM dans la tête des représentants de la firme et, par ricochet, dans celle des clients. L'image avec le son de la renommée. Le choix d'un constructeur comme IBM se faisait à base de publicité, de matraquage médiatisé. Une réputation parfois surfaite mais qui se perpétrait par une vénération en interne et en externe à la firme.

L'unbundling (le dégroupage de la machine, des programmes et des services) sauva une partie des "meubles", du hardware. Ce qui était gratuit et compris dans le prix auparavant, allait devenir, tout à coup, payant. Le client remarquait bien que l'ardoise de tous ses besoins dépassait le "bundling" (machine et programmes), mais le pli était pris. Le software prenait, tout à coup, du galon dans la configuration par l'entremise de licences pour compenser le manque à gagner.

En 1968, un procès anti-monopole, anti-trust, essaya d'effacer cette caricature de "Blanche Neige et les sept nains" d'IBM avec Burroughs CDC, GE, Honeywell, NCR, RCA, UNIVAC. Ceux-ci se rendaient progressivement compte que les places étaient devenues chères et que les investissements ressembleraient à la grenouille qui voulait se faire aussi grosse que le bœuf.

Mais, le thriller ne faisait que commencer dans les hautes sphères.

Dans le prochain épisode, flash back sur la vision par le bas de l'échelle, celle des informaticiens et de ss utilisateurs.

Contrairement à celle des constructeurs d'équipements, je pourrais la surnommer d'"L'âge d'or".

(Les photos ont été prises dans le Musée de l'Informatique constitué chez Unisys à Bruxelles)

22/11/2008

La Grande Gaufre (02)

Tableau 2: "L'âge d'or"

« Nous autres, mordus d'informatique, préférons par-dessus tout passer notre temps à bidouiller nos ordinateurs, plutôt que les utiliser pour faire quelque chose de productif. », Dave Barry

0.jpgRetour vers les débuts de l'informatique, avec, cette fois, une vision parallèle, par la base des hommes, des informaticiens, des utilisateurs, des néophytes, parfois, faces à de vrais ou de faux gourous.

L'informatique n'a pas créé que des heureux chez eux. Loin s'en faut et, cela fut très dépendant des points de vue en présence.

L'ordinateur se voyait certainement comme un destructeur de l'emploi, comme toutes machines qui surprime beaucoup de professions. Il allait bouleverser les habitudes et les méthodes de travail. Pour d'autres, c'était une chance donnée au progrès.0.jpg

Alors, comment s'est faite la transition entre le travail humain et celui réalisé par la machine? Quelle infrastructure s'était construite pour assurer la mise en place et le suivi de l'opération "informatique"? Pas de moralité, à chercher dans le processus.

L'enseignement, d'abord, bien entendu. Mais, aucune école officielle n'existait pour enseigner les bases de cette énigmatique "mécanographique ou informatique" qui se pointait à l'horizon et cette "science" du même nom, dans laquelle personne ne voyait un réel futur de manière durable.

Ceux qui pensèrent qu'il y avait des débouchés, le ressentirent, comme tel, sans véritable fougue et avec, seulement, une grande curiosité.

Il fallait avoir un esprit visionnaire, avantgardiste, et peu enclin à la sécurité d'emploi à tous prix pour se lancer dans l'aventure. Il fallait surtout se former sur le tas en pionnier. Pas d'expérience, pas de professeurs formés pour diffuser la "bonne parole" en deux digits, le 0 et le 1.

La demande chez les constructeurs existait, mais elle dépassait l'offre et de loin. Contraints, ces constructeurs étaient prêts à investir dans l'éducation. Les futurs informaticiens se présentèrent, donc, chez eux.

Pour ne pas investir à fonds perdus, il y avait un examen d'entrée, une présélection pour pouvoir s'inscrire à leurs cours prodigués, un peu à la sauvette, dans ces écoles de fortune. Cela faisait sérieux ces examens et cela permettait de départager et de trouver quelques prédispositions très peu définies par manque d'expérience.

Quel genre d'examens pouvait augurer de bons résultats pour cet investissement? Comment augmenter les chances de succès pour un étudiant, parfois en perdition, recalé dans d'autres voies plus officielles?

L'examen d'IBM jouait sur la logique, la psychologie avec, en plus, la rapidité des réponses. En une heure, chrono en main, l'examen se déroulait sans relâche dans de grandes classes où toutes les places étaient prises.

Drôle de mise en boîte, cette intelligence réduite à la seule logique et à une compétition avec les secondes comme chef d'orchestre! La recherche de la bonne personne par l'intermédiaire du fameux QI, était-ce la providence, le calque pour un boulot d'informatique? Personne n'aurait pu dire ce que constituait un candidat valable, un "client" programmeur, pour une science qui ne disait pas encore son nom. Mais IBM restait la marque numéro un, la référence principale, vu le gap important avec les autres constructeurs. Un ordinateur s'appelait souvent "machine IBM" par extrapolation avec la machine à écrire à boule plus connue.

Passage obligé, on s'y pliait de bonne grâce. La chanson "Quand la musique est bonne" pouvait bien se transformer en "quand la logique est bonne" pour l'occasion.

Avec le recul, si la logique pouvait être considérée comme une base, un départ théorique, elle devait se concrétiser par des cours qui allaient suivre, en cas de succès à ces examens d'entrée, mais ne constituait qu'un croque en jambe, une simple mise en bouche, dans tous les métiers d'informaticiens.

N'a pas la passion qui veut de cette inconnue qu'on appelle "logique". N'est pas informaticien génial qui veut, non plus. Gagner de l'argent, le plus rapidement possible pour faire oublier un échec dans un domaine classique, était souvent le désir unique des jeunes qui se pressaient au portillon de ces écoles sans véritable conviction. La fin justifiait les moyens et tout le monde était content. Le besoin de main d'œuvre de manière urgente, d'un côté. Les élèves qui avaient besoin de justifier un besoin de connaissances auprès des parents qui finançaient leurs études, de reconnaissances pour eux-mêmes, sans délais ni orientation professionnelle préalable.

La fibre informatique féminine était quasiment absente, dès le départ. Avait-on entendu que les jobs demandaient un esprit d'analyse, de logique, de précision?  Tout cela était très peu dans les cordes des filles, pensait-on. Elles en avaient probablement peur ou une contre publicité en avait été faite à la base. On chuchotait que le métier demandait le sacrifice d'heures supplémentaires. Que de fantasmes dans l'effervescence, autour de ce phénomène "computer".1.jpg

Certains constructeurs allaient plus dans le détail pour leurs examens d'acceptation dans l'école. Pour Honeywell Bull, ce furent des sélections longues et très poussées. Univac, un peu moins. Tous examens, bouclés dans un demi-journée. Cette fois, de véritables problèmes étaient posés qui devaient permettre d'apprécier, de manière plus précise, ce que le candidat informaticien avait comme potentiel.

Une fois qualifié, par la suite, l'étudiant prenait place sur les bancs des classes et commençaient l'étude des langages de l'époque du niveau basique aux plus évolués. Cela voulait dire, la logique, la base de savoir ce qu'était une machine, comment cela fonctionnait avec l'assembler, le langage symbolisé, le plus proche de la machine, derrière lequel se réfugiait tout le scénario d'un programme constituaient l'apprentissage structuré et sous le contrôle des fameux "ordinogrammes". Quelques algorithmes de fusions de fichiers, de cumuls de chiffres pour les consolider étaient enseignés. Les algorithmes de tri occupaient les esprits. Ce langage machine était diablement complexe, et sans filets, si ce n'est par le compilateur. La mémoire, il fallait l'adresser, la configurer, par tranches d'adressages en base de régistres. Des machines, avec de plus petites mémoires et un processeur tout aussi limité, obligeaient à passer par cette extrémité et prenait encore plus de temps avec plus passe d'assemblage.

Tout l'enseignement se limitait avec la gestion comptable, première consommatrice des heures de processing de ces machines ... à calculer. Les sous-programmes, petits morceaux d'instructions réutilisables avaient vu le jour pour compresser les besoins de fonctionnalités. Un traitement de texte honnête qui dépassait le stade de la machine à écrire, n'était pas encore venu à l'esprit. Le typex avait encore de beaux jours de vie devant lui.

En cas d'échec aux examens d'entrée de ces écoles, pour combler et repositionner, on voyait poindre, de plus en plus, d'écoles privées qui, elles, n'allaient pas s'encombrer d'examens de passage, mais seulement de s'assurer les finances de ces sociétés naissantes, des startups, dirions-nous, aujourd'hui. Les professeurs étaient devenus un ensemble de pionniers volontaires, formés par leur seule expérience de quelques mois.  Il fallait catégoriser les candidats comme tâche préliminaire: encodeurs, perforatrices, opérateurs ou programmeurs et, bien plus tard, analystes en bout de chaîne.

Arriver au bout, après examens de sortie, signifiait la place assurée avec pont d'or pour l'époque. L'aventure, c'était toujours l'aventure. Elle était, déjà, applaudie même sans preuve. Les places étaient offertes bien avant la demande pour tous les acteurs.

Nous n'étions pas à la chasse aux Mips et aux lumières, mais il fallait remplir les besoins au mieux des disponibilités avec les moyens du bord de l'époque.

Les vocations et l'utilisation des machines pouvaient naître. Des "flibustiers" ou "pirates" avides de bons coups plus ou moins légaux, se présentèrent pour combler la demande forte. Consultants opportunistes, dans un parfait accord avec les règles de l'offre et de la demande, exercèrent, sous une forme de "body shop", par le placement de "spécialistes" dans les sociétés. Spécialistes, payés, rubis sur ongle, à l'heure ou à la journée, sorte d'intérim avant l'heure. Et cela fonctionnait à fond. Les ponts d'or n'étaient pas rares. Les dérapages étaient pourtant programmés dans une telle ambiance d'effervescence. Personne ne s'en émouvait outre mesure, d'ailleurs. Quand la résurgence de Crésus qui transformait tout en or comme liens étaient là, pourquoi devait-on s'inquiéter ?

Bientôt, naissaient, en coulisse, de véritables "pro", des génies de l'informatique, ceux qui y voyaient une filière pour élever la situation à la bonne hauteur des besoins et pour effacer les gourous de l'arnaque. Rationaliser par des outils, fusionner les désirs de tous, étaient la pierre angulaire de leurs actions.

Touche à tout, cette informatique. Le métier de programmeur avait, il faut bien l'avouer, des atouts de "grands". On n'hésitait encore pour l'appeler "programmeur" ou "programmateur" de peur d'être confondu entre professions.

Cette "heureuse" informatiques du passé n'était pas encore considérée comme un outil, mais comme profession à part entière, comme une vocation sacerdotale, parfois. La motivation passait par la passion au détour du chemin sans crier gare pour les accros. Dans ce cas, les heures passées n'avaient plus qu'une importance approximative. Que de nuits se sont comptées dans cette débauche de bons vouloir pour "réussir" avec un certain enthousiasme. Benchmarks, installations sur les systèmes des applications prenaient un temps fou pour les tests. Il fallait à tout prix prouver le bien fondé du choix d'une marque plutôt qu'une autre aux prospects. Les loupiotes de la console servaient d'outil de test et de tracing.

Le progrès et les salaires allaient de pair avec cet acharnement. Échelles parallèles avec des échelons toujours proportionnels aux investissements personnels. Le jeu en valait la chandelle. Il faut bien l'avouer, un certain chantage s'était établi dans les relations employé-patron au niveau des salaires.

Avec ses grandes bécanes, la vie de bureau a complètement changé. Changé ou, peut-être, revenue par un autre moyen vers les "Temps modernes" de Charlot. Dans le fond, nous n'en étions pas tellement éloigné avec les workflows, des JCL, qui s'imposaient de plus en plus comme un travail cadenassé derrière des processus, en chaînes. Processus que l'on se repasse de l'un service à l'autre, en réseau, pour changer, après avoir apporté ses compétences propres sur chacun des maillons. Ils pouvaient suivre les compétences et les expertises ou se perdre en cours de route avec des retours à l'origine pour imperfection. Plus tard, fait nouveau, ces processus ne devaient plus se localiser au même endroit pour fonctionner.

Les « bugs », ces maudites erreurs de programmations, se découvraient à l'usage et plus qu'à la conception. Il fallait toujours rattraper le temps perdu. Échanges de mauvais procédés ou marchés de dupe, avec l'autorisation tacite et la compassion du client. Comme la maintenance faisait aussi partie des contrats, pas de problèmes, chacun assumait en "pompiers programmés".

La complexité et les désirs des clients ne faisaient qu'augmenter dans le même temps. Vu cette complexité accrue, les erreurs de programmation commencèrent à se réfugier derrière une "mauvaise compréhension" du cahier des charges (quand il y en avait) ou d'une difficulté de situer l'envie et la stratégie d'origine du client lui-même. Car lui, bien souvent, ne savait pas non plus comment expliquer son problème avec clarté pour quelqu'un qui ne connaissait pas les termes comptables. La déstandardisation maintenait le client dans le giron du producteur de programmes. Le besoin de s'entendre était commun. Par là, le but était atteint, mais c'était dans la douleur.

Les vendeurs de matériel et de forces de travail étaient aussi très contents. Les commissions étaient à la hauteur des ambitions. La grandeur et le poids des machines expliquaient les prix de ventes et les pourcentages de commissions.

Vendait-on au poids? Non, bien sûr. Attirés par les résultats et les avantages liés aux ventes, il y a eu des transfuges parmi les informaticiens vers la vente. Cela n'a pas toujours été un succès. On pouvait croire que l'option choisie était naturelle. Qui connaît mieux les machines que ceux qui vont dans son "cambouis"? Pensée toute naturelle. Parmi les nouveaux "chasseur d'or", il y en a eu qui tenaient le tamis et d'autres qui en vendraient l'or. Il ne fallait pas confondre. Être payé à la commission ne faisait pas nécessairement des millionnaires quand on commence par un salaire fixe.

La chasse aux Mips était nécessaire pour les clients et aussi pour les "fourmis programmeuses". Bien rémunérées tant qu'elles prenaient du plomb dans la cervelle car leurs tests dans la vie réelle, valaient aussi leur pesant de cacahuètes en temps et en argent. Des professions de tous les types se sont greffées sur cette manne de potentialités, complètement ignorée par l'utilisateur final d'applications "clé sur porte". Le "time sharing" allait, heureusement, limiter la casse. Le temps machine se payait au tarif horaire cher, mais tant qu'on aime, on ne compte pas.

Les dérives du progrès. Une folie commença à se produire. Pour garder une chance de rester en course, il fallait que le client passe de conversion en conversion de plus en plus vite. Comme on se cherchait en permanence pour réaliser les projets, on ne savait pas vraiment vers où on devait aller, mais il fallait qu'on fasse à ses frais la remise à niveau, poussé dans le dos par les concepteurs de logiciels. Lors des démonstrations, cela semblait valoir la peine de faire le pas vers l'étape suivante. Avait-on eu d'ailleurs vraiment le choix et le temps d'évaluer la connaissance de la version précédente? Rien n'était moins sûr.

Les conversions s'opéraient dans la douleur et le recueillement, à l'arraché, à force de jours, de semaines, de mois de préparation et d'obligations de continuer à faire "tourner le moulin" en parallèle. Pas moyen de faire marche arrière ou si peu. On essayait de suivre à la trace en espérant qu'une 25ème heure viennent s'ajouter à la journée.

Dans les directions, on était, aussi, très fier de ses investissements, de se balader à proximité des salles machines et des bureaux de développement.  Le snobisme s'était emparé des patrons mais aussi des informaticiens développeurs. En haut, on ne savait pas vraiment de quoi on parlait. Dans le bas, on n'était pas avare de renseignements qui devaient montrer l'importance du projet à réaliser. Le partage de l'info n'était pas la préoccupation majeure aux deux extrémités. Vulgariser, personne n'en parlait. Le mystère et les secrets devaient planer pour continuer à exister. Le relationnel, on le voulait au niveau des bases de données mais pas de l'utilisateur ou du demandeur. Les directeurs de l'informatique, les patrons du département de l'informatique, étaient écoutés avec la plus grande attention par la haute direction.

L'effet de mode jouait à plein. Pour maintenir ces secrets de fabrication, il y avait le jargon informatique, voulu ou non. Ce n'était pas un lexique médical mais cela pouvait y ressembler. Car il y avait, dans le même dictionnaire, des synonymes et des dialectes mélangés, dans lesquels mêmes les plus habitués se perdaient, tellement, le métier était en évolution constante. Ce que pouvait réaliser une version d'un software n'était pas permis avec une autre ou en collaboration avec une autre application dite compatible. Dialoguer semblait parfois devenir le chemin de croix entre l'informaticien qui parlait avec des suffixes de numéro de version, avait à mettre en parallèle avec des règles de la comptabilité de professionnels de l'autre partie dont il n'avait jamais entendu parlé. Établir un budget et un timing pour une installation d'une application se partageait entre être en dessous de la vérité et se retrouver avec un retard important ou être au dessus avec des marges surévaluées.

La banalisation des efforts du traitement de l'information a été progressive et bien plus tard. Accompagnée par un éloignement progressif des langages qui partaient du niveau machine en se rapprochant de l'humain, les non-informaticiens se sont mis à rêver qu'ils pouvaient comprendre le déroulement des programmes. Plus vraiment de gourous inviolables, donc. L'Assembler faisait progressivement place au Cobol, à l'ALGOL, au RPG, au Fortran, au Pascal, plus près de l'humain... chacun remplacé en finale par des outils de 3ème et 4ème génération et une cinquième qui n'a jamais pu définir son existence de manière précise. Chacun allait pouvoir y mettre un coup comme apprentis sorciers pour renforcer la force de travail. Du moins le croyait-on.

0.jpgOn semblait parvenir, désormais, à mieux cerner la logique interne sans qualifications trop pointues dans le traitement de l'information. A posteriori, le programme final, conçu par cette voie, ressemblait souvent au Canada Dry, avec de l'alcool qui n'en était pas ou qui manquait de structure et d'expériences comme degrés essentiels pour être bien maintenu avec le plus de sécurité.

Les spaghettis étaient nés. La maintenance, ce n'était pas l'affaire des concepteurs. Que se passait-il pour corriger l'erreur? Les professionnels réécrivaient l'ensemble, une nouvelle fois.

Tout le monde profitait de l'informatique, c'était un fait. A des échelons différents, dans lequel rêve et cauchemar se confondaient dans la même ambiance euphorique.

A l'avènement du PC, cela changea un peu plus vite. Les plus doués se limitèrent à leur garage ou à de petits comités d'enthousiastes avec des idées plein les neurones. On allait rationaliser tout cela. Le travail rejoignait le hobby. L'informatique est souvent une "mixture" de bons procédés, d'ingrédients indéfinis à priori. Le génie n'était d'ailleurs pas nécessairement limité à l'invention mais aussi à la détection du meilleur assemblage possible.

Tellement de chemins menaient-ils, encore, à Rome? Loin d'être garanti sur facture. Pour le particulier, le PC a plutôt servi de tremplin à l'essor des jeux plutôt qu'à servir réellement à la connaissance des sciences.

Des créateurs d'idées, des réalisateurs, des installateurs, des déchiffreurs de résultats, des désintallateurs dans la panoplie du parfait organisateur des jeux informatiques.

Chacun sa casquette, ornée de bits, de bytes (octets), de mots, comptés en binaire, octal ou hexadécimal. Tout est question de base, dirait le mathématicien, de lecture de dump, les informaticiens.

Quand je vous disais que c'est une foire aux inventions, l'Informatique... avec un grand "I", ce le fut très certainement.

Les nuages arrivaient déjà. Les orages se pointaient à l'horizon. Personne ne s'en doutait encore dans cette fin du 20ème siècle.

Pourtant, ils allaient surprendre subrepticement, insidieusement.

21/11/2008

La Grande Gaufre (03)

Tableau 3: "Le sel, le sucre et le blanc d'oeuf"

« Comme la Hongrie, le monde informatique a une langue qui lui est propre. Mais il y a une différence. Si vous restez assez longtemps avec des Hongrois, vous finirez bien par comprendre de quoi ils parlent. », Dave Barry

0.jpgAprès une incursion chez les informaticiens, reprenons le cheminement au niveau périphériques, des "computers" et de ceux qui étaient là, "acting".

Que serait la gaufre s'il n'y avait le sel, le sucre et le blanc d'œuf ? Dans cet environnement qui gravite autour de l'unité centrale, ce n'était d'ailleurs pas plus calme. Les périphériques avaient aussi pris du poil de la bête.

Une force de calcul, au centre, sans pouvoir donner des ingrédients en "input" ni en ressortir les résultats en "output" n'aurait pas eu beaucoup de sens.

C'est peut-être une occasion d'écraser des préjugés.

Avoir une conception numérique de la résolution d'un problème prend une voie particulière qui ne passe pas par la sensibilité, mais par les dichotomies multiples de résolutions.

Au départ, il y a des données, des datas, que l'on appelle "input".

A l'arrivée, ce sont des résultats à apporter, que l'on assemmble dans un "output".

Au milieu un processus intellectuel, qui vise à l'efficacité en temps et en espace.

D'abord, pour communiquer, les cartes perforées en input s'étaient présentées sous deux formats: larges avec 80 colonnes et 12 rangées ou mini réduites par IBM à 96 colonnes dans un deuxième temps. Dix rangées pour les chiffres qui associées avec deux rangées supérieures pouvaient reconstituer l'alphabet complet et les caractères spéciaux. Les opératrices qui perforaient ses cartes, en ont vu défiler devant leurs yeux sans comprendre ce qu'elles encodaient... Un petit coin tronqué pour les repérer et surtout remettre à sa place facilement en cas de "catastrophe" complétait ces cartes qui devaient avoir été construites dans des normes très précises. Ce support permettait de trier les informations et de les sélectionner. Trier ces cartes, une opération dont on n'a plus idée de la méthode, aujourd'hui, cachée derrière des algorithmes très complexes pourtant mais intégrés dans un module de tri qui choisit sa meilleure technique automatiquement. Les cartes, elles, c'était trier colonne par colonne, de droite à gauche pour les chiffres avec deux passages supplémentaires pour l'alphabétique automatiquement rejeté dès le départ. Comme les trous n'étaient pas toujours très précis, les rejets n'étaient pas rares. Un sport qui avait ses spécialistes et ses gaffeurs. Aux jeunes qui étaient assignés à cette tâche, souvent, une mise à l'épreuve des plus "hasardeuses" de trier les cartes sur la couleur leur était demandée. Ce qui se terminait évidemment par un gloussement ironique.

Les bandes magnétiques étaient la voie parallèle. Plus concentrées, plus faciles à transporter, elles n'étaient pas nécessairement plus fiables au départ. Le magnétisme avait de ses secrets de lecture incompréhensibles. Une petite pression de crayon devant la tête de lecture pour "forcer" le passage se révélait souvent nécessaire après des essais à répétition. La fiabilité vint bien plus tard. Le problème au niveau input était ainsi résolu. Trier nécessitait trois bandes de travail et parfois des heures en fonction du nombre d'enregistrements à trier en "x" phases en avant et en arrière. Les bandes avaient un défaut: le manque d'accès direct, ce qu'avait les disques.

Les disquettes, d'abord, les floppy disk (5 1/4 inch) apparurent avec le PC. Très limitées en capacité, il accédaient néanmoins, en direct, aux données.

Les tambours, eux, allaient faire résonner leurs batteries pour contenir ces précieuses données, une fois enregistrées. Ancêtres des disques durs, ils n'avaient qu'un charme relatif aux oreilles des opérateurs chargés de leur maintenance.

Les imprimantes, les perforatrices à la sortie de la machine et les bandes magnétiques constituaient les seuls moyens de contrôler les résultats, à l'output.

Pour les imprimantes, les rames de papiers attendaient de s'enfiler en accordéon sur leur imprimante en espérant qu'il n'y ait pas de bourrages de papier avec une tendance trop répétitive. Mais les producteurs d'imprimante avaient de l'imagination pour corriger les imprimantes par leurs insatiables envies de manger du papier de plus en plus vite. Des processus d'attraction du papier automatiques aidaient le classement en sortie des imprimantes. La vitesse effaçait tous les griefs. Pas pour les opérateurs qui s'apercevaient après une nuit, que l'imprimante avait décidé de sur-imprimer toutes les lignes sur une seule ligne.

Le marché parallèle des périphériques n'était pas moins juteux et s'évadait un peu trop souvent des constructeurs de l'unité centrale. Acheter la clientèle, les compétences et les techniques des autres compétiteurs pour rester en course se poursuivait à  ce "Dallas, cet univers impitoyable" exporté. Le producteur de périphériques MDS avait été racheté dans la foulée par SPERRY. D'autres s'éclataient. Les télécoms attiraient déjà en coulisse comme l'aimant mais n'avait pas encore trouvé sa voie. Internet, s'il a existé assez vite, n'avait pas trouvé la bonne taille de sa Toile pour n'ouvrir les liens plus élargis qu'entre des machines universitaires.

Retour rapide vers les constructeurs des computers et leurs ambitions en accordéon ou en poupées russes:

General Electric s'empara de la société BULL. Celle-ci fut nationalisée par l'État français à la suite de la colère du Général De Gaule qui avait été traumatisé de voir Bull, entreprise française mais sous le contrôle américain. La politique prenait de plus en plus position dans ce champ de mines. On avait, enfin, senti l'importance stratégique de cet outil magique qu'était l'ordinateur.

En 1966, pour cette raison "politique" et de prestige français, se créait CII (C deux I pour les intimes) sous le chapeau du projet IRIS.

En 1973, UNIDATA reproduisait, plus tard, le même phénomène au niveau européen pour contrer les USA. Des "Plan Calcul", "Esprit", "Eureka" allaient également remettre du pouvoir dans les caisses des constructeurs par le domaine public devenu demandeur.

Le but avoué des États était de soutenir leur économie en envoyant le maximum de capacité humaine au travail en échange des contrats signés. Des quotas de 50% de travail effectués dans les frontières des généreux "donateurs" étaient signés entre publics et privés dans une envie commune d'augmenter les emplois. Siemens fut l'un d'entre eux en Belgique. Contrats qui n'étaient, en définitive, que rarement respectés dans leur intégralité. La mise au travail n'était que partielle ou trop temporaire. Les États n'étaient et ne voulaient qu'être des utilisateurs et n'ont jamais été intéressés à investir, eux-mêmes, dans la technologie de l'informatique. La complexité trop évidente faisait peur. Le publique avait lancé la balle au privé, ils devaient continuer à jouer. L'armée américaine, elle, restait en embuscade et n'hésitait pas à investir dans ce "computer" que l'on voyait presque comme remplaçant de l'homme sur les champs de bataille. L'ordinateur analogique aurait pu aller dans ce sens, mais il a été abandonné. Les armes robotisées intéressaient au plus haut point.

Dans le domaine de la gestion et du traitement de l'information civile, une véritable nécropole de l'ambition des marchés informatiques commerciaux allait commencer à vitesse constante dans une véritable jungle où seul le plus fort continua à vivre. Chaque avancée en vitesse représentait souvent un tel progrès qu'il était difficile de ne pas succomber devant les sirènes de la gloire et du prestige. Les potentiels financiers semblaient être là pour réaliser les ponts d'or. Véritables miroirs aux alouettes, en définitive, car la chute des prix commençait. Les investissements s'en ressentaient du côté des constructeurs. Le grand boom était stoppé. Tout devenait compatible. La machine propriétaire cédait la place.

Les échecs allaient souvent changer la donne dans plusieurs entreprises du secteur pour des raisons multiples mais très similaires dans leur processus de recherche de bénéfices. Si le phénomène a existé en même temps dans d'autres secteurs de l'activité humaine, l'informatique y allait en ajoutant une accélération inédite de manière aussi subite qu'incontrôlée.

La firme RCA jeta le gant, la première. Dans la foulée, SPERRY faisait offre pour RCA.

Les autres essayèrent de s'associer pour atténuer les dépenses et pour combiner leurs besoins au niveau de la machine par les spécialistes autour des périphériques. Pour ajuster à la taille des PME, des minis ordinateurs voyaient le jour, chez DEC. (Digital Equipment).

La bureautique était là avec des possibilités qui n'auront de fin de s'étendre bien en dehors des limites de l'imagination et cela comblait déjà toutes les ambitions.

Les micros commençaient leur percée avec des machines rudimentaires, avec des instructions qui ne travaillaient qu'avec l'entité du caractère. Tout transfert de mémoire plus important nécessitant un travail interne en boucle.

Mais, c'est INTEL qui jeta le trouble en créant des microprocesseurs qui permettaient de concevoir le micro ordinateur pour les plus petites entreprises, longtemps en disgrâce et, plus tard, pour les particuliers. En 1970, chez Intel (Integrated Electronics), Marcian Hoff co-invente le microprocesseur architecturé avec Federico Faggin. Véritable big bang et pavé dans la mare, ce processeur 8088 qui permettait la naissance des PC. On ne croyait pas encore qu'il allait bouleverser complètement la donne pour l'utilisateur commercial mais aussi, et cela est encore plus important, pour le citoyen lambda. Mais c'est le processeur 4004 à base de silicium qui reste considéré comme le premier d'une longue lignée. Il travailla sur circuits intégrés de 2300 transistors à la vitesse de 108 kHz avec 4 bits. Les processeurs les plus évolués actuels avaient 1,3 milliards de transistors et atteignaient une vitesse de cycle de 3,3 MHz.

La relance de la machine à billet pouvait reprendre de plus belle avec ce nouveau départ très prometteur pour les nouveaux constructeurs de ces petites machines encore loin d'être portables. Le chant de signe pour les constructeurs de grosses bécanes, dans le même temps, était programmé. Seul les serveurs gardaient une chance en concentrant le parc des futurs PC en grappes ou en réseaux.

Le 12 août 1981, l'ordinateur personnel, le PC d'IBM, bouleversa, donc, les habitudes en s'attaquant aux jeunes passionnés. L'Altair, en 1975, avait effleuré les hantises des "bricoleurs". Des marques telles qu'Atari, Comodore 64, sans écran, avaient gagné les marchés ds partculiers. John Opel avait senti qu'il perdait cette part du marché et chargea, en catastrophe, Bill Low de sortir une machine avec écran adressée aux utilisateurs particuliers. La taille d'IBM était un désavantage en manque de souplesse. Le 5150 fut présenté par le patron.  Le processeur 8088 à 4,7 MHz, 40K de ROM et 16K de RAM, avec un operating système MSDOS. Un prix de 1.565 $. Ce n'était pas gagné d'avance.

Schneider est arrivé avec son 8086 soi-disant plus performant que le 8088 et surtout moins cher, donc, plus accessible, mais toujours encore bien loin du prix du pain. Les clones étaient nés. Les processeurs qui allèrent l'alimenter devinrent de plus en plus puissants. Les mini ordinateurs avaient senti le vent contraire à la sortie des PC et accusèrent des croissances de ventes nulles.

Le PC jouait des coudes surtout en s'étant associé à un certain Bill Gates et à Paul Allen qui, à eux deux, avaient racheté l'Operating System DOS à base de CPM, à DIGITAL et retravaillé pour les besoins nouveaux et de circonstances sous le nom de MS Dos. Pas besoin de grosses infrastructures pour le software comparativement au hardware qui lui demandait des investissements monstrueux. Un garage suffisait et un peu d'idées...

Le vendre, ensuite, à IBM fut l'étape principale du succès de Bill Gates. IBM en fera le PCDos, sans contrat d'exclusivité signé. En 1987, l'OS/2 et PS/2 seront des semi-échecs. En 2000, objectif "contrer Microsoft" et pour cela,  IBM devint le sponsor de LINUX et de l'Open Source.

Les Serveurs RS/6000, AS400, S/390, Deep Blue, Blue Gen, se succèdent. En 1997, Deep Blue bat Gasparov aux échecs. L'avenir, à la puissance des ordinateurs.

La société IBM emmagasine quelques 37.000 brévets. En 2004, coup de théatre, le PC IBM est racheté par le chinois Lenovo. Des pertes abyssales, pendant une décennies, ont annoncé la crise. Lou Gerstner reprend la direction de l'entreprise et un quart des effectifs de la grande maison IBM sont licenciés.  Il sera remplacé par Pamisano en 2002 avec 400.000 employés dans le monde. L'ambition n'est plus rien que cela: "l'expansion technologique contre la crise". 

Pour les États, on y voyait le look et l’aspect tangible, par l'écran interposé, du multimédia, de la CAO, de la PAO et du son, faisaient passer au mieux les images de leurs élus et intéressaient plus pour l'avenir des partis.

Internet ouvrirait, bien plus tard, le véhicule de la pensée du haut vers bas et de bas en haut. Mais, on n'y croyait pas encore en haut lieu. Microsoft se fit distancer sur la Toile.

L'ordi dut se poser une question initiale de base pour le citoyen lambda en dehors du rejeton qui y voyait le seul jeu: à quoi allait bien servir ce nouveau jouet? On se questionnait et des livres d'initiation sont sortis pour donner quelques idées. Les "clones" vont bouleverser les prix avec une chute abyssale. On les imagine même dans les sociétés connectés entre eux et reliés en réseau avec un"serveur" centralisateur, maître et esclaves. Les années 90 voyaient les mainframes, ces monstres dans les salles climatisées, sortir de l'ambition de prestige des clients. Ils n'existeraient plus que sous le nom de « serveurs ». Plus question de salles climatisées, de faux planchers, d'hygrométrie fastidieuse et de toutes les précautions d'usage. La fiabilité augmentait en dehors de ces contraintes. Ce qui était petit et surtout moins cher et plus facilement agencé dans l'entreprise par l'encombrement, prenait seul l'envolée vers le succès.

Tout était à découvrir. Le langage Basic combla, pour longtemps, les besoins primaires et presque tous les espoirs des plus farfelus en herbe chez les particuliers. Quelques courbes résultats de fonctions, des applications de Bourse, des statistiques, écrire des lettres et mettre en balance ses fins de mois constituaient les seuls débouchés de l'utilisation de ce Personnal Computer à la maison. La convivialité n'y était pas encore, au départ. Les crashes systèmes avec l'écran bleu étaient monnaie courante. En 1963, Douglas Engelbart avait inventé la souris.

La convivialité et la fiabilité allaient se penser, en parallèle, chez APPLE, avec les Mackintosh en copiant les icônes de XEROX. La souris fut utilisée pour la première fois sur cette machine. Toucher l'information désirée en oubliant les touches du clavier, un progrès génial. En 1983, Steve Jobs, sur une idée de Jef Reskin, lance Lisa, une machine lourde mais déjà révolutionnaire. Son prix actualisé à 22.000 euros est resté trop prohibitif. Le 24 janvier 1984, le premier Mac, avec un écran monochrome de 9 pouces, un lecteur de disquette de 3,5 pouces et une souris, et ce fut l'envol. La légende était née. En 1987, ce fut le Mac II. En 1991, le Powerbook, portable, compact. Un désaccord avec John Scutley pousse Steve Jobs vers la sortie. Celui-ci fonde NeXt en 1989. La période de 1993 à 1997, Apple entre en errance commerciale. NeXt est racheté en 1996 pour avaler, du même coup, son OS NexTSTEP qui se retrouvera dans le Mac OSX. Retour de Steve Jobs. En 1998, avec iMac, iBook, en 1999, retour du succès. En 2006, le processeur Intel prend la place du Motorola. Du coup, l'Apple rejoint le PC et s'intègre en gardant la partie émergeante noble du PC, le beauté du software. iPod et autres "i" complètent (prononcez "aille").

Une véritable suprématie sur la convivialité que la société maintient encore aujourd'hui, malgré un risque important de disparition et de dépose de bilan pendant un temps de l'histoire. La fenêtre sur le monde, le fameux "Windows" s'attaqua à rendre, avec beaucoup de retard, plus convivial leur DOS en s'y inspirant fortement. La souris pour pointer une donnée sur l'écran, sortait de son trou pour ne plus jamais y rentrer. Seul, un marketing très efficace permit de battre les compétiteurs. Apple sur les genoux, Microsoft voyant son intérêt dans la concurrence et pour prouver sa bonne volonté de ne pas envahir le marché, renfloua les caisses en rachetant des actions Apple. C'est le 20 novembre 1985 que Microsoft lançait Windows 1.0. Il n'eut un succès commercial qu'à la version 3. En 1995, Windows 95 le rendait plus sûr, plus stable, mais en y arrivant à coup de correction pendant l'exploitation. Le moteur professionnel de Windows NT se greffat dans la version Windows 2000. Mais c'est la version XP qui resta le phare de la marque de 2001 à 2007. L'usine à gaz de Vista n'a été effacée dans les mémoire qu'avec Windows 7.

Windows ne fera pourtant que "personnaliser" ce "computer", adressé au commun des mortels, pour en camoufler la complexité toujours présente derrière des filtres cachés des programmes. En 1984, Microsoft rend la souris optique pour ne plus avoir à nettoyer les contacts trop sensibles à la poussière. Le Blue track poussera plus loin l'insensibilité à l'environnement par le laser et l'optique. Récemment Apple rend sa souris magique. Sans bouton, lisse, complètement tactile, encore plus, conviviale et instinctif.

Vite dit. Sa maîtrise se montre plus délicate et passer d'une photo à l'autre laissera rêveur à la pensée de la bonne vieille roulette de défilement.

Marché qui croit de manière importante et qui ne trouve un parallèle qu'avec l'écran tactile lui-même. Tachez d'avoir des doigts précis et sans tremblement. Lavez-vous aussi les doigts avant utilisation pour ne pas vous rendre votre écran illisible.

Commander votre ordi par la voix, une autre méthode à ses débuts dans la version XP.

0.jpgIllusions et vanités de ces non-avertis que tout cela ne serait qu'une montée en puissance sans conséquences sur le long terme. La complexité s'était découverte progressivement dans la douleur, elle allait se poursuivre sur d'autres voies à un autre étage du savoir, pas moins avares de contraintes. Devant l'étendue des connaissances nécessaires, se découvrir, tout à coup, "informaticien hors circuit" eut le malheur de faire mal à plus d'un d'entre eux. Le stade de contrôler cette armada de puissance sous forme binaire très peu attachée à s’associer à l'esprit humain, était dépassé.

Les mutations se poursuivent désormais dans ce qui est de plus en plus "petit" mais pas nécessairement "gentil". Les premiers sacrifiés furent les encodeurs et surtout encodeuses. Ceux-ci encodaient en aveugles sur des machines. Perforatrices, Interprètes, Vérificatrices. N'était-ce pas le sigle choisi? N'était-on pas dans le domaine des VIP à l'envers? On se passait alors la main pour vérifier dans un ré-encodage et bloquer la chaîne en cas de "mismatch".

Décentralisés, l'encodage prenait du galon derrière la protection de programmes qui vérifiaient en arrière plan, les données entrées avec les bases de données de référence par les utilisateurs eux-mêmes. Cela allait moins vite, mais au moins cela nécessitait moins de ré-encodage. Mais la confiance devait régner puisque le programme était censé contrôler. Les "check digits" pour les nombres comme les comptes en banque sont tellement providentiels !

Les opérateurs voyaient aussi leur fonction rétrécir à des tâches de contrôle de la console et non plus à introduire les bandes magnétiques dans leurs armoires. Cette fonction était orchestrée de plus en plus par des robots.

Les robots n'allaient dès lors plus s'endormir dans beaucoup d'autres fonctions. Un peu d'huile et une révision annuelle leur suffisent à ces robots providentiels. Le travail d'opérateur se rétrécissait dans le même temps à celui de pupitreur. L'automatisation de chargement des périphériques se poursuivait.

Cette histoire fut, incontestablement, une « Grande Trappe » et pas uniquement au niveau matériel. Dans l'effervescence, le jeu de chaise musicale, au niveau des "seconds couteaux" du management, continuait. La recherche du "comment être plus catholique que le pape" se jouait, avec les coudes, en passant par des tours de passe-passe dans lesquels la politique n'était pas très éloignée.

En fait, une bonne mise en bouche pour la vraie « Grande Gaufre » qui va prendre sa suite.

20/11/2008

La Grande Gaufre (04)

Tableau 4: « Compatible » ou « Clone »? Une question à « bulle »

"Nous ne pouvons pas prédire où nous conduira la Révolution Informatique. Tout ce que nous savons avec certitude, c'est que, quand on y sera enfin, on n'aura pas assez de RAM. », Dave Barry"

0.jpgDésormais, la fuite en avant du progrès se concevait de plus en plus dans le temporaire. Match de donnant-donnant, avec une volonté de presser l'accélérateur par une clientèle bureaucratique, coincé entre baisses de prix et frein pour garder une chance de remplir encore les caisses. Dans cette course, vu le dilemme, les besoins augmentant de manière exponentielle, les clients s'étaient mis à tester eux-mêmes les machines (le hardware) et les programmes (le software) à la place des fournisseurs.

Les compatibles se retrouvaient de plus en plus les particuliers et devenaient les « clones ». Enfin, presque. Le pourcentage de ressemblance le plus élevé donnait le plus de bons points. Rester standard, en ligne, au moindre coût, se singer pour continuer à vivre, toutes les solutions pour  avoir une chance de participer à cet engouement. Toute l'originalité se retrouvait dans la compatibilité avec la concurrence et non plus dans le progrès. Question à bulle sur une ligne de l'évolution.

Mais, au fait, qu'est ce qu'un programme, un logiciel ou un software? Cette marchandise "douce" était-elle si "molle" qu'on le prétend ?

On pourrait dire, qu'un programme, c'est un livre fonctionnel d'utilité publique, codé avec des injonctions, conditionnées, séquentielles ou en bulles. Écrit dans une langue précisée au départ, avec une préface d'initialisation, des chapitres imbriqués en spirales imbriquées, descendantes et remontantes pour traiter une fiche insérée dans une ou plusieurs tables. Le dernier chapitre demanderait de relire le premier en boucle en y associant la fiche suivante et cela jusqu'à la dernière. Une postface fermerait le bouquin automatiquement, une fois qu'une condition est remplie.

Pour mettre cela, en pratique, il y a sa mémoire virtuelle qui permet, en fonction de sa taille, de "tourner" en parallèle plusieurs "livres" en accordant des priorités spécifiques à chacun. Comme il y a des moments creux pour tourner les pages, actionnées par les périphériques, la multiprogrammation permet, en effet, d'utiliser le cerveau avec le maximum d'efficacité. Comme cela ne suffit pas encore, il y a eu le "Time-Sharing" pour combler les "trous" et le temps perdu à rêver retrouvé par le "Real Time". Toujours et de plus en plus dans l'esprit de "Time is money".

Quelle est l'histoire du software, du moins, en un survol ?

0.jpgL'ENIAC, au départ, se programmait avec des fils électriques enfichés dans des plots pour réaliser des opérations.

La Comtesse Ada de Lovelace, adjointe de Charles Babbage, avait déjà tout inventé en 1840 jusqu'au mot "algorithme". L'Assembler fut le premier langage mnémonique très proche du langage machine. En 1960, Grace Hopper lance son COBOL (COMmon Business Oriented Language) avec des instructions anglaises parfaitement compréhensibles avec un peu d'expérience. L'ALGOL (ALGOrithmic Language) essaye de structurer. Le FORTRAN (FORmula TRANslator) formalise les fonctions mathématiques. Le RPG (Report Program Generator) est un programme préenregistré auquel il faut seulement ajouter des paramètres de positionnement des informations introduit avec rigueur dans des cartes perforées de 80 colonnes. Le PL1 (Program Language One), programme propriétaire d'IBM, est censé couvrir tous les champs d'application mais qui restera confidentiel. Langages de 3ème et 4ème générations, tels que MAPPER, uniformisent l'environnement et cadenassent les formats de l'Input-Output en fonction des formats correspondants des périphériques. 80, 132, 256 colonnes. BASIC (Beginners All purposes Symbolic Instruction Code) adresse les problèmes de programmation pour les débutants d'abord, pour plus experts ensuite. La plupart des langages évolueront et sont parfois encore utilisés aujourd'hui. Comment passer le mot, les instructions à la machine? Compilées (transformées en langage machine au préalable) ou interprétées les instructions immédiatement en temps réel? Tout dépend de la vitesse du processeur.

Les programmes, jusqu'ici, initialisaient leurs activités par les instructions qui allaient au rendez-vous des données par l'intermédiaire de professionnels qui s'y connaissaient en programmation. Les applicatifs vont faire le chemin inverse. Ils vont donner accès aux données par des techniques d'approches plus simples laissant les plus experts, progresser dans la programmation pour adresser plus d'automatismes si nécessaire.

Dès lors, on calcule. VISICALC (1978), Lotus 123 et Excel seront les outils en 2 dimensions pour les tableaux. Du côté, traitement de texte, ce sera Wordstar, Wordperfect et Word qui progresseront en sophistications tels que l'allignement des textes sur les lignes, les contrôles orthographique, les mises en page. Le texte est aidé, emphasé par gadgets de plus en plus performants mais toujours du moment que l'utilisateur se plie à la connaissance du clavier.

On classe ses fichiers en base de données avec des liens relationnels. dBase (Ashton-Tate), Symphony (Lotus puis IBM), MsAccess (Microsoft). Le langage SQL permettra de manipuler les données et de les sélectionner.

Désormais, on écrit du texte et on traite des images, du son et de la vidéo. La présentation de l'ensemble va se faire par l'intermédiare de programme comme Powerpoint.

Les programmes, qui ne sont pas compris dans le prix, vont générer des revenus de licences pour le propriétaire. Dans d'autres horizons, ils repasseront, ensuite, en tant que freeware ou shareware, livrés, par téléchargement virtuellement, documentations comprises, si ces dernières existent. Les progiciels se partageront les fonctionnalités dans les domaines les plus divers pour accompagner utilement les activités humaines.Oracle, SAP, SIEBEL, PEOPLESOFT ont comblé les chemins de la gestion des petites et grandes entreprises avec la gestion intégrée de l'ERP (Enterprise Ressource Planning).

Tout comme pour le hardware, dans les sociétés de software qui s'occupent de créer du software de base, rachats et fusions ne manqueront pas de se produire. L'antique "Computer Science" est toujours présente.

Les utilisateurs, plus nombreux, permettaient d'échanger les connaissances de manière gratuite. Échanges de bons et de mauvais procédés et probablement, parfois, marchés de dupe, avec ou sans l'autorisation ou la compassion des clients utilisateurs finaux. Le particulier n'aura jamais autant de force pour se rebeller contre une société bien en place. Serait-ce, lui, devenu le clown qui joue avec un clone? En excluant les particuliers, nous assistons aussi en quelques sortes à une brèche entre les grandes sociétés, qui peuvent s'offrir des armadas de programmes payants, touchant à tous les secteurs de l'activité et les très petites entreprises qui ne peuvent que s'inscrire sur les listes des utilisateurs de programmes plus ou moins gratuits par faute de moyens financiers. Le gratuit ne donne pas la sécurité de son emploi. On décline très vite la responsabilité de son auteur dès  l'inscription. Le gratuit est conçu pour résoudre une tâche sans intégration structurée avec une autre dans un ensemble. Cela veut dire que l'interface d'un système à l'autre demandera souvent un ré-encodage, au pire, à un passage par un fichier "plat" qui ne contiendra pas tous les gadgets propriétaires. Respecter un standard de transfert s'il existe ne sera pas automatique. Il est clair que le concepteur de programme distribué gratuitement, s'il connaît quelques  failles du système propriétaire et va rechercher à y remédier, n'est pas tenu d'assurer le passage vers l'extérieur. En clair, l'informatique demande beaucoup de moyens à sa résolution et à son utilisation (avis allant dans le même sens).

0.jpgLa complexité des désirs de certains clients commerciaux ne fait souvent que s'accroître à tous niveaux en excluant d'office les particuliers qui n'étaient intéressés que par une infime partie. Cela rendait facile aux erreurs de se réfugier derrière une "mauvaise compréhension" du mode d'emploi ou d'une difficulté de situer l'erreur d'origine. Les softwares, pré-installés lors de l'achat de la « bécane », on aimait ou non. Cela « crashait », un peu plus souvent qu'espérer, mais, les patches finissaient par compenser. La dé-standardisation maintenait le petit client dans le giron du producteur. Contrairement aux grandes sociétés, les conversions, on n'aimait pas trop y perdre son temps chez le particulier. Pour où aller d'ailleurs? Les "Open Source" ont concurrencé mais demandaient, du moins, au départ, beaucoup de connaissances informatiques. Le "Plug and Play" avait quelques longueurs d'avance, même si celles-ci se rétrécissent aujourd'hui, et même à devenir transparentes. Ces conversions chez les "grands" se succédent chez les grands. A l'arraché, à force de mois de préparation et d'obligations de continuer à faire "tourner le moulin" en parallèle, sous peine de ne plus être soutenu par le producteur. Pas moyen de faire marche arrière. Le up-time doit désormais approcher les 100%.

Rentabiliser des projets de construction des grosses machines ne pouvait s'imaginer qu'à l'échelle internationale. Le passionnel et la politique ont toujours émoussé les esprits. On perd parfois un peu le Nord dans ce stress avec la vision pour la réalisation d'un rêve inachevé.

On s'écarte parfois du "core business" pour entrer dans le "grand jeu". Les secteurs de l'automobile (Mercedes, Saab, GM, Volkswagen), du pétrole (Shell, BP, Gulf, Exxon), de l'électricité, de la banque, des avionneurs ont tenté la grande aventure de l'informatique.

Ils ont essayé, puis ont lâché le gouvernail en pleine course dès que l'orage arrivait. La banalisation des efforts a été progressive et accompagnée par un éloignement progressif des langages machine pour se rapprocher de l'humain. La 5ème génération se confondait avec l'avènement des PC et se tournait vers Internet et la technologie du Web. Plus vraiment de gourous inviolables avec cette ouverture accessible de partout et sans clé d'accès.

Le Japon arrivait à la conquête du marché occidental par le biais de Fujitsu et d'Hitachi, par Compac, Dell, AST interposés. Les microprocesseurs à cause de la chaleur qu'ils dégageaient ne pouvaient doubler leur vitesse à chaque génération. Réduire la chaleur et les prix pouvait se concevoir chez HP, par la technologie RISC, moins coûteuse mais elle s'avèra aussi moins lisible.

Cela n'empêcha pas GE de se fondre dans Honeywell, elle-même dans Bull, qui cédait sa place à son tour chez IBM et NEC. NCR était racheté parATT. Les "one shots" d'IBM par les ventes s'effaçaient de leur chiffre d'affaire, perdaient une chance pour le futur, mais, aussi, une épine en dehors du pied du marché devenu ultra concurrentiel. Wang, Nixdorf disparaissaient. DEC ralentit et restructura. Burroughs et Sperry pensèrent, en 1986, à fusionner en Unisys. Les ennemis d'hier devaient devenir les grands amis de demain.

Le terrorisme et les embargos ont dans un premier temps élevé les croissances à deux chiffres. Ce qui a fait le succès de sociétés qui se sont greffées dans la brèche pour contrôler les transports vers l'exportation et l'importation. La sécurité avait un nouveau poids très important dans la balance. L'élan n'y était pourtant plus et les commissions étaient tellement rabotées d'années en années que la fougue se calma. Les virus et le hacking refroidissaient les enthousiasmes des petits et grands utilisateurs en envoyant, pour un temps, les PC des premiers, au grenier parce qu'ils ne parvenaient plus à comprendre que celui-ci ne répondait plus de la même manière que la veille, les PC des seconds, dans le chômage technique pendant des journées entières. pour des milliers de personnes qui avaient perdu tous moyens de travailler en dehors de la machine providentielle. Des sociétés nouvelles allaient se créer pour contrer les attaques virulentes, de plus en plus nombreuses, pour raison de prestige apporté par le "cracking" de système. Les logiciels de sécurités remontaient dans l'échelle des valeurs et entraient même en Bourse.

Les techniciens assignés à la maintenance des grands systèmes, eux, ressentaient de plus la crise due à la fiabilité grandissante du matériel. Des "up-time" minimum de 99% du temps sont passés dans les contrats avec les clients. Les détections de problèmes à distance se résolvaient souvent par remplacements des plaquettes, moins coûteux, que la réparation, elle-même. Les techniciens devenaient donc les prochains sur les listes noires.

0.jpg

Les Help Desk allaient profiter de la situation de manque de sécurité. Ceux-ci ont été sous traités pour la plupart dans les pays aux salaires les plus concurrentiels, tout en gardant une fausse étiquette de la marque d'origine à l'aide d'un anglais approximatif. Une formation en continu, chez eux, était seule garante d'une bonne acceptation du client, seule chance, aussi, de ces services apportant l'aide à la clientèle. Seule l'éloignement, la langue véritablement usuelle et la culture ne parvenaient pas à se cristalliser de la meilleure façon avec les clients.

Les PC devenaient chasse gardée chez de nouveaux "grands" mais, cette fois, décentralisés. IBM vendait sa division PC à la chinoise LENOVO. Unisys a abandonné la production de ses PC, trop lourds à maintenir et impossibles de garder un équilibre avec les ténors des « clones ». Le prestige de l'informatique n'était manifestement plus ce qu'il était. Le "low cost" (bas prix), très général, n'avait pas fait exception chez ces grands fabricants et attiré les utilisateurs comme l'aimant. Parfois, il pouvait même devenir du "low coast" (côte basse).

Beaucoup de fausses routes, de voies de garage.

Herb Grosh situait la puissance proportionnelle au carré de l'accroissement du prix. Doubler la puissance pour la moitié du prix était devenu la norme dans les années 70. INTEL osait même précipiter les choses et préciser cette puissance au quadruple tous les trois ans. Talloné par les concurrents. Pari intenable.

La vitesse, toujours elle, avec les fibres optiques donnaient des espaces "temps" dans l'explosion des technologies de la communication entre les hommes via la grande Toile. L'ADSL, les signaux à haut débit, n'était qu'une étape bien loin des possibilités désirées en finale mais améliorait grandement la connexion téléphonique seule. Le nombre d'abonnés ne faisait que croître, alors que les communications par téléphones disparaissaient.

Ce n'était plus la vitesse de l'ordinateur qui était, décidément, le maillon faible. Il était ailleurs dans les télécommunications.

Comme le disait, un jour, un américain de Microsoft, lors d'une conférence: "Even il you have a speed of 1000 Ghz, 2000 Ghz, you are still waiting at the same time". (même si vous avez une vitesse de 1000, 2000 Ghz, vous attendez toujours autant). Alors, quand on parlait de Tera en place Giga du côté de la machine, mieux valait chercher réellement où le bât blessait dans le passage de l'information jusqu'à l'utilisateur. Parce qu'il ne fallait pas uniquement avoir l'information, il fallait aussi la trouver quand elle était nécessaire.

La grande salle d'ordinateur n'existait plus que centralisée, très loin, parfois aux antipodes, avec les autres subsidiaires liées en réseau. On aimait s'entendre dire que tout était en de bonnes mains, réparties partout à travers le monde au meilleur prix. Quand il y avait opposition, l'usure du temps arrangeait les choses. On s'en désintéressait, enfin. On l'oubliait, en fait.

Chez Microsoft, tout aurait pu être parfait, si ce n'était les tracas pour cause de monopole et qui obligeait à corriger et à morceler toujours plus dans la structure de la société et l'architecture de l'Operating System et de l'Open Source. Mais, il y avait une erreur, une seule faille à la cuirasse de Goliath. Ce fut l'erreur d'appréciation trop minimaliste de l'importance du créneau "Internet". Erreur que la firme a essayé de résorber par après sans y arriver complètement. Racheter, à coup de dollars, les sociétés d'Internet, tel que Yahoo, a été un échec. Peu importait la montant de la transaction. Internet est la plus grande invention depuis l'imprimerie, est-il dit. Toutes les cultures, tout le savoir du monde y transitent, s'"obsolètise" mais sont conservés en base pour un développement futur. Tous les modèles y sont coulés. Mondialisme, globalisation de fait mais qui n'auront d'importance dans le temps que par la mise à jour en continu en sortant de la rigidité du livre par l'interactivité. Wikipedia, institutionnalisée en Fondation, la base de données de la connaissance au niveau citoyen a fait un bon gigantesque et fait, même, ombrage aux encyclopédies papier par les mises à jour instantanées. Les hyperliens, invention d'internet majeure, ont apporté une intégration sans fin, en explicitant un mot en le reliant à une autre page liée.

L'acheteur-consommateur lambda, lui, suivait, vaille que vaille, et se trouvait toujours en porte à faux avec le dilemme du budget et le devoir d'obtenir plus de puissance qu'il ne le pensait au départ et cela, au prix fort, partagé entre l'idée de conserver sa machine pendant plus de 3 à 5 ans d'amortissement ou devoir en changer plus rapidement pour pouvoir continuer son chemin dans son réseau propre.

Internet était la plus grande révolution depuis l'imprimerie. Oui. On en était convaincu. Mais il fallait suivre et on devait désormais le prouver pour rester la tête hors de l'eau. Le Web 2.0 devait révolutionner le marché. On allait le prouver avec les support de la pub dans une interaction concertées entre les internautes. On parle déjà de Web 3.0, alors qu'on ne sait pas vraiment ce qu'est et ce qu'il apporterait, comme avantage à la version actuelle.

Pour soutenir l'idée, des bibliothèques de sous-programmes « tout fait », extensibles étaient apportées par le logiciel type « Java », gratuit. Danser la Java n'était pourtant pas appris après quelques petites leçons. Le langage "C" ou "C++", dont il est issu, avait lancé le mouvement tout en se rapprochant à nouveau très fort de la complexité de la machine. Standardiser, sortir le plus vite du propriétaire, voilà le but principal des adversaires du "propriétaire". Véritable culture différente que celle de Java. Un véritable schisme entre Basic et Java sans beaucoup de chances de virer de bord de l'un à l'autre. On intègre souvent les deux, mais on ne laisse que la porte entrouverte entre les deux sans véritable conversion possible. L'architecture des programmes basée sur les objets fonctionnels, blocs d'instructions testés séparément, semble le meilleur moyen pour réduire le temps de la construction. Cela l'est moins pour la mise à jour. Repérer où le bât blesse lors d'une interruption de service se révèle moins aisé. Le fameux "listing" du programme n'est plus unitaire et centralisé. Il est en pièces détachées fonctionnelles.

La vieille idée de Bill Gates, que le choix du langage pour programmer ne serait bientôt plus un problème, avait, dans ce contexte, peu de chance de se réaliser. La consultation et l'interrogation des plus grandes banques de données par SQL (Structured Query Language) avaient un avenir dans les relations et l'intégration bien plus grandes que celles toujours pratiquées aujourd'hui.

Au début du siècle, les spinoffs de jeunes fleurissaient avec peu de budget et une idée de base dans la nouveauté. Conseiller prenait ailleurs le pas sur la maintenance et la création pure et dure du tangible. On rêvait que tout était possible en virtuel.

Très vite, sans ressources propres, tombèrent. Ce fut la bulle des investissements des années 2000 qui éclata dans le paysage informatique. Le désenchantement total. Ce qui avait fait la joie des investisseurs se retournait contre ses praticiens.

Le 11 septembre 2001 alla, pour un temps, dans l'autre sens, dans la panique, pour raison de sécurité pour redonner du travail.

L'outsourcing et l'offshore en Inde avec ses 50.000 informaticiens alait assombrir le tableau en occident comme une tache d'huile. CNN a eu une foule de débats pour expliquer aux Américains, ce qu'espéraient ces nouveaux "envahisseurs". L'ANPE proposait récemment même de s'y rendre. Cet offshore, outsourcing, c'était reconnu comme la panacée du travail au coût minimum pour soi-disant peu de risques. Pourtant la pratique ne rejoignait pas la théorie des calculs de rentabilités qui se perdaient dans les méandres de l'oubli volontaire. Le "know how" interne  lui, suivait, d'ailleurs, le même chemin de la sortie, dans l'exode et l'oubli. Les helpdesks avaient, aussi, leurs limites et leurs impossibilités de l'aide à distance.

L'Inde démarrait dans le bas de gamme, tout d'abord, et voulait en profiter jusqu'à plus soif, indifférent aux troubles qu'ils produisaient ailleurs. Les sociétés d'offshore qui se sont expatriées, pour être plus près de leurs clients, ont eu, de plus en plus, de difficultés de maintenir un staff de collaborateurs de haut niveau qui étaient seuls capables d'organiser la musique avec les bonnes notes. Ces collaborateurs, s'ils étaient zélés, ne tardaient pas à découvrir les failles du système et s'évadaient pour fonder leur propre société, avec une infrastructure plus légère encore, emportant au passage l'expérience et la clientèle de l'employeur précédent. Cela à domicile ou même aux États-Unis. L'instabilité du personnel indien était même chiffrée et s'établissait à une rotation de 50% par an dans les staffs. Vu cet aspect non évalué, au départ, l'insourcing ne devint plus un mot inconnu des dictionnaires informatiques. Mon 1er avril 2005 était à peine désynchronisé.

Pour un Indien, la Chine n'était pas un concurrent. Cette dernière ne jouait pas dans les services une part aussi importante. D'ailleurs, le régime chinois n'aime pas la classe moyenne, trop agressive, trop démocratique qui peut se révéler un danger pour lui-même.

0.jpgNouveau jeu de quilles, les générateurs de profits devront seulement trouver d'autres horizons.

L'informatique, une science comme une autre? Pas vraiment.

L'informatique est un monde très spécial au contraire demandant de la création, de la précision, de l'imagination. Beaucoup de déchets, bien sûr. Ce métier, on l'a dans le sang ou on en périt noyé. Pas de demi mesure. Les véritables chefs d'orchestre qui relient tous les instruments, sont devenus rares. Le low-cost n'aura, peut-être, été qu'une parenthèse. Un peu de patience, rien n'était encore perdu.

Nous allons voir tout cela par le menu du "comment" et du "pourquoi" dans la suite.

Mais l'histoire de l'informatique, ça c'est sûr, est loin d'être un long fleuve tranquille.

En attendant, voici les photos du Musée de l'informatique de Bruxelles

19/11/2008

La Grande Gaufre (05)

Tableau 5 : Méthode : La danse avec les loups

« Le principe de l'évolution est beaucoup plus rapide en informatique que chez le bipède. », Jean Dion

 

0.jpg

L'évolution de l'informatique est faite de haut et de bas. La dernière décenie, c'est plutôt en phase descendante. Parfois, avec une bonne dose d'humour pour ne pas sombre dans la déprime est nécessaire. Cela passe par des flash-back selon les besoins de l'enquête d'un Sherlock Holmes, nouvelle vague, muni d'un oscilloscope plutôt que d'une loupe. L'informatique, est-ce une jeunette primesautière de cinquante ans ou une vieille dame  indigne à la recherche de son avenir ?

Ce qu'on y a adoré un jour, se voit haï, le lendemain et remplacé le surlendemain, plus conforme encore aux rêves de progrès tout azimut. Pourtant, une facturation, une comptabilité, on fait cela depuis très longtemps. On constate, pourtant, que ces deux jumelles se retrouvent toujours dans les cogitations de la programmation. Rien de changé sous le soleil de la gestion interne? Si, mais pas le fond. La surface, le côté "visuel", la convivialité, les validations ont simplement arrondi les angles en surface.

Maintenant, on s'adresse à tous les citoyens, pas moins exigeants. Chacun fait sa "compta" de son côté avec des outils adaptés. Ces derniers essayent, vaille que vaille, à tenir la "forme" par des mises à jour avec le moins de bourse à délier. Le PC s'amortit, désormais, après une vie de 3 à 4 ans maximum. La fiabilité de l'électronique y est certes pour quelque chose. La garantie s'est vu prolongée de deux ans. Le clavier, pièce mécanique, reste encore fragile. La presse constate même, tout à coup, qu'il contient les germes de maladie. La baisse du pouvoir d'achat de l'année 2008 a encore accentué le ralentissement. Désormais, le consommateur de matériel informatique tente les 4, 5 voire 6 ans avant de se renouveler. Les magazines proposent des solutions de fortune pour temporiser un nouvel achat. Les logiciels suivent la même voie du ralentissement sans connaitre plus de répit mais tournant, désormais, plus à vide. C'est lui qui devient le passage obligé vers le pas du changement. Les patches, les versions corrigées se téléchargent souvent automatiquement. Parfois, il faut vraiment rester dans le coup sous peine de ne plus pouvoir lire le fichier envoyé par un collègue ou ami qui a opter pour une version ultérieure, mais il y a des softwares proposent des convertisseurs.

Les bugs ne se définissent plus que comme "failles du système" mais sont plutôt appelés sous le vocable "erreur". Mais, erreur de quel système? A quel niveau « hardware ou software », se situe le problème récurrent? Enfin, récurrent, c'est encore facile, quand il devient aléatoire, là, on nage dans le néant. Où réside la panne et son origine? Les commerçants, qui n'ont pas été formé à toutes les versions, renvoient les utilisateurs dans le giron des concepteurs ou vers Internet en espérant qu'ils puissent y trouver la source des problèmes. C'est vrai sur Internet, on trouve tout, firmware et correction des bugs. Les utilisateurs du monde entier ont souvent découvert le pot aux roses bien avant les concepteurs. Alors, il y a la solution "helpdesk". Internet égare l'utilisateur dans des catalogues de pannes préformatées, au vu de la complexité des phénomènes "bizarres". Internet répond aux questions si les bons mots clés ont été choisis pour le repérage. Les apprentis sorciers n'auront qu'à bien se tenir sur la bonne piste aux étoiles avec des programmes de recherches qu'il nous reste à décrire.

Il a des surprises sur prises en temps machine "fantôme" que le piratage impose aux consommateurs. Ils l'assument de bonne grâce avec son pare feux et son antivirus. Comme disait Anne Roumanoff au sujet d'Internet, "On ne sait pas ce qu’on y cherche, mais on trouve ce qu’on ne cherche pas". Comme rassembleur d'informations, Internet est arrivé à maturité et a eu son visionnaire au 19ème siècle. Un certain Albert Robida (1848-1926), un peu comme Jules Verne, avait tout imaginé avec son téléphonoscope. Ce n'était pas du "www", bien sûr, mais un journal télé avec écran plat, une webcam, des achats en ligne, un enseignement à distance, du MP3 et  de la technologie RSS de recherches désirées. L'ensemble existait dans son esprit fertil qu'il a déposé dans son livre la "Vie électrique". Bien plus tard, l'idée a été reprise dans un réseau informatique mondialisé.

Les programmes, après avoir fleuri tout azimut, installés sur les machines des utilisateurs, voilà que l'utilisateur trouve même des exutoires pour héberger ses données, sur le réseau, on line, avec des substrats des programmes professionnels pour pouvoir les utiliser. Quand la grande exigence n'est pas l'obligation majeure, pourquoi pas? On est passé dans les nuages et le "cloud computing". La gratuité de l'oppération pousse à la consommation au risque de s'y perdre. Tous les softwares libres se sont retranché derrière une acceptation de règles qui annulent d'office toutes responsabilités en cas de problèmes majeurs. Tous les programmes, les plus usuels avec l'espace disponible en prime grâce au sponsoring de la publicité sur le web, ce n'est même plus nécessaire. Le consommateur y a gagné s'il n'est pas trop regardant de sa sécurité et de sa vie privée. Le voilà caserné, pied et poing liés à ses données sur un serveur dont il ne connaît même pas la localisation.

Chez les Grands, les Datawarehouse, ces grands entrepôts de données, fournissent les données comptables, épaulées par les langages de plus en plus évolués et précis par des requêtes SQL mais sans aller dans l'« ésotériques » et le niveau "haut de gamme".

L'accélération des développements a pris des connotations exponentielles dans les choix disponibles d'un ensemble informatique plutôt qu'un autre. De nouveaux acteurs de cette transformation se sont ajoutés. Les outils se développent, en véritable schisme, en tant que propriétaire ou en libre de droit. Les suffixes "-ware" se sont emballés très "Tupperware". Même les entreprises privées et publiques ont tenté leur virées vers les produits software "open source". Si, en ce début de siècle, des exigences "one shot" sont venues pour maintenir le niveau de stress ou d'activité supplémentaire, le coup de feu passé, a dû trouver d'autres alternatives.

Les années 90 voient les mainframes sortir de l'ambition des clients. Ce qui est toujours plus petit et plus rapide, se révèle, aussi, moins vorace en mètres carrés dans les locaux et moins intransigeant du côté conditionnement d'air et faux planchés. Les très chers mètres carrés de surface de bureau sont réutilisés. Les ventes de PC y vont continuer à croître, poussées par les softwares toujours plus sophistiqués mais aussi plus exigeant en capacité de calcul et en Mips pour atteindre une conviviabilité suffisante.

Le passage à l'an 2000, d'abord, avait donné un coup de fouet bénéficiaire à l'entreprise informatique en fomentant, chez les clients, une crainte justifiée par un risque non calculable. Le risque existait, bien sûr. Il a été seulement bien maintenu pour tenir le consommateur éveillé dans un esprit de "principe de précaution". Ne nous trompons pas, il s'agissait de corriger une erreur de la mal-voyance des concepteurs qui ne voulaient pas voir le siècle se clôturer tout à fait normalement. Maisons de software et constructeurs ont profité de cette épée de Damoclès, sans en donner l'importance dans la clarté. Le pouvaient-elles d'ailleurs ? On avait même presque oublié ce phénomène de minimiser le nombre de digits dans la datation des événements pour raison de gains de place. Maudite étroitesse des possibilités de stockage ! Tout à coup, si rien n'était fait, on risquait de voir le petit fils, né avant son aïeul et la pension arriver au berceau. La correction s'est portée sur le "consommateur payeur" et tout s'est passé sans catastrophes.0.jpg

Ensuite, il y a eu la monnaie qui a changé. Nous sommes passés de l'exclusivité du dollar aux challengers, l'euro et le yuan. Ce bouleversement dans les habitudes de partager la monnaie de référence a mené à des surprises moins désagréables. De nouveaux acteurs ont pris place dans la chaîne de la production de l'ajustement une fois le coefficient de conversion connu. Baptisé Écu, au départ. Renommé en "euros" plus proche de l'idée européenne, dès la naissance effective.

Les monnaies européennes, anciennes, "exotiques" pour le citoyen lambda américain vont disparaître et, dès lors, donner un nouveau ballon d'oxygène à l'industrie informatique dans la préparation de la conversion. Dans ce cas, on ne râlait pas vraiment pour imputer les frais de celle-ci chez les entreprises multinationales. Un futur commun, désiré, était en jeu. Tenir les taux de toutes ces valeurs au jour le jour était devenu lassant. Toutes les entreprises nationales et internationales ont dû mettre la main à la poche sans exception mais ils n'ont pas vraiment rechigné à la besogne. Une idée de stabilité des prix, de facilité dans le calcul des bénéfices devaient se retrouver au détour du chemin. Le pied, quoi. Cela a pourtant représenté beaucoup d'argent, un véritable investissement sur le futur. Aucune estimation n'a d'ailleurs, jamais été recherchée sinon dans de vagues calculs statistiques dont on détenait peu de paramètres. Les ordinateurs ont été sollicités et tous ce qui tournaient autour d'eux pour arriver dans les temps prédéfinis de communs accords. La conversion des anciennes monnaies en une monnaie unique ont heureusement été un peu plus souples dans leur timing d'implémentation fixé en plusieurs phases. Le commerce mondialisé, on y voyait que du bien dans la société moderne et comme le temps, c'est de l'argent, on a encore investi dans les machines et les programmes performants, développés pour la circonstance.

Le passage fixé drastiquement par le changement de siècle, avait eu, lui, des obligations dans l'impossibilité de retarder le temps. Cette fois, grosse différence.

Après ces deux événements, plus beaucoup d'événements fédérateurs, de projets à planifier dans l'urgence ou dans l'obligation. L'industrie de la technologie et de l'informatique est comme les autres liées à des coups de pouce de la conjoncture. La confiance s'étiole vite dans un tel contexte. Aux USA, en Bourse, les TIC (Technologies de l'information et de la communication) se sont séparées depuis un certain temps, du Dow Jones dans le NASDAC. On ne pouvait confondre plus longtemps le réel ancestral avec le virtuel. Tous deux évoluent avec de fortes différences et effets de levier aussi bien en gain qu'en perte. L'informatique, malgré les prétentions, n'est pas devenue la première industrie du monde. Fusionner et racheter les entreprises ou morceler les activités pour raisons de monopole sont devenues des préoccupations en continu. Les plongeons de certaines entreprises se sont, pourtant, produits ensuite dans ce monde mondialisé qui se transformait en institutions boursières, recommandées seulement par une logique plus particulière à la haute finance. Une société, en perte de vitesse, cherchera bizarrement à acquérir son concurrent au prix du marché pour noyer ses propres difficultés. Élargir ses horizons et assumer les frais sur plus d'épaules avec le goodwill en parapluie est le but principal. Wall Street aime le mouvement et des raisons de se sécuriser même si c'est à coup de bluff. Des cascades de fusions en forme de poupées russes, dont on ne parvenait plus à en ressortir la base, comme modèle, ont été l'étape de l'excès dans beaucoup de secteurs de l'économie. Après la fusion de deux entreprises, laquelle des deux allait garder son parc informatique plutôt que l'autre? Une question de logique ou de politique?

La spécialisation à outrance dans le domaine informatique ne le permettait que beaucoup moins pourtant. Les conversions n'étaient pas aussi simples qu'on l'espérait. Des appels d'air devenaient possibles en provenance de pays aux coûts de fonctionnement moins plombés par les salaires.

Le livre "La Grande Trappe" en a fait allusion en long et en large au développement des grandes sociétés internationales. Rien n'est complètement différent d'une vie de société à une autre. Les OPA ou OPE ont souvent promené les conseils d'administration de pays en pays. Chevalier blanc ou noir, pas de différence majeure, sinon une couleur bien ou mal uniformisée aux destins bien ou mal précalculés. Une recherche d'un attaquant plus ou moins dans la note de la stratégie du plus fort. Le client ou le fournisseur, en aval, devait rechercher son retour en piste dans ce marché de dupes pour lui.

"Show with the business must go on". Comme l'herbe n'était résolument pas plus verte ailleurs, pour les employers informaticiens ou autres, il fallait soit prendre son pied soit le bouffer.

La sécurité va prendre la relève, par la suite. Nous allons le voir bientôt dans un chapitre suivant.

La société PDP - Digital n'exista plus, remplacée par Compaq, elle même, en 2001, renvoyée dans les oubliettes de l'histoire, sous Hewlett-Packard, (HP pour les intimes) plus traditionnelle qui reprend le flambeau jusqu'à nouvel ordre.

A Bruxelles, les locaux de HP sont devenus depuis,  l'Ambassade de Chine. Les locaux de Compaq sont démolis.   

A l'Ouest, rien de nouveau? Pas tout à fait. La véritable nouveauté, nous venons de le voir, venait à partir de l'Est, du Far East, même, et de manière encore plus accélérée. Du côté matériel, mais aussi du côté humain car il a fallu chercher de l'aide pour ces grands projets ponctuels. Ici, en gros, il s'agit de l'Inde et cela va troubler beaucoup d'esprits en occident. Nous allons y revenir.

Une autre société que je connais mieux va, dès lors, occuper une partie de cet eBook. Ce sera le tour d'Unisys, même si elle ne diffère aucunement des autres.

18/11/2008

La Grande Gaufre (06)

Tableau (6): Ca s'en va et ça revient

«  L'informatique est géniale : les e-mails, même si vous n'y répondez pas, ça ne prend pas de place. », Alain Rémond

0.jpgNous allons dès à présent nous pencher sur un cas plus précis. Pour commencer, pourquoi ne pas revoir dans le détail de l'histoire d'Unisys.

Ce lien vous en donnera toutes les dates officielles.

Les ancêtres, ENIAC et UNIVAC se sont tournés vers des sociétés qui n'avaient aucune envie de faire de l'informatique pour fusionner. A l'origine, ce fut Sperry, puis Sperry Corporation qui englobait Sperry Remington, Remidex, Sperry Vickers, Sperry Marine, Sperry New Holland (agricole) et j'en passe. Rien à voir avec les ordinateurs si ce n'est qu'ils étaient, eux-mêmes des consommateurs, utilisateurs comme les autres. Dans le fond, créé ce qu'on utilise, rien de bien méchant comme idée, si ce n'est que la complexité de l'informatique empêche de voir aussi largement. Se rendant compte de cet éclatement d'objectifs, un rapprochement plus dans les cordes du violon d'Ingres s'est imaginé. Le fameux "core business" a de ses prérogatives que la finance oublie souvent. Mais, l'informatique avait le vent en poupe et se trouver en lice permettait d'espérer un avenir radieux. Les investissements énormes dans le développement des machines, dans l'éducation des utilisateurs prenaient des ressources non prévues au départ. Les salaires augmentaient vu la pénurie de candidats à l'aventure plus habitués à des métiers plus classiques. Le cashflow baissait dangereusement. Les voyages nécessaires  pour se faire connaitre n'assuraient aucune réussite à coup sûr.  

En parallèle, la société Burroughs avait les mêmes problèmes de "cash flow" que Sperry à l'époque. Pourquoi ne pas mêler les destinées? Même business. Quand c'est complémentaire, oui, cela marcherait. Quand, c'est se concurrencer sur les mêmes tableaux, on arrive vite à des situations inextricable où le principe "One Unisys, one project" est une belle phrase sans réelle valeur ajoutée que dans des domaines très théoriques, et pas dans la réalité des faits et des réalisations. Le but principal était de récupérer une place plus proche du "premier" constructeur, qu'Univac avait perdu et de réduire le "gap" avec IBM. Les 2 sociétés étaient de taille presque identiques avec l'une plus forte dans un pays et moins forte dans un autre.

Pourquoi "Unisys"? Un concours a été lancé au travers des employés dans le monde. Des propositions de "Sperbur" et de "Bursper" sont revenus plusieurs fois mais l'idée était de montrer au marché que l'unification de deux groupes pouvait donner plus de synergie en commun. Ce fut "United System" et donc "Unisys" fut adopté par besoin d'abréviation. Au niveau personnel, il ne fallait pas trop le réduire de manière drastique dans une purge mais simplement réduire les redondances de postes de management.

Alors, pendant longtemps, on se maintenait dans la durée de chaque côté de la barrière en croyant la fusion effective. On devait garder la pédale douce, surtout, quand l'embrayage grinçait un peu. On exhortait à inverser le flux. Les activités écrasaient pourtant l'un au profit de l'autre. Les softwares étaient transposés, interprétés de l'ancienne série 9000 de Sperry pour se retrouver sur la série 1100 de Burroughs. L'investissement n'était pas léger vu la différence de philosophie des deux manières d'adresser un problème informatique. Chacun avec des langages de 4ème génération avec le vent en poupe, Mapper, côté Sperry et Linc, côté Burroughs, comme premiers champs d'application. L'interchangeabilité n'était pas possible car tout se basait sur des configurations ou plates formes complètement différentes.

Sur les bords du "gotha", on avait de plus en plus de vice rois pour harmoniser au mieux toutes les branches d'exploitation. Chacun s'occupant d'une partie du business sans vraiment s'inquiéter des business parallèles. Tous inféodés à la parole unique plénipotentiaire du Président Directeur Général sur l'autre rive américaine. Là-bas, on jouait des coudes dans un jeu de chaises musicales. On défendait sa peau et sa "parcelle de terrain". On s'usait très vite en deuxième place. Les raisons en étaient pourtant évidentes. Quand le business n'arrivait pas à percée et à correspondre à la promesse de départ, l'élimination du service pas assez virulent, était proche. Pour les "généraux", en général d'un âge avancé, une retraite dorée était proposée et vite acceptée. Les cours de Bourse s'en ressentaient immédiatement vers le haut dès l'annonce des changements de direction. La greffe pour les autres était plus problématique.

Être trop longtemps dans le circuit, créait aussi trop de liens affectifs et de manque de punch pour des lessives successives. A ce sujet, le "lave plus blanc" de la période bleue, c'était fini. Il fallait passer au "lave moins gris". Dans ce but, il valait mieux ratisser large et baser le « middle management » du côté des "jeunes tiges", bien ferme et bardées de diplômes.

Multinationale, à la tête de chaque subsidiaire satellite, un GM local devait se partager, bridé dans le potentiel, dans une organisation matricielle. Représentant responsable de la société dans le pays et garder une "présence du management" responsable vis-à-vis de l'Etat dans lequel ils exerçaient leurs pouvoirs. Rattachement selon d'autres impératifs, en des cycles concentriques, en pôles d'influences par continent ou par régions internationales, qui sortaient évidemment des frontières étatiques. Les pays n'étaient plus nécessairement les entités de base. Les qualifications dans un domaine prenaient le relais sur la nationalité. Les GM locaux, à géométrie variable, restaient là pour apporter la signature au bas des contrats légalement acceptés.  

L'informatique interne autonome dans chacune des subsidiaires avec des programmes "clé sur porte", on n'aimait pas trop, au niveau international.  Chaque département soldait budgétairement les dépenses de l'IT. Pour corriger la redondance d'efforts, dans une première phase, s'est tournée avec une standardisation, parfois à outrance, au pas de charge ou à la persuasion. Découvrir le meilleur programme par canal était l'objectif.

Dans une première phase, une véritable chasse à la crème de la crème parmi ces développements informatiques "clé sur porte", s'est mise en place déjà en fin du 20ème siècle. Pour la quête au Saint Graal, les voyages  dans les subsidiaires vont recevoir un budget illimité pour aller tâter la matière de plus près et en déterminer ce qui sera le futur standard.

Pourtant, il y avait les spécificités étatiques, légales qui ne disparaissaient pas disparues comme par enchantement. Les habitudes de travail avaient aussi des difficultés à se standardiser. Des règles comptables et des « chart of accounts » (les plans comptables) spécifiques verront leur translation parfois dans l'arbitraire. Les consolidations, elles, allaient suivre, en fin de chaîne, à la maison mère des États-Unis.

Comme motivation, les utilisateurs internes devaient, de bonnes grâces, se plier à la tâche d'analyse et du rapprochent en plus de leur travail quotidien dans l'espoir de garder une maximum d'informations dont ils avaient eu l'habitude jusque là, pour l'ordre et la présentation. Dans l'aventure, une fois standardisé, les programmes allaient laisser un goût amer ou de trop peu. Un plus petit commun multiple n'est pas la panacée pour personne. Cela donnait en définitive une impression de donner plus d'informations au système en input, pour en recevoir en retour de moins en moins en output. Il y a eu des rébellions chez les plus motivés et puis l'usure du temps cassa les motivations dans le stress et la dépression.

Les informaticiens, eux, ont vu leurs propres "jouets" sortir de leur champ d'investigation avec seulement la maintenance de ce qu'ils ne connaissaient plus en échange du partage. Mais, il faut que jeunesse se passe, dit-on.

Les subsidiaires vont, parfois, se rassembler en conglomérats régionaux de manière arbitraire en oubliant parfois que culture et langue de prédilection ne riment pas nécessairement avec le chant unique de l'Amérique. On appellera cela, d'abord, des "théâtres". Le mot était bien choisi. On y jouait une pièce, en quelques sortes. Ensuite, les théâtres deviendront des "clusters" (des ensembles), terme bien moins précis dans sa finalité. Les structures vivaient souvent à l'aide de têtes chercheuses multiples. Tous les acteurs en bas de l'échelle se partageaient, en conséquence, entre un management d'origine locale et un autre lien lié à la fonction qui avait été centralisé, ailleurs, vers un management qui opérait à distance, dans la virtualité. Les conflits d'autorité n'étaient pas rares. Le mélange de cultures européennes, d'idiomatiques linguistiques, l'Américain n'en avait cure. La langue anglaise devait servir de colle-tout miracle. Des zones de compétence artificiellement ou arbitrairement établies étaient en place. Un Italien pouvait prendre en charge le bateau à vapeurs dans la duplicité, avant de céder sa place à un Scandinave pour en faire un navire à pédales électriques ou électroniques.

Tiercé dans le désordre? Pas vraiment dans la pensée américaine, très concentrée et uniforme. Une "Europe-Unie" n'existait malheureusement pas. On pouvait oublier que la plupart des Américains n'avait jamais quitté le territoire étoilé ou, au mieux, passait au Mexique pour quelques vacances d'une semaine. C'est dire un manque complet de vision.

Chacun sait qu'en mécanique, l'énergie potentielle se transforme en énergie cinétique. Dans l'organisation humaine, c'était rarement le cas. Les pertes d'efficacité étaient souvent énormes. On pouvait appeler cela du doux vocable d'"overhead". L'élasticité n'était pas le fort des systèmes internationaux à têtes chercheuses multiples. Déléguer ne se faisait qu'en apparence ou même forcé. L'esprit d'équipe demanderait d'oublier la hiérarchie et de répandre comme une tâche d'huile les bons et les mauvais coups. Mais, loin des yeux, loin du cœur et cela suffisait. Les retombées se feront en ordres dispersés à l'abri des émois trop sentimentaux de la proximité. Tout se faisait en virtuel, en volatil, aussi. On félicitait ou on engueulait sans traces dans la virtualité, par mail ou par téléphone, mais pas encore de "Motion Eye" interposée au dessus du PC pour les images. Enfin, le deuxième volet était tenu à la discrétion, évidemment. Le travail à domicile semblait bénéficier aux deux parties. Pas de surfaces chères payées de bureaux dédicassées.

Les "Business Centre" se créaient pour offrir une place pour un temps court ou pour se réunir dans des meetings hebdomadaires et échapper ainsi au prix en expansion du mètre carré de bureau.

Nous ne sommes pas dans la lecture du bouquin "Stupeur et tremblements" d'Amélie Nothomb ayant pour cadre l'entreprise japonaise et sa structure hiérarchique de fin du 20ème siècle. Ce n'était pourtant pas tellement éloigné. Cette situation ne subsistait plus dans la proximité, ni avec les courbettes physiques devant le supérieur. C'était dans l'éloignement et les grincements de dents des conversations parfois orageuses par téléphone, télévision ou mails interposés. Internet avait beaucoup contribué à formaliser les rapports mêmes très vifs dans la distance. Les idées révolutionnaires ne prenaient pas plus la prépondérance que dans les environnements autocratiques, surtout, si ces idées pouvaient coûter trop chers dans l'immédiat. Le temps faisait passé bien des soucis et les faire tomber dans l'oubli. On avait entendu, mais avait-on vraiment écouté? Le sommet détient les idées. Point. Un Américain ne se perd pas en conjectures pour discuter les ordres.

Les impératifs cachés de la stratégie qui préconisait la qualité, étaient peut être complètement différents de l'image qu'ils en donnaient en surface.

La phrase "nul n'est prophète dans son pays", ne se traduisait pas de l'autre côté de l'Atlantique. Le "divide ut impere" mondiale y était une technique qui n'avait pas encore connu de remplacement stratégique plus moderne. Les montées en puissance, les chocs de titans existaient. Les coudes et les parapluies jouaient chacun leur rôle dans ce jeu de la haute finance. Celle-ci était désormais seule au pouvoir dans ce début du 21ème siècle qui connaissait les premiers soubresauts de la crise informatique. Alors, on fuyait les problèmes et on ne faisait pas remonter les problèmes vers le sommet. Ils n'ont jamais eu bonne presse, les problèmes. Pas de plaintes, "Tout va très bien Madame la Marquise". J'ai utilisé l'imparfait dans mes verbes. Le français ne possède pas de temps intemporels car cela reste toujours d'actualité.

La gaufre devient de plus en plus grande et standardisée. Elle reçoit du sel dans la pâte. Trop salée, ce n'est décidément plus une gaufre ! A New-York, on mange depuis des gaufres avec des hot-dogs.

Et pourtant les idées de gaufres multi goûts germaient dans les forums...

 

15/11/2008

La Grande Gaufre (07)

Tableau (7): Qui aime bien, châtie bien dans la virtualité.

« L'informatique, ça fait gagner beaucoup de temps... à condition d'en avoir beaucoup devant soi ! », Mireille Sitbon

0.jpgSuite de l'expérience vécue dans une société d'informatique parmi d'autres, car il ne faut pas y chercher une exclusivité. Elles se ressemblent toutes.

Mireille Sitbon, ingénieure en "Information Scientifique et Technique", je ne connaissais pas et pourtant, quelle vision de sagesse, quelle clairvoyance ! Une femme qui résume en une phrase toute l'histoire de l'informatique. Encore, aujourd'hui la profession d'informaticien est en déficit chez la gente féminine. Dommage. Pourtant assez logique. C'est un esprit assez spécifique, masculin qui se dégage d'un informaticien jusqu'au bout des ongles. Le temps n'a pas cours sur lui. La pluie ou le beau temps, il les trouve devant l'écran noir de ses nuits blanches, comme dirait Nougaro. Il se fait un monde dans l'aparté partagée dans le virtuel à se creuser toujours en porte à faux pour trouver la manière d'atteindre un point "x" avec une envie de connaître beaucoup de détours et de solutions dans le parcours. Une philosophie de "tordus", en quelques sortes.

Sexiste, les sociétés d'informatiques, comme cela semblait l'être le cas, au Japon, dans le livre d'Amélie Nothomb, "Stupeur et tremblement". On ne l'est plus vraiment dans ce monde où tous les coups, tous les excès sont permis, donc les limites sont ailleurs. Le management est devenu largement asexué. Les écarts de salaires ont même été réduits au maximum dans une telle ambiance. Il suffit d'être un peu plus "volontaire" de correspondre au canevas demandé. Cela n'ébranle plus la stratégie, cela la renforce en lui donnant des allures de modernisme. En supprimant l'image et en allongeant les graves, il n'y a même plus beaucoup de différences dans le discours. On s'y tromperait. La stratégie, au sommet, on aime s'en gargariser chez tous ses membres sinon on part. Les discours sont, dès lors, enregistrés en vidéo que l'on peut se passer et repasser à l'envie. Les réunions sont retransmises dans le monde par vidéos enregistrées pour informer avec l'intention de former par la culture de l'entreprise. Les questions-réponses ont été choisies, filtrées avec "souplesse" bien avant la présentation. Avec le recul, on ne baigne pas vraiment dans l'imaginatif. Rien de fracassant. Mais, ce n'est pas grave. Tout le monde s'y attendait, on confirmait seulement. Après, on fait semblant d'avoir compris et on reprend son clavier et son écran dans un rêve perdu. Pas besoin d'applaudir devant l'écran, la claque est enregistrée. La conjoncture pousse à la philosophie.

Sur l'écran, on semble entrer d'ailleurs dans le jeu de la base. Au sommet, désormais, on est moderne, on s'exprime, on s'explique. Tous les jours, de là haut, on cherche à améliorer, on « blog » pour scanner l'opinion publique de la base et des travailleurs, on espère les idées géniales, par l'intermédiaire de la toile interne "Intranet", ensuite, on poursuit sur le fil de la clientèle par l'intermédiaire d'"Extranet". Prendre la température pour chercher son chemin quand il y a du brouillard, pour assurer sa prise d'équilibre sur la situation. Comme en politique, il faut être présent, partout et n'importe comment, on y va pour montrer qu'on est là. Pas de péril en la demeure, sinon une constatation que cela aurait pu être entamé bien plus tôt. Le mal des entreprises aujourd'hui: n'avoir pas suffisamment su s'inquiéter de la base.

Des systèmes informatiques sont sortis des calepins ou des idées comme un Messie pourrait l'être. Et si on marchait sur l'eau pour changer? Cela ne faisait souvent que réinventer la roue, mais personne n'osait se l'avouer et aller à l'encontre de cette stratégie "home made".

Des systèmes Lean ont été tentés pour rechercher la performance. Pourquoi pas le "Just in Time"? Quand on gratte un peu, on remarque que la théorie invoquée ne peut s'appliquer dans la pratique occidentale, perdue dans une externalisation ou à distance. Le style Système asiatique Toyota avec quelques amendements notoires serait-il plus efficace? Oublier de conscientiser le personnel et de motiver les dirigeants à passer le message aux autres comme de véritables collaborateurs. A la base de la production, se préoccuper de ces derniers serait bien plus préoccupant que celui du client que l'on chouchoute en sautant une étape. Si la source est tarie, pas d'alluvions à prévoir.

"Gérer, c'est innover". On ne peut pas dire mieux. Pourtant, on n'en a pas vraiment le sentiment. On répète les idées des autres. On ne fait qu'adapter ce qui existe pour entrer dans les moules prédéfinis. On "copie colle" en appliquant des règles passe partout.

Être un "employer of choice" (un employeur de choix), cela l'a été, très certainement, au début. On a seulement un peu dévié ensuite en essayant seulement d'en conserver l'éthique sans la sauce liante accompagnatrice. Mais, il faut le prouver périodiquement et en peaufiner l'image vers l'extérieur et vers l'intérieur en prouvant ses intentions "démocratiques". "C'est parfois plus facile de le faire vers l'extérieur qu'à l'intérieur", d'ailleurs, ai-je entendu.

Dans l'esprit démocratique, tous les ans, chaque employé de bas en haut se doit, désormais, de rassembler et de préparer ses envies "cadastrées" par des objectifs SMART et arbitrées par des skills (les qualifications). Même les cours disponibles qui ajouteront en potentiel se retrouvent dans les listes des ambitions. Quelques petites croix dans des cases, voilà le travail. C'est le futur qui se dessine pour chacun. Tout le monde y a gagné. On commence à rêver. C'est seulement profitable et efficace pour tout le monde à condition d'être utilisé dans une chronologie synchro ou pas trop distancée des nécessités.

On ne donne pas trop de directives officiellement. Seules les compétences facturables aux clients ont pourtant la cote finale. Le business et ses perspectives, personne n'en parle officiellement pour orienter les choix. Tout est, pourtant, dans les calepins de la haute direction, mais on veut tâter le terrain au préalable pour donner le maximum de chances à ce que la pâte de la Gaufre monte le plus haut possible. Il faut objectiver les travailleurs mais pas les subjectiver. Pendant un temps, un trépied magique va centraliser les objectifs : "customer, reputation, employee". L'ordre de préséance dans ce trio n'a pas d'importance. Apparemment, seulement. On se l'accroche à la boutonnière, ce trépied et tout va changer. Certains objectifs, plus précis, vont tout de même aiguiller la pensée.

Au gré des vents de tempêtes ou des alizés, parvenus dans l'année, le sommet de la hiérarchie peut et aura corrigé la stratégie en l'orientant dans un sens pour lui faire virer de bord du jour au lendemain. Le pragmatisme est le gouvernail général et parfois, il faut de sérieux coups de barre. Rester sur un échec ne serait pas la bonne solution vis-à-vis de Wall Street dans le rapport de fin d'année. Le principe du "Double digit" pour le rendement, sinon rien. On est prêt à répondre à tout problème même avec de l'avance à l'allumage. Quand l'annonce précédente ne se retrouve pas dans les résultats annuels à l'échéance, l'avance s'appelle "profit warning" (avertissement sur résultats). Coup de grisou, ensuite, dès le cours de Bourse du lendemain. Première secousse pour amortir le séisme à la sortie avec des chiffres réels. Avec la consolidation des résultats de la société, on confirme qu'il y a des pertes inexpliquées, mais on a réagi. Par où, sont bien partis les investissements, par où ils ont été profitables? Le brouillard? Non, compartimenter va présenter les fuites, voilà la nouvelle idée. Les "Business Units", les centres de frais, sont nés pour l'expliquer jusqu'au niveau le plus bas. Une mise de fond non évaluée avec exactitude, va être mise dans la balance pour scinder la société en unités plus petites, pour en catégoriser les effets de manière plus précise. Avec les chiffres, les statistiques seront appelées à la rescousse. Pour réaliser cet éclatement, les bases de données vont du même coup subir une inflation drastique des données dans les répartitions. Tout est possible en informatique, si la capacité des disques le permet. Cela ne veut pas dire qu'il n'y ait pas un nouvel "overhead" dans le processus. Des références, plus ou moins arbitraires, vont devoir se définir pour mettre les "billes" dans le bon panier. On va réorganiser, du même coup, les équipes et restructurer, c'est évidemment éliminer les branches mortes incompatibles avec les nouvelles structures. Restructurer et déménager sont les préoccupations avec une certaine périodicité cadenacée à la fin d'exercice correspondant à la fin de l'année.

Dans le processus de séparation, la surprise était pourtant au milieu du chemin. Du coup, les centres de frais vont accentué un vieux problème récurrent. Avec cette référence sociétale, il n'y avait plus ni un, ni deux "Unisys" mais, tout à coup, six "Unisys". Les "Business Units" vont se concurrencer entre eux chez les clients. Les clients vont se rebeller, en trouvant amère, la visite successive en provenance de la même société mais avec des étiquettes différentes. Se rendant compte de l'erreur, ce sera "Back to the future", back to "One Unisys, to one company", qu'ils disaient. La compétition, à couteau tiré, se déroulera désormais sur un autre plan.

Des « tubes de management » de plus en plus étroits se sont créés, en parallèle, sans connexions véritables entre eux. Chaque département est devenu responsable financièrement, sectaire même, en ignorant ce qui se passe dans le bureau d'à côté.

Quand, il faut motiver les employés, il faut leur donner plus d'autorité, dit-on. De nouveaux responsables s'empresseront de combler ces nouvelles niches. On ne cherche pas vraiment à savoir s'il y a une source ou un réceptacle aux extrémités du tube. On en prend possession et on se tait. On perd ou on gagne mais on oublie un peu, la notion de l'ensemble et de la cohérence. Les liens entre chacun des tubes vont devenir de plus en plus lâches pourtant. Perdus dans les spécialisations multiples, les généralistes disparaissent ou ne sont plus cotés à leur juste valeur pour réunir les "tubes".

Le généraliste est devenu l'oiseau rare. On le recherche en permanence chez les "plus vieux" encore entachés d'une culture révolue. Les eMails volent et s'entrechoquent pour trouver ce centralisateur qui aura encore l'"idée" sur les arcanes de la société. Souvent, peine perdue. Ici, ce n'est pas "Youtube" ou Google, comme centralisateur et le moteur de recherche n'est pas adapté.

Parfois, ces tubes passent même de l'intérieur vers l'extérieur. Des sociétés écrans se positionnent avec un autre nom pour masquer le manque de cohérence. Parallèles, elles sont là pour permettre de garder près de soi, sans y être physiquement, ce que l'on voudrait encore pouvoir posséder plus tard quand les affaires reprendront à moindre coûts. Backup potentiel et providentiel qui, souvent, a dû restreindre ses prérogatives financières pour rester à proximité de la grande maison. Nouveau jeu de chaises musicales dans lequel chacun devrait y trouver son profit ou sa perte. La dernière alternative quand plus personne ne veut payer pour sa présence, c'est le siège éjectable. Là, peu importe, les analyses et les statistiques qui démontreront le "Profit & Lost".

Une mauvaise compréhension de ligne de parti, de la stratégie récidivée, une branche pas assez dans le vent ou pas assez rentable. Un tube comme un autre, moins chanceux, pourrait-on conclure.

Partager l'info et la connaissance, qu'ils disaient. Beaux principes qui, ne se compensent que dans un jeu de "job protection" chaloupé.

L'étape de l'outsourcing n'a pas apporté une culture du partage de destinées, loin de là. Il s'agissait de déchirures profondes.

Partager, mais pas donner, surtout quand il s'agit du "core business". On l'espère. Une société est faites de sang et sueur, pas de crème glacée sans âme.

Le chef ou les autres membres sont parfois très éloignés l'un de l'autre, ai-je dit. A part par l'intermédiaire d'une photo et du son qui vient en surimpression, du téléphone, rien ne permettait plus d'avoir un lien plus affectif. Il n'était pas rare qu'une branche de la hiérarchie ne se voit jamais en réel dans son entièreté. Restructuration budgétaire oblige.

A quoi bon d'ailleurs? L'équipe n'en a pas toujours pour bien longtemps à vivre sur le même fil de connexion et avec le même nombre de participants. Coups d'essais ou chaises musicales, le sommet aura bien changé son fusil d'épaule avant longtemps.

Pour harmoniser les envies, il y avait le travail à domicile qui plaisait à tout le monde. Plus de déplacements et plus de locaux trop réservés et chers. Le Business Center va être dédié pour le passage furtif. Souder un véritable esprit d'équipe, c'est pas trop la solution.

Réduire les prix tout azimut conducteur du business, faudra s'y faire. L'éthique, c'était aussi expliquer les finalités à longs termes. Nous allons le voir bientôt.

L'herbe n'est pas plus verte ailleurs, même si elle ne constitue pas vraiment les ingrédients d'une Grande Gaufre, dirait-on, en chœur. Encore une fois, aucune exclusivité. Toutes les sociétés dans le même business réagissent avec les mêmes artifices de calcul. Il faut bien vivre quand la compétition se déroule à couteau tiré dans une guerre dites pacifique. Toutes ressemblances avec d'autres sociétés ne sont pas du tout fortuites.

Dans cette dernière décénnie, nous ne sommes plus à l'âge du bronze. Cela ressemble furieusement à celui du fer, d'ailleurs.

24/10/2008

La Grande Gaufre (08)

Tableau 8 : Rien ne vaut l'image

« L'amélioration des techniques de fraude est beaucoup moins coûteuse, en temps et en argent, que celle des moyens de prévention. », Bruno Lossato

0.jpg

Qu'est-ce qui fait la différence dans le choix d'un client vis-à-vis d'une marque ou d'une autre? La qualité du service, l'avance du matériel? Les révolutions sont devenues plus rares en ce début de siècle de l'informatique. Les évolutions successives par de plus petits bons ont pris la relève, même si elles ne sont pas négligeables pour autant. Plus de vitesse et de look pour moins de coûts, en résumé.

Pour rester sous les feux de la rampe et garder les consommateurs utilisateurs en haleine, il fallait appâter par d'autres artifices avec moins de réels progrès technologiques qui ne bénéficient que très peu à l'utilisateur lambda. La vitesse n'est pas son soucis majeur.

Le look et l'image allaient remettre sur les rails de la création. Le fameux "branding" que l'on revoit souvent en même temps que les restructurations. Dynamisme à plus ou moins bon marché mais qui ne fait que camoufler un malaise de trop peu. Les dernières trouvailles, de ce côté, ne vont plus bouleverser le monde mais semblaient pouvoir suffire, emphasées par la pub chargée de dénigrer l'adversaire et d'élever ses promoteurs.

Tout se dit, tout se sait, au grand jour, dans la presse spécialisée ou sur la toile, dans un luxe de détails et de détails parfois inattendus, même gênants quant on se se situe pas dans les meilleurs résultats de benchmarks.

Les cerveaux, eux, trouvaient leur planche de salut là où ils ressentent la meilleure rentabilité, mais à condition que des portes restent ouvertes. Ce n'est même plus le pays où ils sont nés qui les retiendra. Certains se sont expatriés vers des pays de plus de création comme la Californie, dans la Silicon Valley. La mobilité est devenue un « must ». Alors, quoi? Prestige de l'étiquette? Coups de poker pour sortir de la bulle de 2001? Il fallait surtout veiller à conserver ses avoirs et soigner l'image de marque de la société à l'intérieur et à l'extérieur. Quand celle-ci représentait la personne unique, les choses devenaient d'office moins éthiques.

IBM, avec les moyens financiers dont la société disposait, avait été championne de la pub et avait une avance notoire, appuyée par d'énormes budgets et par une mise en condition du personnel pour en accroître l'efficacité.

Wall Street a toujours été à l'écoute et est très friand des petites différences de stratégies entre les acteurs d'un secteur de création comme l'est l'informatique. Le NASDAC était suivi de très près par la presse spécialisée.

Les erreurs de gestion et magouilles d'Enron ont enrayé le processus de rentrées avec le "double digit" comme rendement. Les chiffres étaient falsifiés. avaient généré une véritable douche écossaise. Les entreprises américaines se devaient de consolider leur comptabilité par trimestre avec encore plus d'acuité. Documenter ce qui pouvait l'être. Les rapports ne se comptaient plus, ils se dénombrait dans des canevas. Surveillance plus étroite dans le temps, mais stratégie peu futuriste dans le long terme.

Garder le bébé hors de l'eau, même en basse conjecture et garder des bénéfices à court terme pour conserver la dragée haute à Walt Street comme seule planche de salut. Tout un programme. Tous les ans, un pacte de l'éthique, charte de bonne conduite, voyait le jour dès 2001. Destiné d'abord aux patrons d'entreprise, ils étaient retournés à leur tour vers les employés. Véritable match entre éthique et tics, si pas de tocs. Vidéos et textes venaient expliquer les gestes à ne pas faire dans le respect de l'éthique et inciter même à la délation du contrevenant éventuel qui n'entrerait pas dans le cadre de l'évangile.

Justifié par les événements du 11 septembre 2001, accentués par cette affaire d'Enron, un accroissement de sécurité s'est concrétisé avec encore plus de complexité. Des équipes de travail se sont mises à jouer à la chasse aux sorcières, nouvelle vague, en suivant la loi Sarbanes-Oxley. Des auditeurs internes ou externes allaient en remettre chacun une couche toute fraîche dans le contrôle et la sécurité déclarée subitement vacillante. La méthodologie était à revoir de fond en comble. Ce n'était pas une option, c'était une obligation de vie ou de mort. Les pénalités judiciaires pour les GM étaient au programme pour les contrevenants. Tout devait, donc, à nouveau se retrouver sur les rails de la prospérité mais au travers de plus de rigueur. Et pourtant... Cette éthique de marché a déforcé le commerce international et permis des distorsions de prix de revient, favorables aux pays qui n'ont pas à observer ces règles et contraintes. Comme partout, les excès se sont mis à pleuvoir. Manque à gagner dans d'autres domaines de l'activité qui apporte le cash. La rentabilité finale des projets productifs de revenus était oubliée dans les brumes des projets de réparation.

Dans son livre "Triomphe de la cupidité", Joseph Stiglitz écrivait à ce sujet : "Les protections fondamentales des investisseurs ordinaires vont être minés par un affaiblissement crucial du Sarbanes-Oxley Act, voté au lendemain de l'affaire Enron et d'autres scandales dans les point-com apparaîtront par un Congrès et un Rrésident républicain."

Une révision des processus de contrôle avait-elle besoin d'une telle cure entre jouvence et ralentissement?

La documentation des programmes a pris, tout à coup, des dimensions inouïes. Documentations qui normalement prenaient très vite de l'âge en ne suivant pas totalement les développements ultérieurs dans une maintenance rigoureuse et journalière.

Calculer la rentabilité, entachée par des processus d'overhead, ne s'impose plus de la même manière quand les postes les plus importants ont été mis en balance. Toutes les modifications de programmes entrèrent désormais dans le même canevas. Implémenter en production, une correction d'une virgule ou d'un développement complexe, demande au bas mot trois semaines de palabres et de préparatifs avant son implémentation dans le monde du réel. Normalité de l'absurde? Le passage d'informations s'accompagne de délais inimaginables imposé pour raison de sécurité. Des passages de machine en machine, de test en test, en suivant un "workflow" rigide, avec un "ok" de contrôle, avec dédicace personnalisée, entre chaque étapes ont apporté des retards mal compris au niveau des utilisateurs finaux. Une foule d'intermédiaires qui comprennent ou non l'importance de la modification n'est aussi pas étrangère à une cascade de malentendus et de retour à la case de début du processus. Les nouveaux acteurs en provenance de l'offshore, on vite compris leur intérêt qui n'était pas nécessairement en synchro avec la société qu'ils étaient sensés servir.

On n'est plus payé à la ligne mais cela y ressemble furieusement. Quand une petite erreur est découverte, qui pense encore à rechercher la raison en amont, pris par le temps? L'aval est si facile à corriger au coup par coup dans une répétition de programmes ("quick and dirty fixes") tout fait et près à l'emploi mais qui ne disent pas leur nom en tant que tel. L'éthique dans l'obligation n'a plus de prix, seuls les objectifs en ont. Il ne faut pas contester le processus de contrôle, de régulation, dirait-on aujourd'hui, sinon, son manque de généralisation et de mondialisation. On est tombé dans la nausée du code.

L'idée du low-cost a fait son chemin pour réduire les coûts. Après avoir centralisé les machines en un point central, les applications unifiées dans les processus, l'Inde, avec ses jeunes ingénieurs en informatique, a servi de secours à des budgets de plus en plus érodés. Sans l'avouer, le gouvernail de la gestion interne est passé quasiment totalement sous contrôle de sociétés offshore. Comptablement, cela pouvait se justifier. Moins cher au niveau de prix coûtant, immédiat. Absolument. On voulait que cela le soit et cela le fut. Par après, il a bien fallu déchanter et s'apercevoir qu'il y avait des différences de cultures, des dépendances vis-à-vis des créneaux horaires et que la virtualité des contacts ne pouvait pas, aussi facilement, s'harmoniser. L'usage de l'anglais, comme transition dans le langage, n'était que le premier inconvénient. Comprendre le but d'un problème et le résoudre demandait désormais des allées et retours innombrables. Les cahiers des charges n'assuraient même plus la pérennité du message tant la complexité des processus était importante. Savoir qu'exprimer un "non" ne se fait pas de la même manière n'apportait pas l'évidence dans la communication ni la sécurité des résultats finaux. La compétence n'y était pour rien. Les livres d'informatique étaient traduits dans toutes les langues et pourtant les dérapages dans l'incompréhension se multipliaient. Des guides, peu nombreux et aux compétences multiples d'une part n'étaient pas légions pour organiser et orchestrer le tout. L'organisation indienne toujours embourbée derrière un système de castes. Des cours de pratiques bien structurés de la culture de l'autre auraient peut-être été utiles. Arriver à l'échéance des projets dans les temps devenait de ce fait trop dépendant du bon vouloir des acteurs mis en contact et de leurs agendas.

Le fossé s'est ainsi creusé aussi entre la base et le sommet malgré les hauts degrés de compétences affichés dans les pages de garde de ces entreprises d'offshore. Une deuxième série de plaintes vives ont tenté d'être remontées à la hauteur des problèmes et puis se sont apaisées, les utilisateurs découragés devant la tâche et le manque d'appui des directions impliquées. Avec les caisses, dites vides, la motivation du personnel ne devait plus se rechercher par les gratifications, mais par d'autres issues comme le plaisir au travail et l'ambiance au bureau. Les salaires étaient évidemment question de point de vue et d'altitude, bien entendu. "Les sucettes à l'anis", une question de goût.

Dans le meilleur des cas, les promotions arrivaient au bon moment à celui qui savait attendre. Mais d'autres artifices existent aussi, seulement, moins durables. Les ratings au top "1" de la performance ne traduisent plus rien. Ce seront, donc, des primes, au mieux, de beaux diplômes et des "awards" de prestige. Imparable, le prestige, les symboles, sous forme d'Oscar, idoles du pauvre !

Nous l'avons vu, les sociétés ne mourraient pas, elles changeaient d'étiquette, de nom et de propriétaire dans une véritable séance de chaises musicales à grande échelle. Qui pensait encore à faire l'organigramme d'une société internationale sur une longue période? Chaque année, repositionnement. Et pourtant, l'évolution dans la hiérarchie est loin d'être ralentie. Les fusions d'intérêts pour éviter les redondances n'ont pas cessé. Les vices-présidents, pas la peine de se rappeler de leur visage, ils défilaient.

Une seule société gigantesque qui prendrait le pouvoir suprême du commerce des TIC aux côtés de l'OMC, complice pour éliminer les redondances, était même imaginable dans des fusions. Il y a eu, heureusement, quelques garde-fous pour éviter les monopoles. La société IBM, dans les temps anciens, comme Microsoft, plus récemment, se sont vues attaquées en justice par la cour des États-Unis, en premier, par la Communauté Européenne, en second, toujours pour violation de monopole. Affaire souvent ajournée, condamnations souvent réduites par une armée d'avocats de haut vol. Publicité par ricochet qui montrait sa puissance sur le marché par la hauteur des amendes à débourser, aussi.

Restructurations, les grandes lessives suivirent par la réduction des redondances de postes dans l'entreprise du "manger pour ne pas être mangé". La réduction des coûts était à ce prix quand revenus ne rimaient plus avec bénéfices. Les dirigeants, aussi, suivant la base y ont perdu des plumes et leur âme. Plénipotentiaires, ils ont aussi appuyé sur certains boutons de la console au clavier unique sans même s'en rendre compte, trop obnubilé par la seule résultat financier.

Les auditeurs internes et externes ont toujours existé et faisaient trembler plus d'un manager sur ses bases. Les bons bulletins donnaient de beaux cadeaux en récompense. Alors, il fallait sortir la crème à reluire sans ostentation mais avec le beau sourire de circonstance et des chiffres bien cadenassés et réconciliables. Tout dans le geste, la parole et les chiffres.

Plus rien de familial dans ce monde là. Les poissons rouges et bleus n'ont plus la place ni l'eau avec l'oxygène. Les promesses apaisantes, les "bonnes paroles", vont souvent se perdre dans les dédales des neurones pour rester à flot.

Quand les affaires ralentissaient, les purges commençaient. Pas de sécurité d'emploi même pour le job de "purgeur" d'ailleurs. Mais, pour ce dernier, tout était programmé d'avance. Les actionnaires ont signé le blanc seing et le job de remplacement, une fois la tâche accomplie. Est-ce encore l'histoire de l'informatique que je vous serine, d'ailleurs? Non, nous touchons à l'histoire générale et la morosité ambiante n'en est que le reflet après la crise qui se creusait dans des secteurs dit "de père de famille". Diminuer les coûts pour faire encore plus de bénéfice.

La mondialisation surprenait par son intégrisme à vouloir avaler sa propre queue chez les employés. Le doping n'avait pas une seule voie dans ce sport. Comme dans cette activité, il n'y a rien que les plus forts, les mieux chargés en adrénaline qui passeront à l'étape suivante.

Mais comment fonctionne tout cela? Comment maintenaient-ils encore la tête hors de l'eau, ces nageurs fous ou ces poissons torpilles ?

Simple, il y a les slogans qui évoluent au gré des fantaisies de la publicité. Ceux-ci prennent même une apparence fluo. Tout est dans la bonne image que l'on donne en surface. On vient voir le capot de la voiture, pas le moteur qui est en dessous. Mais on remarque néanmoins que l'image, la marque, la réputation partage une même contrainte, le prix pour la créer et une même constatation, la facilité pour être détruite. Une simple erreur de relation entre la cause et l'effet ou mal comprise peut casser tout le travail. Tout est dans la confiance et la stratégie. La fonction d'Unisys résidait précisément dans cette recherche pour elle-même et vendait ce concept par la technologie. La fierté, le "proud to be" était le moteur de base que l'on recentrait dans des programmes et des campagnes de publicité et bien moins comprises en interne. Plus croustillantes ou innocentes les unes que les autres, ces slogans fédérateurs. Slogans leitmotive ou symboles en perte de vitesse?

"The power of two" était là pour consolider la fusion et pour l'extrapoler.

"Total quality", cercle de qualité à la japonaise. Les gourous en management se livrent à des exercices périlleux quand ils sont acculés à inventer. Souvent traduits en sigles, ces slogans dont on ne oubliait même plus le sens à la base. On parlait, par exemple, de HPC, de "High Compentency Center" pour combler une incompréhension sur les moyens.

"We eat that stuff", là c'était une belle nouvelle mais à déguster avec délectation ou avec précautions.

"We have a head for eBusiness", c'est à espérer qu'on en ait une autre pour autre chose, tout de même.

"Imagine it done", si on commence à dire que c'est fait avant de commencer, on est sauvé.

"Expertise, Secure Business Operation, Agility", toutes les mamelles de la prospérité et de l'utopie.

La pensée systémique est en marche avec le productivisme. La crise, mal contenue dans la trop grande confiance en soi, avait pourtant plané. Tout est une question de doigté et de respect envers tous les acteurs. Dans la précipitation, certaines parties de l'ensemble se sont désintéressées de la grandeur espérée. Le trépied « clients – employés – réputation » se perdait progressivement. Sa représentation à épingler sur la poitrine se rangeait discrètement dans les tiroirs.

La société informatique a persisté et signé contre vent et marée. Comme on aurait pu le croire, elle a résisté à coup de milliards pour faire comprendre le bien fondé des décisions et n'est pas totalement tombée dans la "Grande Trappe". Etait-ce avec des armes dont elle avait le secret? Pas du tout ! De la persuasion pure. Que d'erreurs de parcours à déplorer quand la persuasion n'est pas suivie d'effets !

Le bon vieux film "Le bon, la brute et le truand" me revient toujours à l'esprit dans ces cas-là. Il a fait beaucoup d'émules. Les GM se sont succédés aux USA et se sont ressemblés dans les tâches précises à accomplir vaille que vaille. Encore une fois, peu importait les noms et les personnalités qu'on leur collait. Ils ont été là pour répondre aux besoins des actionnaires majoritaires. Ils ne se sont pas oubliés dans le jeu de chaises sautillantes. Même si les choses n'ont pas atteint les goals escomptés, les augmentations n'ont pas manqué. Au sommet de la pyramide, ce furent pourtant $4,8 million pour 2007 de rémunération, d'émoluments, 51% de plus qu'en 2006, sous forme de salaire $959.297 et $3,7 million en stock options transformables en actions si les buts étaient atteints. Pourtant en 2007, le rapport comptable établissait une perte de $79,1 millions. Il y a ce que j'appellerais, les "transitionneurs" avec un drapeau de starter destiné à  la construction d'une fusion. Des "brutes" qui avaient à mélanger ou malaxer les deux situations entre origines et cultures. Un "bon", un chevaliers blancs, qui venait d'ailleurs, qui redressera la barre dans l'acquiescement général dans un espace temps précis et conjoncturel pour donner confiance au marché et faire remonter l'action jusqu'à près de 50$, mais qui, reviendra au point de départ, acculé par l'obligation de remettre le couvert dans les resserrements de visses avant de s'en aller. Ensuite, car il faut une continuation, un poulain désigné reprenait le flambeau moins inquiété par le qu'en dira-t-on. Le Truand, le redresseur de torts ? Question personnelle. Il laissait la place en septembre. Jusqu'à ce qu' un nouveau arrive. Un Zorro de l'informatique? Un financier.

Zorro est chargé de tracer un "Z" sur tout ce qui tombe en dehors des revenus. Les coûts administratifs ne sont les plus dans ses plans. Il faut éliminer. Le nettoyage de printemps 2010 à faire par l'intermédiaire d'une procédure TUPE (ou Convention 32Bis) est entreprise dans toutes les subsidiaires. Le gestion de l''IT sera transférée en Inde au niveau mondial.

Exclusion, charisme et nettoyage étaient devenues le trio de la gloire d'une gestion moderne.

Ces comparaisons entre le travail humain et celui réalisé automatiquement, entre le dépôt de l'information de manière scripturale et la capacité de contenance réalisée par la mémoire des disques durs, apportaient une idée plus précise de l'évolution de l'informatique dans la complexité. Il s'agissait d'une réelle évolution insidieuse qui secoue encore aujourd'hui les acteurs à tous niveaux: fournisseurs et utilisateurs.

2008 a été à la croisée des chemins. Deux candidats "généraux en chef" à la présidence des États-Unis en plus. La finance capitaliste, seule, a cette fois, du plomb dans l'aile. C'est devenu plus que clair: quelques choses n'allait plus.

Ce qui tourne autour de l'informatique, continue à faire tourner les têtes des informaticiens en mal de modernisme mais qui leur donne aussi le tournis quand il s'agit de mettre à niveau les logiciels utilisés chaque jour. Une entreprise depuis longtemps ne peut plus se permettre d'ignorer l'informatique. Un informaticien se doit d'être pointu dans la version x.005 d'un logiciel. Les investissements seraient bloqués si l'économie attendait trop de temps pour la remontée. La montagne russe des cours de Bourse arrêtée par l'explosion de la bulle informatique du début de ce siècle et la descente aux enfers de ces deux dernières années, n'ont été qu'un avertissement d'une crise généralisée.

Oh, temps suspend ton vol... Beaucoup trop de "cadavres" d'informaticiens dans les placards. Pour ceux-ci, même s'ils se sentaient protégés par une idée de puissance et de connaissance très futuristes, n'ont pas évité la catastrophe. Ils en sortent encore progressivement aujourd'hui à cause d'une pression extérieure ou intérieure qui reprend péniblement.

Et si on changeait l'image, une nouvelle fois? Si, on la transformait en relief?

La Grande Gaufre (09)

Tableau 9: Les arbres ne montent pas jusqu'au ciel, les vagues non plus.

« Si quelqu'un vide sa bourse dans son cerveau, personne ne pourra la lui dérober », Benjamin Franklin 

0.jpgLa bulle informatique pointait son nez dès 1995. Spéculative, elle éclata vraiment dès mars 2000 suivant l'augmentation des taux d'intérêts. Licenciements et départs volontaires, préretraites ont créé une perte de 500.000 emplois dans les TIC. Des stratèges souvent dans le champ des financiers, voyant la chute qui s'en suivi, se sont réunis et ont ébauché des stratégies pour "réveiller" le client.

Bizarre, vous avez lu une "stratégie par l'image" dans le tableau précédent, comme c'est étrange...

Passons au détail des opérations de cette stratégie, que l'on peut extraire des informations transmises aux employés, mais avec un peu de recul et de style "Grande Gaufre" pour conclusion.

En 2003, un vaste programme se met en chantier et présente des phrases à grande valeur ajoutée selon l'esprit de l'autre côté de l'Atlantique.

  • "To grow profitable revenue, we must help clients achieve their goals despite volatile economic and geopolitial conditions".

  • "Anticipate by innovative approaches and rapidly translate them into flexible solutions at the same time, decreasing the employee's fear of change and increase people's buy-in".

  • "Stronger and more efficient than the mere sum of its parts".

  • "Business first, before technology and technology before business sake" [1]

Il était dit qu'il fallait que la société garde l’objectif de ce qui fait vendre et qu'ainsi, les employés en perdrait la peur et en verrait le retour sur investissement. Vendre le plus possible, avec un oeil sur le mois de décembre, le mois des bonus. Le chemin de la solution devait se focaliser vers l’extérieur, vers le client. Dans un discours, un rapprochement avec la voiture Ford avait été présenté dans l'idée d'oublier l'intérieur de la voiture pour n'en faire ressortir que la beauté de la carrosserie. La structure interne se plierait, selon cette vision, à l'apparence. La qualité et le professionnalisme des employés pour soutien. La sécurité du produit, l'approche par l’innovation, la responsabilité de la force de vente pour obtenir le retour sur investissement. La solution était là. L'Eden devaient suivre d'office.

Beaucoup d’équipes, de « Task Forces », ont été créées dans ce but pour resserrer les boulons et regagner les bénéfices par la réduction des superflus. "Smart". On parlait même, pour assurer le bienfondé de la théorie, de revenus immédiats. On le constaterait même en fin de programme. « Trop beau pour être vrai, ce « goal ». Restructurer, il en restera toujours quelque chose.

Pour appuyer et justifier l'idéologie projetée, une "recherche scientifique" venait même à la rescousse à la théorie. Un examen des raisons des réactions différentes des gens dans une foule vis-à-vis de la situation d'un vieux monsieur, sale, étendu sur le sol. Celui-ci, en fonction de l'analyse, n'aurait pas les mêmes chances d'être secouru qu'un autre homme, échoué sur le sol, moins âgé, mieux habillé avec une mallette à ses côtés.  Conclusions pour le moins assez cyniques qui justifieraient tout. Assistance des autres, sur mesure, en fonction de l'image seule que l'on s'en fait. La réduction du risque comme parapluie à son action. Le lien entre la rue et les affaires est évident. Tout est apparence et réputation.

Car, en même temps, le monde changeait et se transformait dans une économie volatile, bien moins prête à investir. Les beaux projets ne pouvaient survivre que s'ils montaient une claire et immédiate valeur ajoutée avec la méthode Coué en porte bagages. En se surpassant et en se dépassant par l’imagination de ses troupes, les clients devaient apporter de nouvelles opportunités et ainsi se réconcilier avec l’environnement des affaires, des besoins et des objectifs. Des relations basées sur la  seule confiance. En d’autres mots, faites semblant en espérant que rien ne se remarquerait et foncer. Vue optimiste et à très court terme au vu de ce qui s'est passé par la suite. Convaincre l’extérieur était, en définitive, plus facile qu’achever le même boulot par l’intérieur. De l’intérieur, avait-on une vue à 360°, à 180°, à 90°, ou moins, encore ?

Si, au paravent, il existait un certain paternalisme, période pendant laquelle, chacun s’adressait par son nom, ensuite, informatiquement, par son numéro de matricule dans les fichiers, il fallait aller, cette fois, encore plus loin. Un homme ne  devait plus correspondre plus à une entité, il représentait à lui seul, plusieurs qualifications, par ses « skills » qui devaient se créer et s'utiliser aussi vite après sa formation. Démultiplier les effectifs par un multiplicateur indéfini et extensible à souhait. Dans ce processus, la Recherche d’Opportunités dans les Ressources Humaines et les modèles de centralisation de compétences dépassaient au besoin les frontières. Prendre les ressources là où elles résidaient. Sous cet angle de la mondialisation, tout semblait beau dans le meilleur des mondes possibles. Le chapeau aux « skills » permettait de capter les compétences là où elles résidaient avec le maximum de brio. Personne ne connaissait à priori qui serait à bord, quel en serait les têtes, leur niveau, mais cela avait été programmé pour effectuer le service demandé et on chercherait le "qui" dans des bases de données centralisées.

Les pions du jeu d'échec n'arrivaient plus souvent à la case finale pour être changé en une pièce plus forte au choix.

« La richesse vient de la diversité », qui n'a pas encore entendu cela dans d’autres circonstances. Il était, tout de suite, accompagné de la mention « A condition que cela augmente l’efficacité, la profitabilité et la satisfaction du client ». Quoi de plus naturel dans un marché de globalisation de penser cela. Cela ne garantissait pas que les idéaux se devaient d'aller dans le même sens. Humaniser les services, devenir un partenaire de choix devenait le cauchemar d'une direction "responsable". L’eBusiness allait-il résoudre le problème de l'humanisation comme un outil pouvait le résoudre les problèmes humains ? La plupart des acteurs de l’époque ne sont plus à bord pour confirmer ou infirmer. N’était-ce pas une conclusion assez drastique et contradictoire ?

En 2004, s’atteler à l'étape naturelle suivante: la communication. Des spécialistes de la communication furent nommés. Les Conventions de début d'année se suivaient et se ressemblaient dans des discours qui ne changeaient aucun iota à la stratégie. On remarquait qu’au cours de ces événements, on apprenait, enfin, à connaître ses collègues en dehors du cercle où il aurait dû, normalement, se produire: le bureau. Bizarre, vous avez dit bizarre.

  • "Blueprint methodology to map the existing portential and resources to describe the workings and interdependencies of organizations processes". [2]

"Blueprint" va devoir régler toutes les affaires d'un client à tous les étages de son business. Avoir une vision stratégique en 3D de la vie d’une application dans toutes ses dépendances et ses processus. Divisé en quatre phases, en quatre couches :

  • étude de l’organisation

  • des processus du business

  • de l’applicatif

  • de l’infrastructure en ressources humaines

Phases qui devaient pouvoir régler toutes les situations et être reproduites à souhait chez tous les clients. Le rêve. Appel du pied vers la clientèle plutôt que vers les employés. Ce qui a été oublié, c’est que le business est très dépendant du type et de la confrontation du terrain. Mais, les forces étaient en présence, sous-jacentes. Du moins, le croyait-on. Si certaines expériences étaient mises à contribution, elles n'étaient pas pléthore. Se créer une expérience dans tous un domaine d'expertise demande quelques mois, voire quelques années. Connaître le business des autres était autre chose que de se servir de la technique d’un outil "miracle". Question coût, l’Outsourcing devenait le cheval de bataille. On faisait tout « clé sur porte » mais pour les autres et par les autres. Ce qui s’appelait dans le passé « body shop » devenait « outsourcing ». Celui-ci avait déjà fait tremblé d'émotions les employés américains avec des effets résultants qui allaient dans les deux sens. Faire les choses au meilleur prix en "bon père de famille" pour les actionnaires, était le message de base de la rentabilité.

Alors, voyons comment le plan s'est réalisé dans les faits. Aucun chiffre en provenance des entreprises "consommatrices" des travaux externalisés ne permettaient vraiment de tirer des conclusions dans le long terme. Il fallait y passer pour ne pas dénoter vis-à-vis de la concurrence et se voir pointé du doigt comme mauvais gestionnaire par les actionnaires. Tout n'était pourtant pas aussi rose. L'externalisation a créé un vent de panique et de mécontentement parmi les "chanceux" resté à bord dans la tempête après les purges. Pour le prix de dix anciens, on avait désormais cent nouveaux près à l'emploi. Le malheur, c'est que les nouveaux avaient dans ce milieu des "officiers" qui donnaient la répartition des tâches aux autres. Ces "grosses têtes", sollicitées de partout, comme point de contact, crevaient progressivement dans la tâche à la recherche de la 25ème heure du jour, dans un station toujours en porte à faux. Vieux système à castes qui oubliait au passage les initiatives. Et puis, chez les plus compétents, quand on s'épuisait après avoir pompé l'info, la tendance de les utiliser pour soi-même ne va pas tarder à se manifester. Bien formés pour la transition, certains se sont détournés des tâches pour s'envoler vers d'autres cieux plus personnels dès qu'ils considéraient en savoir assez. Retour à la case départ pour les résidents d'antan qui s'étaient épuiser à passer le flambeau. Faire et refaire, n'est-ce pas aussi travailler !

0.jpgMais, on apporte des exemples par les succès et on tient les échecs sous le manteau. Méthode Coué, encore une fois. On devait gagner d’ailleurs en fin d’année et minimiser les effets de la déception. C'était écrit sur facture. Chacun devait se fondre dans une hiérarchie tout aussi volatile pour survivre et cela à tous les étages. Plus pyramidale encastrée, que pyramidale réelle, cette hiérarchie avec des satellites qui empêchaient les passerelles d'une voie sur l'autre. Perdre une tête signifiait parfois de perdre « la tête », tout court. Qui prouverait, au manager, la récupération de la personne qu'il déléguait par la suite? Trouver, très vite, une nouvelle voie à gauche ou à droite pour ceux arrivaient en bout de contrat pour garder une estime de ses supérieurs.

Le gaufrier commençait diablement à chauffer, en calant sa plaque du dessous, celle de la cascade des chefs, resserrée sur celle d'en haut, celle des actionnaires avec des chefs qui ne savaient plus vraiment comment en sortir la véritable gaufre. La croûte dorée s'amincissait et disparaissait laissant s'écouler la bonne pâte et en gardant les parties les plus endurcies sous une couche de protection. L'étau se resserrait jusqu'aux vacances espérées avec un "ouf" de soulagement mais une motivation au plus bas.

Comment faire autrement quand tout va dans le même sens, tout azimut, en parallèle, avec des bonnes nouvelles qui n'arrivent que par pincées de sel. Les manipulateurs du gaufrier ont des raisons que la raison ignore ou n'est pas partagée comme un vice de forme.0.jpg

"Mais parlons d'autre chose", comme chantait Jacques Brel dans une de ses chanson.

Du cours de l'action par exemple.

"Quand la mer monte...", chantait-on dans une autre très vieille chanson.

 

 

[1] Pour augmenter les revenus, nous devons aider les clients dans leurs buts en dépits des conditions volatiles et géopolitiques. Anticiper par l'approche de l'innovation et le traduire rapidement dans des solutions flexibles dans le même temps, en diminuant la peur du changement des employés et augmentant les rentrées. Plus fort et efficient que la simple somme de ses parties. Les affaires d'abord avant la technologie et la technologie avant le bien des affaires.

[2] La méthodologie Blueprint pour fusionner avec les potentiels et ressources existants pour décrire les travaux et les dépendances entre les processus des organisations.

23/10/2008

La Grande Gaufre (10)

Tableau 10: Changez, fusionnez et vous serez considéré...

« L'effet de théâtre est de deux sortes : fusion des acteurs et fusion des spectateurs. La mise en scène peut opérer les deux. », Karl Kraus

0.jpgBeaucoup d'intermèdes heureux ou malheureux jalonnent l'histoire d'une société non familiale, internationalisée et multinationale. La compétition pousse à écarter la concurrence de ses propres objectifs.

« Business as usual ». Les affaires qui font réussir, la compétition motive un ensemble que l'on sait hétéroclite par essence. Placer ses pions aux meilleurs endroits avec le rapport prix performance comme régime minceur dans un jeu d'échec qui peut dériver vers le « casse pipe ».

Beaucoup de financiers à la barre. Peu de véritables informaticiens et techniciens dans l'âme pour donner des contrevérités.

Retournons un peu plus en arrière dans le temps pour retrouver des situations typiques.

Devant la puissance d'IBM et l'énorme "gap" entre le premier et le deuxième producteur d'informatique, la fusion de ces deux géants aux pieds d'argile que furent successivement « Univac », devenu « Sperry Corporation », d'un côté et Burroughs, de l'autre, pouvaient sembler intéressant et productifs de grands résultats et de convergences. De convergences, il y en a eu, des vraies et des fausses. Les vraies se retrouvaient dans les types de machines qui, par leur potentiel Mips, se concurrençaient et donnaient des effets pervers dans leur rapprochement. Les fausses notes résidaient dans les arcanes les plus secrètes de la technicité informatique.

Si les capots ressemblaient, à l'intérieur, le moteur et les langages, pour le faire obéir, étaient parfaitement incompatibles au départ. Séparé, la déstandardisation est le sel de la fidélisation de la clientèle mais s'avère très problématique après un temps de fusion. Les logiciels "stars" des deux bords après fusion pour construire Unisys ne parvenaient pas à se parler, trop dissemblables de philosophie. Le client, lui, ne pouvait manifestement virer de catégorie de machine ex-celui-ci vers le ex-celui-là. Les efforts se sont greffés sur des simulateurs ou des émulateurs. Entre temps, il fallait s'atteler avec les expériences de tous bords à faire des ponts entre les softwares. Les langages de 4ème génération fleurissaient dans les deux jardins en challengers dans l'arène des années précédentes. Mapper à gauche, Linc à droite. Quatrième génération prise dans la distance. Pour rester efficace, l'un d'entre eux devait être émulé ou disparaître définitivement. Les bases installées chez les clients de chacun empêchaient de choisir la dernière solution. Mais, à cœur vaillant, on y arrive. On maintient et on modernise même l'outil de l'union.

Du côté "personnel", aujourd'hui, une fusion, suivie d'une restructuration, se serait faite avec encore plus de "dégâts humains" pour éliminer les redondances.

Le rabotage a eu lieu mais n'a pas été un réel écrémage circonstancié comme le déclarait ceux qui étaient restés, à bord. "On ne fait d'omelettes sans casser d'œufs". Cela a, néanmoins, constitué un dégraissage qui, à partir de 70.000 travailleurs chez Sperry, 50.000 chez Burroughs, arrivaient, néanmoins, à fond de course, aux 37.000 d'Unisys d'aujourd'hui.

Tout aurait dû s'harmoniser en finale. Les machines, oui. Les hommes et les équipes, avec beaucoup plus de résistance. Unisys était dans beaucoup de subsidiaires devenu le géant à deux têtes en désynchronisation manifeste dans l'esprit et dans la localisation l'un par rapport à l'autre. Une certaine prépondérance restait en fonction du passé dans un rapport de force rémanent. L'un plus proche d'une intégration complète devait guidé l'autre vers des structures rationalisées et plus concentriques.

Le terrain avait été préparé. On s'activait déjà avant la fusion mais pas encore avec le bon outil de la décision concertée. L'huile pour graisser les rouages entre eux y était pourtant en définitive. The "Power of two" défendu comme enseigne de volonté de succès à la clientèle, se traduisait à l'étage inférieur interne par un "forcing" d'"One Unisys" de surface.

Vingt ans après, les discours des dirigeants lors des déclarations de stratégie de début d'année, ne semblent toujours pas être convaincu que la réalisation de leurs vœux d'unification et d'intégration faisait partie du passé. Le "Go to market" n'a fait qu'un tout et puis s'en vont. Un GM, manifestement le bon de la bande, arrivé en fin de carrière et avide de challenges, pensait qu'il avait encore de "beaux restes" utilisables pour redresser la barre d'une entreprise telle que Unisys.

Les moments difficiles étaient bien inscrits dans les cours de l'action qui s'était retrouvée au même niveau de bas prix que le papier qui le cautionnait (2$). Sa vision a été étrangement clairvoyante. Après sa "Joyeuse entrée", sa visite dans toutes les subsidiaires, il avait laissé une bonne impression et des traces très profitables. L'esprit manifestement nouveau qu'il voulait imprimer est passé en fil rouge. Transformer la société en société de services plus ou moins « clé sur porte ». Son trépied "magique", plein de bonnes volontés, à agrafer sur le revers, s'était retrouvé pendant un temps sur les vestons. S'acoquiner avec des grands en place comme Microsoft dans des alliances parfois contre nature, comme Oracle pour le traitement interne fut son chant de gloire dans un évolutionnisme verticale plutôt qu'horizontale. Mais, les coûts d'exploitation n'étaient pas sensibles à cette évolution et continuaient à grimper.

La pâte de la gaufre, très vite, est montée. Le vent nouveau ne semblait pas seulement du vent. Le charisme qu'il manifestait de manière interne et externe jouait à plein à Wall Street. L'action montait, montait pour atteindre un sommet inégalé de près de 50$ l'action. Beaucoup d'actionnaires avaient fixé, de manière arbitraire, ce seuil pour réaliser leurs bénéfices. Ce seuil n'a jamais été atteint pour des causes extérieures et diverses. Personne, à l'époque, n'avait vu le vent changer en se refroidissant.

Ce fut le changement complet de stratégie dans la hardiesse de la nouveauté qui prévalait. Comme les belles grosses machines à penser avaient perdu la cote des clients, il fallait décidément trouver autre chose. Changer de business et se lancer dans le service en véritable "marchand de solutions".

Le PC, toujours dans la liste des prix, partait, aussi, en dérapage non contrôlé. Une infrastructure trop lourde par rapport à une concurrence légère des monteurs de PC avec pièces détachées, fut le chant du cygne de cette merveille de la technologie du futur en pleine expansion auprès d'Unisys. Celle-ci a été rejointe par IBM qui revendait, un peu plus tard, cette exploitation à Lenovo. Les vitesses des processeurs de ces micro-minis avaient une trop grande tendance à l'obsolescence pour être maintenue dans les profits. Exit, le PC, donc.

Moins clair, le hardware des gros « mainframe » n’avait plus la cote, mais ces monstres restaient toujours rentables pour assurer les nouveaux projets futuristes. Ces grosses machines n'avaient plus l'odeur de sainteté et la politique les poussait vers une sortie moins glorieuse. La levure "miraculeuse" devait trouver désormais sa source ailleurs. Saper ou traire les "vaches à lait" sans seau pour récolter des effets négatifs, ce n'était plus s'assurer, malheureusement, un long terme du "long fleuve tranquille", chanté par les auteurs de romances et garder un cap avec graphique en ascension. Les contrats de maintenances et les licences softwares, le bon "lait crémeux", tournaient encore chez certains et pas chez d'autres même si les investissements dans ces domaines avaient été déviés. Oublier le passé, au plus vite, sans y avoir péché les meilleurs points de soutiens et d'ancrages avec la partie bien tangible du business risquait, cependant, à plus ou moins long terme de tarir les idées.

Alors, surprise sur prise: fin 1999, l'action a eu un premier coup de froid. Les 49 dollars s'effondraient. Choc psychologique et financier. Les anciennes sources de revenus, étant mises en veilleuse et les nouvelles, pas encore complètement sorties des fonds baptismaux, au grand désarrois du haut et du bas de l'échelle, explique une véritable douche écossaise qui s'en suivit. La barre supérieure de 50$ quittait, de manière définitive, les cimes à l'air raréfiée. La descente aux enfers a été tour à tour soutenue d'abord par la toujours montante conjoncture "pré-crash" de l'année 2000, mais sans suivre les "copains du business" du NASDAC dans leurs redressements intermédiaires. Désillusion dont on a recherché l'erreur dans la précipitation. La barre inférieure des 10$ a été très vite atteinte. Des soubresauts furent de la partie en véritable outil de spéculation. La volatilité rendait l'action intéressante pour le fin spéculateur, mais pas pour le bon père de famille. Les « ratings » boursiers indiquaient d'ailleurs cet état. Reculs pour mieux plonger de plus belle par après? Ce n'était pas encore le plancher pour la vache mais cela sentait diablement les pâquerettes.

Le moment de la limite d'âge de cet "artiste réparateur" avait approché, trop vite. Au moment de raccrocher ses desiderata au vestiaire, il quittait la société avec une action qui était retournée au point où elle était à son arrivée. Son poulain avait été formé. Bras droit d'une nouvelle transition ou réel volonté de maintenir le cap?

Histoire pour rien? Pas du tout. Dans l'ombre, la bonne parole était toujours là.

Toute entreprise humaine est jonchée de ce genre de trous, de nids de poule. Avait-il eu raison trop tôt de faire la transformation? Pas vraiment. Seulement, un manque d'assurance de ses arrières. Les pionniers ont pris le pli du risque. Il ne s'agissait peut-être plus d'une évolution, mais d'une réelle révolution qui mutait d'un marché du hardware vers celui du service. Le grand frère IBM avait également changé son fusil d'épaule mais avec un cashflow plus important. Réduire les effectifs en personnel, plutôt qu'augmenter les revenus. Des pans entiers, encore très rentables, mais qui faisaient partie de l'"old style", disparurent. Le personnel ne comprenait plus.

Les mémoires virtuelles sur une fenêtre de 40 ans d'informatique, décrites dans "La Grande Trappe", ont évidemment une suite avec une déviation en vitesse des ordinateurs, d'abord exponentielle et suivit d'une dégression arithmétique pour les bénéfices des sociétés qui les produisent. C'est aussi écrit dans toutes les activités humaines.

0.jpgUne parfaite connaissance de la finance a laissé souvent l'aspect fonctionnel et technique en arrière plan. Les hommes ne sont pas des machines et ceci explique peut-être cela.

Toujours pas de PPCM humain, comme cela a été réalisé avec l'"ordi", le PC que l'on connaît aujourd'hui. Lui est tombé dans les abîmes des prix et continue sur les chemins glissants. Mais, on engage toujours. Diplômés et jeunesses se retrouvent dans les préférés. Prix à discuter fermement.

Le cinquantenaire de la société Unisys fusionné n'a pas été fêté comme il se le devait en 2007. Mais, avait-on vraiment quelque chose à fêter?

2007 et 2008, voici la crise, la vraie. Avec la déprime générale, qu'en sera-t-il? On attend le printemps.

Une phrase célèbre me revient à l'esprit.

"Si l'automobile avait suivi la même évolution que l'informatique, on roulerait aujourd'hui à grande vitesse avec quelques gouttes de carburant", n'était pas seulement une expiration éhontée et vaniteuse de la firme Microsoft vis-à-vis des constructeurs de voitures. La réplique de bonne guerre, connue des constructeurs a évidemment renvoyé la réponse de la bergère en accusant leur accusateur d'introduire des erreurs de programmation dans leurs logiciels.

On en rie encore dans les chaumières.

22/10/2008

La Grande Gaufre (11)

Tableau 11: Passé, on ne t'oubliera jamais...

"Les raisons d'agir sont comme les rouages d'une machine. Plus il y en a, plus la machine est fragile.", Gotthold Ephraim Lessing

0.jpgExit ou à l'ombre, les monstres aux yeux qui clignotaient en arbres de Noël! Le PC se retrouve désormais sur tous les bureaux de la terre. En 2011, il fête ses trente ans, bien rempli de rebondissements et de stratégies en laissant des traces profondes en transformations diverses. Il se voit progressivement détronné par les tablettes. Le PC devient tabloïde.

En 1981, le premier PC IBM était, physiquement, bien grand, bien laid, avec un clavier étriqué et un écran tout rikiki. Pas d'ergonomie. Pas question de le déplacer sous le bras ou de le placer dans son salon pour son côté esthétique. En parallèle, le Mackintosh s'était taillé une place au soleil du design plus en accord avec un transport de place en place. Pas vraiment le modèle de poche, non plus, que nous connaissons aujourd'hui. Il était plus "top", plus en avance sur son temps, c'est vrai, mais la comparaison commence ailleurs. Des fanatiques naissaient parmi deux courants différents d'utilisateurs. Véritable schisme entre l'Apple, en général plus "fini" et le PC perdu dans des compatibles de tous bords. Apple se rapproche du PC en 2005, en adoptant le microprocesseur d'Intel et rentre dans les rangs. Ennemis au départ, lors d'une passage à vide de la société Apple, Microsoft a procédé à un échange d'actions avec elle pour garder une concurrence contrôlée à sa mesure.

Umberto Eco dans son livre "Comment voyager avec un saumon", parlait même d'une guerre de religion à l'époque. "Le Mac, catholique, contre réformateur jésuite, convivial, amical, conciliant... et le Dos, protestant ou calviniste avec libre interprétation des Écritures, requière des décisions tourmentées, impose une herméneutique subtile, garantit que le salut n'est pas à la portée de tous. Vision amusante avec le temps et les péripéties qui ont suivi dans l'histoire des deux.

Dans les sociétés, pendant ces années glorieuses en pleine ascension, les applications de gestion, "clé sur porte", avaient fleuri et les projets de développement prenaient quelques mois, voire quelques années. En finale, manque de pérennités des projets, des échecs se produisaient. Entre la définition des projets et l'implémentation, les besoins avaient souvent changé. Les programmes démontrés aux utilisateurs avec enthousiasme, laissaient un goût amer aux financiers qui allaient, parfois, devoir tenter d'utiliser des bébés mort-nés. Mais on voulait que cette époque fasse partie résolument du passé.

Les fonctionnalités qu'un département financier, comptable ne changeaient pas en gros. Une comptabilité reste une comptabilité. Vérité que l'on voulait tout de même remettre sur la table à de nombreuses reprises. Ce qui changeait c'était les langages, les outils de programmation, les "verres de contact" qui allaient permettre de sortir rapports et statistiques de gestion. Extrapoler le passé vers le futur, sans boule de cristal, voilà la préoccupation du moment quand les choses se ternissent.

Pas d'amateurisme du tout à déplorer, pourtant. Les informaticiens avaient une formation en informatique pure et dure et devaient suivre des cahiers des charges en perpétuels mouvements avec des outils qui, eux aussi, évoluaient de version en version. Toutes ces transformations successives se payaient cash avec du rêve en arrière goût.

Les choses n'allaient pas en rester là. L'informatique chère avait vécu dès le changement de siècle.

Les sociétés multinationales devaient s'accommoder des mêmes informations à l'étage du pays d'où provenaient les données comptables. Ensuite, et très vite, quand on sait que les résultats sont à donner par trimestre à Wall Street, il fallait les consolider.

Mais, après l'idée de consolider les données, celle de faire la même opération avec les programmes devenait la préoccupation d'équipes qui ont commencé à bourlinguer de pays en pays. Trouver le nec plus ultra, la crème de l'imagination parmi ces programmes aux fonctionnalités multiples ou complémentaires. Ces équipes étaient revenus avec leurs rapports sous le bras et puis, des décideurs avaient compris ce qu'ils pouvaient en comprendre pour opter pour une solution commune. Des équipes s'étaient mises en places pour implémenter les nouvelles règles. Le travail terminé, ce fut le retour aux expéditeurs ou faux quémandeurs et la désillusions, préludes à boucle sans fins.

Dans la même opération, faire oublier, aussi, aux professionnels du développement, l'invention qui mène à tout à partir de rien.

L'opération était probablement plus délicate que prévu. Chaque pays avait sa manière de traiter ses données au mieux. Les inventions locales avaient à passer de la machine à vapeur à la Ferrari parfaitement inconciliable car trop lourde à maintenir et à comprendre.

Le but final était pourtant louable et les budgets alloués dans l'opération illimités, justifiés.

Après l'étape "logiciel", l'étape plus reliée à la force du travail, elle-même, venait naturellement à l'idée des têtes pensantes pour diminuer les coûts des opérations internes par définitions non rentables ou plutôt considérées comme "mal nécessaire".

Le hardware se miniaturisait, le software se qualifiait, le personnel informaticien déchantait, les utilisateurs râlaient. Beaucoup de désillusion au retour de cette rationalisation. Voilà ce qui s'est passé dans les services internes informatiques. Les softwares se sont adaptés en permanence. Ils ont changé de producteurs, de rationalités et de buts finaux. Pourtant, certains n'ont pas disparu. Le Cobol, le 18 septembre 2009, fête son cinquantenaire. Considéré comme anachronique, comme relique, ce langage est loin d'être mort. Les versions ont permis de faire ressortir les "dynosaures" mis à la retraite prématurée. Le langage de Grace Hopper bugge toujours entre son "IDENTIFICATION DIVISION." et le "STOP RUN." quand le fameux "." n'est pas à la bonne place. Mais compilé, il garde une longueur d'avance sur les langages interprétés qui découvrent les erreurs à l'exécution éventuelle de toutes les instructions.

Les secteurs, public et privé, eux, s'embarquèrent tous deux dans les mêmes obligations d'utilisation de l'informatique pour rationaliser leurs potentiels humains, et, souvent, ils firent appel à des sociétés qui devaient apporter des solutions. L'approche de ces sociétés était différente. Les espoirs ont été très grands d'apporter une amélioration drastique dans la gestion des secteurs publiques qui étaient les moins biens outillées malgré l'importance de la tâche. Et puis ils se sont taris parfois en pleine course du développement par la politique elle-même. Des échecs retentissants crevèrent la bulle de l'espoir. L'informatique faisait toujours peur et n'était pas voulue fondamentalement par les membres des clients, perdus dans d'autres préoccupations plus personnels de la conservation de l'emploi et des habitudes. Des drames se sont succédés. Des désillusions du plus mauvais aloi qui oublient de garder les idées d'une informatique généreuse. La politique a ses raisons que la raison reconnaît un peu moins.

Était-ce le taylorisme appliqué à l'informatique?

Il n'y a jamais eu d'Ordre des Informaticiens comme pour les médecins, les avocats. L'éthique - imposée par les directions – oui, mais pas de Charte des Informaticiens pour protéger cette profession complexifiée à outrance. Les syndicats ne battaient pas la chamade. Peu de syndiqués dans le monde de l'informatique en dehors de période de "grands froids".

Les programmes de restructuration de personnel et de conversion des logiciels pour rationaliser l'ensemble des activités s'imposaient par esprit de "coopération" avec des concurrents plus zélés.

Les recherches des meilleurs outils de gestion internes parmi pléthore de solutions choisies dans le monde, n’ont pourtant pas été une mince affaire. Les heures associées à ce genre de consolidation allaient se placer dans les pertes de fins d'années et en profits espérés pour les années futures.

Certaines fonctionnalités comptables, comme les salaires, ont été externalisées en premier. Les règles de calcul de précompte étant centralisées dans des sociétés extérieures très spécialisées, cela semblait un bon départ. Les barèmes maintenus en centralisés devaient assurer la rentabilité avec une rétribution comptabilisée par personne.

Beaucoup de millions de "francs anciens" de l'époque pour le développement de programmes spécialisés pour les salaires avaient été dépensés en pure perte.  C'était volontairement fini. L'externalisation fut normale et salutaire. Moins de personnel en interne pour s'occuper de ces salaires trop fluctuants dans leurs calculs.

D'autres programmes de développements, de rationalisation, dans le domaine comptable ont subi des balbutiements, des tentatives avortées, des échecs retentissants. Était-ce mal juger l'importance de la tâche? Les opportunités étaient là, mais les esprits étaient déjà ailleurs.

Pour maquiller les pertes colossales qui entouraient ce genre de développement tout azimut, des noms de projets plus attrayants les uns que les autres, proposaient à la direction ces projets avec le plus d'emphases.

Cela sentait pourtant bon la "fleur bleue" ou l'exotisme pour ceux qui s'en rappellent encore. Des noms comme Oasis, Sabre et j'en passe, passaient à l'écran noir de nos nuits blanches. L'exaltation et l'enthousiasme étaient à leur comble, aussi bien au bas et en haut de l'escalier. On allait pouvoir en démontrer de choses sur ses marches. Je ne parle pas d'ascenseur, vu la vitesse de production, pour laquelle, il valait mieux oublier derrière des suites de tergiversations. Les « spaghettis » des instructions voulus par une exposition compliquée des desiderata étaient certainement en partie responsables de cet embrouillamini sans nom et des échecs qui suivirent.

Alors, quoi. Obstruction? Passage sans issue?

Non, bien sûr. Dans un moment de "folie" dépensière maligne, le patron, lui, avait signé des licences de toutes parts pour d'autres bijoux de la technologie fonctionnelle. Pas question, donc, de continuer à "râler" dans le coin des particularités. Il fallait y aller coûte que coûte et perdre son autonomie de choix. Des têtes sont tombées dans la bousculade. Mais la fuite en avant devait se poursuivre.

Des programmes du rayon "tout fait" naissaient comme de petits pains au chocolat. Des maisons de software avaient senti le besoin de rationaliser pour diminuer les coûts pharamineux que l'informatique demandait en développement de toute part. Oracle financial apporta "la" solution de la souplesse. Le concurrent SAP avait une réputation de trop de rigidité. La souplesse d'Oracle pour la "customisation" pouvait redonner espoir aux esprits chagrin du passé. Souple, mais pas léger. Enterprise Resource Planning (ERP) comme Progiciel intégré, associé à une infrastructure éprouvée de SQL permettant d'interroger et de maintenir des bases de données importantes. Rien que du bon, du raisonné.

Rien n'était dit, pourtant. Comme en tout, il a bien fallu que jeunesse se passe. Beaucoup d'erreurs de parcours ne vont pourtant pas manquer dans une mauvaise interprétation des finalités. Nous n'étions qu'au début d'une recherche de ce qui avait été "viable" intellectuellement et financièrement dans un inventaire de fonctions à plusieurs niveaux. Les erreurs de concepts vont se fourvoyer au travers de longs dialogues par écrit avec des services spécialisés d'Oracle et parfois retrouver la case de départ sans solutions immédiates. "Metalink Support" a joué les pilotes de ces conversations dans la durée et l'incompréhension du ping pong. Les interlocuteurs de l'autre bord avaient également pris l'air du large et s'étaient offshorisés.

Tout n'allait pas s'intégrer sans souci. On s'en apercevait progressivement. Les spécificités étaient bien là. Les programmes de ces sociétés providentielles standardisaient (streamline) au maximum, trop... One Unisys, One System, One Process, un rêve ou plutôt un cauchemar? Le problème de "culture" d'entreprise allait devoir être mis au placard au plus vite.

Des efforts du côté des fournisseurs de logiciel ont été consentis de bonnes ou de mauvaises grâces en fonction de l'expérience supplémentaire que pouvait être engrangée dans l'opération de nettoyage, installation-réinstallation dans l'attente de versions ultérieures.

Le plus difficile, peut-être, fut la standardisation de tous les documents et des manières de calcul pour tout ce qui devait être fourni aux différents États de manière officielle. Je veux évidemment parler de la comptabilité des sociétés comme les facturiers de sorties et d'entrées, et des grands livres qui avaient des règles très spécifiques de pays à pays.

Cela n'était pas gagné d'avance. L'abordage garde encore des traces, non converties, de certaines réminiscences de cette époque révolue. En cherchant bien, certaines roues tournent encore, aujourd'hui, avec des programmes non standardisés. Étendons le débat.

Il faut dire que certains pays ont de ces "stupidités" difficilement compréhensibles vu de ce côté de la frontière! L'Italie et le Brésil, par exemple, eurent leurs heures de gloire dans la cogitation numérique confrontée à l'analogique.

Mais, avec le temps, croyez-vous que les choses s'appaisent? Et bien non. Des erreurs monstrueuses se produisent encore. Des bugs qui n'existaient pas dans le release précédent et qui sortent dès le premier test ou plus grave lors de l'exploitation. L'informatique est un service, donc il n'est pas question de renvoyer la mauvaise machine au fournisseur. Il faut attendre qu'il puisse planifier la correction. Aucun syndicat des utilisateurs. Les autres clients ne seront même pas averti du problème. Il leur faudra pomper (pull) l'information d'une base de donnée en trouvant les bons mots clés. Des tares, pardon des TAR, étaient envoyés vers le support, après des recherches dans des bases d'erreur pour s'informer s'il n'y avait pas eu un précédent qui aurait fait "jurisprudence".

Si l'erreur n'existe pas, ce ne sera pas le fournisseur qui inventera le "workaround". Le workaround, le moyen de temporiser, même si parfois, il sera proposé, ne sera que de l'huile à placer dans les engrenages du moulin, jusqu'à un temps imprécis. Les prioritées resteront définies chez le fournisseur. Les vices cachés, cela n'existe que dans les rêves des clients. Les erreurs sont toujours possible. Cette fois, on cale, on ne peut même plus les corriger soi-même. "It's working as designed. Isn't it?".

Quand je parle de frontières, l'idiotie devient tout à fait "parlante" quand le drapeau est, lui, étoilé.

Là-bas, « Y a-t-il plus d'un pays sur Terre qui soit aussi beau, aussi productif et, de ce fait, aussi bien construit à tous niveaux que le nôtre? », pourrait-on comprendre en écho à toutes les discussions qui se sont déroulées dans les fracas ou le recueillement. Une seule langue, une seule monnaie, un seul fast food, une seule boisson, une seule comptabilité tellement plus pragmatique …

Par bonheur, cet esprit de mise en commun, de fusion s'est aussi produit ailleurs. Les États voulaient aussi se solidariser, unir leur destin et standardiser leur relation.

Les fondements de l'Europe étaient déjà depuis longtemps dans les esprits, mais n'avaient pas encore atteint un niveau de participation évolutive. Pour le début de ce siècle, il fallait pousser le bouchon et enfoncer les dernières idées reçues du séparatisme étatique. L'Europe, non seulement pouvait, mais devait "naître". C'était écrit. C'était obligatoire. Le social allait peut-être prendre un grand retard, mais cela n'avait pas l'importance nécessaire pour la "sainte" rationalisation.

0.jpgPour contrer tout cela, l'Euro a été « la » bénédiction pour unifier les pays. En janvier 2001, en grande pompe, on célébrait son avènement, avec un puissant ouf de soulagement. Tout allait être huilé en odeur de sainteté. Plus de conversions internes, les taux en avaient été fixés de commun accord en dernière minute. L'écu cédait la place. Trop vieille dénomination face à cette idée beaucoup trop réductrice de l'Euro et plus proche de l'idée européenne. Les avantages indéniables avaient été avancés: plus de pertes de change à la frontière et pendant les vacances. Mon dieu, que c'est beau de prendre des vacances tous les jours... Son 5ème anniversaire était cependant fêté de manière feutrée. Du côté de la langue commune à utiliser dans "notre grande maison à étages multiples", nous ne sommes toujours pas mieux fixés. Mais dans une société américaine, on ne se pose plus la question. On "cause" résolument "in american" et on compte la contre partie en silence.

Une génération sacrifiée sur l'autel de la finance, pourrait-on en déduire. Car, la conversion, avec computer intégré, sous le front, on continue à parler en dollars. On n'aime pas les centimes. Alors, on arrondit en milliers de dollars. On perd des points d'appuis avec la réalité avec des montants qui deviennent subitement un peu plus petits à comptabiliser, une fois arrondis de la sorte. Un euro égale un dollar? L'euro a été probablement calculé pour s'en rapprocher. Mais, la fluctuation a continué. L'euro n'a peut-être pas été la cause de la hausse des prix, mais il a été son porte drapeau. La propagande a seulement raté son coup pour faire digérer la pilule.

La Commission Européenne est irritée par un tel état d'esprit en avançant un faible niveau de l'inflation et des taux d'intérêts qui pourraient permettre des bienfaits dans les investissements des entreprises et dans la construction. Les appareils électroniques ont baissé singulièrement de prix. C'est un fait. Les pays d'extrême Orient ne sont pas étrangers à cette chute. Ce qui est dommage, c'est que l'on n'achète pas encore ces appareils de la technologie, tous les jours, pour la consommation courante. Ce n'est pas un leurre. Oui, on peut bientôt acheter un "ordi" au prix des sucettes. Les États européens, aussi, veulent participer à cet engouement "internet".

La comparaison des prix entre les pays passés au bleu, avant son apparition, apporte des surprises qui n'auraient pas dû se produire dans un planisme parfait de l'Europe. Dérapage fictif ou sentimental? Ce ne peut être que cela puisque de plus en plus de pays quittent le giron du dollar pour se réfugier dans l'euro comme monnaie de référence. Le yoyo n'est pourtant pas fini. Le yuan va entrer dans la dense des monnaies fortes de référence. La crise, aujourd'hui, est mondiale. Le pouvoir d'achat s'en retrouve, surprise sur le fait, laminé en interne et en externe. La planche à billet n'est plus ce qu'elle était: une planche de salut.

Les projets ne se planifient plus comme auparavant sur plusieurs mois ou années. La vitesse supérieure a été enclenchée. Tout devait y concourir. La clé sur porte n'était plus le bijou que l'on se mettait à la boutonnière. Rare, on ne pouvait plus se le payer. L'uniforme comme seul habit. On ne développe plus, on se contente de maintenir la flotte des programmes en dehors de l'eau de l'habitude. Car, rien n'a ralenti du côté des changements. Bien au contraire. Il s'est accentué, mais sans gloire ni trompettes.

Les sociétés se font une concurrence exacerbée pour gagner une apparente avance dans l'exploitation interne, revient à prendre des vues optimistes sur le futur. Alors, le prix du progrès ne se réalise plus nécessairement avec l'augmentation du coût du développement mais s'équilibre plutôt grâce aux dérapages des salaires. Des projets annuels sont choisis sur base de leur « Pay back ». Les bons points seront comptabilisés mais seront-ils productifs en retour dans les mêmes proportions? Rien n'est moins sûr. Heureusement, chaque année, il y a les « awards » en cristal, à la cérémonie des Césars ou des Oscars appelée pour la circonstance "Convention". Les financiers se sont mis à calculer les coûts en développement. Pourtant, on sait d'avance que ce ne sera pas gagné sans une certaine fibre moins "money minded" et plus "human rights". Un épisode que j'avais eu l'occasion d'étendre dans "De SP à DRH".

Les clients et les vendeurs de services sont devenus de terribles marchands avec la soustraction comme outil de gestion des contrats. Ceux-ci ont, souvent, été signés à la limite de l'acceptable. Une compétition, une sous-évaluation, au départ, trouveront leur salut, d'entrée de jeu, sur la base active à l'échelon suivant. Par après, celui-là devra assumer en accentuant sa force de frappe pour garder le cap. Les jeunes s'y sont habitués à cette nouvelle manière de « travailler ». « Une expérience raffraichissante » m'avait permis de m'en assurer.

D'ailleurs, n'est-ce pas voulu qu'un directeur d'informatique CIO ne fasse que rarement partie du conseil d'administration? Serait-ce pour éviter les fuites vers le personnel ?

Le mot "jeu" ne fait-il pas partie des mots figurés?

Non, passé, on ne t'oubliera pas. Le jeu est connu, cette fois. On connaît désormais les cartes à jouer.

 

21/10/2008

La Grande Gaufre (12)

Tableau 12: La rivière ne revient jamais à sa source

« Regardez bien au fond du flacon d'où est sortie la bulle Internet : vous verrez qu'il y reste encore beaucoup de savon ! », Jean-Pierre Raffarin

0.jpgDans l'organisation moderne, on veut des chefs. Des personnes qui vont pouvoir faire progresser les entreprises vers des sommets en écrasant la concurrence. Château de cartes ou tour de Babel, cette organisation ?

Dans l'article "La technicité n'est plus seule", j'essayais de faire comprendre que la technologie a été et restera l'outil de notre modernisme présent et futur. Mais, passer à l'étape suivante, passer au contrôle de cette technique est parfois important et surtout plus gratifiant globalement. Pour cela, il faut non seulement avoir des compétences techniques générales mais aussi pouvoir coacher des hommes avec leurs qualités et leurs défauts. La psychologie et le feeling sont trop souvent galvaudés ou mis en suspension pendant les études scolaires. Devenir manager se construit avec l'expérience, la pratique de l'humain et aussi la compréhension du fonctionnement de son "moi". Prendre de l'altitude n'est pas une mince affaire. Les diplômes ne sont pas la panacée pour se greffer dans le jeu de quilles de la vie et des entreprises. Ils peuvent se révéler à terme comme une peau d'âne. Un autre article "Plus de rameurs SVP" rappelait que se sentir à la bonne hauteur de ses capacités, de ses prérogatives est peut-être tout aussi important.

Il faut assumer ce progrès, nécessaire, à géométrie variable, pour le genre humain. Il faut donner de la construction et des directions à ce chemin prédéfini. Se rappeler d'un "avant" est absolument nécessaire. C'est la carte de base. Progresser sur les échelons est affaire de doigté et de connaissance. La compétence au niveau technique ne devrait être que la carte du milieu du paquet de cartes. La motivation, elle, est au sommet. Une motivation saine, dépourvue de pensées trop égocentriques. Le populisme vers le bas et la publicité vers le haut ne sont que les outils de propagande généralement utilisé pour éliminer tout adversaire.

Au sommet, pas de véritable "jeu de l'oie". Les flux inverses ne fonctionneraient pas à fond. La politique ne se retrouve d'ailleurs pas uniquement où elle doit se manifester à la suite des votes des électeurs. Le chef a ses raisons que la raison ne comprend pas toujours.

Le taylorisme (aussi appelé « SIX SIGMA LEAN » par les américains) est appliqué aux services des entreprises modernes.

Alors, on coupe, on dissèque un service en multiples tâches en ne conservant qu'une personne qui pourrait assurer la compétence technique facturable. L'équipe se résume à deux entités, l'une backup de l'autre. On ne dit pas pourquoi ni comment y arriver. C'est un test, répond-on au plus exigeant en réponses.

Il faut bien organisé et pour se faire on ne garde que les tâches qui font partie du « core business » et on facture les résultats au prix, le plus "juste" que l'on espère au top de leur forme malgré la réduction des coûts d'exécution.

Le reste, l’aspect social, les « nice to have », ont bien existé, mais on tâche de les maintenir contraint dans des limites de l'acceptables et pas trop dérangeantes.

Les prix "plancher", le consommateur y a pris goût. Il n'est pas loin de les espérer nuls. Hors, aucune tâche, aucun bien n’a jamais été gratuit, du moins si on l'espère encore de qualité.

Pourtant si les prix de ces produits ont été lissés ou amortis, les valeurs continuent leur descente en s'épaississant.

Le travail ne serait-il qu'une construction par des "apprentis sorciers", des "testeurs" aux horizons limités par la courte échéance des résultats trimestriels ou annuels ? La pérennité non assurée profite, mais à qui? Ceux qui s'impliquent dans ce tourbillon et ceux qui ramassent ne s'inquiète pas de savoir où se trouve la source de la rivière, ne semblent pas être les mêmes. Dans ce jeu, fournisseurs et clients, tous deux, se retrouvent en aval, cocus du système.

La continuité, la fidélité dans le service ne se partagent plus. Elles se contentent dans l'habitude et l'obligation de sombrer dans l'apathie.

Le même service, réalisé l’an passé, coûte aujourd’hui plus et est souvent de qualité moindre. Les clients n’ont aucune alternative. Ceux qui ont travaillé pour le bien commun, traditionnellement, ont fermé boutique et déposé le bilan.

Exemple concret et récent, mis au point par des jeunes consultants externes : le service postal. Les facteurs s’occupent d’opérations de tri et des livraisons. Les opérations de tri sont réalisées par ordinateurs, trieuses, rien de plus normal si les moyens automatiques le permettent. Les erreurs, car rien n'est parfait, subsistent. Plus personne pour corriger le tir. Même si une amende pour la perte de temps occasionnée, est prévue, cela n'arrange pas le client qui attend impatiemment.

Remonter le temps et les rivières, ce ne sont que les originaux qui y ont pensé.

Pour les rivières, c’est devenu un sport. En sera-t-il un jour de même pour la production de nos biens ? L’histoire est un éternel recommencement, dit-on. Retour aux cellules souches ? C’est dans l’air du temps, mais c'est de la science et rien d'autre.

Chaque accroissement de volatilité s'accompagne d'une intervention d'une économie improvisée. Ce n'est pas l'effondrement du système capitaliste, c'est seulement une temporisation. Reprendre ensuite, les régulations, réglementer de manière encore plus draconienne ce qui avait eu le malheur de déraper et qui avait échappé dans une phase antérieure. Dissociation momentanée de la valeur économique fondamentale de son actif, de sa valeur intrinsèque. Le krach qui suit la croissance se fait toujours ressentir sur l'humain et par ricochet sur la machine.

Naviguer à vue était, pourrait-on dire, les seules discussions qui planent dans les meetings du haut management. Réinventer la roue et applaudir devant l'idée géniale qui venait d'un esprit en mal de nouveauté? Des processus de fusion du développement entre fonctions logiques, programmation et skills s'harmonisaient tout à coup.

Pour remonter la pente, des initiatives drastiques ont été prises. Les têtes sont tombées en haut et surtout en bas. Les nouveaux sur le marché de l'Internet se croyaient à l'abri des coups du sort. Pourtant, c'était justement leurs connaissances de l'internet qui allaient être montrées du doigt comme cause des déficits et des échecs de la vente sur la toile.

Latent, l'outsourcing d'abord interne, dans la société même et puis externalisé. Des sociétés ont créé des divisions spéciales qui n'avaient pas tout à fait la même raison sociale. Elles restaient dépendantes mais étaient devenues bien reconnaissables, bien chiffrables dans des centres de coûts bien définit. Les dégâts, s'il y en avait, étaient ainsi identifiés.

L'économie apprend que la voie royale du bénéfice reste celle de l'accroissement des revenus, la voie de la force et pas de la diminution les coûts. Techniques qui se révèle coûteuses à cours terme à cause des ruptures de contrats, mais seule solution restante au vu de la perte de confiance des investisseurs qui avaient été échaudés et refroidis aussi sèchement.

Au départ, les programmes étaient développés pour une période de 10, 15 ans sur base de cahiers des charges et spécifications bien élaborées dans un environnement stable. De nos jours, la durée de vie d'un programme est, en moyenne, de 6 mois. Il arrive plus souvent qu'on ne puisse le croire, que la réécriture d'une application doive se faire avant que la version initiale n’ait jamais été installée. Normal, au fond, quand on voit les besoins évoluer à grande vitesse. Le dépit ne tarde pas à s'installer lui parmi les acteurs du "drame". Planifier devient un cauchemar quand la courte vue suit la progression des déclarations trimestrielles devant Wall Street. Vu la complexité à outrance, plus personne n'est capable d'avoir une vue à 360° des besoins et de la situation financière, productrice et consommatrice. Morceler les fonctionnalités a été la solution trouvée pour appréhender cette diversité complexe du monde du commerce international. C'est évidemment plus facile de se rendre compte des difficultés d'un projet à l'étage correspondant. Compartimenter est la règle enseignée dans toutes les écoles. Architecture horizontale prenant la place de la verticale. Procédures au niveau structurel global et redescendu au niveau parcellaire du programme à développer lui-même.

Trop de paramètres entrent en ligne de compte dont la précision ne repose sur rien. Les statistiques qui se dessinent ensuite ne pèseront que plus dans des actions-réactions mal appropriées. Les plannings sont devenus en quelques sortes, des moyens d'évaluer.... le retard.

Les jeunes tiges arrivent avec les idées nouvelles, bien préparés à affronter, en apparence du moins, bardés de diplômes avec mentions Bac +1, +2,... +5. Il faut avouer que les écoles sont généralement à jour avec les programmes mouvants de l'enseignement informatique. Ce serait un comble qu'ils ne suivent pas leur propre spécialité. Nous ne parlons plus de secteur de l'informatique, mais de vecteur virtuel. On y étudie seul, on y travaille de même. Une trop grande spécialisation dans des secteurs trop pointus fondent les espoirs et les désespoirs dans le futur. Pas question de s'accrocher trop longtemps à un compartiment trop exigu sous peine de se voir éjecté comme obsolète dans notre discipline. Cette spécialisation à outrance voulue écrite sur les CV à l'embauche n'est que ticket dans la courte échéance. On s'étonne ensuite la désertification des candidats à l'informatique. Le coût du hardware est devenu dérisoire, l'apprentissage et la synchronisation avec le progrès ne le sont pas.

Alors, pour garder un semblant de rester dans le coup, l'informaticien se voit dans l'obligation de retourner sur les bancs de l'école. C'est alors que les choses ne se goupillent pas comme elles devraient l'être. Ce ne sont en général pas des cours particuliers en groupe qui seraient donnés sur place. Ils s'agit de se greffer sur des cours ex cathedra qui devront trouver l'enseignement ad hoc pour garantir la continuité dans les plis du business et avec un calendrier qui sera pour la plupart du temps trop en avance avec le but à atteindre ou en retard par manque de prévoyance. Quand la connaissance sera suffisante grâce à l'investissement personnel, il s'agit de prier de n'être pas encore dépassé par les événements qui auront seulement un peu shiftés de ses objectifs. Que de cours reçus en pleines pertes et profits.

Garder une vision complète de l'ensemble des "morceaux" devient une gageure à la limite impossible. Qu'on ne vienne pas dire, ce que je n'ai pas dit: l'informatique n'est pas le seul moteur qui s'enraie. Elle est seulement le point central, le cœur du système qui, lors d'une panne arrête toute l'exploitation de l'usine ou de la société de service, la société unanimement reconnue comme moteur moderne d'un pays. La grande crise financière qui s'est développée hier et aujourd'hui, se retrouvera au sein de l'agent liant qu'est l'informatique.

Xième spirale en entonnoir? On planifie avec les moyens du bord (du "board", en anglais). On fixe des dates de plus en plus rapprochées comme si programmer était devenu moins technique que par le passé. La planification n'a aucun sponsor, elle. Le chemin critique se « logarithmise » entre des tâches (tasks) et des activités (activities) d'un côté de la balance, les ressources matérielles et humaines (HR qui a remplacé le service du/au personnel) sur l'autre plateau estimées de la même manière platoniquement "matérielle". Le rationnel, rien que de la logique rationnelle.

On parle dès lors, de logique du chaos et de la complexité pour expliquer les phénomènes. On apprendra que si elle est mesurable, elle ne permet pas, par contre, de prévoir l'avenir. La théorie des fractales permet en fractionnant nos trois dimensions de décrire mieux la nature, elle-même.

A long terme, tout reste à découvrir. Sera-ce l'éconologie?

The show must go on, isn't it?

18/10/2008

La Grande Gaufre (13)

Tableau 13 : "Cours, Forrest Gump, cours"

« Cookie : Anciennement petit gâteau sucré, qu'on acceptait avec plaisir. Aujourd'hui : petit fichier informatique drôlement salé, qu'il faut refuser avec véhémence. », Luc Fayard

1.jpgComme si la vie, même chez les concepteurs du futur, ne voulait plus se voir comme un long fleuve tranquille... Il fallait, en plus, courir pour exister.

Alvin Toffler dans son livre « Les nouveaux pouvoirs » (Powershift) décrivait, en 1990, le 21ème siècle comme celui de la violence, de la richesse, du savoir dans un monde en révolution. Le pouvoir n'est en lui-même ni bon, ni mauvais, ajoutait-il, tout en influençant sur nos comportements les plus intimes en faisant rêver sur nos futurs achats.

Avait-il imaginer l'arrivée à sa véritable importance d'autres acteurs, d'autres "gesticulateurs" de la partie sur Internet et ailleurs? La fin des empires qu'il se targuait de décrire au niveau des États, s'est transformé en empires de multinationales qui se jouent des États en transférant leurs pouvoirs en jonglant avec les frontières. Le nerf de la guerre, l'argent est transféré là où il rapporte le plus et cela sans en chercher les finalités là où elles devraient être, c'est-à-dire dans le progrès global de l'humanité. Guillaume Dasquié en donnait une nouvelle version.

"Soft", question de point de vue?: D'abord, il y a eu les "freewares", les gratuiciels, à télécharger, connus par le bouche à oreille, disponibles derrière des hyperliens suite à une recherche ou décrits sur les pages des magazines spécialisés. Étape suivante, voici les "grands des grands" qui, tout aussi gratuitement, produisent des versions parallèles, seulement un peu plus allégées des softwares payant. "On line", à la discrétion de tous et sans bourse déliée, les programmes des "Offices", près à l'emploi, ont renversé l'ordre établi. Le calcul et le stockage des données se déroulant sur le serveur lui-même, c'est-à-dire sans stockage sur son propre PC. La publicité des autres a déjà payé pour vous. La confidentialité n'est peut-être plus à bord, mais son effacement fait partie du prix. Par son ignorance volontaire du danger, le consommateur a seulement déplacé son problème d'accès à l'information. On va pouvoir écrire, calculer, visionner ses images et vidéos, converser et même voir le monde sous toute ses coutures. Des calculs en pagailles, voilà la machine à calculer d'un autre temps toute auréolée de fonctions du plus bel aloi qui se réfugie désormais à proximité du texte et du verbe. Toute l'infrastructure sous les doigts, pour s'élancer avec un maximum d'efficacité à en faire perdre les couleurs de ses caractères bien policés. Une pensée orientée et citoyenne dans le juke box? Les blogs et les sites, dits citoyens, sont là.

Affublé de la sorte, sous le monitoring des magazines d'informatique, le citoyen lambda se croit de plus en plus dans la peau d'un "informaticien". Conceptualiser une application au niveau fonctionnel semble à sa portée. C'est vite dit et cela s'appelle même "Basic". Le passage à la réalisation l'est pourtant beaucoup moins et nécessite bien plus de temps pour sa conception et sa réalisation.

C'est vrai, 80% des utilisateurs particuliers, n'en ont cure de tous les gadgets qui décorent les logiciels du commerce destiné à un large public. Pour être réaliste, 20% des fonctionnalités présentes sont, il est vrai, utilisées dans ce public. Les logiciels avec licences du commerce se sont vus complétés, dans la démesure, à l'usage d'une clientèle très ou trop spécialisée. Pour justifier les prix, les stabiliser, il fallait montrer qu'on restait inventif. Heureusement, la convivialité ne s'y perdait pas au change, en général, même si elle se perdait dans des remodelages incessants.

L'ordinateur, tout le monde devait en avoir un. On ne savait pas toujours ce qu'on allait en faire au départ mais il fallait en acheter pour rester "in". Tout concourait pour passer à l'acte. C'était aussi le message qui provient de toutes les sources autorisées. Les gouvernements s'étaient arrangé avec les fournisseurs pour permettre aux prix d'être plus compétitifs, les fournisseurs de services bancaires, postaux, les fournisseurs de hardware et de software, bien entendu, aussi.

Si les jeunes étaient mordus après avoir coudoyé cet outil scolaire essentiel aujourd'hui, il n'en est pas de même avec les seniors, les pensionnés, qui voulaient aussi entrer dans le jeu. Ce fut plus qu'une question de générations à sauter ou à modéliser.

Ces nouveaux utilisateurs d'un autre âge se sont vus proposer des cours très orientés informatiques. En faire des "hobby" était évidemment le but avoué pour assurer une retraite intellectuelle.

Mal leur en a pris très souvent, malheureusement. Les ordinateurs, une fois achetés, par des non professionnels bien innocents de l'approche de l'informatique se sont bien vite retrouvés non utilisés à cause d'une petite panne de hardware, de software ou de "perso-ware". Le fiston est bien venu une fois ou deux à la rescousse, puis les choses se sont tassées... au fond du grenier. Les experts se paient et sont souvent pris en d'autres lieux très décalés dans le temps et l'espace.

Pour le 3ème âge, pour la "nouvelle vie", des écoles, des cours donnés avec matériel et connections sur Internet, ont vu le jour dans la précipitation. Le succès a été aussi mitigé de ce côté. Les enseignants, bénévoles ou non, proviennent du "milieu", parfois eux-mêmes mis sur la touche par l'âge. C'est à dire qu'ils ont eu des outils performants totalement dirigés par le côté fonctionnel et vers les tâches administratives. Le degré de connaissance des élèves était le plus souvent bien plus primaire. Le raffinement d'un clavier d'ordinateur, sa souris ne sont également d'une utilisation naturelle que pour les habitués. Encore une fois, on aime bien que ce que l'on connaît bien. Vieux principe toujours d'actualité, surtout en informatique. Les très jeunes se sont très vite et si bien adapté à tous ces maniements que l'on voudrait adopter la même approche. Ce qu'on oublie c'est qu'un jeune ne commence pas son approche du PC avec un tableur ou un éditeur de texte. Le jeu est le sésame le plus adapté pour motiver au mieux n'importe quel utilisateur effarouché. On a moins peur quand ce n'est que du jeu. Alors, vivement, le "Tic Tac Toe" ou les briques qu'il faut détruire, et cela même pour l'arrière garde.

Pour 2008, on peut comptabiliser 4,5 millions de consultations d'internet par jour de seniors entre 60 et 64 ans. Ce qui fait une augmentation de 63% alors que tous âges confondus, l'augmentation se limitait à 18,4%. Les sites d'information et qui tournaient autour de la crise financière avaient la vedette. Le web fête ses 20 ans.

Des gags par l'intermédiaire de coups de téléphone au service "helpdesk" ont fait planer, dans l'incompréhension la plus totale, des interlocuteurs qui n'étaient manifestement pas sur la même longueur d'onde. La touche "Any" qu'il fallait presser s'est recherchée désespéreraient plus d'une fois. L'anglais restera pour longtemps, la langue de l'approximation pour les non-pratiquants. La prise électrique ou la connexion avec les réseaux ont-elles été bien fixées? Vieille question primaire à toutes explications.

Les magazines de vulgarisation en informatique se sont multipliés. Le fameux SVM de départ s'est vu concurrencé par une flopée de mensuels et d'hebdomadaires à la recherche du meilleur scoop pour ouvrir encore plus la fenêtre de l'informatique logicielle et matérielle et à encore plus de complexités, aussi.

En septembre 1951, était sorti le premier numéro de "Computer and Automation" sous la plume de Edmund Berkeley. Il ne traitait que de la manière de vendre des kits pour monter des "cerveaux électroniques". En juillet 1974, David Ahl lançait "Creative Computing" qui parlait de programmes écrits en Basic alors qu'il avait le premier livre sur l'informatique tous publics "Basic Computer Games". Pour le public, on restait avec l'idée qu'un ordinateur permettait de jouer.

Il faut bien le dire, les documentations annexées avec les biens achetés quand elles sont présentes, se montrent d'une exhaustivité étouffante et décourageante pour l'utilisateur qui ne veut qu'être utilisateur simple sans être simpliste. Rien de vraiment intuitif et bien loin du « Plug and Play » vendu à corps et à cris dans l'approche de l'informatique. L'apprentissage risquait même de se mordre la queue. Il était parfois dit, en effet, qu'il fallait aller chercher plus d'informations sur internet, alors, que l'opération de base était justement l'étape de l'installation sur la toile qui était en jeu.

Destinées aux « freewares », les documentations n'étaient pas légions ou plus toujours à jour avec les versions successives qui voyaient le jour depuis leur première écriture. Dans la plupart des cas, quand elles subsistaient, elles avaient été traduites et arrivaient dans la langue locale bien peu compréhensibles pour l'anglophile d'occasion. Les « drivers », les « firmwares » devaient être maintenus au gré et au top des versions, était-il dit dans la documentation. Les softwares évoluaient en parallèle mais pas à la même cadence. Tiendraient-ils la route, ensemble? Problèmes digne de la quadrature du cercle. Le plus souvent, les documentations étaient larguées, devenues obsolètes. Donc, pas d'excès de précisions dans la documentation qui ne serait pas "on-line". Trop chères. Donc, désolé, ce serait s'habituer à lire à l'écran sans trop rechigner avec nostalgie ou ce sera quitter le bateau.

"Hard", question de rendement: Au niveau management, les erreurs opposaient les reproches à cette fuite en avant toujours à la recherche d'un toujours "meilleur", d'un "plus" sans plus penser au "mieux". Rentabilité habituelle qui atterrissait dans le cours terme aux desiderata des investisseurs en Bourse. Chercher le meilleur prix performance était valable si sa chute n'entraînait pas la perte de vitesse de tous les acteurs dans son sillage. Pour arriver à ces fins, il y avait les incitants.

Les salaires de la vente, la gérance démesurés, les budgets de publicité, massifs, les dépenses de prestige pour garder la seule image de marque n'étaient que le côté face.

Pour ne plus trop effrayer les âmes sensibles, le stress pour rester en ligne, la presse qui suit l'évolution ou la précédait en divulguant les secrets, la surestimation des budgets suivie d'une sous-estimation, étaient les côtés piles. Pléthores de concurrents qui oubliaient le coût de la réalisation pour simplement casser le prix de vente et casser la chaîne de la motivation. Tout cela avait représenté les marches de la gloire et de la décadence.

Dans le domaine des salaires, la doctrine "Pay for performance" en arrivait à être contre productive. Source de tension, ce salaire payé en fonction du mérite devenait une pomme de discorde. L'évaluation, qui pouvait la faire et sous quel principe pour établir un indice valable de satisfaction ? Le progrès, était-ce plaire au chef direct, pour faire progresser celui-ci sur la même vague ou directement lié à l'objectif principal dans la bonne gestion de la société? Le chef direct, l'intermédiaire dans la chaîne de décision, voulait faire progresser son poulain et se voyait désavoué par celui-ci dans le cas où cela n'aboutissait pas ou quand l'augmentation était désynchronisée avec l'action elle-même. Cette évaluation arbitraire poussait à l'individualisme pour faire du "chiffre" au détriment de la qualité surtout limité à l'échelle personnelle en oubliant au passage l'esprit d'équipe. Injustice pour les non primés, démotivation généralisée pour le gros des troupes non primée.

Conscientiser, responsabiliser, motiver étaient les maîtres mots qui ne s'étaient pas encore concrétiser dans les faits mais qui se retrouvent déjà, en partie, dans un Système Toyota qui se voulait efficace. Par rapport à ce système, des différences devaient exister, pour garder de nouvelles règles proportionnelles au gain globale.

Du côté des bilans de l'industrie informatique, il fallait bien avouer qu'il y a eu quelques arnaques notoires.

  • le prix des encres pour les imprimantes qui dépassaient allègrement le prix de l'imprimante elle-même en oubliant le côté écologique.

  • le PC vendu avec l'Operating System entraînant les ventes forcées

  • les copies de ses propres achats de software pour raison de sauvetage et qui se voyaient ponctionnés une nouvelle fois, lors de l'achat des DVD vierges.

  • le prix des « upgrades » qui passaient vite à la totalité du prix d'une nouvelle version de software.

  • les prix de connexion ADSL en hausses continues alors que les vitesses stagnaient pour le particulier.

  • le non durable préconisé pour faire tourner la "machine" à produire.

  • le manque de standards et d'interfaces entre les différentes marques pour fidéliser à outrance.

  • une concurrence camouflée derrière des données de spécifications non comparables aisément entre elles lors d'un achat dans une bataille commerciale.

  • une fausse idée de gratuité sur le Web.

  • Des produits achetés, plastifiés qu'il fallait déceler pour tester sans possibilités de remboursement en cas de retour.

     

1.jpgLes pionniers: Bill Gates a quitté définitivement ses fonctions exécutives chez Microsoft, ce 27 juin 2008. Trente trois ans à la tête de son entreprise, il a pu faire la pluie et le beau temps du software. Serait-ce le cycle complet de 30 ans, la base de l'informatique et l'ouverture d'une autre ère, tout aussi risquée ? Qui se souvient de cette présentation Apple en 1983?

A la suite de son premier programme, un jeu de morpion, il se lançait dans la répartition la mieux adaptée des élèves dans les classes. Harvard ne serait qu'un saut de puce de deux ans. Une politique commerciale agressive faisait le reste pour qu'aujourd'hui 90% des PC tournent sous Windows. récemment, il n'avait plus la première place de la plus grande fortune personnelle dans le monde, mais 56 milliards estimés restait une place de choix. Philanthrope, il s'était lancé dans une Fondation totalement en dehors de l'informatique. La fin de Windows? Ou le début d'un OS style Google? Il est vrai que le nouveau challenger est Google.  Le Nouvel Obs titrait un article "Microsoft dans le piège d'Internet" après son flop dans le rachat de Yahoo. Par retour de manivelle, Google avait redoré son blason dans l'affaire. Microsoft et Yahoo s'associent en finale pour la contrer. Nouvelle alliance avec Nokia. Le 6 octobre 2009, lancement de mobiles Windows phones dans le même but.1.jpg

Dans le SVM de août 2010, Michel Volle pour Microsoft. Oranisation trop rigide. Blocage des innovations qui ne remontent plus la pente hiérarchique. Les projets de la base, vu l'ancienneté des structures en place. Google, dit-il, par contre aurait installé un système d'écoute des employés.

Google veut perfectionner son moteur de recherche et se dope de "Cafféine" en testant une architecture secrète avec Sitaram Iyer et Matt Cutts, en visant l'augmentation de taille, la vitesse et la précision des recherches sur le net.

Née en 1998, la firme Google n'a fait qu'investir dans les nouveautés. 2000: Adwords et moteur de recherche. 2002: Google News. 2004: Gmail. 2005:Internet mobile, Talk. 2006: Picassa, Youtube,Maps Reader. 2007: Street View, Androïd. 2008: Chrome. 2009: Chrome OS, Wave. 2010: Buzz...

Dire que Google ennuie et gène MicroSoft n'est pas une erreur.

1.jpgMars 2011, Microsoft vient de déposer, à la Communauté Européenne, une plainte contre Google pour abus de position dominante. Véritable retour de balancier quand on se rappelle que lors de l'évolution d'Internet Explorer. Brad Smith, vice président de MS, y voit une "ironie" de l'histoire.

Car, Internet avait remplacé l'informatique dans sa finalité. On parlait souvent de l'un en pensant à l'autre inconsciemment. Qui pensait encore à utiliser l'Informatique dans son salon avec le mini PC parfaitement intégré parmi les autres instruments du multimédia. Tout s'intégrait de force ou par raisons. Déjà en 2004, les fameux spams avaient leurs jours compté d'après lui dans les deux ans. Ils ne semblent pas avoir perdu en efficacité de gêneurs non patentés. Dans le même temps, Internet Explorer reste dans la ligne de mire européenne.

Microsoft, l'éditeur de logiciel par excellence, va-t-il, à son tour, glisser dans le parallèle du software avec IBM du hardware face aux nouveau challengers « Google », « Facebook » et autres ? Certains pioniers ont d'ailleurs rejoint ceux-ci. Sont-ils prêts à ronger le marché du réel par le marché du virtuel en appuyant, par la « gratuité d'accès », sur l'accélérateur de la publicité de ce qui était payant auparavant, tout en brisant, du même coup, la couche de la production réelle et rémunératrice? Le virtuel ne va pas sans le réel. Ce n'est pas "blue sky" même dans ce monde.

Le 03 juin 2009, Microsoft lance "Bing," le nouveau moteur de recherche pour contrer Google sur son terrain. La pub en ligne en 2011 devrait approcher les 10 milliards de dollars rien qu'en Europe. "Live Search", prédécesseur de Bing, n'obtenait que 8,2% du marché alors que Google s'élevait à 64%. Cette version sera dans un premier temps, une nouveauté uniquement aux États-Unis. Rien de transcendant. C'est toujours une "machine à trouver" et bien peu un "moteur de décision". GMail est réinventé par les soins de la firme: Google Wave. Cette nouvelle manière de communiquer par emails se base sur le principe de collaboration en ligne. Communiquer par et pour tout le monde pour faire gonfler l'information et le savoir avec elle.

Travailler pour Microsoft s'est se rendre disponible sur une longueur de temps sans partage, dur et gratifiant.

Le monopole de Microsoft n’existe plus qu’en partie. On peut s'en rendre compte par plusieurs voies. L'"Operating System" propriétaire a un peu de plomb dans l'aile. Vista ne décollait toujours pas vraiment. Manque de nouveautés essentielles. Fini de lancer le fameux « Hasta la Vista » des journalistes en mal de titre vite fait en visitant les versions beta. La version définitive a laissé sur sa faim. Nous sommes dans Windows et la « fenêtre » ne s’est pas mise à battre la chamade par le vent de l’incroyable. Il y a bien les portes drapeaux que sont l'interface virtuelle, l'intégration multimédia, une meilleure recherche des fichier, la sécurité d'internet améliorée.... mais à part cela...

La version suivante, « Windows Se7en », prévue pour 2010 est sortie comme un sauveur des utilisateurs et de son concepteur. Vu le manque d'enthousiasme de Vista, elle semble être avancée à fin 2009. C'est à dire que, crise oblige, le renouveau ne peut plus dépasser les 3 ans, assignée pour son évolution. Le stress va encore augmenter. La version Midori n'est qu'encore qu'un rêve planifié.

Ca y est, ce 22 octobre 2009, Windows Seven était là.. Hasta la vista, Vista... L'échec de cette version est consommé. Trop lourde, trop lente, trop peu compatible... XP est resté plus longtemps que prévu. Au niveau Operating System, XP a gardé 68% des utilisateurs, Vista 22, Linux 5 et Mac Os 5. Remplir les caisses est devenu l'objectif car le bénéfice net de Microsoft avait pour la première fois chuté de 18% en un an, tandis que Google affichait une insolence avec 27% de bénéfices. Cette nouvelle version a couté 32 milliards de dollars en 18 mois. Il s'agit donc de récupérer l'investissement. Dans les rentrées de Microsoft, l'Operating system Windows avec les serveurs représente 50%. Les outils de bureautique 32%, XBox 13,3%.

Tout "esseulé" dans sa tour d'ivoire de Sacramento, ce grand fournisseur de "moteurs ronronnant" s'était vu attaqué de toute part, non seulement, par les concurrents directs qui voulaient grappiller une petite place au soleil, mais aussi par la Commission Européenne qui voyait malice dans leur volonté de fournir le "tout intégré". Les compétiteurs, à juste titre, avançaient une concurrence déloyale pour soutenir l'action concertée. Les sommes énormes des amendes à payer pour contraindre l'ogre à de meilleurs sentiments en détricotant le software si patiemment construit à coups d'heures de travail dans l'urgence créée par des annonces de sortie prématurées et tonitruantes. Alors, on ergote, on s'arme de toute la panoplie d'hommes de loi. Ça casse ou ça passe. Quand on doit mettre la main à la poche, c'est vraiment en dernière extrémité en sachant que le montant n'aura aucun impact futur sur son propre destin. Les utilisateurs n'auront qu'à s'asseoir sur les cloches puisqu'ils ne recevront plus gratuitement certaines fonctionnalités offertes au départ. Alors, le futur, on le voit comme ça: futur selon MS. Ensuite, on s'adapte quitte à marcher sur les plates bandes des autres en lançant des Windows Phones à l'assaut de l'iPhone de Apple.

Le portail MSN, bien que poussé le plus souvent comme page d’accueil a du mal à tenir sa place de choix. L’encyclopédie Encarta est mise à mal par la version citoyenne Wikipedia et on ferme l'arrivée en ligne. Le web résonne des gazouillis de Twitter, des microblogs à l’influence grandissante d'un réseau à moitié chemin entre messagerie et blog. Il pourrait même être utilisé dans l'espace.

Softwares propriétaires attaqués par le monde ouvert qui transige le mieux qu’il peut avec la compatibilité des formats de données et du look tout en y ajoutant des fonctionnalités inédites. Les autoroutes de l’information sont devenus en grand ce que les neurones du cerveau font toujours mieux en plus petit.

Paul Allen  était resté directeur technique chez MS, mais n'est plus qu'actionnaire aujourd'hui. Il a créé Vulcan Ventures et Vulcan Productions (films). Il est en croisade contre Google, Facebook et Apple comme voleur des brevets de sa société Interval Licensing. Les systèmes d'alertes sont en effet, utilisés par chacun des concurrents.

1.jpgLe 17 avril 2011, il va publier sa bibliographie sous le titre "Idea Man. A memoir by the Cofondator of Microsoft". L'amitié avec Bill Gates n'a été que de façade le jour où Bill Gates a voulu diminuer sa part dans MS. "Ils étaient en train de déplorer mon récent manque de productivité et discutaient de la manière dont ils pouvaient diluer ma participation dans le capital en émettant des options pour eux-mêmes et pour d'autres actionnaires", écrit-il. Le "ils" était pour Bill Gates et Steve Balmer, en 1982, alors que Paul Allen venait d'apprendre qu'il était atteint de la maladie d'Hodgkin. En 1983, suite à une participation de Balmer jugée anormale, Allen quitte et essaye de vendre ses actions à 10$ alors que Bill Gates lui en offrir 5$. Refus. Grâce à ce refus, sa fortune est estimée, aujoud'hui, à 13 milliards de $, alors que celle de Bill Gates plafonne à 56 milliards de $.

Steve Balmer, the "Monkey boy", ne fait plus vraiment rire personne. Microsoft rame. Il disait haut et fort "Un téléphone à 500 $ et sans clavier, Apple, zéro", il y a 5 ans. L'iPhone se vend par dizaine de millions et distance Windows Phone. MS TV est aux calandes grecques (06/2000-06/2007). Soapbox (09/2006-07/2009). Le Kin, aux couleurs de la marque, a été un désastre financier (05/2010-06/2010). L'alliance avec Nokia a fait plongé ce dernier, de 14%, en Bourse. "Deux dindes ne font pas un aigle", lachait Google. Windows8 est prévu au mieux pour 2012, alors qu'il est destiné aux tablettes. Balmer n'y a vu qu'un feu de paille. WebOS et Androïd feront office en attendant. Le concurrent de iPhone, Zune (11/2006-03/2011), la tablette Courrier sont aux oubliettes (11/2002-01/2011). Roy Ozzie, l'architecte du Cloud Computing et qui été chargé de donné acces à tous les logiciels du groupe, n'est plus aux commandes. Robbie Bach, le père de XBox, n'aura pas de petts enfants chez MS. Jeff Raikes, l'architecte de la Suit Office a jeté l'aponge. L'alliance avec Yahoo pour contrer Google , c'est Kevin Johnson qui y a perdu son latin, pour faire remonter un peu Bing, mais à quel prix? 

Microsoft s'est transformée en nouvel IBM, une entreprise vieillissante et pas marrante.1.jpg

Pas facile de se réinventer quand on devient mammouth même avec un trésor de guerre de 56 milliards de dollars. Quant à Bill Gates, trop occupé à sa Fondation, il n'a pas l'envie, actuellement, de jouer les Samaritain ou Steve Job, pour remettre les pendules à l'heure. Microsoft rachète tout ce qu'il ne peut produire. En mai 2011, c'est au tour de Skype, qui n'est pas rentable. Au prix fort de 8,5 milliards de $, représentant dix fois le prix du marché. Microsoft aurait-il ainsi damé le pion à la concurrence avec ce coup de maître? Skype avait 170 millions d'utilisateurs dont 8 millions de payants. Le but de MS est de supporter sa XBox, Outlook et la KINECT avec Lync. En 2005, eBay avait acheté Skype et y avait perdu 1,2 milliards de $. C'est donc, en premier, le jackpot pour eBay et une bouteille de champagne pour Facebook. A qui perd, gagne?

Microsoft a réinvesti 100 millions de dollars dans Linux pour faire se rapprocher le monde propriétaire de celui de l'"Open Source" pour atteindre une meilleur interopérabilité. Google est devenu son concurrent majeur. Internet Explorer se voit même attaqué sur ses bases. "Google Chrome", le nouveau navigateur, va faire du bruit en jonglant avec les outils intégrés déjà en place et défiant Microsoft. Google aura son Operating System dès 2010. Il sera fait pour inciter à atout faire en ligne. Informatique nuageuse ou nébuleuse? Une machine avec un processeur de base pourrait être suffisante. Peu de vitesse nécessaire, plus de risque de perdre ses données puisque les backups seraient faites à distance. Une bande passante importante pour assurer la vitesse comme point névralgique. Le software? Google Apps, pour les professionnels. Google Dico comme dictionnaire, Gmail, Talk pour le tchat, Knol pour documentation. Picasa pour la photo. YouTube pour la vidéo. Blogger pour les blogs. Nous sommes en pleine stratégie du standard minimum qui ne voudrait plus que des utilisateurs connectés.

Les magazines commençaient déjà à comparer les faiblesses et les forces des anciens par rapport aux petits nouveaux. Sera ce la version Web 3.0? Ultime outil de la publicité, très certainement. Cibler les consommateurs avec les droits de filtrer, modifier et capter par et pour Google. La recherche d'informations tout azimut dans un nouveau monopole bien plus efficace que celui de son outsider Microsoft. Firefox, logiciel libre, avait déjà attaqué dans l'environnement du Web 2.0. Dix réalités au sujet de ce Web presque obsolète? Les versions libres ne sont pas exempte de problèmes et d'attaques. Firefox 3.5, annoncé comme une version importante, se retrouve avec un potentiel de piratage, comme l'était Internet Explorer. Vœux pieux de répondre le plus vite aux attaques de la concurrence? Pieux enfoncés dans les nerfs des utilisateurs.

Steve Balmer a repris complètement les rennes de Microsoft. Aura-t-il le même charisme, le même besoin de recherche d'innovations que son ami de toujours? Rien n'est moins sûr. "L'après Bill Gates" de Maria Jo Foleg explique en détail que l'avenir n'est pas aussi rose. La suite ici. Une vidéo entre les deux "Steve".

Balmer favorise plus le marketing, la vente que théorie et la technique. L'enthousiasme, avec des résultats financier même à la bonne hauteur, ne suffit pas. Sa danse de gorille avec son cri de guerre "I love this company" est un peu surfaite. Revitaliser la culture "MS" demande de l'invention et des idées qui font la différence pour la vision du futur. Les "Baby Bills" de 2003 ne sont plus vraiment dans le peloton de tête de la hiérarchie et se retrouvent parfois sur des voies de garage intéressantes mais loin du pouvoir central. Jim Allard, Chris Jones, Stephen Sinofsky, Craig Mundie sont des grands noms au côté des 80.000 Softies anonymes. Ceux-ci bloguent sur des forums et font part de leurs problèmes moraux. La concurrence du jeunisme est constante. 90.000 personnes dans la monde, cela ne se gère pas sans certaines abandon de cohésion.

La société vient de s'offrir un comparateur de prix, www.ciao.com, pour rattraper Google. Ce n'est plus 44 milliards de dollars comme pour le coup manqué de Yahoo. Cette fois, "Greenfield Online" s'est évalué à "seulement" 486 millions de dollars. Core business contre business de raison dans un marketing de la peur du lendemain et de l'abandon du client.

1.jpgUn challenger, pionnier, aussi, on l'oublie souvent, a été Steve Jobs et sa pomme "Apple". "Microsoft n'a aucun goût, aucune idée originale, sans produits et sans culture", osait dire Steve Jobs. En 1985, il était viré par John Sculley . "Vous comptez vendre de l'eau sucrée toute votre vie ou voulez-vous changer le monde avec moi", demandait-il. ll était rappelé d'urgence pour rajeunir la gamme avec son iMac, son iPod, son iPhone et redevenir le PDG en 2000. 1.jpg

Fin 2010, Apple dépassait la capitalisation de Microsoft. Ce qui ne veut pas dire que la guerre est gagnée. On attend le retour en ping-pong.

Octobre 2010, voici le Windows Phone 7.

Entre ces deux pionniers, un conflit de religion qui ferait plus une bible plus qu'une histoire.

Les "challengers": Les logiciels libres, gratuits et avec sources incorporées disponibles contiennent les mêmes pièces dans le moteur, seulement maquillées pour ne pas les copier. Les fonctionnalités sont parallèles et prennent en charge, sans difficultés apparentes, les données cousues mains en provenance des grands parrains propriétaires.

L'histoire de Ubuntu vaut bien une messe. Lancé en 2004, il avait à l'origine Linux qui était toujours considéré comme un Operating Software très loin du Plug and Play de Microsoft. Mark l'ingénieur Shuttleworth, devenu riche, sentait qu'il devait une dette grâce aux "autres" et vis-à-vis des clients qui l'avaient soutenu. Il vend sa société de sécurité pour 575 millions de dollars en 1999, et se lance dans le système ouvert Linux dont les sources sont disponibles à la modification. Le Linux pour n'importe qui, est son but. Il crée sa fondation en 2004. Lenovo (repreneur du PC d'IBM) l'adopte récemment. Il y a 12 millions d'utilisateurs dans le monde. Amazon, Wikipedia sont des clients. Google l'adopte sous le sobriquet Goobuntu. Depuis, souvent à partir de l'île de Mans, de New-York ou d'Afrique du Sud, il fait fructifier son affaire avec succès.

Google, toute puissante, une nouvelle histoire d'amour de l'information? Une obsession de faire autrement pour Larry Page et Serge Brin, ses fondateurs, "enfants" gâtés du succès, mais gardant toujours un esprit de jeune baroudeur. Leur moteur de recherche, bricolé également dans un garage et qui mène à une multinationale coté 135 milliards de dollars en Bourse. L’ancêtre du moteur de recherche date de 1990 avec Archie qui n'était alors qu'un localisateur de fichier. En 1994, c'est plus élaboré qu’apparaît Webcrawler. Racheté ensuite par AOL.

On annonce Kosmix, indien,comme moteur recherche. Sera-ce avec ou sans pousse-pousse? Stephen Wolfram annonce mieux encore: un moteur de recherche qui "calculerait" ses réponses ou "comprendrait" les requêtes plutôt que de remonter des résultats indexés.

Basculer de l'offline, trop personnel, à l'online, plus mesurable de l'extérieur, en permanence. Un téléphone mobile, avec un OS propre, le synapse, l'Android arrive avec la publicité comme vache à lait. Le portail s'est beau, mais trouver ce que l'on cherche, n'importe où, est encore mieux. Orienter les "trouvailles" vers des producteurs les plus généreux est seulement le point négatif. "Big Brother" en esprit ? Investisseur dans l'écologique et la génétique, aussi. Cela ne veut pas dire qu'il est impermébles aux erreurs ou aux bugs. Dernier né, Google Latitude qui va apporter la localisation des membres dans l'espace à l'aide du téléphone mobile.

Chercher son chemin dans ce labyrinthe d'options, n'est ce pas la clé du succès ou de l'insuccès pour le consommateur et le fournisseur de services? Des agents intelligents comme « meta-crawler » achèvent l'intégration logicielle en captant les informations sur les habitudes des consommateurs d'Internet, pour orienter les choix en supprimant, en plus, les redondances.

Cinq ans d'existence, on pointait Facebook, le successeur de Google avec 150 millions d'utilisateur dans le monde. En 2006, il refusait de se faire racheter par Yahoo pour un milliard de dollars. Microsoft avait investit 246 millions de dollars dans l'affaire dans la quelle plus de 100 millions de membres n'hésitaient pas à s'inscrire avec leurs données personnelles dédaignant le problème de la confidentialité. Google Earth continue sa chasse à l'espace.

Depuis la dégringolade du hardware, IBM était devenu aussi un grand marchand de "solutions" avec un backup financier constitué en trésors de guerre de l'histoire.

Aujourd'hui, pour les grandes multinationales, les mainframes sont devenus d'énormes serveurs centralisés sur un point unique dans le monde, reliant tous les subsidiaires satellites. Pour le business, le PC sur le bureau. Des sociétés éparpillés par centre d'intérêts dans le monde, en réseaux intégrés mondiaux, reliés par le web, avec d'énormes bases de données, par l'intermédiaire des objets en html pour assembler rassemblés dans des bibliothèques. Mais qu'est-ce encore au juste l'oublié « html »?

Jeu de Lego, cette programmation qui assemblent les morceaux d'intelligence en donnant un input et en recevant un output que l'on espère le plus prévisible possible.

Un cas particulier, pour la maintenance des grands projets dans le temps et l'espace, il existe des softwares, type « MS Project ». Toutes les tâches y sont répertoriées dans leur succession logique, assignées, planifiées, semaine par semaine, avec des "points d'ancrage de constat" jusqu'à une date finale qui ne reculait jamais quelques que soient les circonstances. Un merveilleux outil de travail, mais qui nécessite une mise à jour continue par des personnes souvent à temps plein. Rien n'est gratuit, encore une fois. Ce qui devait être un outil de gestion des ressources humaines devient le nouveau joug, la nouvelle corde pour pendre celui qui n'arrive pas dans l'agenda fixé. Terminer ses propres tâches de la semaine sans s'occuper des problèmes des autres et du projet dans son ensemble devient la préoccupation « number one ». La qualité du travail passe au second plan. Si d'aventure, une tâche se termine plus tôt que prévu, pourquoi chercher autre chose qu'une diminution de stress. Adieu le travail en équipe ! La direction ne voit plus des développeurs, des hommes, mais des tâches. Oubliées les initiatives, les réclamations,… Seuls comptent les clicks sur les tâches finies ! Un développeur manque à l'appel : on dérange l'ordre établi sans perdre de temps. C'est beau l'informatique !

L'Inde est actuellement l'usine de la maintenance avant de passer à celle de la conception. En octobre 2008, l'Écho titrait "La high-tech indienne craint pour ses contrats et ses emplois". Les répliques du séisme qui secoue Wall Street se font ressentir à Bangalore à 13.000 kms de sa source. Les externes, intérims et autres sont les premiers touchés dans une crise. Les fournisseurs de services informatiques ne font pas exception. Les secteurs financiers et assurances constituent jusqu'à 40% de leur chiffre d'affaires. Tata Consulting Services, Infosys, Wipro, etc occupés à hauteur de 200 millions de dollars de sous-traitance pour Lehman Brothers, les 1500 personnes sur place à Bombay se voient un avenir rétréci d'autant. La re-négociation à la baisse des contrats est prévisible. La compétition recommence entre ces sociétés du travail à bon marché.

"Internet reste net" écrivais-je, un jour. 2009 est l'année de son vingtième anniversaire. Il a transformé le commerce mondial. Beaucoup d'utilisateurs se sont rendus compte que certains produits étaient moins chers en se passant des intermédiaires et en commandant par l'intermédiaire d'internet tous les biens de consommation. Pas d'infrastructure lourde de vente, pour raison. Une page d'accueil suivie d'une série de prix pour concrétiser les rêves. Les achats en ligne n'ont fait qu'augmenter de concert, aux risques et péril des utilisateurs qui deviennent, eux mêmes, leurs propres arguments de vente. Réduction d'autant du personnel dans le commerce "ancienne vague". Est-ce une anarchie contrôlable ? Le "gratuit" fait oublier beaucoup de chose. La qualité de l'information et le prix sont souvent trop antagonistes. Oui, il y a des articles qui valent leur pesant d'or et qui viennent de "générateurs" d'information, mais il faut les déceler au travers d'un fouillis de fausses informations ou mal contrôlées parce que contrôler demande de l'investigation et du temps. La vidéo et l'image, air du temps, commencent à détrôner l'ère du texte. La majorité des blogs sortent souvent en copier-coller "entubés" dans une originalité douteuse ou frelatée. Les sites citoyens ne sont pas souvent mieux lotis. Même les interfaces de la modération ne peuvent assurer la véracité de ses dires. Tout est une question de prix et les connaisseurs sont bien loin d'assurer l'intérim dans la fonction. Les commentaires ne sont que des pis-aller dans lequel l'ego est plus marqué que la pureté de l'info. Si objectiver n'est pas possible ou fiable, il faut subjectiver le sujet dont n'est pas nécessairement ni au moulin, ni au fourneau, pour, seulement, garder l'audience. Les morceaux de vie sont donc stockés, entachés d'erreurs et de déviances. Aux moteurs de recherches d'assurer la captation de l'info dont on ignore le degré de vraisemblance. Vinton Cerf, un des fondateurs d'Internet par sa participation dans l'élaboration des protocoles TCP/IP, affirme qu'Internet n'est qu'à ses balbutiement. La norme IPV4 permettait de créer 4,3 milliards d'adresses et suffisait à l'époque expérimentale des débuts. Le système DNS traduisait celles-ci de l'alphabétique au numérique. La norme IPV6 approche.

Mais, qui contrôle Internet? Il est certains qu'un minimum de concertation et de standardisation est nécessaire pour ce conglomérat anarchique d'ordinateurs. La gouvernance est toujours d'actualité. Dans les années 60, la DARPA (Defense Advanced Research Project Agendy), les préoccupations étaient complètement militaires. Il s'agissait de pouvoir réagir à une attaque nucléaire par les communications. ARPANET va dévier le projet vers la recherche scientifique fondamentale. L'ouverture au monde va se produire ensuite en 1983 avec MILNET. La NTIA (National Relecomunication Administration) y verra aussi un intérêt commercial. Dès 1998, ICANN (Internet Corporation for Assigned Names and Numbers) décide de ces noms de domaines à l'aide du DNS (Domain Name System) et crée progressivement les 13 domaines dont l'extension permet d'orienter les messages vers les destinataires (.com, .org, .fr...). Il devient de fait le maître à bord avec son partenaire VeriSign. Le 30 septembre 2009, renouvellement du contrat avec le gouvernement américain. Rod Beckstrom au gouvernail.

Simplement traiter l'information: Une base de donnée construite par le citoyen pouvait faire concurrence au professionnalisme des encyclopédies papier de Britannica ou autre. Wikipedia contient plus de 2,5 milliards d'articles en anglais, 680.000 en français. Le site est le 5ème le plus visité au monde. 250 millions de visiteurs par mois. D'autres langues sont disponibles évidemment. Ce sont les internautes qui produisent l'information bénévolement. Quoi de plus magique que l'interactivité, la mise à jour en temps réel ? Du coup, Wikipedia se retrouve 25 fois plus étoffée que l'encyclopédie Britannica. Auto-régulée, aidée de vidéos et de liens vers toutes les autres activités dans le monde. Le rêve? Il n'en reste pas moins qu'il faille le prendre avec des réserves. En faisait l'essai d'une entrée d'informations que l'on sait erronées, la correction n'est pas immédiate. Le bilan après cinq ans crée parfois des déçus et aussi des surprises sur la gratuité qui n'existe plus toujours. Wikipedia, une autre fondation, qui a le mérite d'exister à condition que l'objectivité suive les intentions de départ. Les encyclopédistes doivent contre-attaquer en donnant des accès libres de 200.000 articles.

Depuis, le 20 novembre 2008, l'Europe donne également accès au patrimoine culturel européen, multilingue et multiculturel sur europeana.eu avec les œuvres des auteurs avec l'ambition d'explorer le rêve des idées. Comme souvent, pourtant, certains pays européens restent à la traîne. La participation de la Belgique est, paraît-il, décevante.

Le "Grid computing" (grille de calcul) joue à fond dans le virtuel des interconnexions et des clusters, tout azimut, et pourrait-être à la pointe en Europe tout en restant dé-localisé et hétérogène. Calcul à la demande autorisé par l'intermédiaire de middleware, des intergiciels, inter-applications, projet ancien, non abouti, de Bill Gates.

"J'avais une aphte, j'ai fait une recherche sur internet sur les sites médicaux. Une heure après, je faisais mon testament", disait Anne Roumanoff avec un certain humour.

Trop d'informations tue l'information, disait quelqu'un.

Le télégramme n'existe plus, c'est l'eMail qui le remplace et qui envahit. Le minitel avait déjà commencé le travail de sape. Depuis, on informe, on désinforme, sans bourse délier sur la toile dans laquelle l'araignée veille. Une boîte perso d'eMail est devenue la poubelle de la pub qui ne se résout que par l'abandon ou le changement d'adresse de la victime trop peu vigilante.

Le fax avait un numéro reconnu sur les cartes de visites annexé au numéro de téléphone et a été polluée avec des messages inutiles imprimés automatiquement au frais du récepteur. Ce qui était intéressant et gratuit, au départ, tourne à de l'invasion avec un coût non négligeable pour son éradication. On pouvait débrancher le fax. Pas possible pour les eMails. Il suffit de le constater, avec le contenu de sa boîte aux email, au retour d'une période de vacances.

Déplacer les problèmes ne les ont jamais résolus. On va le comprendre de plus en plus dans l'avenir.

Les restructurations à tour de bras, même pour baisser les redondances, ne diminuent jamais les coûts de la "Grande Trappe" même avec plus de goût qu'une "Grande Gaufre".

11/10/2008

La Grande Gaufre (14)

Tableau 14: Muter ou mutualiser pour vivre ou pour survivre ?

«  Le futur appartient à celui qui a la plus longue mémoire. », Friedrich Nietzsche

1.jpgLe citoyen consommateur d’informatique, tout comme l’entreprise et les sciences n'auront jamais de cesse, de demander toujours plus de puissance de l'informatique. La gourmandise frise l'indigestion, mais le marketing tente de garder la posologie adaptée.

La science continue de demander des super calculateurs. Les entreprises, des engins de calcul pour donner les résultats comptables dans les plus brefs délais, résultats qu'elles veulent présentés en longitude et en latitude. Le citoyen, avec son PC, n'a pas été oublié, non plus. Le multimédia, le traitement de l'image et de la vidéo, la CAO, la DAO n’ont, en effet, pas demandé moins de voracité en puissance. Pour agrémenter, il y a de plus en plus de convivialité visuelle et intuitive qui coûte énormément de force de calcul en temps réel. Qui penserait encore à faire marche arrière? L'utilisateur veut se rapprocher de ses envies, de ses rêves et veut s'y retrouver dans ces habitudes les plus intimes sans chercher trop longtemps. L'ordinateur n'est plus seulement un engin de calcul mais aussi une machine à tout faire. Le virtuel flirt avec le réel.

1.jpgAu niveau professionnel, le hardware en arrive à dépasser le software qui se retrouve à la traîne face à la compatibilité partielle de sa structure. Le risque est grand de mettre à jour son hardware, alors que le software n'est pas encore opérationnel.

Pour le citoyen, l’achat d’un PC pour remplacer le précédent, et passer à la génération suivante, demande cependant un facteur prix performance substantiel. Il va se fixer avec plus d’objectivité appuyée par les conseils des magazines d’informatique.

L’obsolescence du matériel et des programmes décroît depuis quelques temps. Les vieilles machines sont utilisées comme backup. Lassitude, saturation? La poule aux œufs d’or aurait-elle été étouffée dans l'œuf?

HP, après Acer, affichait une santé de fer pour son 3ème trimestre 2008 (14% de plus sur un an). Une croissance essentiellement soutenue par les marchés émergents, les fameux BRIC (Brésil, Russie, Inde, Chine) et non plus par l'intermédiaire des États-Unis. Pour les autres, le progrès est moins clair.

1.jpgQue manque-t-il encore pour faire le bonheur de l'homme, devenu "numérique" en théorie ou toujours "analogique" dans la pratique ?

Voyons ce qui se passe dans le réel du l'utilisation uniformisé de l'informatique? Aujourd'hui, vu les possibilités accrues apportées par cette nouvelle technologie, tout le monde croit qu'elles deviennent infinies. Faire "plus" avec "moins" de forces de travail en s'adaptant avec le "mieux", voilà le produit « miracle ». Le malheur, c'est que la complexité des processus n'a fait que croître. Mieux organisés et structurés, peut-être, ceux-ci restent encore loin des réflexes humains. Les menus déroulants n'auront jamais plus d'efficacité que celle de ses utilisateurs en se perdant souvent dans les méandres de la complexité. Descendre dans l'arbre d'un menu en espérant se rapprocher de la finalité et du besoin, demande logique, connaissance approfondie et photographique pour ne pas se voir obliger de remonter en catastrophe à son sommet. Seule, l'habitude peut espérer le moins de voyage du "singe" dans son arbre. Les standards des processus de recherches continuent à se chercher dans les arcanes de l'imagination. Is time still money? Il suffit de se rendre dans n'importe quel service clientèle pour s'apercevoir des déboires des fonctionnaires, pourvoyeurs de renseignements et de services.

Au niveau du "hardware", le clavier reste le seul moyen de communication. La reconnaissance analogique de la voix humaine, de sa langue propre, semble poser encore problème au niveau de l’interprétation et de la traduction. Le nombre de langues possibles et les risques physiologiques donnent d'énormes problèmes. La traduction simultanée piétine dans la foulée.

La carte à puce pour les humains, la puce d’identification pour les objets remplacent progressivement les barres codes. Identifier permet de mieux cerner l'utilisateur, le consommateur. Protéger la vie privée, l’éthique, ne font plus partie des préoccupations face au marketing. Celui-ci est devenu le pirate autorisé. Avec la crise, qui a vu une chute des ventes, il faut consommer. La publicité ne fait pas tout, il faut l'accompagner par des approches plus efficaces encore. Et on a des idées, la « Séduction n'est qu'un jeu ». Les réseaux d’un ensemble informatique se sont vus étendus sur la toile Internet au monde entier. Connaître les portes d’entrée d’un système permet de s'insérer et d’utiliser toutes ses pièces à distance. Le décor est planté.

Voyons les évolutions futures au niveau de chacun des éléments.

1.jpgLe PC, le Personnel Computer 5150, avait été lancé par IBM, en 1981. Il a aussi presque sonné le glas de son créateur. L'innovation "Big Blue" a fait naître une myriade de sociétés pionnières qui ont évincé l'original sous ses clones. Il devait centraliser le savoir par la puissance. Il a dépassé les espérances par sa décentralisation, par l'autonomie des efforts et par son potentiel immédiatement productif. Beaucoup d'efforts parfois vains qui ont engendré l'assistance de "gourous" spécialisés, car n'est pas PC maniaque qui veut. Que faire d'utile avec cette bécane à part au bureau? Internet a donné la réponse. Une fois interconnectés, le PC a ouvert les vannes de l'intérêt réel par les rapprochements entre les citoyens du monde. Le PC rendu social par l'explosion des contacts. Les heures devant l'écran explosèrent. Cette ouverture sur le monde fascinait aussi effrayante qu'intéressante, mais personne n'en avait cure. La peur viendrait au détour d'un click malencontreux avec un virus à la clé.

Depuis, tel que nous l'avons connu, le PC vit, peut-être, ses dernières années de gloire, victime d'autres médias encore plus puissants ou plus minis et confondus dans ces fonctionnalités. Le PC complet n'existe toujours pas vraiment et pourtant certains pensent qu'il est devenu trop basique. A notre époque, toujours en porte à faux, le durable n'existe que dans l'exceptionnel et le miraculeux. Les machines "intelligentes", prennent des formes inattendues en téléphonie. Caractériser en cloisonnant en fonction du but à atteindre comme on le faisait auparavant pour les grosses bécanes: maxi, mini ou micro. Le consommateur nomade et le sédentaire n'ont, en effet, pas les mêmes objectifs. Tout comme pour la vieille chaîne HiFi, le rendement de l’ensemble dépendra seulement du maillon le plus faible. Ne cherchez plus docteur, ce n'est plus dans la tête mais dans ses neurones qu'il faudra rechercher son futur: ceux qui se connectent entre eux et qui ne suivent plus la vitesse du processeur, c'est bien de son niveau de connexion qu'il faudra s'inquiéter. L'ultra portable séduit (l'Eee-Pc d'Asus). On ne sait plus s'il faut parler d'un ordinateur ou d'un téléphone portable plus évolué. Les prix sont d'ailleurs de plus en plus comparables. Après Apple, Google va sortir son concurrent à l'iPod. Léger et bon marché. Pourquoi pas? Un jouet pour de plus grands enfants que nous sommes. Aura-t-il vu le jour pour informatiser les pays émergents dans le projet "One laptop per child"? "Razzia sur les ordinateurs portables" titrait le Nouvel Obs. PC miniature et baisses de prix ont réveillé le marché de l'informatique français. Une augmentation de 45% sur un an et 1,25 million d'unités vendues en trois mois.

Le netbook à 250 euros comme prix de base. Le quart d'il y a 10 ans. Bientôt le PC de poche avec VOIP (Voice Over Internet protocol). Quand la "bête" rame, que faire? Réinstaller, mais attention pas de CD à disposition. Attention à l'historique des installations postérieures. Le "tout-fait", c'est pas du sur mesure. La "propreté" demande de la réflexion et du temps. Car le sommeil demande un certain étirement sur les "muscles". Rajouter de la RAM? Oui, mais laquelle, car là aussi, il faut se renseigner et savoir si ça vaut le coup et les petites économies ne sont pas nécessairement à la hauteur des buts avoués. L'Inde s'y est mise pour créer l'"ordinateur" à 10 dollars. Désenchantement, il bugge déjà. Le Netbook est parfait comme ordinateur d'appoint, comme second couteau. Il pourrait se dégraisser encore plus avec l'OS de Google et le "cloud computing". Plus de connexion hors-ligne et plus d'ordinateur en stand alone. Indépendance perdue. Plus de hors-piste en espérant que le robinet des données ne se rouvre pas après une longue période d'hésitation et grâce une bourse bien déliée.

L'Ecobook existe aussi. En bambou, la bête d'Assus, presque biodégradable avec une consommation adaptable selon l'usage. Est-ce pour confirmer la quadrature du cercle apportées par les déchets qui se retrouveront dans les décharges en Inde dans le futur ?

1.jpgAssus a surtout lancé la mode du Netbook. Du PC qui devrait servir pour se connecter à la Toile, exclusivement, mais qui en définitive, va beaucoup plus loin avec des objectifs de réductions de taille et allongement des possibilités baladeuses. Près de 10 heures d'autonomie sans rechargement des batteries. Qui dit mieux. Les ventes ont explosés. Si les concurrents s'affolent et sortent en vitesse des engins du même type, Assus reste en tête dans ce créneau. 1.jpgLes EeePC vont avoir avec le T91 leur premier Netbook à écran tactile. Une manière d'avoir la souris au doigt et à l’œil.

Les tablettes vont-elles effacer les PC après 30 ans? Le Science et Vie n°1127 se pose la question. 

Les défis restent. La puissance, la mobilité, la sécurité, l'autonomie ne sont toujours pas au top. Que ce soit pour les PC ou les tablettes.

 

Le processeur, lui, a eu une cure de jeunesse avec son "copain coopérant" en "dual core" (son cœur double). Voilà une autre manière de passer au RISC, le multiprocesseur. La "bande des quatre processeurs » est en marche. La progression binaire n'est déjà plus de la fiction. Intel lance le microprocesseur "le plus rapide sur Terre". Pourquoi faire et pour qui? Comme je le disais ailleurs, un ensemble se retrouvera à la traîne de son maillon le plus faible. Six cœurs, ce n'est plus un problème. Pourquoi en serait-il autrement? Pour les grands utilisateurs, là où le prix n'est plus réellement "public", on a dépassé depuis longtemps ces limites. Maîtriser l'énergie du Centrino2 reste la préoccupation.

AMD annonce la "bande des 8 et des 12" pour 2010. Rien n'arrête plus le travail en parallèle. Il paraîtrait que le 100 cœurs (non, je n'ai pas dit sans cœur) pourrait voir le jour dans les années 2020 à 2030. Les 32 bits sont dépassés. Détrônés par l'architecture des 64 bits. Oui, mais... plus vite dit que fait. Le software devra jouer, en dilemme, dans la gamme pour exister et rester, néanmoins, subsister chez les anciens clients possesseurs de 32 bits. Actuellement, il n'y a que Linux qui soit prêt. Rien n'est parfait, en ce bas monde. Les retardataires sont toujours la plaie de l'informatique. Le PC de bureau de 2010 travaille au niveau de 2 milliards d'opérations par seconde. L'ordinateur le plus puissant, le Jaguar de la firme Cray, multiprocesseur, a un potentiel théorique de 2,3 millions de milliards d'opérations par seconde. C'est à dire 2,3 petaflops. Le Tera-100 de CEQ et Bull de 1 petaflop a déjà un petit frère en préparation 100 fois plus puissant.

Nous venons de sortir des teraflops (milliards d'opérations) pour celui des petaflops. Bientôt les exaflops, les milliards de milliards d'opérations par seconde. Le cerveau, on l'estime au niveau d'une centaine de petaflops.

Mais lui au moins ne consomme pas autant d'énergie pour y arriver. 37°C. Une paille. Pour l'ordinateur, c'est la consommation électrique qui va exploser. Il faudra bientôt passer de l’électron au photon. On ne parlera plus d'ordinateur électronique mais d'ordinateur photonique. Mais, il y a encore des progrès à accomplir.

 

La console, l'écran. La fiabilité est devenue très grande et seule des pièces chères comme l’écran ou la carte mère empêchent de ne pas penser à une conversion du « matériel dur au souple » que l'on se mettrait dans une poche. Si ce n’est les entreprises qui demandent une fiabilité hors norme, en temps réel, tel tout ce qui touche à la sécurité des hommes (par ex. l’aviation), les autres sociétés se complaisent avec des règles de up-time qui dépasse les allègrement 99% sans jamais atteindre les 100%. La fiabilité totale va se satisfaire d’une redondance de machines qui vont s’observer l’une l’autre et prendre la charge de la plus défaillante. Le risque zéro n’existe toujours pas, mais on le fait exploser pour le contrôler. Il faut, désormais, une série de points noirs pour sortir des chemins battus et tomber dans le crash, tel qu'on entend pour les avions. Google a créé son propre "Operating System" destiné à de petites stations ou consoles et qu'il a nommé Androïd. Le eMail devient chez eux Google Wave. Des développeurs dans le monde ont pu aider à son développement "Androïd Developper Challenge". Dix millions de dollars sur la table en plus de l'aide "généreuse". Cet OS est indépendant de la plate-forme sur laquelle elle sera installée. Ergonomie avec le téléphone au poignet dans les projets. Toujours l'idée de rapprocher l'homme et la machine avec des interfaces de plus en plus adaptés à la tâche humaine. Le système OLED pour les petits écrans semble être la solution du futur dans la petite dimension, le LCD, dans le moyen de gamme, le plasma, pour les grands formats. Côté "prix", le consommateur est parfois pris en otage à l'achat d'un objet de haute technologie, appâtés par des prix attractifs et se voir imposer en surplus des éléments supplémentaires, hors de prix mais obligatoires. Une télé plasma, par exemple. HDMI, évidemment. Le câble à lui seul coûte une fortune. Câble réseau RJ45, internet ready, of course. Le Blue-Ray ne fait pas exception. Sony a par contre la désagréable habitude de ne pas aimer les écrans géants. Les câbles sont aussi propriétaires. Le format de l'écran est espéré à sa meilleure résolution, malheureusement, les télés de dernières générations sont toujours incapables d'identifier le signal HDMI. le Blue-Ray est en panne d'idée. (460p alors que la télé est en 1880p). La qualité, c'est pour demain ou avec bidouille. Le Wii est aussi en RJ45 et demande un détecteur de mouvements.

 

La mémoire: La morte6 ROM n'existe plus vraiment que pour lancer le BIOS. La mémoire vive RAM verrait même ses dernières années, remplacées par des circuits de mémoire Memristor avec "plus d'intelligence" en se remémorant par l'"expérience" dans une "logique floue", celle de l'intelligence artificielle. Les grandes capacités seraient assurées par des mémoires flash pour pouvoir relancer la machine sans temps mort. La mémoire flash SDD (Solid State drive) consomme résolument très peu avec ses 4 à 20 GBytes.

 

Le stockage: Pour l’utilisateur particulier, les disquettes, les rubans magnétiques ont disparu. Le disque dur a remplacé progressivement la bande magnétique qui ne jouit que d’un accès séquentiel. L’accès direct n’est plus un problème vu que le volume n’en est plus un. Tout dépend de ce qui est à stocker. Le CD et le DVD sont les remplaçant temporaires pour le transfert des données à stocker. Ils sont concurrencer par les sauvetages, backup, offert gracieusement ou à des prix concurrentiels toujours disponibles sur la toile et ses serveurs gigantesques. Les gigas bytes ou octets ont fait place aux teras et autres unités encore plus faramineuses. Autre combat entre la mémoire flash et le disque dur. Le disque dur, le plus ancien, jouit d'une capacité de plus en plus étendue pour la même surface. Il est, par contre, sensible aux chocs et aux vibrations et consomme aussi une énergie incompatible avec la longévité électrique du nomadisme vu que les cellules solaires ne semblent pas donner l'énergie suffisante. Le challenger au disque dur, la carte SD a l'avantage de la miniaturisation, de la non-fragilité, de la faible consommation et est plus en relation avec le nomadisme, mais reste encore de capacité relativement réduite. La compression par programme des données, la miniaturisation restent les points forts du stockage. Les Moteurs de recherche devront aller plus loin et suggérer les questions plutôt qu'y répondre. Le Web 3.0 va créé cette connaissance en en créant d'autres dans un Web sémantique. Actuellement, il est reconnu que 45% des 6 à 11 ans passent la moitié de leur temps derrière un écran. On ne peut plus se contenter d'espérer que ces jeunes ne soient aidés que par eux-mêmes. La machine va leur faire apprendre ce qu'ils n'osaient pas par eux-mêmes. L'IA, l'Intelligence Artificielle prendra probablement une place de plus en plus grande. Toujours plus intuitifs, anticiper les désirs avec le projet « Morph ». Le livre électronique devra être interactif aussi comme on le retrouve sur la toile. Lisible grâce à la lumière du jour, elle-même, plus reposant à la vue et moins consommatrice d'énergie propre.

 

Les communications: L'ADSL malgré ses dix ans d'âge n'a pas subit de révolution à la hauteur de ses ambitions. Fiable, mais trop cher. Les fibres optiques vont-elles faire le grand saut? En Belgique, Belgacom annonçait quelques 1.314.965 clients sur la large bande du haut débit. De 1999 à 2008, la vitesse de ce « haut débit » est devenu 60 fois moins cher. Amusant rapprochement entre deux données qui ne se prêtent pas au partage vu que le prix est monté de 3è,18 euros à 41,75 dans la même période. Voudraient-ils annoncer la fin de l'ADSL? Véritable poule aux œufs d'or? Non, l'ADSL change seulement de nom « Belgacom Internet » sans ajouter un iota de vitesse en supplément. Pourtant, quand on attend, cela n'a jamais le punch suffisant sur la Toile. Connecté veut dire précautions et antivirus. Comment protéger sans ralentir l'ensemble des machines. Impossible? Connecter, on oublie qu'on l'est et qu'on doive protéger sa vie privée et ses données précieuses. Le réseau Internet est devenu presque gratuit à l’utilisation un fois la location de la ligne assurée. Le minitel fait office d’ancêtre. Internet vers l’extérieur, Intranet vers l’intérieur des sociétés, accessibles derrière des pare feux efficaces avec mot de passe comme sésame. La connectique se modernisera bientôt avec l'USB 3.0 qui ira dix fois plus vite dans les transmissions que la version USB 2.0 avec 5 GBPS. Pourra-t-on communiquer avec plus de justesse? Question sans réponse.

 

Impression: La grosse imprimante avec papier zigzag a disparu. De petites et moyennes imprimantes laser ou à jet d’encre suffisent largement atteignant des vitesses et une qualité jamais atteinte précédemment. La photocopie, le scanner, le fax et l’impression ne font plus qu’un intégré en input - output. Le software fait le reste.

 

L'image: là, on frise l'inespéré. Elle n'est plus photographique. Le numérique l'a rendue artificielle. L'arnaque est tellement présente qu'elle ne vient même plus à l'appui de la justice. Le Multimedia, multifonctionnel avec téléphone, photo étend l'image en dehors de toutes les limites de l'imagination. Les appareils photos numériques en arrivent au ridicule. Suite à une surenchère du marketing, on vient de créer le Samsung L310W qui se targe d'apporter un "plus" avec une résolution maximale de 13,6 mégapixels. Quand on sait que cela ne sert qu'aux grands formats papier. Ce ne serait rien si en plus ce n'était pas un handicap. 6MB par images, un temps accru d'autant en latence et une perte de qualité par l'effet de bruit qui dégrade l'image.

Je lisais dans un article d'informatique un titre prometteur "Prothèse informatique". Sur les appareil "moderne" destinés au grand public, on remplace la notion de vitesse et d'ouverture de l'obturateur. Le test de profondeur de champs, alors? L'automatisme va dans le sens de la photo gadgétisée "portrait", "paysage", "sport"... Comme si on ne devait jamais mélangé. Connaître comment cela va de manière plus précise est diablement plus intéressant. Encore une boîte noire qui pourrait s'ouvrir avec profit.

 

Le logiciel. La bataille entre le propriétaire et le libre continue. Linux, GNU, lui donne son moteur avec toutes latitudes pour le transformer à loisir par l'utilisateur lui-même. L'équivalent de douze mois d'abonnement à internet auquel, il a un accès immédiat 3G. "C'est la première fois, qu'on a une "régression" technique, tout en ayant des qualités que l'on n'a pas avec un ordinateur plus performant." était-il constaté dans un article. L'« Operating system », propriétaire ou libre, vieille querelle, presque d'arrière garde vu les liens en capital qui les lient. Linux a de l'avance à l'allumage avec son Symetric Multi Processor (SMP). Il a les avantages de ses inconvénients. Les algorithmes, les sources sont disponibles pour n'importe quel plate forme. Il a donc la souplesse de l'imagination, de l'invention de millions d'internautes potentiels dans le monde, mais doit être recentré par des sociétés tel que Mozilla ou Ubuntu (et bien d'autres), pour garder une "forme générale", éviter une avalanche de redondances et être validé pour garder la fiabilité. Les « patches » pour raison de sécurité ne manquent pas du côté Windows, non plus. Encore en deuxième ligne, son "explosion" intéresse moins les hackers plus sensibles ou énervés en fonction des intérêts en jeu, mais qui oblige l'utilisateur à garder sa porte ouverte pour la remise à niveau quotidienne pour suivre les nouveaux périphériques hardware. Comme c'est automatique, pourquoi s'en priver? Download et Upload se partagent donc, en gros, la bande passante et pourrait dépasser ceux de la musique d'Internet par sa fréquence. Le traitement de texte est loin d'avoir trouver son correcteur orthographique à la mesure de ses ambitions et cela dans toutes les langues. Pas minimaliste, du tout, le futur! "En April, ne te découvre pas d'un file". On y adhère et on se plie aux nouveaux noms et on adopte aux nouvelles manières de penser. On peut même se payer le luxe de mener de front les deux Évangiles. La crise va peut-être inversé les pouvoirs de manière inattendue. La cyber-guerre n'est pas de la science fiction. Ca, c'est sûr.

"Vista", "hasta la vista", comme disait ses détracteurs impatients de le voir sortir, son interface est loin d'être aussi intuitif qu'espéré. Changer une résolution d'écran n'est pas aussi simple. Défragmenter à chaque sortie, c'est se risquer une minute dans la vue. Ne le faire que globalisé, c'est se ramasser quelques heures. L'étendue du disque a de ses contraintes. Installer les patches des pilotes, vaut mieux avoir internet qui fonctionne pour charger les dernières mises à jour en espérant que tout y est en place sans pages disparues. Mais il y a des compensations; cela s'ouvre plus vite, surfer est plus cool, la sécurité est plus ferme, le Firewall du proprio est moins consommateur. Tout n'est pas simple même dans le meilleur des mondes. Alors, Vista eu le coup de bluz et dès 2010, ce sera Windows7 qui arrive avec ses nouvelles fonctionnalités. Le côté "user friendlyness" devra garder la barre. Le "nice to have" peut très vite devenir le "shit to use" si la complexité prend le pas pour combler les arguments du marketing.

1.jpgLe magazine PC Expert avait un article qui disait que le "PC parfait est virtuel". La virtualisation donne le potentiel sans le problème de maintenance tout en influant sur le réel lui-même. Créer des partitions logiques de son PC Matériel semble être une solution adaptée à la force de calcul de plus en plus importante. La percée récente de Linux a accentué la tendance. Cacher le fonctionnement interne avec une représentation simplifiée et stable est préconisé. Simplification de la réplication de l'utilisation optimale des disques avec sécurité en parapluie déléguée au virtuel. Un hyperviseur dans le moteur selon le principe Xen travaillant en émulation de tous les softwares existant avec une perte de moins de 5%. Si au niveau "serveurs", l'augmentation du taux d'utilisation et de la rentabilité des machines est importante, au niveau machine personnelle, c'est moins clair. Les serveurs étaient employés souvent à moins de 8% de leur capacité. La bande passante des réseaux reste le maillon faible. Le Mac et le PC ont fusionné leurs potentiels depuis le processeur Intel retrouvé dans les deux machines. "Fusion" est un approche mais les performance chutent et le PC natif reste forcément meilleur. WinDev était représenté comme le software du développeur.

 

1.jpgLes dangers: Les particuliers livrés à eux-mêmes, sont souvent seuls responsables de leur manque de précautions perdus dans l’euphorie et l’excitation de la découverte et de la volonté de partager. Les hackers auront une avance sur leurs correcteurs et les dégâts occasionnés ne seront jamais assumés par les pourvoyeurs de logiciels. Rester en dehors du coup, en dehors des connexions, plus personne ne le pourrait. Ce serait s'exclure de fait des mises à jour correctrices des éditeurs. Le risque majeur restera les virus indétectables.

"Doit-on avoir peur de la planète Facebook?", lisais-je. Phénomène du Web. Réseau social. "Cherche ami d'urgence" serait le sous-titre. La génération d'avant "glandait" dans les rues. Celle-ci "glande" devant l'écran noir de leurs nuits blanches. Depuis 2004, succès commercial incontestable pour ce teenager milliardaire de la nouvelle vague, Mark Zuckenberg. Il ne s'agit plus d'afficher des photos familiales. La curiosité, le besoin d'appartenance à des communautés ont fait le reste. Plus de 110 millions de "Faces" inscrits dans le monde dans ce "book" planétaire. Socialiser avec l'assentiment de ses utilisateurs, n'est-ce pas le meilleur marketing? Être membre et exister, pourrait-on dire.

Le calcul pourrait encore s'accélérer avec l'ordinateur quantique. Le bit numérique "0" et "1" pourrait s'assouplir par les qubits et répondre à des équations linéaires plus rapidement même si la précision y perdrait. La durée de calcul se ferait en valeur proportionnelle aux logartithmes plutôt que purement numériques. Face à la rapidité nécessaire, l'approximation suffit dans beaucoup d'applications comme la météorologie, le traitement de l'image, par exemple.  

Le futur de l'imagination: L'énergie, la génétique, la médecine, la cellule, le cerveau sont devenus les nouveaux challenges du 21ème siècle. La complexité ne fait plus peur avec les forces de calcul en expansion.

Toutes les évolutions qui n’ont pas assumé le temps de retard de l’homme vis-à-vis de la machine tournent pourtant un jour à vide. Le rythme d’absorption de la connaissance n’est pas aussi rapide que la machine. La performance accrue patinera (c'est peut-être déjà le cas) tôt ou tard.

Les avantages de l’évolution ne sont plus aussi flagrants. Le progrès utile s’effrite dans les gadgets.

Chacun se cherche au niveau de la production. Réduire les coûts n’a pas quitté l’esprit des décideurs souvent financiers pour réaliser les bénéfices idéalisés par Wall Street. Cercle vicieux du bénéfice à court terme. Reflex automatique puisque le revenu échappe au contrôle. Le consommateur lui-même n’est pas blanc bleu dans le processus d’entonnoir en maintenant ce seul esprit de « tout et tout de suite ».

Le problème n’est plus de savoir si on peut faire les choses, mais pourquoi les faire et surtout pour combien de temps.

Le coup de poker pour le rachat de Yahoo par Microsoft a échoué. Les logiciels de gestion existent depuis un certain temps dans leur simplicité demandée par les utilisateurs de bas de gamme qui font tout de même la plus grande partie quantitativement. "Le logiciel n'est pas mort" est-il dit tout de même ailleurs. Apple semble aller à contre courant. Le "cloud-computing" d'un  autre côté et la "old school" qui télécharge des applications pour l'iPhone. Peut-être. Mais, c'est oublier que la confidentialité, la "customomisation" d'antan, c'est fini.

Le livre devient électronique. Visions antagonistes? Pas tellement. Plutôt complémentaires. Lire différemment? Encore faut-il en avoir le temps quand on remarque qu'il y a, souvent, plus d'écrivains que de lecteurs dans notre monde qui veut aler toujours plus vite? "L'environnement devient cliquable dans une virtualité bien réelle" annonçait Joël de Rosnay au sujet du CamPhone.

Tous les chemins mènent à Rome dans le monde virtuel ou réel, à condition d'y arriver.

Le journal l'Écho (19/8/2008) se posait la question de savoir "Comment l'informatique va se sortir de la crise économique?". Comme toutes les crises, celle-ci sera cyclique. Une autre bulle qui reviendra au point de départ avec de nouveaux concepts légèrement adaptés pour relancer le schmilblick. Tout dépend du charisme des décideurs et surtout des inventeurs qui seront écoutés ou non.

Une autre fois, on parlait des supers calculateurs qui seraient toujours destinés aux applications scientifiques, aux universités, aux industriels et aux militaires. La simulation est un processus souvent utilisé et très complexe. La climatologie espère pour 2012 atteindre une précision dans la résolution  de l'ordre du kilomètre. Les réseaux en grilles de l'EGEE avec 80.000 ordinateurs sur 300 sites n'ont pas près d'éteindre leur capacité. Toujours en 2012, les informations augmenteront de 4 PicaOctets par an, ce qui équivaudrait à 10 kilomètres de CD empilés en hauteur.

Reculer pour mieux sauter dans le style d'une nouvelle gestion? La crise oblige à se retourner sur les erreurs, à analyser le cœur du métier. Une gestion des risques financiers et de la compréhension de ce que veut réellement les clients en les "customerisant", c'est-à-dire en les ajustant au mieux aux besoins spécifiques sans brûler les étapes. Une entreprise n'est pas une autre, au travers de sa gestion, même dans le même type d'activité. Cela demandera peut-être plus d'éclatements dans la spécialisation mais aussi des services plus généralistes qui pourront aiguiller le client vers des choix rationnels dans leur ensemble sur le long terme.

Le durable au niveau informatique, ce serait vraiment nouveau. Ce qui nécessitera certainement un retour aux sources loin de l'outsourcing dont on n'a pas encore les chiffres du véritablement rendement sur le long terme. Seule la sous-traitance de bas niveau, loin du "core business", peut s'envisager sans gros risques pour l'entreprise, mais en ajoute pour ses acteurs humains. Pour la société d'informatique, ce n'est pas en cédant son exploitation interne vers l'extérieur qu'il pourra prouver son expertise pour ses propres clients.

Les tâches d'installations et de la mise en service par des sociétés qui en ont l'expérience du procédé peuvent entrer dans la lignée des "externalisables". Dans ce cas, les plans sont toujours les mêmes, calibrés, budgétisés au plus juste. Le contrôle global, lui, ne peut se concrétiser sans un personnel interne suffisant, compétant et de confiance. Peu importe le prix si c'est pour garder le "bateau à flot" et garder l'ivresse. Après le boom du 20ème siècle, nous sommes plutôt dans une phase de consolidation informaticienne. Pas de régression, plus de révolutions, rien que des évolutions successives. Tout passe, tout lasse à un moment donné. Le numérique ne fait pas exception.

L'iPad va-til détrôner le PC, comme disait Steve Jobs? Un laptop, un netbook encore trop encombrant sur les genoux? Il chauffe trop les cuisses? iPod et Smartphone sur les rangs pour le remplacer comme engin de communication? Oui, en promenade, les mettre en poche, peut-être. Mais il faudra avoir des doigts de fée et un œil aiguisé. La vitesse n'est pas un problème. On peut presque tout faire de part et d'autre. Le clavier n'est plus présent, mais virtuel, tactile. Oui, mais c'est un clavier. L'homme est l'intermédiaire qui n'y trouvera pas son moyen naturel pour entrer du texte par par la parole et non pas par les doigts. Pour ce faire, il faudra analyser la voix, connaitre les langues, pour en faire du texte. Le clavier virtuel n'est qu'un moyen de salir l'écran de ses doigts graisseux. 

La morale de l'histoire: "pas de concurrents, mais seulement du complémentaire". Le hardware n'est plus la tête de pic et de pointe. C'est le software qui lu a volé la vedette. Le "cloud computing" pour centraliser les données? A condition que celles-ci ne soient pas trop sensibles et que l'on puisse toucher rapidement les responsables de la connexion Internet, quand la coupure survient. Le partage des fichier avec iPV6 pourrait donner une entité propre à chaque information en fonction de sa localisation. Les adresses ne seraient plus un problème (vous vous souvenez des A:,/ B:,/C:...et ainsi de suite). 

Les hybrides en tablettes dans 95% des cas. L'OS universellement standardisé, c'est pas demain la veille. Quels seront les interfaces pour passer d'un système à l'autre? L'androHic?

Le futur, ce n'est plus le matériel qui importe, mais ce qu'on y installe. Tisque de monopole? Possible. Quand on lit que l'événément le plus marquant de l'histoire d'Internet est le lancement de Google en 1998 suite à un sondage. Tout est possible.

Personnellement, je dirais que ce sont les hyperliens. Question de goût...

1.jpgIBM n'est plus un véritable marchant de "machines". Il l'est devenu de "solutions" intégrées, concurrent d'Unisys et de bien d'autres.

En Belgique, "Real Software" et "Dolmen" se sont associés pour devenir "Real Dolmen" dans le même champ de batailles. Microsoft deviendra-t-il le futur marchand de publicités avec un nouveau Windows dans la lucarne avec ses anciens chevaux de batailles en porte clé virtuelle? Seul le coût de la réalisation et de la maintenance y seront des freins.

Réformer, c'est parfois, aussi, avoir la nostalgie du passé sous forme de portail.

Le magazine "Sciences et Vie" de décembre 2008 écrivait qu'Internet était au bord de l'explosion. Le net n'a pas été prévu pour une telle extension exponentielle de son architecture. L'année 2008 a été traumatisante à cause des failles qui ont dû trouver des parades dans la panique tant la cybercriminalité avait atteint des sommets. Le net, c'est un interface entre 30.000 réseaux et qui dessert 1,4 milliards d'utilisateurs dans le monde. Le TCP/IP protocole adopté en 1983 par Arpanet ne sait plus suivre la montée en puissance demandée. Le DNS (Domain Name System) et le BGP (Border Gateway Protocol) font leur possible avec des IP adresses au travers du Web avec le fameux "http://" ou le "ftp://" pour le transfert des fichiers ou encore le « smtp:// » pur l'eMail. Aucun système d'authentification suffisant n'a encore été imaginé. Chaque jours 120 milliards de Spams (pourriels) sont transmis avec des coûts qui ne dépassent pas les 30 dollars par million d'envois. Changer tout cela devient le casse tête de demain parce qu'il faudra réaliser la transformation en un temps très court après des tests qui ne sont pas moins risqués.

1.jpgAvec un peu plus de 4 milliards d'adresses IP maximum, il était prévu que le bug des IPv4 Adresses allait se passer à la fin 2012. Pour éviter la pagaille, l'Icann avait pensé organiser, pendant l'été 2010, une coupure d'Internet pour passer au protocol IPv6 et cela pendant 3 à 5 semaines. Le groupe LACNIC se rassemblera en janvier 2011. Si l'implosion, la saturation se produisait, les FAI devraient rembourser les forfaits à leurs clients. Pire, que le bug de l'an 2000. Fin 2010, il restaient  80 millions d'adresses restantes à distribuer. Septembre 2011, est le nouveau point de non-retour. Plus personne ne pourra se connecter sans en éliminer une autre.  La solution intermédiaire, c'est de partager la même adresse. La qualité et la sécurité ne serait plus à bord. Le transfert devra se faire d'un coup. Depuis 20 ans, les créateurs du web connaissaient le problème et étudiaient le IPv6. La Chine y pensait dès 2006. L'Europe intimerait une loi incitative. Mais, c'est toujours loin d'être garanti.1.jpg

Fini les pièges, les "hackers", cette fois, kidnappent la puissance de calcul des utilisateurs. "Storm Botnet" a dérouté 15 à 50 millions de machines, hameçonnées ou asphyxiées chez les particuliers ou les sociétés. Alors, on "patch" dans le temporaire avec rustine sur rustine qui contiennent parfois bien plus d'instructions que pour le protocole lui-même. Pour s'en convaincre, il suffit de voir le temps nécessaire pour lancer une machine avant d'être opérationnelle. Le WiFi et Bluetooth n'ont fait que déboussoler un peu plus avec le TCP et ses connexions mobiles mais ralenties ou même intermittentes par relais.

L'Australie annonce sans grands fracas qu'elle va filtrer Internet ce 2 janvier 2009. Est-ce le retour à la case départ et l'éradication de la liberté d'expression chère à la toile? Les raisons invoquées sont louables "protéger les enfants", "bloquer l'accès des contenus illégaux". Un budget de 62 millions d'euros pour protéger les enfants en temps de crise?

Le durable sera une autre manière de réinventer le futur, avec ou sans pare-feux (firewall).

Des transistors de 22nM ne pourront plus indéfiniment être réduits. La polyvalence a mené à des monstres en instructions des logiciels. La puissance des machines devra augmenter de concert avec les Operating Systems. La taille des écrans est cherchée dans le meilleur compromis. L'autonomie sera toujours un relais des potentiels des batteries. La sauvegarde des informations restent le point névralgique de la sécurité. Les connexions et leur vulnérabilité, la question principale. Pirates à bord.   

La vie privée, c'est foutu. Pourrait-on conclure. Le ver était déjà dans le fruit depuis longtemps, mais, c'est bien au changement de siècle que les choses se sont accélérées.

La Toile est tendue. On parle même que pour 2012, toute la France serait dans ses fils.

 

 

0.jpg

30 janvier 2013C’est aujourd’hui que Research In Motion dévoile au monde sa nouvelle gamme de smartphones BlackBerry 10. Dernière chance de convaincre, mais aussi de rentrer sur le marché des terminaux tactiles avec un système d’exploitation moderne et innovant pour le géant canadien, qui devra convaincre que BlackBerry n’est plus une marque s’adressant exclusivement aux professionnels…

Commentaire: Pour téléphoner, pour surfer, pour jouer il suffit de le caresser. Une caresse et il vous donne tout ce que vous lui demandez. Il anticipe, il apprend, il donne tout ! Tout de suite.

Fini de tapez une fois deux fois 3 fois… Plus besoin de fermer et sortir afin de revenir sur le bureau pour ouvrir. Une caresse pour passer d'une appli à une autre. C'est le seul au monde
La maîtrise de la vitesse des mouvements fluides grâce à la technologie « peek ».
L'incroyable "time shift". Un vrai portable 4G HDMI est un 4".2
Un vrai smartphone est le Black Berry Z10. Un vrai confort
 
Tout est dit. Plus rien à ajouter...

08/10/2008

La Grande Gaufre (15)

Tableau 15: Sous les pavés des claviers... la plage ?

Epilogue

« L'idéal absolu de l'acteur doit être de devenir un clavier, un instrument merveilleusement accordé dont l'auteur jouera à son gré. », André Antoine

1.jpgPour l'homme moderne, le traitement de l'information et sa mise en pratique par les machines sont et resteront de merveilleux outils qui se rapprocheront en taille et en esprit à ce qu'était la mini calculette.

C'est, pourtant, la meilleure ou la pire des alternatives en fonction de l'usage qu'il en fait. Tout va plus vite pour réaliser les boulots les plus complexes. C'est récupérer le temps précieux perdu dans les travaux répétitifs pour permettre de réattribuer le temps gagné sur d'autres tâches plus enrichissantes. C'est aussi se tourner vers les excès de l'exploitation de masse et de gains de productivité qui n'ont pas toujours retrouvé dans ses changements, l'amélioration globale de la société.

"Travailler plus" reste encore le bouton pressoir sur lequel se base trop d'espoirs pour sortir de la moindre crise. Solution qui serait oublier le bénéfice. Tout est à disposition pourtant dans des bases de données pour appuyer les efforts et en extraire plus, s'il est besoin sans pour cela devoir passer à la vitesse toujours supérieure pour se perdre dans les "nice to have".

La productivité serait-elle l'arnaque de notre temps et le signe de la dégradation de la gestion type "américaine" comme le déclarait Henry Mintzberg, professeur de gestion à l'Université de Montréal? La grande crise, nous y sommes. Retour à la case départ pour en trouver les corrections, avant de réexporter ce modèle de gestion. Les problèmes sont nés aux États-Unis. Beaucoup d'économistes pensent trouver ces corrections en les renvoyant à leur géniteurs. Ce serait pourtant le moment du réveil pour toutes parties du monde pour changer les structures en les bousculant plus fondamentalement.

Dans l'entreprise post-moderne, l'informatique donne un potentiel énorme par les voies du virtuel. Les relations humaines dans le réel s'en sont vues bouleversées avec beaucoup de victimes et de désillusions à la clé. De la relation en vertical par échelons successifs, on est passé à celle de l'horizontalité, de l'égalité fonctionnelle. Dans la verticalité, rien n'a, pourtant, vraiment changé. Les parapluies des décisions de haut en bas subsistent bel et bien. Le « middle management », l'« intermédiaire », avec son rôle clé, n'est plus qu'un presse purée, relais des messages de la haute direction sans véritable évaluation dans le dialogue solidaire. L'horizontalité est souvent plus aplatie que prévu. Quant à la voie oblique, personne n'y penserait de conseiller les voies parallèles. Pas le temps ni les moyens. Les services dans l'entreprise ne communiquent souvent que comme concurrents immédiats.0.jpg Avec l'externe, le client, l'étape du travail en collaboration avec le fournisseur est encore rare. Il faut apporter le travail fini prévu par contrat. Point.

Cela peut se traduire par de l'espionnage qui se retrouve non seulement en externe mais aussi en interne. Pendant des temps glorieux, les meetings, les sessions de séminaires pour informer de la stratégie étaient courants. Parfois trop mais jamais assez sur les clés de l'entreprise. La vieille maxime "Time is money" se retrouve toujours à l'ombre de l'autosuggestion. Dans ce jeu, les initiateurs de projets, les initiés et les suiveurs se sentent dans le brouillard et très mal dans leur peau par manque de reconnaissance, de solidarité.

0.jpgLa crise actuelle va peut-être changer la donne, à la croisée des chemins. Certains clament déjà haut et fort "Vive la crise" en voulant donner une administration plus démocratique à la gestion des entreprises. Dans une révolution, par un "Anticapitalisme démocratique", Olivier Hubert préconise de replacer les décisions du business à la base, aux travailleurs et non plus aux seuls actionnaires trop éloignés de la source créatrice. Au besoin ralentir la croissance au juste prix et en relation aux besoins réels et non plus espérés. Retourner au "core business" quand les entreprises ont pris des dimensions incontrôlables vu leur taille. Rendre la stratégie opérationnelle dans les faits, augmenter l'esprit d'équipe, développer les personnes, voilà les principes toujours à rééquilibrer dans les résultats pratiques. Véritable révolution qui demanderait d'office un réajustement des salaires vers le haut et non plus vers le bas. Une pénurie d'informaticiens est déjà sur les rails. Comme on sait que les salaires suivent toujours l'offre et la demande...0.jpg

La création de la richesse se faisait souvent par de petites découvertes, de nouveaux procédés pour "huiler" le mieux possible les rouages des décisions en s'appuyant sur un maximum d'idées préconçues et de documentations, très vite obsolètes, dans un cycle à répétitions. La société configurée en poupées russes, avait de ce fait des tendances de se perdre en efficacité. La virtualisation y a ajouté l'absence de sources et souvent de résultats.

Pour restructurer tout cela, dernièrement, on pense même à monter dans les nuages. Le fameux "cloud computing" serait-il la prochaine révolution? Nous y sommes déjà et on compte déjà les dégâts potentiels.

0.jpgLes TIC vont de mieux mieux en cette fin d'année 2009, lendemain de crise aigüe. Windows Seven pourrait contribuer au redressement économique, dit une étude de IDC. Sa publicité dit "Seven rapproche Microsoft de l'humain". Espérons que ce chiffre "sept" sera magique. 58 millions de nouveaux emplois et 177 millions de copies sont attendues (50 rien qu'en Europe).Le livre électronique Kindle d'Amazone a contribué à une hausse des résultats de 68% en quelques mois. Intel, IBM, Apple (47%) , Google (27%) , Yahoo (3 fois le bénéfice net en un an) affichent aussi une santé qui fait oublié les moments de doute. Il n'y a que les télécomunications tel Nokia qui est berne. Mais, Nokia réinvestit et présente son Notebook.  Pour les Netbook, Google annonce son Chrome OS. L'essentiel dans la boîte, peu d'exigences à espérer sinon une vitesse d'accès comme à la télé mais tout est disponible dans les "nuages du calcul" en exclusivité.  1.jpg

Le combat des Titans a commencé. Les fondateurs de Google, Sergey Brin et Larry Page, n'avaient peut-être pas pensé qu'ils auraient reçu autant de critiques de toutes parts. Contestation d'hégémonie, d'opacité des contrats publicitaires, de positions dominantes.  Cela ressemble à la bonne vieille époque de MS. Alors Google organise la riposte. En attendant en 2009, cela fait tout de même 23,6 milliards de dollars de recettes.         

Facebook et Google Apps, par leur capacité, dépassent toutes les limites du stockage et du calcul trop cloisonnés anciennement dans les "datacenters" de la "grande époque". Machines, soi-disant, trop mal utilisées et ajustées avec efficacité dans des temps trop écourtés des fuseaux horaires. Désormais, par cette voie c'est plutôt "Le monde est à nous et servez-vous, nous avons de quoi vous satisfaire et cela 24h sur 24, 7 jours sur 7". Publicité pour la publicité puisque c'est avec cette dernière que l'on paye l'opération. Utilisation optimale des serveurs et des services, intermédiaires de tout ce qui se traite au niveau informationnel au niveau mondial presque sans bourse délié. Le matériel n'existe plus pour l'utilisateur mais pour le monde entier. Seule la fonction subsiste et c'est elle seule qui paye. 1.jpg

Facebook, véritable phénomène de société, devient la pierre angulaire, le transit obligatoire à la renommée de l'ego et de la société toute entière. Le rêve? C'est à voir.

On parle de 100 milliards de dollars de capitalisation. La bulle "techno 2.0" serait plus un mythe qu'une réalité. Mieux armée fiancièrement que lors de la bulle de 2000.

Twitter devient une boussole pour trader en Bourse. Avec 140 caractères maximum par message, c'est bien suffisant pour exprimer une idée, même si elle risque d'être incohérente et non vérifiée. Mais ce réseau social, créé en 2006, est parfois plus efficace que 10.000 armes à feu dans une révolution à cause de sa brièveté de transfert du donneur aux récepteurs. Twitter matérialise la part psychologique des évolutions d'une société. Sur un échantillon des 200 millions de tweets postés chaque jour à travers le monde, une analyse partielle permet de donner une prédiction des mouvements boursiers pertinents à 88%. "Twitter mood predicts the stock market". Les humeurs des twitteurs vont successivement de calme, confiant, alerté, critique, tranquile à heureux et traduisent les émissions générales des marchés.En faire l'algorythme peut devenir plus qu'une martingale. (Tweettrader.net). De là à manipuler les cours, il n'y a pas tellement de différence.

Le 7 août 2008, le journal l'Écho se posait la question "A quand une réelle mémoire virtuelle?". On y parlait de MyLifeBits, une base de données au modèle de portails internet actuels qui servirait de palliatif aux oublis de notre mémoire. Gordon Bell, pionnier de l'informatique de chez Microsoft, y enregistrait et numérisait tous les détails de sa vie par tous les moyens existants. 160 GigaBytes actuellement de "lifelogging". Démentiel, peut-être. Mais, une "vie en boîte" pourrait aussi servir de point de départ à une autre pour éviter les mêmes erreurs. Cette manière de se "sauver" serait d'après lui, dans 20 ans, monnaie courante. Qu'adviendrait-il, si on intégrait toutes ces bases de données d'individus par des liens en commun? Un nouveau monde plus structuré, peut-être, mais moins libre aussi. 1.jpgLes informations que l'on trouve sur internet, constituent une source inépuisable toujours en évolution, toujours à la recherche de la valeur ajoutée. Il est cependant à rappeler qu'il est aussi tentant de se perdre dans des copier-coller très difficiles à détecter. Plus grave encore, cette information peut être falsifiée ou tendancieuse. Mi décembre 2008, Yahoo annonçait la réduction de la durée de stockage de nos petits secrets (90 jours). Serions-nous au sommet de l'iceberg du stockage de l'information?

Être modérateur devient une profession à part entière avec des qualifications généralistes de premier ordre qui redescendent dans tous les domaines du savoir en véritable chef d'orchestre objectif. Les sites citoyens ont essayé de rassembler les blogueurs esseulés et subissent souvent un trollage difficilement contrôlable pour être éradiqué. Aucune technique d'élimination n'a encore été suffisamment efficace pour laisser la parole aux internautes sans être considérée comme une censure. Mai 68 a été la recherche de la liberté, 2008, la recherche d'ordre. On se demande, cette fois, à quoi la liberté peut servir quand l'information va dans tous les sens en se réfugiant derrière la confidentialité des pseudos. Malgré certaines tentatives, Internet n'est pas encore contrôlé par une instance mondiale. Nous sommes encore dans le domaine du gratuit donc du "non contrôlé". Il n'a pas encore conquis totalement la liberté dans tous les autres pays mais elle explose tout de même. La communication n'est, heureusement, plus un mot vague. Virtualisée et internationalisée. Efficace? Cela reste aussi à voir.

Expliquer la déroute des constructions au temps de "La Grande Trappe", celles des sociétés informatiques en forme de montagnes russes, ne pouvait se faire qu'en prenant les décisions du haut management avec une volonté de prestige mais aussi grâce à leurs "parallèles", les clients. Les États, eux-mêmes, avaient décider de ne pas intervenir si ce n'est que pour leur propre destin de rentabilité. Réagir dans le cours terme par l'obligation, faisait dépendre trop de l'environnement et des sautes d'humeur et des risques de l'histoire. La crise du pouvoir d'achat, de la finance, de l'écologique devait bien faire craquer l'ensemble un jour. Revirement: étatiser semble la voie choisie très récemment par certains pays.

Entre-temps, il n'y a pas photo, un fossé s'est creusé entre le sommet de la hiérarchie et des gens de terrain. La confiance n'est pas qu'une question d'argent, mais aussi de motivation. Ce ne sont pas uniquement les clients qui font les lois, contrairement au message toujours envoyés avec emphase par le haut management. C'est, un peu, l'histoire de l'œuf et de la poule, du "qui génère qui"? Les travailleurs qui se cachent derrière la production, ont plus d'importance qu'on le croit. Travailleurs qui eux, aussi, dans ce cas, sont consommateurs et feront l'avenir de l'ordinateur, comme du reste, par leurs propres desiderata de consommation. Motiver est un besoin fondamental sinon c'est l'absentéisme et le désintérêt qui apparaissent. Le choix de société et de la raison peut espérer être très politique et faire tendre le marché vers des horizons qui n'étaient plus uniquement portés vers le seul progrès mais vers l'avantage de ses créateurs. Le "principe de Peter" est bien appliqué dans tous ses développements. Les externalisations dans les pays lointains, font encore des dégâts.

Il fut un temps où l'esprit d'appartenance, de fidélisation à une marque se créait. Au Japon, il fut un temps où on entrait dans une société, pour n'en sortir qu'à la retraite. Image qui n'était qu'un reflet partiel de la réalité qui oubliait les petites sociétés de deuxième zone aux travail en sous main pour les grandes étiquettes du marché. Fidélisation, aussi, par les on-dit. Publicité naturelle. "On-dit" qui se retourne contre leurs propres initiateurs dans la morosité, aujourd'hui. Une saturation des marchés a été aussi à la base des lancements ratés, des fusions sans bénéfices ni lendemain pour tous ses acteurs en dehors de ceux des actionnaires. Assumer les changements à leur juste valeur prend souvent plus de temps que celui qui est planifié par le sommet et ses commanditaires. Sous-évaluation de l'importance des changements, mal compris dans leur finalité, se répercutant au niveau de la vente, elle-même, et donc, finalement, des clients.

Les investissements ne se font pas uniquement à coup de stratégies mais avec la collaboration des besoins réels de tous les acteurs. Hors, c'est souvent faire plus avec moins en augmentant le stress à tous les niveaux. Quand les coûts de salaires ne suivent d'ailleurs plus les courbes du passé, il y a péril en la demeure. Faux ou vrais périls? Question de relativité. Des quotas s'échafaudent sur l'année suivante avec la seule référence de l'année précédente sans prendre en considération les conjonctures ni les augmentations de travail et de mise au courant des transformations.

Le Bureau du Plan qui s'intéresse au futur, n'a, apparemment pas, apporté la boule de cristal magique pour orienter la jeunesse vers des emplois de leur avenir réel, c'est-à-dire 20 ans dans la vue. La crise que nous connaissons aujourd'hui, n'est que le résultat d'appréciations trop mal cernées, au départ, et mal contrôlées, ensuite. Les graphiques et les statistiques ont essayé de modéliser les réalités du futur avec le seul passé. Enregistrées dans des données, utilisées par des programmes avec des assomptions non vérifiées dans la durée, ni ajustés avec les paramètres les plus adéquats.

L'informatique est une "machine" à restructurations. Dire le contraire ne serait pas exact. Elle a créé de nouveaux métiers. Métiers qui ont à leur tour disparu au jeu de la roulette russe. Les restructurations ne font pas partie de la technique entre "carotte" et "bâton". Elles n'en ont cure. Elles sont purement financières dans la recherche de la rentabilité maximales au bénéfice dune élite.

En Europe, HP/EDS supprimait, le 25/9/2008, 9330 emplois dans le secteur des services informatiques chez EDS qu'il venait d'acquérir.

Août 2011, HP renonce, cette fois, à son WebOs, et donc aux tablettes, aux smartphones et envisage de terminer sa branche PC en s'oriente vers les services en rachetant l'éditeur de logiciels, Autonomy.0.jpg

Internet a mis à dispositions des moyens de communications entre les hommes, des moyens qui se détournent de ses objectifs d'harmonie aussi.

Exemples parmi d'autres, les « Call Centers », les « Helpdesks ». Ils sont devenus des "machines à informations virtuelles et à ventes à distance", orientées par les engins de prospections cités plus haut. Contrôlés par la méthode espionite et soumis à des pressions maximales, ses travailleurs sont devenus des victimes qui tombent en dépression. La sous-traitance, l'intérim y ajoutent la touche du cynisme dans la brièveté des contrats. Combien de fois n'entend-on, avant tous contacts, les paroles "votre communication sera contrôlée pour raison de sécurité". Quelle sécurité? Limitation dans le temps, oui. Un rythme de 2 ventes par heure, pour les premiers, une réponse rapide et plus ou moins satisfaisante, pour les seconds. Satisfaire dans un minimum de temps est devenu la base de toutes relations humaines. Véritable phénomène de "burn-out" avec l'écran et les oreillettes comme transmetteur de stratégie et de culture d'entreprise dans un culte de la seule "rentabilité". L'expertise est dépassée par la productivité à la baïonnette. De l'autre côté des téléphones, le citoyen, qui reçoit des appels non demandés, se sent harcelé, mal conseillé et cherche à porter plainte. Difficile de concilier vie privée et marketing quand on se voit au milieu de la vague dans l'explication ou la vente de l'information, tout azimut mais sans vision des réels besoins. Les vrais problèmes qui n'ont pas de réponses vraies trouvent leur solution avec des placebos.

0.jpgIl est vrai que le sur-mesure n'était pas le plus rentable du côté investissements pour le producteur. Cette fois, le tout-fait n'arrange plus personne sinon par l'usure du temps. Remplir jusqu'au bord par toutes les fonctions disponibles, n'est pas supportable non plus au sujet des coûts pour l'acheteur. Complexifier n'apporte que mauvaises compréhensions en finale.

Pour corriger le manque de personnalisation, établir des "firmwares", des blocs de logiques que l'on appelle à souhait à partir de mémoires plus ou moins mortes ne peut se concevoir que si on se rappelle de ce qu'ils contiennent pour pouvoir les amender à souhait dans un futur plus ou moins proche. La correction n'est pas encore automatique. Les erreurs de programmes ont de plus en plus d'outils de diagnostique. Outils qui vu la complexité croissante et rapide, ne pourront que limiter les erreurs sans les éliminer à posteriori.

Tout est question de prix performance dans une économie qui se voit en proie à des limitations de potentiels.

Que se serait-il passé si l'informatique avait été publique, créée par les États, eux-mêmes, gérées par le public plutôt que par l'intermédiaire du sociétés privées et commerciales ? La réponse est aléatoire et peut-être illusoire. Les banques, récemment rachetées, étatisées après leur chute et leur faillite pourrait apporter des réponses dans le futur. Conserver de l'emploi effectif pour en obtenir le retour par les taxes, aurait peut-être ralenti les processus de rationalisation et du progrès. Le régulation est maintenant sur toutes les lèvres pour retourner vers un meilleur départ. Mais, les entreprises humaines ne sont pas à leurs premiers échecs de part et d'autres, public et privé. Des règles de protections plus sociales, plus démocratiques dans l'un des plateau du public en balance avec la recherche du profit à coups d'investissements à long terme feront-ils avancer les découvertes plus rapidement? Véritable défit de demain.

Le consommateur restera à cheval sur ces deux optiques comme acteur, en tant que gagnant ou perdant mais toujours payant la note en finale. Le gratuit se cache derrière d'autres financements comme la pub. Embauche massive, récession, débauche, chômage, les SSCI ont toutes, connu cela en précurseurs dans mouvements rapides. La crise actuelle touchera inévitablement beaucoup de secteurs et entraînera un drainage des forces vives. Alors, ralentissement de l'informatisation? Pas sûr.

 

0.jpg

Il faudra toujours se rappeler que si l'informaticien est une ressource humaine, il ne sera jamais, à part entière, une ressource matérielle avec son esprit très particulier du côté analyse logique et structurée. L'habitude, dès le début, a été de mesurer le matériel, l'ordinateur à son nombre de Mips par seconde. L'informaticien, lui, est de plus en plus évalué en nombres de « skills » par an et, progressivement, moins en qualités humaines comme technicien dans sa coupole. Il est bien plus sur le terrain à la recherche de l'efficacité par la pratique. La formation continue oblige la redondance des tâches dans des équipes soudées. Les heures supplémentaires pour les cadres moyens, sans réels portefeuilles, pour assumer les tâches sans staff suffisant doivent trouver d'autres alternatives. Ce n'est plus élever la sécurité de l'ensemble mais la déplacer en sautillant sur la corde raide. J'ai eu l'occasion pendant une courte période de jauger la manière "jeune" de travailler en informatique ("Une expérience raffraichissante").

Les informaticiens de premières générations ont fait partie à part entière de l'informatique souvent sans compter les heures supplémentaires mais avec un retour substantiel. Les générations jeunes ont pris d'autres plis plus arithmétique, plus éclectique et rationnel du donnant -donnant avant de sombrer parfois dans les excès du travailler de plus en plus pour survivre.

La prestation ne sera peut-être plus à l'ordre du jour dans les contrats d'emploi de demain. Il n'y a pas longtemps, pousser ses employés à prendre ses congés pour "recharger les batteries" en dehors des périodes de vacances et retrouver son énergie était là pour améliorer les revenus d'un trimestre en libérant les responsabilités des livres comptables. Une sorte de chômage technique, qui ne dit pas son nom. Mais, le travail subsistera. Les idées et les méthodes ont seulement changées. On ne parle plus du trépied qui devait tenir l'ensemble et qui préconisait, pour rappel "Client, Employés, Réputation". Aux dernières nouvelles, c'est devenu "Employee motivation, Customer satisfaction, Shareholder satisfaction". Bizarre, la satisfaction de la force de travail a été seulement oubliée.

L'ancien "body shop" se présente plus, désormais, comme un "representative shop" dans un premier temps, pour continuer dans le "pressing shop". "Representative" car il est devenu l'étiquette, la vitrine de l'entreprise qui l'envoie. "Pressing" parce qu'il doit rattraper les retards des précédents acteurs dans la chaîne des contrats. Est-il, désormais, le "technicien de surface", comme on surnomme une autre profession moins valorisante? Le métier à changé. Ce n'est plus seulement "construire" des programmes mais aussi les "maintenir". Répondre par l’intérim, parfois, à des besoins ponctuels et urgents que l'entreprise n'a pas eu l'envie d'assumer dans la durée, elle-même. Perte, de ce fait, dans l'investissement de son propre personnel plus sédentaire. Toujours, rapidité et qualité sont comprises dans le prix du contrat, comme si elles n'étaient pas antinomiques.

Prendre une société particulière en référence dans cette histoire ne serait pas fait play. Plutôt en témoignage. 

La compétition entre ces sociétés informatiques n'a jamais été tendre. Le challenge se réduit au cynisme de l'écrasement du concurrent pour rester le dernier en lice. On gagne un contrat par la persuasion ou par la persécution de certains maillons. Cela n'a pas été très différent entre ses employés quand les places devenaient de plus en plus chères. Éliminer un collègue est toujours garder une chance d'aller plus loin soi-même. On n'aime pas trop partager. Pour faire des économies d'échelle, les fusions ont canalisé les futurs en résultantes forcées tout en oubliant l'autre possibilité, l'échange d'actions mettant à l'abri tous les interlocuteurs d'une transaction. La fusion des idées entre elles a été plus rare dans le succès, trop obnubilées à répondre au NASDAC dans l'exclusivité. Être innovant se justifie seulement si les bénéficiaires sont dans des horizons communs. Dans l'informatique, il y a eu des surprises, des ruptures de contrats mais elles sont relativement rares, trop coûteuses pour toutes les parties dans la marche arrière, bien souvent peu prévue dans leurs conséquences.

Le château de cartes est bien là. Il se construit et quand c'est la tempête, cela fait très mal. Fausses cartes après cartes erronées, pour réduire l'épaisseur des cartes, mais en accentuant la fragilité de l'ensemble. Le fait d'être une multinationale n'efface aucunement les dangers, en augmentant les forces internationales en présence, vu la mise en conformité avec les cas trop précis et non standards.

Les ressources naturelles ou humaines disponibles ne sont d'ailleurs pas extensibles, non plus. Encore moins dans l'immédiat. Les écoles attirèrent des élèves dans le secteur comme si les débouchés pouvaient encore stimulés suffisamment. Une pénurie couvait jusqu'à il y a peu car les tarifs n'étaient plus les mêmes. La poule aux oeufs d'or était morte. Maîtriser l'acquis avant de passer à l'étape suivante, donc. Assurer avant de ré-assurer peut éviter le cercle vicieux de la consommation même sans stagner. La pénurie n'augmente pas avec la diminution des ressources mais quand celles-ci deviennent vraiment inaccessibles. Des scandales de prix, des salaires, du pouvoir, s'ils ont été bien réels, ne redonneront que de moins en moins de confiance et de loyauté vis-à-vis d'un système non équitable. Alors, il y a pénurie et pénurie.

Cette fois, Internet a réveillé la vie de citoyen par son mondialisme dans la virtualité. Il y a trouvé ses avantages sans en découvrir les vices cachés. Tout le monde peut se parler, discuter à travers le monde. Des idées, parfois très subjectives, y transitent, désormais, en même temps que les biens consommables tout en se rétrécissant ensuite leur proche job et fonctions dans le monde du réel.

Paradoxe? Retour au passé et aux valeurs que les peuples en voies de développement essayent de quitter en revenant à ce qui est local et en fermant les frontières. Troublant, je vous dis.

L'informatique, malgré les prétentions initiales, n'est jamais devenue la première industrie du monde. Elle prend, aujourd'hui, encore plus ses distances avec les télécommunications basées sur l'information pour se raccrocher à la publicité comme support. Fin du 20ème siècle, le matériel disposait de 42% des coûts, les logiciels de 18%, la maintenance de 15% et les services de 25%. Actuellement, les proportions se répartissent plutôt de manière dégressive entre les services, les logiciels, le matériel et enfin la maintenance.

Telle une vieille dame d'à peine plus d'un demi siècle, qui dans d'autres secteurs représenteraient 3 à 4 fois plus, l'informatique a souvent dérapé, brisé des jobs comme de vulgaires kleenex pour en créer d'autres très qualifiés, parfois trop spécialisés et pas fournisseuses de jobs massifs. Les niches ne restent jamais longtemps statiques. Des généralistes qui connaissent un peu de tout, on en cherche pour relier tout cette spécialisation à l'extrême.

Leçons pour le futur? Il y aura toujours certains qui tireront leur épingle du jeu et d'autres qui resteront sur le carreau. c'est écrit. Être brillant n'est aussi qu'une question d'appréciation et d'époque dans une continuelle remise à niveau. Une vue particulière de l'"affaire" en Inde.

Alors, parfois, on se met à rêver. On voit le monde d'en haut. Google Earth, bijou virtuel avec vue sur la terre sous tous ses angles en zoom intégré, à la pointure du click, permettra de voyager en imagination sans se déplacer de son siège. La précision n'a pas de limite et permettra, un jour, de se voir sur écran dans les positions les plus "exotiques". Lille se retrouve dans les 4 villes pilotes pour être visionnée à 360° en "street view" après les USA. La vie privée, c'est fini. Elle s'étale au grand jour avec en plus, l'agrément de ses utilisateurs trop contents de pouvoir exister.

Les projets de Google vont plus loin dans la recherche pour la recherche. La recherche de texte va se poursuivre par celle de l'image et du multimédias avec Goggles (lunettes) à destination du mobile avec l'aide d'Androïd de Facebook, de Twitter. D'abord ce sera la photo que vous avez faites qui permettra d'entrer en comparaison automatiquement avec les monuments mémorisés dans une base de données. Les photos de personnages, on y pense déjà.  

La reconnaissance vocale, elle, est en marche dans le monde anglophone. En France, ce sera en 2010.0.jpg

La vie privée n'est plus à l'ordre du jour dans le monde centralisé de Google.  

"WorldWide Telescope" de Microsoft. Naviguer dans les étoiles et les constellations avec la version "Automnal Equinox Beta", après un téléchargement de 29 Mb (excusez du peu) fait voyager, partager les plus grands télescopes spatiaux (Hubble, Chandra et Spitzer). Mais, il faudra un minimum de Windows XP SP2 et la grosse artillerie pour avoir une chance de s'y perdre ne fut-ce qu'en rêve. Prix à payer pour avoir la tête dans les étoiles. Tout a un prix, disais-je, plus tôt.

0.jpgEst-ce que, utilisatrice de l'informatique, l'humanité y a-t-elle gagné au change? Qui oserait répondre à cette question. Chacun a sur le dos, une partie du destin des travailleurs de demain. Le futur n'est pas, contrairement à l'informatique, un outil qui parle en binaire, perdu derrière des paramètres. L'e-Commerce a-t-il été oublié dans la bagarre?

L'informatique n'est pas une science exacte. Elle reste humaine en utilisant des séquences numériques derrière des organigrammes qui ne tiendront que le temps d'en trouver d'autres. Elle obéit en fonction de la motivation et de la perfection de ses acteurs humains ou matériels. Ceux-ci seront de différents ordres qui pourront aller à la seule paramétrisation de logiciels clés sur porte du marché à la pointure du théoricien concepteur, généraliste et conseilleur en solutions toujours réactif à toutes nouvelles technologies qui le remettront en alternance sur les bancs de l'école.

Mi-novembre 2008, le journal l'Écho avait déjà un article dont on pouvait tout espérer: « Le secteur IT en Belgique se porte mieux qu'on le croit ». Cela en pleine morosité due à la crise. A court et moyen terme, l'informatique offrirait toujours de bonnes perspectives. Plusieurs périodes de turbulence mais une croissance constante. Augmentation de 3000 emplois par depuis 2005 et le double d'entreprises (24698) ayant un lien direct avec l'informatique en dix ans. Le « Green IT », l'Open Source a le vent en poupe, quand les budgets diminuent et que les chances augmentent pour ceux qui se retrouvent gestionnaire des risques des crises. Mais, comme le propriétaire, le "libre" se voit attaqué aussi sur de nouvelles bases, celles du "cloud computing" qui a été initié par Google, une nouvelle manière de travailler avec tout à distance: données et programmes. Plus rien à installer, plus rien à sauver. Un autre rêve ou un autre cauchemar?

Ces deux là ne peuvent pas toujours naître dans l'exclusivité.

Conseiller un jeune d'aujourd'hui de se lancer dans la voie « informatique » pour seule corde à son arc, ne se justifierait plus en tant que garantie de succès à moins d'être engagé dans les rangs des grands pourvoyeurs de codes de base. D'autres qualifications seront, tôt ou tard, nécessaire pour épauler l'outil. Et il faudra y ajouter beaucoup d'eau dans son vin comme l'écrivait Toni Browers dans la langue de Shakespeare "Five things your manager could be doing better". Un version française est toujours disponible dans la vision "La technicité n'est plus seule". Beaucoup d'idées qui font rêver, mais bien vite oubliées.

Pour être objectif, il faut ajouter qu'au sommet, on ne se sent pas beaucoup mieux dans un cycle infernal. Angoisse de la solitude qui est soignée par des psys ou des « coachs » pour supporter le rythme du travail, des avions à prendre dans un stress croissant vis-à-vis de la fin du trimestre. Les patrons sont-ils devenus des névrosés aux extrémités, comme se posait la question le Nouvel Obs de décembre. Où peut subsister le temps pour réfléchir dans la sérénité? Le coaching est préféré plutôt que la psychothérapie classique. On sait se le payer, c'est déjà ça mais même une mécanique bien rodée reste fragile quand le sommeil n'occupe plus qu'une partie infime de la journée de 24 heures.

Faut-il garder un certain mystère autour de cette profession comme cela l'a été très longtemps? Non, l'informatique n'est pas un mythe, malgré son jeu dans le virtuel. Pourtant, il n'existe pas beaucoup de professions qui jouent autant l'intermédiaire de pas mal d'autres, peu de professions qui nécessitent autant une remise à niveau en continu et en perpétuel investissement de soi-même. Les "amoureux" de l'informatique qui aimaient bidouiller avec les bits ont partiellement disparu. Trouver la consommation minimale en temps et en place en mémoire pour un programme, personne n'y pense encore vu le prix dérisoire des mémoires. Le développement de base ne se fait plus que chez les "marchants de software du tout fait", du moins en surface. Il reste encore, heureusement, des mordus, des développeurs de l'ombre qui se retrouvent dans les forums de l'Open Source avec des langages de l'exotisme "C" et "C++". Ailleurs, la quantité a remplacé la qualité. On ne développe plus, on s'adapte. Le tout pour rien risque de se transformer en rien pour tout.

Nous faisons notre "cinéma" comme celui-ci l'a fait pour lui-même. L'analogie n'est pas anodine. Les remakes du cinéma côtoient les réécritures des programmes du passé. Les acteurs sont, pour le parallèle, les chefs de projets responsables mais qui n'ont plus les moyens de la politique obnubilée par le rendement. On ne se mouille plus en suivant les échéances à court terme. L'externalisation du travail (l'« outsoucing ») quand il s'est en en plus tourné vers des horizons lointains de l'« offshore » n'a fait qu'accentuer le problème en éliminant le capital des ressources humaines. Les clients de ses productions mal ficelées abandonnent le petit et le grand écran. Qui oserait dans les hautes sphères avouer s'être trompé de solution? Le "know how", lui, disparaît. Les objectifs et les responsabilités d'une société extérieur ne sont pas les mêmes. S'assurer de la pérénité de l'entreprise n'est certainement pas l'objectif number "one" des sociétés de l'aide temporaire.

Peut-on objectivement réduire ces ressources humaines à un un coût? Personne n'oserait annoncer l'échec de cette solution dans sa durabilité de peur de se faire sauter avec cette confidence. Alors, on se tait et on s'incruste dans l'erreur. Le chiffrage pour l'évaluer, on n'y pense plus. La responsabilisation dans les entreprises, s'était perdue dans la hiérarchie de ses membres. L'échange de responsabilités avec l'extérieur ne pouvait qu'être pire. Le "know how" a quitté les clients avides de résultats dans l'immédiat. Il a aussi quitté ses fournisseurs de services à bon marché. Marchés de dupe de la démesure des tâches fonctionnelles. Les Césars en cristal se retrouvent sur les cheminées pour les souvenirs. L'art s'est retrouvé dans des "boîtes noires" que l'on appelle en référence sans plus savoir ce qu'elles contiennent. Alors, on se prend la tête quand cela va mal. "Le péché capital, c'est l'ennui" comme disait quelqu'un. Militer quand cela reste possible ou mourir au côté du Soldat Inconnu. Il faut faire du remplissage, sinon l'utilisateur zappe. Le marketing fait le reste par la promotion. L'industrie de la consommation courante a simplement oublié l'art. On teste et on choisit sans parfois comprendre son choix par une seule intuition limitée dans le temps.

Définir les clés pour réussir une informatisation dans l'entreprise serait une collaboration de tous les étages dans le dialogue qui dégrossit les problèmes spécifiques avant tout développement. Rien de vraiment changé malgré le progrès de l'outil. Nous avons eu des pirates, les « hackers », j'en avais même fait un eBook que j'avais appelé "Le Grand Maître virtuel". Ce qui y était dit, est probablement dépassé par les événements. Le virus indécelable reste la hantise. Tout un programme de correction en perspective.

Le camouflage des virus prend des formes multiples. Il passe par l'auto-modification, l'auto-reproduction, le chiffrement (cryptage), la conscience (réagir en se rendant gentil quand il se sent découvert), le partiel (le déchargement par morceau successif), l'obfuscation (se perd dans des programmes inutiles), le botnet (en réseaux structurés)

"Les pirates informatiques peuvent-ils vaincre les armées". La cyber-science, de la science fiction? Non, l'armée de l'ombre des services secrets recruterait des informaticiens « hackers », ces pirates sont devenus les corsaires modernes. Oui, soyons concret avec le discret.

Déjà, en 1990, le futurologue Alvin Toffler (Powershift) prédisait une guerre totale de l'information. Nous y sommes. Espionnage, « hacking » des communications, tout y est. Seul la synthèse vocale a pris du retard. Dernièrement, il écrivait "La richesse révolutionnaire" en décrivant toute la complexité d'une nouvelle guerre de la société post-industrielle qui se chercherait entre les pôles de l'argent et de la connaissance. Quel en sera le gagnant? Suite au prochain numéro. Je n'ose plus dire "à l'écran".

Les menaces qui pèsent sur l'utilisation de l'informatique trouvent encore leur contrepoison dans la technologie de la défense, mais c'est souvent dans la panique. Les mots de passe, les codes à "n" chiffres et lettres, en minuscules ou majuscules, ne suffisent plus. Il en faut toujours plus. Les cartes à puces, à peine sorties, sont presque au musée. La carte d'identité "à puce" qui contiendrait plus d'informations que la loi n'autorise, fait peur. L'iris de l'œil, les empreintes digitales et bien d'autres moyens encore plus intimes, ne vont pas tarder pour s'assurer de l'identité et autoriser l'accès au "Système". Une manière de revenir à l'analogique de l'homme. Serait-ce le pari de remettre à l'heure la nouvelle pendule numérique avec la vieille pendule analogique ? Le numérique n'est pas altéré par le temps, ni lors de son transfert, ni dans sa copie. Un plus pour l'analogique? Force incontestable, mais qui manque toujours de « feeling » de l'humain.

L' "IA", l'intelligence artificielle suit sa propre filière dans l'ombre et elle aura aussi son mot à dire et pas des moindres, à la suite de projets, plus ou moins, secrets.

J'ai été assez critique à la révision de cette histoire. On pourrait me répliquer des questions telles que celles-ci.

- L'informatique a brisé beaucoup de carrières. Elle a volé la profession de beaucoup d'hommes et de femmes. Tu t'en es pourtant bien porté et tu en as tiré profit, toi, l'informaticien.

Ma réponse viendrait automatiquement.

- C'est exact. Je ne répondrais pas avec la réponse habituelle qui dirait qu'on ne va pas contre le progrès et que si ce n'était pas moi, ce serait d'autres qui auraient fait le travail. Il faut avoir une certaine envie de fainéantise pour faire un tel métier. Je dirais que l'homme n'est pas fait pour le travail idiot. Le travail tel qu'on le voyait dans le film "Les Temps modernes", devait un jour trouver remède. Il est vrai, que les espoirs ont été dépassés par les désespérances. A l'heure actuelle, beaucoup de développements sont programmés pour supprimer de l'emploi et réduire ainsi les coûts. Le "travailler mieux" semble être la solution finale avec l'automatisme des tâches ingrates pour les hommes. Ne plus travailler "bêtement", donc, aussi. Avec des neurones en plus dans la tête, on ne le peut tout simplement. 

 

0.jpg

La "Grande Gaufre des infos" s'est élaborée dans le stress et l'excitation. Par cet eBook, je l'ai survolé, alvéole par alvéole, facette par facette. Je lui a fait son chemin avec l'histoire, jour après jour, en fil rouge. Très vaste, cette "Grande Gaufre". Beaucoup d'autres sujets, ont été oubliés très certainement.

Ma tentative se voulait une suite de visions par le bas de l'échelle, celles des informaticiens, avec le sel et le poivre pour ingrédients.

Les puissants sont devenus plus puissants que jamais et changent de nom en alternance dans la publication "Fortune". Il fallait que je change de registre en sortant de l'histoire des seules machines mais celle des hommes qui elle se trouve à plusieurs endroits sur la Toile.

Beaucoup de choses restent à réaliser dont on ignore peut-être encore le champ d'activité. Beaucoup à inventer autour de l'informatique et des automatismes. Le clavier n'a pas encore pu être remplacé malgré les efforts. Temps perdu perdu entre le cerveau et les doigts de l'opérateur?

Je tiens à remercier mon prédécesseur, l'auteur de "La Grande Trappe" pour sa première approche. A la fin de son livre, il espérait que quelqu'un écrive, 20 ans après, un livre qui aurait pour un titre, comme "Mémoires Réelle. Fenêtre sur quarante ans de micro-informatique". Bien plus de virtuel en finale. Même pas un livre papier, un eBook, plus interactif, plus informatif encore par ses liens internes. Il disait que l'histoire n'était qu'un éternel recommencement. Oui, peut-être, tout dépend du point de vue où l'on se place dans cette histoire palpitante, remise en boucles concentriques avec respiration alternée.

La crise actuelle parle même de revenir à l'économie du réel. Ce qui ferait un bond tout à fait inattendu dans le futur. Non, la profession n'est plus ce qu'elle était: un métier de découvreur, de développeur. Ce sera peut-être pour la plupart que du travail de maintenance, de recherche à l'impossible étoile derrière Google ou d'autres moteurs de recherches.

0.jpgEn mai 2011, selon Millwoord Brown, les Top 5 des sociétés les plus puissantes s'établissaient dans l'ordre:

En milliards de dollars, Apple en avait 153.285, Google 111.285, IBM 100?849, Mac Donald 81.016, Microsoft 78.243.

En pourcentage de croissance, dans l'ordre:

Facebook 246%, Baidu 141%, Well Fargo 97%, Burberry 86%, Apple 84%.

0.jpgLe 15 août 2011, Google se propose d'acheter "Motorola Mobility" pour 12,5 milliards de dollars.
Il expose ainsi un tiers de sa réserve financière en fixant à 40$ en place de 24,47$ le prix de l'action Motorola. Le but, sortir un peu de la virtualité des nuages en s'achetant du réel, du matériel. Google s'achetait, dans le même panier, 17.000 brevets. Google TV n'était pas au top. Une occasion pour le relancer. Androïd s'installe comme concurrent de l'OS de Apple. Google, l'empire sans fin. Un pied qui sort du virtuel et des nuages vers le hardware. La géo-location n'a pas encore dit son dernier mot.

Informaticiens, utilisateurs, à vos « starting blocs », donc, ou plus simplement, à vos blogs, il en restera toujours bien assez. Un départ pour une nouvelle guerre de l'information menée sur Internet? Au niveau mondial, 30% de la recherche se tourne vers les sciences de l'information. L'Europe n'a atteint qu'un pourcentage de 18% et devra, tôt ou tard, résorber son retard.

1.jpg

Vive la gaufre dorée qui croustille sous la dent, aux cases analogiques ou numériques.

Je ne lancerai pas le mot "FIN" comme de coutume. Je ne ferai que compter et observer les dix années qui suivent.

La robotique, la domotique sont les utilisateurs privilégiés de l'informatique.

Se rappeler des trois lois d'Ysaac Asimov à se rappeler

0.jpg1. Un robot ne peut pas porter atteinte à un être humain, ni en restant passif, permettre qu'un humain soit exposé au danger.

2. Un robot doit obéir aux ordres que lui donne un être humain sauf si de tels ordres entrent en conflit avec la première loi.

3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec les deux premières lois.

La robo-éthique reste à inventer car la première loi à un peu oublier l'éthique.

A bientôt.

@+ comme on dit chez nous

"Un bon informaticien est bien trop précieux pour qu'on le gaspille à gérer une équipe ; c'est pour cela qu'il est bien mieux payé que son manager qui est lui remplaçable à tout instant.", Anonyme

Des idées futuristes sur 5 ans

Autre musée de l'informatique, autre lieu Des images en sus

Quant à l'IT les "10 bigest moments" selon TechRepublic

0.jpg

30 janvier 2013: Allen White de "Sigma Conso" sortait quelques épisodes de cette histoire. Histoire qui remonte à la grande époque du 19ème siècle et qui voit les groupements de sociétés en conglomérats, des "holdings", des "groupes de groupes" dans lesquels on mélange tous les types d'activités en véritables pieuvres et qu'il faut consolider dans la maison mère à partir des filiales, des subsidiaires dans le monde. Etape qui ne voit le jour qu'en 1904. 

 

19 juillet 2013: 

L’écosystème Windows en plein déclin

 

Si Microsoft rattrape petit à petit la concurrence sur le segment mobile, le quasi-monopole qu’avait la firme de Redmond jadis semble s’être définitivement effondré au profit d’un marché hautement compétitif et qui fait la part belle à la concurrence entre les différents acteurs du marché.

Certes, le marché reste dominé par trois systèmes d’exploitations principaux : Windows, Android et l’inévitable duo OSX/iOS, mais les petits acteurs ont grâce à cet intérêt croissant des acheteurs pour la nouveauté une carte à jouer dans ce business.
Une récente étude d’Asymco publiée par Business Insider nous révèle l’impact gigantesque de la montée en puissance du mobile sur les parts de marché de Microsoft. En quelques années seulement, Microsoft est passé d’une forte croissance à un recul important. Sans surprise, l’effondrement des ventes coïncide avec l’arrivée du premier iPad sur le marché, qui a définitivement bouleversé les habitudes des consommateurs (voir graphique 1).

On le sait, Microsoft a tardé à entrer dans la danse. Il aura fallu plus de trois générations de systèmes mobiles avant que le géant américain passe le cap des 5% de parts de marché, et Microsoft commence tout juste à imposer Windows 8 comme un système compétitif sur le segment des tablettes numériques. En réalité, Redmond a longtemps cru que le tactile ne vampiriserait pas les ventes d’ordinateurs portables. Comme on peut le voir sur le second graphique, les volumes de ventes de smartphones ont rapidement dépassé les volumes de ventes d’ordinateurs personnels, et les tablettes semblent en voie de dépasser, d’ici quelques années, les PC traditionnels. Pour autant, si le secteur souffre de cette concurrence, presque déloyale, avec les appareils tactiles, les volumes restent très corrects. Certes, on note une baisse des ventes, et un désintérêt croissant du consommateur, ou plutôt un cycle de renouvellement plus lent que pour les appareils tactiles, mais le PC occupe toujours une part importante de notre vie, et aussi bien les étudiants que les professionnels ne sont pas prêts de les remplacer de si tôt par une tablette ou un smartphone.

En revanche, Windows a du soucis à se faire. D’une part parce que les ex-partenaires de Microsoft sont de plus en plus nombreux à tâter le terrain pour trouver des alternatives (Chrome OS), et d’autre part, parce qu’Apple a parfaitement réussi son retour sur le marché des ordinateurs portables, devenant un symbole de professionnalisme et de performances. Contrairement à Apple, Microsoft n’est pas encore parvenu à imposer son écosystème comme une entité unique. Par conséquent, les acheteurs de Windows Phone ne ressentent pas forcément le besoin d’acheter une tablette Windows 8 ou un PC. A l’inverse, les possesseurs d’iPhone sont souvent tentés de se procurer un iPad ou un Mac en complément de leur smartphone. Comme on peut le voir sur le troisième graphique, Windows a tout à y perdre, et risque vite de passer du rang de leader à celui de challenger, voire même de système d’exploitation secondaire.

La réactivité de Redmond décidera très probablement de l’avenir de l’ogre vert, qui possédait il y a quatre années encore près de 70% de parts de marché, et qui se retrouve aujourd’hui avec moins de 25% de parts de marché. Une situation inconfortable qui donne un clair avantage à Google et son système d’exploitation mobile, qui lorgne aujourd’hui sur une utilisation professionnelle…

 

0.jpg24 janvier 2014: Le Mac d'Apple est trentenaire 

15 janvier 2015: Pénurie d'informaticiens mais dans deux directions
podcast
 

 

01/09/2008

La Grande Gaufre en Karaoke

 

 

« La chanson de l’année »

Parodie tirée de "Je ne suis pas bien portant" de K. Koger, G. Bourzac, & M. Joseo

 

Depuis que j'fais d'l'informatique

Je n'ai plus que des embêtements

Ah mon Dieu quelle gymnastique

C'est pas tous les jours très marrant

Mais attendez que j'vous explique

Tout ce qui cause mon tourment :

J'ai le Mac qu'est patraque

Le PC déglingué

Le Pentium sans calcium

J'ai l'écran qu'est tout blanc

L'disque dur pas bien dur

Le clavier tout bloqué

Le modem qu'a la flemme

L'imprimante bien trop lente,

Les cartouches qui se touchent

Et les buses qui abusent

Les polices qui pâlissent

L‘DVD fatigué

Le scanner qu'a ses nerfs

L'menu pomme dans les pommes

L‘CD rom c'est tout comme

La mémoire sans espoir

Les options en option

La souris rabougrie

Le mulot qu'est trop gros

---

Ah mon Dieu qu'c'est palpitant

Toute cette informatique

Ah mon Dieu qu'c'est palpitant

Mais qu'est-ce qu'on perd comme temps.

---

Comme j'ai un bug dans le système

J'téléphone au réparateur

Y'me demande : « quel est votr’ problème

Je vous écoute j'ai un quart d'heure »

J'lui dis soyez pas si pressé

Et laissez moi vous expliquer :

J'ai le Mac qu'est patraque

Le PC déglingué

Et puis j'ai ajouté

Voyez vous ce n'est pas tout :

J'ai l'e-mail qui s'emmêle

Les circuits qui sont cuits

L'raccourci riquiqui

J'ai l'index qu'est perplexe

Les pixels en rondelle

L'USB constipé

J'ai les bits qui s'agitent

La sauvegarde pas gaillarde

La disquette qui caquette

L'utilitaire qu'a des vers

Les icônes qui déconnent

L'processeur qu'est farceur

Le graveur qu'est en pleurs

Le lecteur qui bat l'beurre

L'moniteur et ta sœur

---

Ah! mon Dieu qu'c'est palpitant

Toute cette informatique

Ah mon Dieu qu'c'est palpitant

Mais qu'est-ce qu'on perd comme temps.

---

J'ai invité la belle Suzanne

L'autre jour au cybercafé

Elle m'a dit : « j'préfère ta bécane

Allons chez toi fais moi surfer ! »

Hélas ma machine est en panne

Que j'lui réponds, j'suis désolé :

J'ai le Mac qu'est patraque

Le PC déglingué

Le Pentium sans calcium

J'ai l'écran qu'est tout blanc

L'disque dur pas bien dur

Le clavier tout bloqué

Le modem qu'a la flemme

L'imprimante bien trop lente,

La cartouche qui se touche

Et les buses qui abusent

Les polices qui pâlissent

L‘DVD fatigué

Le scanner qu'a ses nerfs

L'menu pomme dans les pommes

L‘CD rom c'est tout comme

La mémoire sans espoir

Les options en option

La souris rabougrie

Le mulot qu'est trop gros

Et puis j'ai ajouté

Voyez vous, ce n'est pas tout :

J'ai l'e-mail qui s'emmêle

Les circuits qui sont cuits

L'raccourci riquiqui

J'ai l'index qu'est perplexe

Les pixels en rondelle

L'USB constipé

J'ai les bits qui s'agitent

La sauvegarde pas gaillarde

La disquette qui caquette

L'utilitaire qu'a des vers

Les icônes qui déconnent

L'processeur qu'est farceur

Le graveur qu’est en pleurs

Le lecteur qui bat l'beurre

L'moniteur et ta soeur

En plus d'ça, j'vous l'cache pas

J'ai aussi, quel souci

Les octets pas très frais

Les virus plein d'tonus

Les majuscules qui s'bousculent

Les minuscules qui copulent

Le Windows qu'est morose

Les programmes, c'est un drame

Et la puce en lotus

Le cordon en tire-bouchon

L'MS DOS qu'a des bosses

Les menus mal fichus

Le logi-ciel mon mari !

Et l'audio qu'est idiot

La carte son qu'est marron

La couleur quelle horreur

Les fenêtres qui s'pénètrent

Les symboles qui s'affolent

Le système bien trop blême

Le réseau qui prend l'eau

Et du coup, voyez vousI

l vaut mieux qu'vous partiez

Car je sens, c'est navrant

J'peux plus rien maîtriser !...

---

Ah mon Dieu qu'c'est palpitant

Toute cette informatique

Ah mon Dieu qu'c'est palpitant

Mais qu'est-ce qu'on perd comme temps

---

Ah mon Dieu qu'c'est affolant

Toute cette informatique !

Ah mon Dieu qu'c'est affolant

Mais qu'est-ce qu'on ferait sans...

 

 

Pour les perplexes, pour ceux qui n'y ont rien compris,  voici un texte qui va vous rassurer

 

31/01/2005

Mon histoire informtico-drastique

Mon histoire informatico-drastique.

J'ai aussi presque tout connu de l'histoire de l'informatique.
Opportuniste, je suis passé de la chimie qui avait déjà quelques décennies derrière elle, vers l'informatique où tout était à faire. 
Tout a commencé quand je suis entré à la Société de Mécanisation Comptable et Statistique (qui n'existe plus aujourd'hui). 
Cette société était un service bureau qui n'avait que des tabulatrices et de la programmation sur tableau à enficher.
Un des premiers Univac 9200 était en commande et il fallait préparer et travailler sur des ordinateurs déjà installés ailleurs. 
Tout d'abord, ce fut en tant que stagiaire, non payé.    
Puis, quelqu'un d'Univac est venu me demander si je ne voulais pas être engagé dans cette société.
L'époque était à des années lumières de ce qu'on connait aujourd'hui dans le domaine.
Tout le monde se connaissait en informatique. Epoque paternaliste par excellence. J'ai connu des informaticiens qui ont doublé leur salaire du jour au lendemain, à la suite de chantage.
Epoque pendant laquelle tu faisais quelque chose dans les temps et avec succès et tu étais marqué comme "bon pour l'emploi" pour longtemps.
Je n'y ai travaillé que très peu de temps, moins d'un an.
Puis ce fut Soprofa, une autre société qui faisait un peu de tout et qui n'existe plus: conseils, développement et temps machine au menu.
Encore une période courte. 
Puis ce fut Data Management. Petite société, quelques personnes, mais qui avait des constructeurs comme Univac, Siemens comme clients et "sponsors".
Siemens ce fut pour développer un programme de flowcharting automatique et une sorte de SQL, avant l'heure, par cartes perforées pour interroger les data-bases avec l'aide d'un langage JCL en cartes perforées.
A cette époque, je faisais deux journées par jour. Aucune obligation, choisie ainsi. 
Envoyé pendant la journée chez Univac et le soir dans le développement d'une toute petite machine que l'on ne nommait pas encore PC de la Cogar Corporation.
Une machine avec très peu de potentiel (capacité disques et mémoire) Des instructions qui ne travaillaient qu'au niveau du byte. Tous les MOVE, COMPARE se faisaient par boucles.
C'est dire qu'il fallait être très économe en place et en temps d'exécution des instructions.
Sur cette machine crin-crin, simuler l'assembler d'un IBM 360, puis avec lui, un RPG et un COBOL.
Un IBM 360 a même été acheté et placer dans une cave de la société, une petite maison.
Chez Univac, je m'occupais du service bureau interne très localisé.
En 1977, a commencé les problèmes de fonds, de cash-flow dans la société. J'ai été envoyé chez Univac, pour à peine 50.000 FB de l'époque. Je m'y occupais du développement de l'informatisation de Remidex, débutée d'un côté et repris par l'autre.
En vacances pour 3 semaines, j'ai été rappelé après une semaine. Le patron voulait que je devienne freelance et administrateur. Là, j'ai réfléchi et je me suis fait débaucher par Univac. Une petite société travaille en dents de scies. Tantôt de gros contrats pendant lesquels, il fallait travailler double si pas triple et tantôt une pénurie.
Univac a payé pour le passage à Data Management, pour cela. Je précise.
Puis, je suis resté dans le travail de développement et de maintenance de l'IT interne. 
C'est moi qui connaissait le "bazar" et pas celui qui était sensé de le faire.
J'avais la totale confiance de la direction financière, un Hollandais.
Il y eu le développement externe pour créer un package de salaire qui a coûté la peau des fesses (6 millions de FB minimum) mais développement, resté sous ma supervision. Sous des noms différents...Sperry Corporation, Sperry, Univac... 
Comme toujours en informatique, j'ai contribué à mettre beaucoup de postes de travail au chômage. C'est évident. J'en suis parfaitement conscient.
L'IT Interne a été fusionné avec celui de la Hollande. 
Période pendant laquelle j'ai toujours été bien reçu alors que j'allais parfois 3 fois par semaine jusqu'à Amsterdam.
Puis, en 1986, est arrivé la fusion avec Burroughs. Là, bouleversement.
En Belgique, Sperry était moins fort. Je me souviens quand ex-Burroughs arrivaient en terrain conquis, pour impressionner lors des meetings.
Le management de l'IT de l'autre bord, est arrivé, bien gentil. Il a essayer de concilier l'inconciliable rapprochement alors qu'un peu plus tôt, nous étions des concurrents.
Je n'ai pas fait obstruction, mais cela aurait pu, comme ce fut le cas, dans d'autres pays.
Il y a eu la période courte à Seneffe. Déjà je sentais la tension exister dans l'équipe.
Tensions que j'ai connue mais qui ont été ignorées à la "centrale" trop loin de tout cela.
Une bagarre avortée avec le  chef de bureau, qui venait installer des machines bruyantes sur nos bureau.
Lui avait d'autres problèmes avec le gestionnaire des machines qui aimait jouer aux chantages. 
Une période de doute pour moi. La légèreté de l'informatique que je connaissais face à ce nouveau mammouth de comptabilité qui nécessitait des heures de suspense en fin de mois, sous le contrôle d'une checklist de plusieurs pages de blabla tellement il fallait faire attention. Les étapes suivantes pour le remplacer, Sabre & Co, avant de passer chez Oracle qui acceptait la souplesse des adaptations tellement il y avait de spécificités dans le monde pour gérer ce monstre qu'était devenu Unisys. 
Puis, en 90, ma nomination avec une autre collègue pour diviser en deux équipes.
Une foule de jeunes ont suivi, tous flamands.
Peut-être aimais-je les difficultés. Et il y en a eu. D'ordres différents. Un des jeunes, un "pilote d'un avion à réaction" mais qui n'avait pas de siège éjectable, qui voulait savoir ce qu'il allait faire dans deux ans, alors que je ne savais pas ce que demain serait. Un fantaisiste original,  qui venait de loin et qui arrivait après 10:00. Le dernier le "plus vieux" qui attendait avec impatience sa retraite. Un seul a été le meilleur de la séquence, chez lequel une fois expliqué se débrouillait tout seul.
Une seule est restée toute la période. J'ai fait allusion avec cela dans un article souvenir, nostalgique.
J'ai eu des cours de management. Des cours qui apprennent parfois à mieux se connaître, ce qui engendre la surprise quand on départage les élèves en catégories ou groupes en fonction d'un questionnaire et se retrouver tout seule dans l'un d'eux. Bizarre, cela, Cela donne quelques frissons. 
Des épisodes avec des chefs différents.
Le service qui a pété et une nouvelle période de dépression. Dilemme : Stop ou encore.
Passer à l'international ou passer à la pré-vente comme je l'avais fait bien longtemps avant chez Cote d'Or ou Crown Baele ou démissionner     
Décision très difficile. Comment garder la dernière cartouche dans le barillet. Ce fut l'international sous celui qui était déjà en place.
En 2005, Un ponte américain arrivait pour nous faire comprendre la "bonne parole" qui définissait notre futur.
C'est exactement le moment que j'ai commencé à écrire mon blog.
Challenge pour moi, moi qui n'avait jamais eu le temps d'écrire une ligne mais qui a eu assez d'expérience pour comprendre ce qui allait et ce qui n'allait pas.. 
Lors d'une réunion avec lui; j'ai été le seul à crier le danger de céder le know how à des Indiens.
Il m'a même confondu avec le nouveau superviseur. Un quiproquo amusant... 
Si la cabine téléphonique près de la réception pouvait parler, elle en apprendrait encore plus sur l'histoire.
Un collègue instable qui dans une même journée pouvait passer de la dépression au nirvanas en fonction d'un événement, d'un voyage annoncé.  
Oui, j'ai certains talents de modérateur, même s'il y a eu des éclats de voix.
Mais, tout compte fait, j'ai fait le bon choix.
Je n'ai pas utilisé ma dernière cartouche.