A la conquête de l'exaflop
Voici un mot que os enfants pourront un jour utiliser au Scrabble: exaflop. Vous connaissez tous le kilo- (10 puissance 3, comme dans kilomètre ou kilogramme), le méga- (10 puissance 6 comme dans mégawatt ou mégaoctet), le giga- (10 puissance 9 comme dans les Go de votre disque dur), peut-être même le tera- (10 puissance 12) voire le peta- (10 puissance 15) pour les plus cultivés. Et bien maintenant comptez avec l’exa-. Le préfixe exa, comme son nom l’indique, correspond à un facteur 10 à la puissance 18.
Quant au suffixe -flop, il indique le nombre d’opérations flottantes à la seconde (flottantes signifiant, ici, sur des nombres décimaux, et non entier). En gros, une machine dotée d’une puissance de quelques exaflops est capable d’effectuer quelques milliards de milliards de divisions à la seconde. Respect, non?
Et bie imaginez-vous que – c’est l’excellent Irving Wladawsky-Berger qui le raconte sur son blog – le DARPA et le DoE se lancent à la conquête de l’exaflop. Rien de bien extraordinaire, direz-vous, ces informaticiens n’ont de cesse d’inventer des machines de plus en plus puissante. Certes. Et de jongler avec les chiffres. Certes encore. Mais il ne faut pas croire que c’est si facile.
De telles machines posent des contraintes que vous n’imaginez-pas, en terme d’agencement de millions de petits processeurs qui calculent en parallèle: consommation électrique, dissipation de la chaleur, synchronisation des horloges de tous ces petits coeurs bourrés d’électroniques. Un vrai cauchemar.
Avec, à la clef, des rêves d’enfants. Le rêve, par exemple, de pouvoir explorer un nombre inimaginable de solutions possibles pour un problème donné. Ainsi, au lieu de raisonner pour trouver LA solution, on pourra procéder par élimination, en « testant » toutes les solutions possibles avant de trouver la bonne.
Et bien malgré tout le génie qu’il y a à mettre au point une telle machine, je ne peux m’empêcher de trouver une régression dans l’énoncé précédent. Se dire qu’au lieu de fignoler le raisonnement le plus limpide, on va se « contenter » d’explorer le possible jusqu’à trouver la bonne solution m’exaspère. Je sais pourtant que d’innombrables problèmes requièrent une telle démarche. Et que les débouchés scientifiques à la clef sont innombrables, de la santé à la défense en passant par l’économie ou la géologie.
Je dois vraisemblablement appartenir à cette génération qui considère la calculette comme un auxiliaire de calcul, et non comme un outil intelligent. Suis-je le seul?
Découvrez d'autres articles sur ce thème...
Hervé Kabla, ancien patron d’agence de comm’, consultant très digital et cofondateur de la série des livres expliqués à mon boss.
Crédits photo : Yann Gourvennec
La progression de la puissance des ordinateurs est remarquablement exponentielle (ou constante en logarithme…) D’après ce graphique http://www.top500.org/static/lists/2009/11/TOP500_200911_Poster.png , l’exaflop devrait être atteint autour de 2018, deux ans avant la « singularité technologique » http://fr.wikipedia.org/wiki/Singularit%C3%A9_technologique 😉
Reste à voir si on pourra maintenir cette croissance exponentielle jusque là. Je crois que oui, j’explique pourquoi là : http://drgoulu.com/2008/06/19/moore-toujours/
Dieu que nos parties de Scrabble seront riches en termes savants!
Les décisions sont trop importantes pour être laissées aux ordinateurs!
Comme le montre les malheurs de l’économie moderne, et notre crise, ce qui compte n’est pas la capacité de résolution de problème, mais les hypothèses sur lesquelles reposent ces problèmes. Du bon choix de ces hypothèses dépend notre avenir. C’est pourquoi nous ne pourrons jamais substituer la machine à notre raison.
Non, tu n’es pas le seul à penser comme cela. Il y a un excellent discours de R. Hamming, donné aux Bell Labs en 1986: http://www.cs.virginia.edu/~robins/YouAndYourResearch.html , qui va dans notre sens. Quand on pense que R. Hamming et C. Shannon ne pouvaient que très rarement soumettre leurs programmes à l’ordinateur (parce que cela coûtait très cher), et qu’ils ont réussi à penser la plupart des algorithmes et structures de données, sans pouvoir les tester vraiment, que nous connaissons aujourd’hui et utilisons tous les jours, alors que nous ne pouvons écrire de ligne de code source sans faire de faute, tellement nous sommes habitués à instantanément tester avec des compilateurs de plus en plus puissants… chapeau bas! Ou, plutôt, honte aux nouvelles générations pour leur manière de travailler. Mais c’est à la mode, et cela se nomme Agile, XP (Extreme Programming), Scrumm, etc.