vendredi 20 octobre 2017

Détournement



Détournement (n.m.) — Action de détourner quelque chose, une voie, un slogan, un titre...
  
Exemple : J'aime la littérature selon Clémentine MELOIS !

jeudi 19 octobre 2017

Lois de l'attraction #3

Hier, P. a pris quelques dizaines de minutes de son temps pour me parler de son travail de modélisation en astrophysique... Il nous faudrait des heures  – et ces minutes en sont le commencement ! Aujourd'hui, j'écris un nouveau paragraphe de manuscrit.



La petite histoire raconte que c'est en observant une pomme tomber au sol qu'Isaac NEWTON a formulé la théorie de la gravitation. Cette force d'attraction joue entre autres un rôle important dans la formation des "trous noirs", ces corps célestes si denses que sous l’effet de la gravitation, aucun rayonnement ne semble pouvoir s’en échapper ! Pour comprendre la dynamique de ces structures observées dans l’univers, et certains phénomènes complexes, représentés par des instabilités, les chercheurs proposent des modèles physiques différents, que la simulation permet de représenter – et de comparer aux observations pour en attester la validité. Elle devient alors un observatoire numérique et permet de tester de nombreuses idées ou hypothèses physiques qui permettent de valider un modèle expliquant des observations faites sur le cosmos.

 

La physique mise en jeu dans ces corps célestes est elle des plasmas, un état de la matière constitué de particules chargées. Elle est décrite par les équations de la magnéto-hydro-dynamique (MHD), modélisant la conservation de la masse, la quantité de mouvement et de l’énergie de particules, d’une part, et la propagation d’ondes électromagnétiques au sein du plasma, d’autre part.

Cet exemple de simulation est fondé sur une méthode numérique de volumes finis, qui est utilisée pour de nombreuses applications industrielles, pour concevoir une multitude d'objets, du casque de cycliste ou des lunette de natation, au prochain avion ou paquebot. Le temps physique simulé est de quelques millions d’années, et permet de voir se développer des instabilités qui évoluent sur plusieurs centaines d’années ! La simulation doit être à même de les reproduire, et de ne pas générer artificiellement d’instabilités, ce qui arrive lorsque les schémas numériques ne sont pas totalement "conservatifs". Ils introduisent alors des erreurs numériques dont l’effet est de polluer le calcul : les grandeurs simulées sont entachées d’erreurs qui produisent des oscillations, sans aucun caractère physique !
Afin de valider la méthode de calcul – et de s’assurer de la stabilité des schémas numériques – une simulation est lancée dans un état initial "neutre", exempt de perturbation : il s’agit de s’assurer que cet état n’évoluera pas. Le signal d’énergie émis par le plasma est alors nul… sur toute la durée de la simulation : en l’absence d’effet extérieur, il ne se passe absolument rien ! Et c’est ce qui est souhaité, le schéma numérique est bien conservatif. Alors on peut utiliser la méthode de calcul pour voir évoluer le plasma sous l’effet de phénomènes physiques, contenus uniquement dans les équations, et non induits par des erreurs de calcul numérique…

Des simulations sont extraits des spectres de rayonnement : une courbe de lumière qui signe la présence d’un trou noirs – ou toute autre entité étudiée. Ils sont comparés aux spectres issus d’observations dans le ciel.

D'où venons-nous ? Certains proposent des réponses.

Tout a commencé avec une pomme… ou presque !

mercredi 18 octobre 2017

Sensations

(c) Jeanloup SIEFF


De nouvelles sensations dans mon corps aujourd'hui ! L'orage est passé, il ne reste plus qu'à se sécher...

mardi 17 octobre 2017

Souffler n'est pas jouer

Aujourd'hui, j'ai eu la chance de pouvoir échanger avec le Directeur des Souffleries de l'ONERA, pour accompagner le travail sur un manuscrit... Un projet qui me donne de l'en-vie, et auquel contribuent nombre de ces interlocuteurs avec qui je trouve l'énergie de dialoguer ! Je les remercierai pleinement en temps utile. En attendant, j'ai appris des choses très intéressantes et j'ai pu en rédiger un paragraphe de synthèse !

(c) ONERA / www.francetvinfo.fr

Un crash-test sur une automobile ou une rame de train, un test d’aérodynamisme ou d’hydrodynamisme sur maquette en soufflerie ou bassin pour un avion, un bateau, etc. Des moyens traditionnellement utilisés dans l’industrie pour qualifier un produit avant son industrialisation – et contribuer à démontrer ses qualités, dont celles de sécurité. Des dispositifs d’essais qui ont un coût, parfois importants lorsqu’il s’agit de moyens d’ampleur, comme pour de grands programmes de l’industrie aéronautique ou navale.

Les progrès constants de la simulation, les règles de bonne pratique et la confiance bâtie par un retour d’expérience de longue date permettent d’envisager de se passer de certains essais. Est-ce pour autant la fin des démonstrateurs ?
Dans l’aéronautique, la montée en maturité et en fiabilité des outils de calcul d’écoulement a modifié la façon dont sont conduit les essais. La simulation permet de concevoir une séquence d’expérimentation, de retenir parmi de nombreuses combinaisons possibles (altitude de vol, incidence, vitesse de croisière) les plus pertinentes pour la démonstration attendue et elle contribue également à choisir les lignes de fuselages qui seront ensuite testées en soufflerie. Le calcul permet de choisir quelques formes les plus aérodynamiques, et l’essai prend le relais pour déterminer celle qui aura les meilleures performances et pourra être retenue pour industrialisation.


Pour certaines configurations de vol, par exemple dans lesquelles on observe un décollement des couches de fluide autour des ailes, les modèles de turbulence utilisés dans les simulations perdent leur fiabilité. L’incidence à laquelle se produit le décollement doit être avec la plus grande précision pour assurer la fiabilité et la sécurité de l’appareil. C’est le cas par exemple si les constructeurs souhaitent proposer des formes innovantes, par exemple pour réduire la trainée aérodynamique… et la consommation de carburant. Dans ces situations, seuls les essais en soufflerie donnent accès à des données précises, encore inaccessibles par le calcul. A la différence des Etats-Unis, la France a fait le choix de conserver ses moyens d’essais pour l’industrie aéronautique. Alors que se développent ce type d’essais et de moyen en Chine, les Etats-Unis ont décidé de faire marche arrière et de se doter en 2009 d’équipements modernes, pour un investissement initial de 600 milliards de dollars !

Dans l’industrie aéronautique, les essais en soufflerie sont utilisés à divers titres. Ils servent par exemple à valider certains choix d’aérodynamisme pour des avions et ils permettent de qualifier une méthode de calcul avant son application industrielle. Ils sont également le seul outil de qualification fiable, lorsque les modèles d’écoulement trouvent leurs limites, ce qui est le cas dans des configurations particulières, par exemple lorsque des démonstrations de sécurité sont nécessaires. Les essais permettent d’optimiser les lignes aérodynamiques et de valider de nouvelles formes, qui peuvent être proposées par exemple pour améliorer le rendement propulsif global de l’avion – en particulier pour réduire sa consommation énergétique. Dans certains cas, les maquettes testées peuvent atteindre jusqu’à 4 mètres d’envergure et fonctionner à nombre de Mach proche de l’unité (la vitesse de l’écoulement se rapproche ainsi de la vitesse du son dans l’air !). En France, la plus grande soufflerie de l’ONREA, située à Modane, demande une puissance de 100 MW pour fonctionnement (le lave-vaisselle de nos cuisines en demande 1 kW, soit cent mille fois moins, celle du parc de production électrique en France en délivre environ mille fois plus !). Le bilan économique de ces moyens d’essais reste difficile à équilibrer, et son ouverture à des nombreux clients, aéronautique civile, militaire ou privée, en est l’une des clefs...

(c) ONERA / www.francetvinfo.fr

Ainsi, essais et simulation ne s’opposent pas : ils fonctionnent ensemble. Pour l’aérodynamisme, le calcul permet par exemple de corriger un «  biais de soufflerie » : par exemple, lors d’un essais la maquette testée est tenue par un dispositif mécanique qui peut induire des perturbations sur l’écoulement observé. La simulation peut aussi permettre d’extrapoler les résultats obtenus lors de l’essai (à l’échelle de la maquette) vers les conditions réelles (à l’échelle de l’avion réel).

Un outil du futur sera sans doute l’usage combiné de la simulation et des expérimentations. Les techniques d’assimilation de données, utilisées également en météorologie (voir Chapitre V), y contribueront. Elles permettent de construire un modèle numérique dont les limites de modélisation connues, par exemple la turbulence sur les écoulements, sont corrigées par des données expérimentales. L’hybridation entre modélisation et données est l’une de voies d’évolution les plus certaines et les plus prometteuses pour la simulation.

lundi 16 octobre 2017

Est-ce que ?




Pour ceux qui se posent des questions, internet a les réponses....

samedi 14 octobre 2017

Dynamique



Dynamique (adj.) — Relatif aux forces, au mouvement, par opposition à statique. Qui manifeste une grande énergie, entreprenant.
  
Exemple : It's getting better all the time... and it takes time!

vendredi 13 octobre 2017

Patate !

Les Planteurs de pommes de terre Jean-François MILLET


"Les racines ou tubercules de la pomme de terre ont l'avantage de braver les effets destructeurs de la grêle, de remplacer en subsistance le pain, d'entrer dans la composition, quelque soit leur état, gelées ou germées, et d'épargner sur la consommation de la farine lorsqu'un événement extraordinaire a rendu cette dernière denrée rare et chère."

Antoine PARMENTIER Traité sur la culture et les usages des pommes de terre, de la patate et des topinambours.

jeudi 12 octobre 2017

Changement d'adresse



"L’image qu’on garde d’une ville un moment habitée se développe, à partir d’une cellule germinale qui ne coïncide pas forcément avec son ‘centre’, nerveux ou fonctionnel. (....) Je ne quittais pas le port sur lest ; j’avais beaucoup engrangé. Je regardais avec amitié les rues silencieuses, les sinuosités creuses, familières, du moule que j’allais maintenant évacuer..."

Julien GRACQ La Forme d'une ville

mercredi 11 octobre 2017

Loi de l'attraction #2



La loi de l'Emmerdement Maximum, ou LEM, stipule que si quelque chose peut aller mal, elle ira mal... Un maximisation du pire, pour parler en termes mathématiques ! Symbolisée par la tartine de pain qui tombe invariablement sur le côté beurré et/ou confituré : biais de représentation/cognition ou loi universelle ? Un scientifique a publié une étude qui répond à la question - retour en arrière...

So British!

Il fallait une bonne dose d'humour à l'anglaise pour imaginer une étude théorique ET expérimentale de la chute d'une tartine de pain. C'est ce qu'a proposé Robert MATTHEW en 1995 : dans un article publié par la revue European Journal of Physics, il publie les résultats de son étude et la conclusion ne prête à aucun doute. 

"Nous montrons que le toast a, en effet, une tendance fondamentale à arriver du côté beurré par terre dans des circonstances diverses et variées. De plus, nous montrons que ce résultat s'attribue en dernière analyse aux valeurs de constantes fondamentales. En tant que tel, cet exemple de la loi de Murphy semblerait être une caractéristique inéluctable de notre univers..."

Je suis tombé par terre...

Il est tentant de penser que le beurre et/ou la confiture (le miel, la pâte à tartiner, ce que vous voulez) apportent une dissymétrie sur la répartition des masses de la tartine et influence son aérodynamisme et sa chute. Ce qui expliquerait pourquoi le pain beurré tombe du mauvais côté.

Ces effets sont en réalité marginaux... La cause réelle de la loi de Murphy sur la tartine est bien sûr la gravitation ; et de différentes façons.

En bord de table, la tartine aura tendance à glisser et à tourner avant d'être soumise à l'action du poids et être entraînée à terre. Les paramètres qui contrôlent l'état initial avant la chute (vitesse et position du point de basculement) sont le frottement du pain sur la table, la hauteur de celle-ci et le rapport d'aspect de la tartine.

Pour les dimensions et les compositions de pain usuelles, et les tailles de meubles de notre quotidien, ces grandeurs s'ajustent de façon à donner des conditions favorables à la loi de Murphy : la hauteur de chute  n'est pas assez grande pour laisser la gravitation l'emporter devant la rotation et la friction de la tartine aux conditions initiales de sa chute... De sorte que la tartine subit d'abord une rotation et est ensuite entraînée vers le sol, sans la moindre chance de se retourner à nouveau et présenter son côté vierge au sol qui l'accueillera.

Sur Terre, il faudrait disposer de tables de trois mètres de haut : dans ces conditions, une rotation complète peut arriver et les chances de voir la tartine tomber sur le côté beurré ou non sont alors équivalentes à un lancer de pièce : 50%-50% !

Des tables de trois mètres ? C'est encore la gravitation qui limite indirectement la hauteur des objets que nous construisons. L'homme ne peut pas dépasser une taille supérieure à trois mètres : une chute supérieure à cette hauteur étant potentielle dangereuse, la Nature fait bien les choses en limitant notre croissance (l'homme le plus grand du monde mesurait 2,72 m...), ce qu'elle autorise dans le monde animal pour des quadrupèdes, plus stables, comme les girafes.    
  
Derrière la loi de Murphy appliquée à la chute : la constante universelle de la gravitation. L'Univers est ainsi intrinsèquement cruel : il nous condamne à expérimenter invariablement la chute des tartines du mauvais côté. "Il faut imaginer Sisyphe heureux", écrit Albert CAMUS...


Robert MATTHEWS, Tumbling toats, Murphy's Law and the fundamental constants, European Journal of Physics, Volume 16, Pages 172-176, 1995.

mardi 10 octobre 2017

Lisbonne


(c) Marc BAERTSCH


Un jour j'irai arpenter les rues de Lisbonne avec Toi - et M en bandoulière....

lundi 9 octobre 2017

Jean ROCHEFORT



Jean ROCHEFORT me faisait rire ; acteur par excellence, partout et tout le temps en représentation - avec un humour britannique, celui du recul sur lui-même... Le premier mot qui me vient en apprenant sa disparition est "Deschanel" ; je ne sais pas pourquoi !

dimanche 8 octobre 2017

Paysage #2



Je travaille encore sur un paysage avec Thierry, avec la consigne d'utiliser des formes simples : "il manque de profondeur, les motifs se répètent trop, et les blancs ne circulent pas assez !" Alors, je recommencerai avec un autre....

samedi 7 octobre 2017

Chat

(c) Hans SYLVESTER


Chat (n.m) — Mammifère carnivore félin de taille moyenne, au museau court et arrondi, domestiqué, apprivoisé ou encore à l’état sauvage...

Exemple : Tête de chaton !

vendredi 6 octobre 2017

Météo #5

 (c) Michael KENNA


Météo-France réalise quatre cycles de prévision quotidiens (à 0h, 6h, 12h et 18h). Chacun d’eux comprend une phase d’assimilation et de simulation. Pour les prévisions à 5 jours, auxquelles nous avons accès avec une application internet ou une émission télévisée, les calculs prennent une heure : 30 minutes pour assimiler des données, et 30 minutes pour réaliser une simulation. A ces prévisions est assorti depuis quelques années un indice de confiance. Signe d’une évolution des méthodes rendue possible par des capacités de calcul de plus en plus grandes et par une évolution des méthodes de calcul. Elles intègrent maintenant les incertitudes sur les données d’entrée et leur influence sur le résultat de la prédiction. Cette vision probabiliste de la simulation est l’une des voies d’innovation des méthodes numérique en météorologie – comme dans d’autres domaines. Elle contribue à l’amélioration constante de la qualité des prévisions pour l’ensemble de ses utilisateurs. Les méthodes seront appelées à évoluer : par exemple en intégrant les avancées des Big-Data...

jeudi 5 octobre 2017

Météo #4

Vincent VAN GOGH — "La Nuit étoilée" (1889)


Chaque simulation météorologique a besoin de données sur lesquelles appuyer ses calculs : les "conditions initiales". Il s’agit d’avoir une représentation la plus précise possible de l’état de l’atmosphère au départ de la simulation. C’est l’assimilation de données qui le permet.

Les données classiques proviennent du réseau historique des stations météorologiques au sol ou des satellites d’observation – qui fournissent aujourd’hui la très grande partie des informations. Elles sont complétées par des données d’opportunité, obtenues auprès de compagnies maritimes et aériennes. Vents, nuages, humidité, température et pression de l’air influencent aussi les transmissions d’informations sur des systèmes variés, comme les GPS. En observant les effets, il est possible, à l’aide de modélisation, de remonter à leur cause – on parle de "méthodes inverse". Ces données indirectes complètent les données conventionnelles : depuis une vingtaine d’année, l’assimilation des données utilise ces "opérateurs d’observation".

Les grandeurs mesurées directement ou estimées indirectement représentent 5 à 10 millions de données : une quantité importante… pourtant insuffisante pour être utilisées par la simulation, qui en demande près d’un milliard ! Pour compléter l’information manquante, l’assimilation des données utilise les résultats de simulations numériques antérieures. Cette combinaison de données collectées et calculées fait la particularité d’une méthode et d’un code de calcul développé par Météo-France en partenariat avec le Centre Européen pour les Prévisions à Moyen Terme.

L’assimilation des données est un problème dit "d’optimisation" : l’état de l’atmosphère est représenté par un vecteur qui contient les grandeurs physiques calculées et qui rend l’erreur d’assimilation la plus faible possible. La difficulté est de trouver un minimum à une fonction qui dépend de plus de un milliard de variables !

mercredi 4 octobre 2017

Météo #3

Cyclone IRMA (c) National AerospaceSpace Agency, 2017


La simulation météorologique se fonde sur un maillage de l’atmosphère avec des éléments ou des volumes dont la taille détermine la précision du calcul. Pour le modèle global, les éléments on une dimension d’un peu moins de 10 km de côté, pour le modèle local, de l’ordre de 1 km. Suivant l’altitude, une centaine d’éléments sont empilés ; et sur chaque élément, les grandeurs à calculer sont nombreuses : température, pression, humidité, vitesse dans différentes direction. Au total : près d’un milliards de données à calculer… à différents instants de la simulation !

Une difficulté supplémentaire, et non des moindres. Les équations de la mécanique des fluides représentent des phénomènes différents, advection et propagation, dont l’évolution dans le temps se fait à des vitesses très différentes. Pour représenter correctement tous ces phénomènes, il est nécessaire d’utiliser un pas de temps d’autant plus petit que la résolution spatiale est grande. Il s’agit d’assurer la stabilité du calcul. Lorsque les prévisions s’étendent sur une dizaine de jours, les temps de simulation deviendraient prohibitifs ! Les calculs utilisent alors des techniques algorithmiques appropriées, qui permettent de calculer séparément des phénomènes dont la dynamique est très contrastée. Chaque étape du calcul nécessite l’inversion d’une matrice de très grande taille et une grande partie du travail des ingénieurs est de proposer des méthodes toujours plus efficaces pour réaliser cette opération et concilier ainsi rapidité et précision.

Les simulations à l’échelle de la France utilisent les données issues du modèle global, pour déterminer "les conditions aux limites" (ou l’état météorologique aux frontières du pays) pour un modèle local. Elles donnent en particulier l’évolution des zones de fortes ou basses pressions et toutes les informations utiles aux bulletins météorologiques : présence et composition des nuages, orages, pluies, neige et brouillard...

mardi 3 octobre 2017

Météo #2

(c) Philip PLISSON


Savoir le temps qu’il fera dans quelques heures, ou quelques jours, avec un niveau de fiabilité suffisant pour éviter les désagréments. Agriculture, pêche, production industrielle, transport, tourisme, loisirs : notre vie quotidienne est autant conditionnée par le temps qu’il fait que par le temps qui passe ! Un enjeu crucial également pour comprendre le changement climatique en cours, dont certains effets sont observables à l’échelle d’une vie humaine...

Vitesse du vent, température et pression de l’air, humidité de l’atmosphère sont les grandeurs que les prévisions météorologiques et climatologiques cherchent à calculer à différentes échelles. Météo France utilise pour cela deux modèles. Le modèle global utile pour rendre compte des évolutions de l’atmosphère terrestre. La terre y est supposée parfaitement sphérique, revêtue de son manteau atmosphérique, qui peut avoir une épaisseur importante, jusqu’à une centaine de kilomètres d’altitude (soit vingt cinq fois l’altitude du Mont-Blanc !). Le modèle global donne des conditions météorologiques en différents endroits : celles-ci renseignent les modèles locaux, réalisés à l’échelle d’un pays par exemple. Formation de nuages, écoulement des masses d’air, parfois spectaculaire comme lors d’une tempête ou d’un typhon : la modélisation météorologique utilise les équations de la mécanique des fluides.

lundi 2 octobre 2017

Météo #1

www.telegraph.co.uk/graphics/projects/waterloo


13 octobre 1997, stade de France. La demi-finale de la Coupe du Monde de Rugby oppose le XV de la Rose et le XV de France. Pendant quatre-vingt minutes, les joueurs ont couru après un ovale plus capricieux que d’ordinaire. Porté par des vents violents, il les condamne à un jeu au ras des pâquerettes ; rendu humide par une pluie friponne, il brouille les passes. Un seul essai est marqué dans la partie, fébrile et incertaine, dont les autres points se sont obtenus par pénalités. Deux minutes du de la fin du match, les blancs campent devant les poteaux bleus malgré le mauvais temps et Jonny WILKINSON, l’un des joueurs les plus talentueux comme les plus intelligents de sa génération, porte un coup de grâce mémorable à l’équipe de France, par un drop parfaitement ajusté aux conditions climatiques.

1815, Waterloo, plaine de Belgique. Une autre confrontation entre France et Angleterre – racontée par Stendal dans La Chartreuse de Parme ou Victor HUGO dans Les Misérables, elle prend des allures romanesques. Ce jour-là aussi, les caprices du temps ont aussi influencé le déroulement d’une bataille napoléonienne, dont l’issue a décidé du sort de l’Europe. Si les conditions météorologies avaient été différentes ce jour-là, l’Histoire aurait-elle été autre ?

dimanche 1 octobre 2017

Bougies #3



De nouvelles bougies : pour garder la flamme intacte, malgré les trous d'air !

samedi 30 septembre 2017

L'art d'être chat



"Les amoureux fervents et les savants austères, aiment également dans leur mûre saison les chats puissants et doux..."

Charles BAUDELAIRELes Fleurs du mal

vendredi 29 septembre 2017

Terre !

(c) National AeroSpace Agency, 2017


This Land is Your Land, This Land is My Land... La sonde Cassini a voyagé pendant vingt ans vers Saturne. Arrivée à destination, elle nous regarde de ce coin la galaxie entre les anneaux de gaz glacés ; nous sommes minuscules, et nous sommes vivants !  

jeudi 28 septembre 2017

Vincent

Vincent VAN GOGH - Champs de blé avec cyprès (1889)


Je ne connaissais pas les dessins en noirs et blancs de Vincent, jusqu'à mon dernier cours de dessin...  je suis enchanté et émerveillé de la découverte !

mercredi 27 septembre 2017

Alcools



Mon verre est plein d'un vin trembleur comme une flamme
Écoutez la chanson lente d'un batelier
Qui raconte avoir vu sous la lune sept femmes
Tordre leurs cheveux verts et longs jusqu'à leurs pieds

Debout chantez plus haut en dansant une ronde
Que je n'entende plus le chant du batelier
Et mettez près de moi toutes les filles blondes
Au regard immobile aux nattes repliées

Le Rhin le Rhin est ivre où les vignes se mirent
Tout l'or des nuits tombe en tremblant s'y refléter
La voix chante toujours à en râle-mourir
Ces fées aux cheveux verts qui incantent l'été

Mon verre s'est brisé comme un éclat de rire

Guillaume APPOLINAIRE — "Nuit Rhénane" — Alcools.

mardi 26 septembre 2017

Daïdo



Daïdo MORIYAMA est surnomé le "Loup de Shinjuku" ; il arpente les rues de ce quartier de Tokyo avec un simple appareil numérique pour en capter les ambiances incomparables en noirs et blancs...

lundi 25 septembre 2017

FX

www.fxguide.com


La simulation numérique sert aussi les créations cinématographiques. Celles des écoulements de fluide sont utilisées de façon industrielle pour ajouter des détails et du réalisme dans les scènes de jeux vidéo ou de films, et épargnent des coûts de production importants pour des scènes impossible à réaliser. La méthode SPH, qui a sert par exemple à simuler l’impact d’une vague sur un navire, se fonde sur une description de l’écoulement à l’aide de billes numériques dotées des qualités de l’eau. Elle est très utilisée par l’industrie de l’image pour représenter des phénomènes spectaculaires : déferlement, effondrement, explosions, collisions… Les modèles utilisés simplifient alors la réalité physique pour être les plus légers possibles, tout en donnant une impression de réalité : là encore, la modélisation est adaptée au plus juste besoin… pour des résultats spectaculaires ! Ratatouille, Shreck, Avatar, Harry Potter, Pirates des Caraïbes, et toutes les superproductions cinématographiques utilisent ces technologies numériques.




dimanche 24 septembre 2017

Paysage #1



Un bel exercice que de retranscrire avec des motifs simples un paysage : "trouve les nuances et la perspective" nous demande Thierry. J'ai envie d'essayer d'après une photographie que j'aime. Ce que j'arrive à faire en quelques heures : "c'est déjà ça pour aujourd'hui", me dis-je...

samedi 23 septembre 2017

Loi de l'attraction #1

(c) Alson WONG / www.alsonwongastro.com


"Il fallait être Newton pour apercevoir que la Lune tombe alors que tout le monde voit bien qu'elle ne tombe pas..." écrit Paul VALERY dans Mélanges en 1939.

vendredi 22 septembre 2017

Ada



La mathématicienne anglaise Ada LOVELACE (1815-1852), fille du poète George GORDON BYRON, a contribué avec son contemporain et ainé Charles BABBAGE (1791-1971) à concevoir une « machine analytique »  considérée comme l’ancêtre de l’ordinateur – dans les années 1980, des informaticiens ont baptisé un langage informatique en son honneur. Elle a également proposé ce qui est considéré comme le premier algorithme de calcul. 

 

"La Machine Analytique n'a nullement la prétention de créer quelque chose par elle-même. Elle peut exécuter tout ce que nous saurons lui ordonner d'exécuter. Elle peut suivre une analyse : mais elle n'a pas la faculté d'imaginer des relations analytiques ou des vérités. Son rôle est de nous aider à effectuer ce que nous savons déjà dominer"... commentait-elle.

Le développement de la simulation numérique donne une preuve de la pertinence de ses intuitions. Dans les notes qu’elle écrit pour accompagner la traduction des textes de Charles BABBAGE, Ada LOVELACE écrit que "manipuler les symboles abstraits (permettra de) voir les relations de la nature des problèmes sous une lumière nouvelle et d’en avoir une meilleure compréhension"...

La machine à calculer de Charles BABBAGE et le personnage d'Ada LOVELACE ont inspiré le scénariste Sylvain RUNBERG et le dessinateur Thibaud DE ROCHEBRUNE pour leur série BlueHope. L'histoire d'une mystérieuse compagnie de navigation maritime, d'un navire propulsé par une énergie de calcul ; entre Jules VERNE et Edgar POE, un belle oeuvre dessinée !


Nicolas CHEVASSUS-AU-LOUIS, « Ada Lovelace, mathématicienne visionnaire », La Recherche, Août 2017.
Serge MEIRINHO, Thibaud de ROCHEBRUNE et Nadine THOMAS BlueHope (Glénat, 2002)

jeudi 21 septembre 2017

L'art du maillage



Le maillage, c’est tout un art ! Pour représenter correctement des phénomènes physiques au moyen d'une simulation, il est nécessaire d’aller chercher de l’information à l’aide d’un maillage. Un réel savoir-faire issu de la théorie des méthodes numériques, et surtout de leur pratique...

En simulation numérique, les ingénieurs produisent des modèles mathématiques et numériques du monde physique, pour les aider à concevoir et à choisir des architecture optimales, alliant par exemple les meilleures qualités avec un coût de conception et fabrication le plus bas.

Les outils de simulation utilisés par les ingénieurs regroupent en général les trois fonctionnalités suivantes :
  • un modeleur  associe les lois physiques à une géométrie créée par Conception Assistée par Ordinateur (CAO) ;
  • un mailleur assure la discrétisation de l'objet étudié, préparant ainsi les étapes de calcul : il s'agit de représenter sa géométrie au moyens de points de calcul ;
  • un solveur réalise les opérations de calcul proprement dites. Elles mettent en œuvre les algorithmes d’assemblage, de stockage et de calcul sur les matrices qui contiennent l’information sur le système étudié.
La qualité du maillage peut influencer de façon plus ou moins significative le résultat de calcul, selon les phénomènes physiques mis en jeu.  Par exemple, pour représenter un écoulement turbulent, il peut être nécessaire d’utiliser des mailles fines au voisinage d’une paroi, à l’endroit où la vitesse de l’écoulement varie de façon sensible, alors que des mailles plus lâches suffisent à le représenter à grande distance. Des règles de bonne pratique propres assurent en général la qualité des résultats ; ces règles sont issues à la fois de résultats théoriques concernant les méthodes de calcul utilisées et de l’expérience acquise par les ingénieurs qui les mettent en oeuvre... Tout un art.


mercredi 20 septembre 2017

Singularité

(c) Maurits-Cornellis ESCHER


Singularité est un terme mathématique qui désigne par exemple une rupture sur une courbe régulière – comme un retour en arrière ou un changement de cap. Dans la foulée de romans et films de science-fiction, et pour différentes raisons, dont mercantiles, le terme a été ensuite utilisé pour désigner le point de rupture vers lequel convergeraient des technologies de l’informatique, de la robotique et de l’algorithmique. Singularité : l’homme dépassé par des machines autonomes. Une fiction selon Jean-Gabriel GANASCIA, qui développe ses arguments dans un ouvrage inspirant.

Science-fiction

Sur une planète qui était une fois celle des singes, des primates découvrent un monolithe, pierre noire de forme rectangle, qui irradie la bande d’une énergie inconnue : celle de la connaissance. L’un des chimpanzés saisit un os, découvre qu’il peut devenir outil… ou arme et le jette en l’air. Le mouvement de rotation dans le ciel est accompagné de la valse Beau Danube Bleu. Dans l’image suivante, l’os se fait station orbitale, tournoyant dans l’immensité noire de l’espace. Art du récit en ellipse et du rapprochement de deux images : Stanley KUBRICK exploite dans cette scène de son chef d’œuvre de science fiction le pouvoir du cinéma : celui de s’abstraire des contraintes du temps. L’un des personnages du film 2001, l’Odysée de l’Espace  est le super-ordinateur HAL-9000 (*), doté d’une intelligence artificielle, dont l’œil rouge veille sur le vaisseau de la mission spatiale Discovery One. Intelligence… et conscience artificielle. Avec la conscience d’être vivant, vient aussi l’illusion du pouvoir de l’égo… et l’angoisse de la mort. HAL les développe et devient comme paranoïaque. Il provoque des pannes, ment, devine des conversations secrètes et met en danger la sécurité des hommes… qui parviennent finalement à débrancher ses circuits. Dans un dernier souffle numérique, HAL confie à un rescapé de ses attaques une émotion ultime « I am afraid, Dave… »

Sience sans fiction 

Singularité : l’homme dépassé par des machines autonomes. Pour le chercheur Jean-Gabriel GANASCIA, spécialiste de l’intelligence artificielle et président du comité d’éthique du CNRS, la singularité est une illusion. Il propose pour éclairer les consciences une critique documentée et argumentée du mythe de la singularité et apporte un recul étayé sur les craintes ou les spéculations qui lui sont associées. En particulier, il rappelle que les machines restent soumises au déterminisme de leur programmation :

« Quelques soient les modalités d’apprentissage des algorithmes (qu’ils soient ‘supervisés’, ‘non supervisés’ ou ‘par renforcement’), les machines n’acquièrent pas pour autant d’autonomie au sens philosophique du terme, car elles restent soumises aux catégories et finalités imposées par ceux qui auront annoté les exemples dans la phase d’apprentissage… »

Les risques liés au développement de technologies, comme l’intelligence artificielle sont peut-être d’une autre nature : celle de leur inégalité de diffusion et de leur utilisation sans limites à des fins de destruction, de domination ou de manipulation. Cela sera le fait des hommes… et non des machines elles-mêmes.

Ce sont les hommes qui développent une technologie pour un usage donné ; pour le meilleur ou pour le pire. L’exemple de « l’intelligence artificielle » est sans doute le plus parlant pour questionner aujourd’hui la pratique et l’éthique d’une technologie – ici en raison de son potentiel de développement et des intérêts, économiques, techniques et médiatiques, qu’elle suscite.

Pour une automobile dont on confie la conduite à une « intelligence artificielle », quel est le critère de choix en cas de situation interprétée comme accidentelle : freiner lorsqu’une présence est détectée ou faire un écart ? Les mêmes questions se posent à un conducteur, qui réagit dans ce cas par réflexe : quel est l’équivalent pour une machine ? Un programme d’apprentissage de parole fondé sur la lecture n’est pas dotée de conscience ou de valeur : faites lui apprendre de données issues de discours ou d’écrits discriminants, violents ou injurieux, « l’intelligence artificielle » le reproduira…

Sience et conscience

Au-delà de situations dont les chercheurs et ingénieurs évaluent la probabilité et s’assurent de l’innocuité, les risques liés au développement de technologies, comme « l’intelligence artificielle », peut-être d’une autre nature. Celle de leur inégalité de diffusion et surtout de leur utilisation sans limites à des fins de destruction, de domination ou de manipulation. Cela sera le fait des hommes… et non des machines elles-mêmes. Ces sont les hommes qui proposent des modèles, qui programment les codes de calcul et les algorithmes – et qui décident des critères de choix.

L'utilisation que nous ferons d’une technologie dépend de nous seulement et il est inadéquat de confondre un outil et l'usage que l'on peut en faire — pour lui faire porter une responsabilité qu'il n'a pas.

« Science sans conscience n’est que ruine de l’âme » avertissait l’épicurien François RABELAIS. Entre Prométhée et Cassandre, il s’agit à chacun de répondre à cette éternelle question, plus que jamais d’actualité XXIème siècle. Et d’agir en conséquence – et avant peut-être que les changements globaux à venir n’obèrent nos marges de décision, que certains affirment comme déjà réduites.


Jean-Gabriel GANASCIA – Le Mythe de la Singularité – Seuil, 2017 (18€, 137 pages)

mardi 19 septembre 2017

Intelligence(s)



En 2016, une équipe de chercheurs, informaticiens et spécialistes des arts de l’Université de Delft, ont réalisé une expérience présentée comme unique et spectaculaire : celle de confier à une "intelligence artificielle" le soin de créer une œuvre inédite, inspirée du peintre hollandais Rembrandt VAN RIJN, maître de la technique du clair-obscur – à chacun d’apprécier le résultat !

Le projet, intitulé « The Next Rembrandt », et co-financé par la banque hollandaise ING et le géant de l’informatique Microsoft, est raconté par ses auteurs sur le site internet www.thenextrembrandt.com, et enflamme les imaginations. Aucun robot ou ordinateur aux capacités extraordinaires n’a fait montre de créativité et de sensibilité, au sens où nous pouvons l’entendre pour un artiste, pour réaliser ce tableau. Le terme "intelligence artificielle" est utilisée essentiellement pour souligner le caractère spectaculaire du projet, et sert évidemment les objectifs de communication de ses sponsors.

Mais pas seulement. Il tire partie d’avancées technologiques réelles. En particulier celles de l’acquisition et du traitement de données, des algorithmes d’apprentissage et de l’impression 3D. Ecoutons par exemple comment les auteurs de l’expérience ont procédé pour imiter avec l’ordinateur le style de Rembrandt.

« Afin de reproduire son style pictural, nous avons conçu un programme informatique capable de comprendre Rembrandt, en se fondant sur son utilisation de la géométrie, de la composition et de matériel de peinture. Un algorithme de reconnaissance faciale a permis d’identifier et de classer les  formes géométriques les plus utilisées par Rembrandt dans sa représentation des traits humains. Le programme a ensuite appris de ces données (à l’aide d’un algorithme) pour reproduire ce style et créer un nouveau visage et son expression pour notre tableau. »

Il s’agit dans une certaine mesure d’une expérience de simulation numérique, fondée sur d’autres modèles que des équations : sur des donnée. Elle montre la puissance de certaines technologies numériques, dont l’assemblage contribue  à la création d’une « intelligence artificielle ». Dans le cas présent, celles de l’apprentissage algorithmique (mises en œuvre par exemple avec des technologies spécifiques par les programmes qui ont été capable de battre l’homme à différents jeux : échecs, go… ou poker !), de l’impression 3D… et de la reconnaissance faciale.

Le psychologue américain Paul EKMAN est réputé être « l’homme à qui on ne peut pas mentir ». Ses travaux portent sur le décodage des expressions faciales. Peur, joie, colère, tristesse, surprise et dégoût : il a identifié les six émotions de bases, communes à l’ensemble des être humains. Ses travaux ont conduit à développer un outil numérique, le Facial Action Coding System, qui permet de dégager les similitudes (ou les différences) dans une expression. Signalons que l’expression faciale associée aux six émotions de base ne serait pas universelle et dépendraient à la fois de caractères biologiques et culturels : la question reste ouverte...


Au XIXème sicèle, le Français Guillaume-Benjamin DUCHENNE s'était déjà intéressé aux émotions que l'on pouvait lire sur les visages, comme Paul EKCMAN. Il démontre notamment qu'un vrai sourire ne se caractérise pas uniquement par la contraction de muscles buccaux, mais aussi par celle du muscle orbitaire de l'œil. Cette contraction est quasiment impossible à faire de manière volontaire et non spontanée, ce qui signifie que l'on peut mesurer la sincérité d'un sourire...

Plus récemment, les recherches de Paul EKMAN ont porté sur les "micro-expressions" : furtives, elles combinent et disent notre état émotionnel supposé "véritable". Il a également créé le site internet www.atlasofemotions.org qui ambitionne de répertorier l'ensemble des émotions humaines, de les classer selon leur intensité, leur durée, afin de les faire connaître en soi, chez les autres… dans un projet humaniste. Ce projet offre aussi une formidable information, fruit des expériences humaines, avec une approche très rationnelle...

Paul EKMAN dirige le Paul Ekman Group, qui commercialise ses découvertes, notamment dans le domaine de la sécurité nationale américaine. Il a inspiré le personnage principal de la série télévisée "Lie to Me". Ses recherches, l’amènent aussi à publier de nombreux ouvrages sur "l’intelligence émotionnelle". Il s’inscrivent dans une démarche plutôt humaniste : la compréhension des émotions est selon lui une des clef d’une plus grande harmonie entre les êtres humains. En 2015, un superbe film d’animation produit par les studios Pixar, « Vice-Versa » met en scène ces six émotions. Enfants, adolescents… ou adultes : le propos est universel.

La compréhension des différentes catégories d’expressions faciales des émotions fait l’objet de recherches en science cognitives et psychologiques – et peut également servir à leur modélisation informatique pour concevoir des interfaces perceptives, qui intéressent le domaine de "l’intelligence artificielle". En 2013, par exemple, des chercheurs américains annoncent avoir répertorié les expressions faciales d’états émotionnels « mixtes », c’est-à-dire combinant les émotions de base , en se fondant sur une étude des visages à l’aide du logiciel FACS. Ils dénombrent ainsi plus de vingt et une expressions composées. Les mathématiciens ou les mécaniciens pourraient y voir là, de façon réductrice certainement, une recherche de « modes propres de la psyché humaine ». Il existe une similitude conceptuelle entre les façons de représenter des états – mécaniques ou psychiques...

Leurs travaux peuvent avoir des applications dans la compréhension des troubles du comportement par exemple. Combinées avec les algorithmes de reconnaissance faciale, elles ouvrent la voie à de nombreuses applications dans le champ des technologies numériques et robotiques, et celui des "intelligences artificielles"...


Paul EKMAN, Emotions Revealed: Recognizing Faces and Feelings to Improve Communication and Emotional Life, Times Books, 2003.
R. E. JACKA, O.G. B. GARRODB, U. YUB, R. CALDARAC, P. G. SCHYNSB. Facial expressions of emotion are not culturally universal. Proceedings of the National Academy of Sciences of the United States of America, vol. 109, pp. 7241–7244, 2012.
D. SHICHUAN, Y. TAO, A.M. MARTINEZ. Compound facial expressions of emotion, Proceedings of the National Academy of Sciences of the United States of America, vol. 111, pp. 1454–1462, 2014.


lundi 18 septembre 2017

Femmes et Savantes


(c) Catel MULLER & José-Louis BOCQUET / Casterman


« Il est plus facile de désagréger un atome qu’un préjugé ! » est un aphorisme attribué à Albert EINSTEIN, que l’on convoque souvent pour parler intelligemment... En Science comme ailleurs, les préjugés ont la vie facile. L’un des plus tenaces est celui du rôle des femmes dans la pensée scientifique. Ingénieure, chercheuse, professeure : la féminisation des métiers techniques, comme des autres, contribue lentement au changement des mentalités. En complément, une approche est possible : regarder lucidement l’histoire. C’est ce que propose Gérard CHAZAL dans son ouvrage "Les Femmes et la science" (Ellipses, 2015).

L’arbre et la forêt

Il n’y a pas que Marie CURIE comme exemple de femme scientifique ! Première lauréate du prix Nobel de Physique ET de Chimie, scientifique hors-pair et citoyenne exemplaire, elle est un bel arbre qui cache une forêt trop inconnue : celle des contributions féminines à la science.

On attribue sans certitude historique la découverte de l'orbite elliptique de la Terre à Hypatie (360-415), philosophe et mathématicienne qui dirigea l'école néoplatonicienne d'Alexandrie. C'est le point d’ancrage d’un film réalisé par Alejandro AMENABAR en 2009, « Agora », dans lequel l’actrice Rachel WEISZ donne, tout en beauté, son corps et insuffle une âme à un personnage féminin dont les historiens savent relativement peu de choses. Victime de l'intégrisme chrétien de l'époque, son héritage n'a pas échappé à la destruction par ses persécuteurs... Vae Victis !

Emmy NOETHER (1882-1935) est une mathématicienne allemande, d'origine juive, sans doute des plus brillantes que la discipline ait connu. Elle laissé aux mathématiques pures un théorème qui porte son nom : en rapprochant les notions de symétrie et les lois de conservation, il établit un pont entre géométrie et algèbre. Etudiante à l’université d’Erlangen, elle devait se contenter d’être auditeur libre ; enseignante débutante à l’université de Göttingen, ses cours étaient supervisés par ses collègues masculins – signe des temps. Elle y a néanmoins bénéficié du soutien bienveillant de David HILBERT, l'un des mathématiciens les plus connus à l'époque, qui a pesé de sa notoriété pour dépasser les réticences de ses collègues, exprimées de façon parfois violente. "Pas de femmes en amphi, la science est une affaire d'hommes", le propos est rapporté par Gérard CHAZAL dans son livre. Les applications des travaux d'Emmy NOETHER sont nombreuses, par exemple pour la Théorie de la Relativité développée par Albert EINSTEIN, lequel reconnaissait ses contributions exceptionnelles aux mathématiques. Son cadre de pensée contribue également à établir des résultats précieux sur les équations de la mécanique... et des méthodes numériques potentiellement utiles à la simulation industrielle.

Ainsi que les droits des femmes, l’histoire d’une conquête que celle de la place des femmes dans les sciences – comme dans la société tout entière – racontée en exemples remis dans le contexte de leur époque. D’Hipathie à Emmy NOETHER, en passant par de nombreuses autres personnalités, les femmes ont été, autant que les hommes des contributrices remarquables à la recherche et aux découvertes scientifiques, luttant pour cela contre les préjugés.

Emmy NOETHER (1882-1935)

Plus proche de nous, l’ingénieure Mary JACKSON a été la première femme noire à intégrer la NASA. Ses travaux sur l’aérodynamisme sont des contributions directes à la simulation numérique telle que nous la connaissons aujourd’hui. Son histoire est racontée dans un film de Theodore MELFI « Hidden Figures », sorti cette année. La traduction française du titre peut être à la fois "Figures de l’ombre" ou "Chiffres cachés", ce qui convient parfaitement au métier et à l’histoire de Mary JACKSON !

Mary JACKSON (1921-2005) / www.nasa.gov

Gérard CHAZAL défend avec justesse la thèse selon laquelle « le fait de tenir (les femmes) à l’écart (de la science) tient plus à des raisons idéologiques, sociales ou religieuses qu’à des raisons biologiques ». Il le montre par de nombreux exemples, couvrant différentes disciplines et périodes historiques. Les femmes sont tout aussi douées que les hommes pour les sciences dites « dures » (mathématiques, physique ou chimie) et leur apport passé – et surtout futur – est aussi déterminant que celui des hommes pour le progrès de la connaissance et de ses applications au bénéfice de l’humanité… Seuls les modes d'organisation des sociétés, les préjugés d'éducation, ou les enjeux de pouvoir, sont responsables de cette situation déséquilibrée.

Les femmes sont l’avenir de la science !

Les préjugés sont tenaces, encore au XXIème siècle, où les défis auxquels sont confrontés les humains ne manquent pas. Ignorer l’apport des sciences et techniques pour contribuer à les relever serait un manque de lucidité de la part de l’humanité… comme celui d’en laisser à l’écart la moitié de la population ! Hommes et femmes restent différents : croyance ou vérité scientifique que les recherches  en neurosciences par exemple contribueront à borner… Ces différences sont heureuses simplement parce qu’elles enrichissent. Et qu’elles permettront peut-être un usage plus large et plus éthique des avancées technologiques à venir.

Il reste encore du chemin avant de féminiser les sciences – et d’ouvrir ses carrières à celles et ceux qui ont réellement envie de les embrasser. A tous les niveaux de formation après le cycle secondaire, la part des femmes reste minoritaire dans les sciences, en particulier les sciences « dures ».

Cela se retrouve en particulier dans les chercheurs en entreprise, dont l’exemple témoigne d’une situation globale. Selon les données du Ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation, en 2015, les sciences de l’ingénieur et les mathématiques ou la physique représentant les parts les plus importantes d’effectifs de chercheur en entreprise. Et la part des femmes y est nettement inférieure à la moyenne, 20% que dans les autres domaines…

Un retour d’expérience personnel sur le sujet – qui n’est que cela. J’ai travaillé plus de quinze ans dans un secteur industriel où la place des femmes dans les métiers techniques est aussi importante qualitativement que celle des hommes – même si elle est moindre quantitativement. Ingénieur-chercheur ou manager d’une équipe d’ingénieurs de recherche, j’ai eu l’occasion d’encadrer les travaux d’élèves ingénieur(e)s et de doctorant(e)s. En quinze ans, 11 jeunes femmes et 27 jeunes hommes, pour être précis ! Je fais ce simple constat que rien ne distingue leurs contributions intellectuelles, si ce n’est leurs personnalités et leur appétence pour les sciences.


Il est plus facile de désagréger un atome...

Gérard CHAZAL – "Les Femmes et la science" – Ellipses poche, 2015 (10€, 151 pages)

dimanche 17 septembre 2017

Traits pour traits



J'ai bien aimé travailler sur ce dessin : quatre heures seulement, cette fois-ci, toujours assisté de Thierry ! D'après l'oeuvre d'un artiste chinois, dont je retrouverai le nom...

samedi 16 septembre 2017

Donnez !

Avec Les Trois Jours du Condor, Sydney LUMET proposait en 1975 un film très ancré dans son temps : celle de la contestation de pouvoirs en place, fondée sur une défiance et une méfiance à leur égard – et, à l’époque, d’un salutaire contre-pouvoir de la presse. Joseph TURNER, le personnage incarné par Robert REDFORD, travaille dans une officine de la CIA à New-York. Son métier ? Lire une quantité d’informations trouvées dans des supports différents (livres, journaux, rapports, etc.) afin d’y découvrir des relations cachées – les intentions stratégiques d’états, d’organisations, d’entreprises etc. Sans le savoir, il en met une à jour, ce qui le précipite une aventure cinématographique passionnante...


Prévoir la propagation d’une épidémie de grippe à partir des requêtes sur un moteur de recherche. Proposer des bons de réduction sur la marque de soda ou de gâteaux préférés des clients d’une chaîne de supermarché. Fixer le coût d’un crédit immobilier en fonction des risques supposés de santé d’un emprunteur. L’usage des données à des fins marchandes est aujourd’hui multiple. Il est associé au Big-Data, terme devenu populaire cette dans la décennie 2010. Il désigne un ensemble de technologies orientées vers la collecte et le stockage de données de différente nature, disponibles en grande quantité et réparties de façon parfois parcellaire. Parmi ces données, celles laissées par les traces de notre activité numérique : vidéo consultées sur YouTube, interrogations de Google, achats sur Amazon, likes sur FaceBook pour ne citer que les plus évidentes ! A partir de ces données, parfois sans rapport apparent ou direct, des analystes construisent des modèles qu’ils espèrent prédictifs, comme ceux de la simulation numérique. L’utilisation la plus simple de ces modèles est celle des suggestions d’achats, de liens ou de vidéos que nous proposent les applications mentionnées précédemment. D’autres usages sont possibles, comme celles revendiquées ou attribuées par exemple à des sociétés expertes du traitement de données pour accompagner une campagne politique, voire influencer un vote...


C’est l’interprétation que font certains observateurs sur les élections de Donald Trump en novembre 2016 et le choix britannique de quitter l’Europe en juin 2016 (Eric ALBERT, « Cambridge Analytica, la start-up qui influence les électeurs », Le Monde, 14 avril 2017/www.lemonde.fr, Carole CADWALLADR, « The great British Brexit robbery: how our democracy was hijacked », The Guardian, 7 mai 2017/www.theguardian.com).

En simplifiant nettement le propos, les techniques de simulation numérique présentées dans ce fascicule fonctionnent par causalité. En partant d’observations du réel, les physiciens proposent une description mathématique des phénomènes sous forme d’équations, avec des paramètres accessibles à l’expérience. Le calcul scientifique permet de trouver les solutions aux équations et les résultats qu’il fournit sont confrontés avec les observations initiales. Une validation des modèles peut se faire sur des configurations simples, et la simulation est ensuite utilisée pour étudier, par extrapolation, d’autres situations – dans les limites de validité de la modélisation. Le Big-Data procède d’une autre façon : par corrélation. Nous entrons alors dans le monde de la statistique, dans lequel les quantités observées sont représentées par des grandeurs aléatoires, décrites en termes de probabilité (comme celle d’obtenir pile ou face à un lancer de pièce avec une chance sur deux, ou de gagner à un jeu à gratter avec une chance sur… ?). L'intensité de la corrélation est mesurée par un coefficient compris entre 0 et 1 : elle est absente lorsqu'il vaut zéro et totale lorsqu'il vaut un. Corrélation n'est pas causalité : deux évènements peuvent être très fortement corrélés alors qu'il n'existe aucune cause commune à leur origine.


Les modèles du BigData acquièrent une capacité prédictive sans se fonder sur des liens de causalité – pour caricaturer, on peut dire qu’ils fonctionnent parfois comme le ferait l’art selon Jean COCTEAU : « Je suis un mensonge qui dit la vérité ». Il se peut qu’une corrélation non étayée par une causalité donne des résultats qui ne sont pas démentis par l’expérience… jusqu’à ce que cela soit le cas, et qu’elle soit corrigée, ou abandonnée.

Les technologies du BigData sont essentiellement utilisées aujourd’hui à des fins essentiellement commerciales. Cependant, les données intéressent l’ingénierie, en particulier pour la maintenance prédictive d’installations : surveiller vieillissement d’un pont, d’une machine, par exemple. Produire un modèle fiable permettant de prévoir et cibler une intervention, au plus juste moment, au plus juste besoin : une contribution possible du BigData à une nouvelle gestion des risques techniques.


Utiliser les données issues de calculs numériques est également une direction prometteuse pour la simulation. Le couplage entre des modèles physiques précis, des méthodes numériques efficaces et des algorithmes de traitement de données fiables ouvre la voie à une nouvelle approche de la discipline et de ses applications. Il s’agit alors de produire un méta-modèle d’un phénomène physique, issu par exemple d’une combinaison de résultats de calcul, de données expérimentales et/ou de mesures en conditions opérationnelles. Matériaux (bois, composites, tissus humains, etc.), paramètres d’un procédé (température d’un four, débit d’une conduite d’eau potable, etc.), conditions d’exploitation (état de mer ou d’atmosphère, consommation énergétique, etc.) : cette voie d’application permet de prendre en compte les incertitudes sur les données et de proposer des méthodes de calcul efficaces, utilisables par exemple pour des simulations en temps réel.

vendredi 15 septembre 2017

Géopolitique numérique



J'aime parfois retrouver dans les données une lecture des tendances connues ou non. Sur ceux de l’augmentation des capacités de calcul, par exemple. Représentés à l'aide d'une échelle logarithmique en puissance de 10. Entre 1955 et 2015, la puissance de calcul évolue globalement comme une droite, ce qui signifie que l’augmentation est exponentielle : c’est ce qu’exprime la loi de Moore qui constate un doublement des capacités de calcul tous les 18 mois. Empirique par excellence, nous l'observons sans modèle, en concluant qu'elle sera comme le lever du soleil à l'est et son coucher à l'est : immuable ! Quant à sa limite physique, les experts ne s'accordent pas encore...


kflop/s, Mflop/s, Gflop/s : le franchissement d’un nouvelle unité de vitesse constaté dans un pays suggère aussi en première lecture un évènement géopolitique ou économique. 1938 en Allemagne, au seuil de la seconde guerre mondiale ; 1942 au Royaume-Uni, au basculement du conflit ; 1961 aux Etats-Unis et la préparation des programmes spatiaux ; 1984 en Union Soviétique et la fin de la guerre froide ; 1993 au Japon, pays qui devient un émergeant économique mondial, notamment dans le high-tech ; 2008 aux Etats-Unis pour l’émergence des géants des TIC dans le langage quotidien... et une crise d’un marché expérimentant la spéculation assistée par algorithmes ; 2016 en Chine qui prend sa place dans les technologies de la simulation numérique. Corrélation n’est pas raison... mais elle est parfois amusante !