Le modèle numérique américain GFS évolue cette année. L'augmentation de la puissance de calcul de ses super-calculateurs va considérablement améliorer les prévisions.
Cette mise à jour augmentera la résolution de la grille du modèle, le faisant passer de 27 km à 13 km, la prévision sera beaucoup plus fine.
De plus le modèle numérique GFS évoluera vers la 4-D. Cette mise à jour va permettre une meilleure prise en compte des observations terrestres utilisées pour initialiser le modèle.
Le modèle GFS est exécuté quatre fois par jour avec des prévisions sur 16 jours, rien d'exceptionnel pour l'instant. Avec le nouveau GFS, le modèle offrira des prévisions horaires sur 5 jours alors qu'anciennement la prévision était faite par pas de 3 heures. Cette amélioration sera très pratique pour prédire la naissance de systèmes dépressionnaires ou autres phénomènes météorologiques intenses.
Cette mise à jour prépare également GFS à utiliser les observations satellitaire de JPSS (Joint Polar Satellite System) et GOES-R (Geostationary Operational Environmental Satellite). GOES-R sera lancé plus tard cette année et fournira des images aux modèles météorologiques et des images des cyclones toutes les 30 secondes!
Enfin le nouveau GFS améliorera l'observation et l'initialisation des données météorologiques des avions de ligne commerciaux tout en corrigeant plus précisément les éventuelles erreurs. Rappelons que cela devient possible grâce à une puissance de calcul qui a été augmentée.
Les essais du nouveau modèle GFS ont démontré une meilleure précision de celui-ci par rapport à l'ancien.
Le modèle GFS étant gratuit au public, nous pourrons en profiter et certainement que cela améliorera la prévision dans notre bassin cyclonique...
Source: www.noaa.gov
Archive Pages Design$type=blogging$count=7
Affichage des articles dont le libellé est modèles de prévision. Afficher tous les articles
Affichage des articles dont le libellé est modèles de prévision. Afficher tous les articles
vendredi 13 mai 2016
vendredi 5 février 2016
5 choses intéressantes à savoir sur le modèle GFS
Je continue ma série d'articles sur les modèles de prévisions numériques. Dans cet article on va parler de cinq choses intéressantes à savoir sur le "Global Forecast System" ou GFS, l'un des principaux modèles qui existent actuellement. Ce modèle déterministe américain est géré par la NOAA et plus précisément le NWS (National Weather Service).
#1 - GFS c'est, tenez-vous bien, environ 2900 teraflops de capacité de calcul. Pour se donner une petite idée cela correspond à environ 14000 ordinateurs cadencés avec un processeur intel Core I7. C'est aussi 8124 terabytes de capacité de stockage.
#2 - En réalité il y a 2 GFS! J'entends par là que GFS est installé sur deux super-ordinateurs distincts. L'un se situe en Floride et l'autre en Virginie. Cela permet de switcher entre les deux systèmes en cas de défaillance. Les deux GFS se situent à la 42e et 43e place des super-ordinateurs les plus puissants au monde.
#3 - Le modèle GFS "aspire" environ 1,43 milliard d'observations par jour. Ces observations proviennent de sources diverses: satellites, radiosondes, stations automatiques du monde entier. Toutefois seulement une dizaine de millions d'observations sont en réalité interprétés. La principale raison est une contrainte de temps. Il faut en effet environ 30 à 35 minutes pour traiter et analyser les données reçues. Les autres raisons sont: la défaillance d'un instrument (problème d'envoi automatique de la radiosonde par exemple) ou la panne totale de l'instrument, des erreurs humaines, des erreurs informatiques...
#4 - Le National Weather Service (NWS) a investi 44.5 millions de dollars pour améliorer ses prévisions et accessoirement rivaliser avec ECMWF. On va dire que les américains ont mal digéré le fait que le modèle européen avait mieux anticipé le landfall de Sandy aux États-Unis en 2012 et pas GFS. (Merci Sandy!). L'écart se ressert entre les deux grands de la prévision numérique mais ECMWF, l'européen, reste toujours plus fiable que GFS, grâce a une meilleure initialisation des données.
#5 - Les données brutes générées par GFS sont mises gratuitement à disposition de tous. Avec quelques (bonnes) connaissances informatiques tout le monde peut générer ses propre cartes.
Source:
http://www.computerworld.com/article/2878025/noaas-next-supercomputer-will-be-a-cray-ibm-hybrid-system.html
http://www.hpcwire.com/2014/02/12/accurate-forecasts-tied-supercomputer-spending/
http://www.top500.org/system/178613
http://www.atmos.umd.edu/~ekalnay/pubs/Szunyogh.ppt.pdf
Image: NOAA/NWS
Cinq choses à savoir sur GFS:
#1 - GFS c'est, tenez-vous bien, environ 2900 teraflops de capacité de calcul. Pour se donner une petite idée cela correspond à environ 14000 ordinateurs cadencés avec un processeur intel Core I7. C'est aussi 8124 terabytes de capacité de stockage.
#2 - En réalité il y a 2 GFS! J'entends par là que GFS est installé sur deux super-ordinateurs distincts. L'un se situe en Floride et l'autre en Virginie. Cela permet de switcher entre les deux systèmes en cas de défaillance. Les deux GFS se situent à la 42e et 43e place des super-ordinateurs les plus puissants au monde.
#3 - Le modèle GFS "aspire" environ 1,43 milliard d'observations par jour. Ces observations proviennent de sources diverses: satellites, radiosondes, stations automatiques du monde entier. Toutefois seulement une dizaine de millions d'observations sont en réalité interprétés. La principale raison est une contrainte de temps. Il faut en effet environ 30 à 35 minutes pour traiter et analyser les données reçues. Les autres raisons sont: la défaillance d'un instrument (problème d'envoi automatique de la radiosonde par exemple) ou la panne totale de l'instrument, des erreurs humaines, des erreurs informatiques...
#4 - Le National Weather Service (NWS) a investi 44.5 millions de dollars pour améliorer ses prévisions et accessoirement rivaliser avec ECMWF. On va dire que les américains ont mal digéré le fait que le modèle européen avait mieux anticipé le landfall de Sandy aux États-Unis en 2012 et pas GFS. (Merci Sandy!). L'écart se ressert entre les deux grands de la prévision numérique mais ECMWF, l'européen, reste toujours plus fiable que GFS, grâce a une meilleure initialisation des données.
#5 - Les données brutes générées par GFS sont mises gratuitement à disposition de tous. Avec quelques (bonnes) connaissances informatiques tout le monde peut générer ses propre cartes.
Source:
http://www.computerworld.com/article/2878025/noaas-next-supercomputer-will-be-a-cray-ibm-hybrid-system.html
http://www.hpcwire.com/2014/02/12/accurate-forecasts-tied-supercomputer-spending/
http://www.top500.org/system/178613
http://www.atmos.umd.edu/~ekalnay/pubs/Szunyogh.ppt.pdf
Image: NOAA/NWS
Pourquoi ne pas avoir une confiance absolue dans les modèles numériques?
Les modèles de prévisions sont devenus des instruments indispensables pour les météorologistes pour faire leur prévisions. Vous trouverez ci-après les deux principales raisons pour lesquelles il ne faut pas avoir une confiance aveugle dans les modèles de prévisions numériques.
Les modèles numériques de prévisions ne sont pas parfaits car:
Il peut y avoir des erreurs dans l'initialisation des données ...
Pour faire ses prévisions le modèle numérique doit savoir dans quelles conditions se trouvent l'atmosphère et la mer à un instant T. Pour cela il va récolter des données météorologiques recueillies par les satellites, les radiosondes, les stations automatique (SYNOP), stations des aéroports (METAR), avions commerciaux, navires... C'est ce qu'on appelle l'initialisation.
L'initialisation des données sert donc de base à l'ensemble de la prévision. Mais cette initialisation n'est pas parfaite. Elle comporte forcément des erreurs. En effet, il est impossible d'avoir des données de qualité partout (problème de calibrage des stations, instruments défectueux, pannes...). De plus le maillage des données recueillies est plus faible à certains endroits. Toutefois, des algorithmes statistiques essaient de pallier ses erreurs.
... et comme tous programmes informatiques, les modèles numériques buggent.
Malgré la puissance de calcul des super-ordinateurs des modèles numériques, leurs algorithmes ne peuvent pas modéliser à la perfection les mouvements de l'air. Pour cause, l'atmosphère est un milieu chaotique! Le nombre d'erreurs de calcul des modèles croit avec le temps. Ce nombre double en moyenne tous les cinq jours.
Les modèles numériques prévoient le temps par pas de 1h, 3h ou 6h. Il y a donc une discontinuité dans le temps qui ne colle pas à la réalité! En plus du séquençage du temps, au delà de 10 jours, la résolution est réduite; passant de 13km à 27km. Cela engendre forcément des approximations qui au final vont plus ou moins fausser la prévision.
Comment obtenir une prévision plus fiable?
Il est sage de comparer plusieurs modèles déterministes entre eux afin d'obtenir des convergences de prévisions. Comparer les deux principaux modèles (ECMWF et GFS) semblent le plus judicieux. Mais vous pouvez aussi les comparer avec d'autres modèles de prévisions tels que UKMO, NAVGEM, CMC, ARPEGE ...
Il faut également comparer les modèles déterministes et les modèles d'ensemble. Pour ces derniers on va volontairement modifier les données de l'initialisation afin de pallier à d'éventuelles erreurs. Si en comparant un modèle déterministe et un modèle d'ensemble un scenario similaire se dégage alors l'éventualité qu'elle se produise est plus forte.
Rappelez-vous que la précision d'un modèle diminue généralement avec le temps. Donc inutile de tenir pour acquis des prévisions à 384h!
www.cima.fcen.uba.ar
en.wikipedia.org/wiki/Numerical_weather_prediction
www.nonlin-processes-geophys.net/8/357/2001/npg-8-357-2001.pdf
IMAGE: ERIC CABANIS/AFP/GETTY IMAGES
Les modèles numériques de prévisions ne sont pas parfaits car:
Il peut y avoir des erreurs dans l'initialisation des données ...
Pour faire ses prévisions le modèle numérique doit savoir dans quelles conditions se trouvent l'atmosphère et la mer à un instant T. Pour cela il va récolter des données météorologiques recueillies par les satellites, les radiosondes, les stations automatique (SYNOP), stations des aéroports (METAR), avions commerciaux, navires... C'est ce qu'on appelle l'initialisation.
L'initialisation des données sert donc de base à l'ensemble de la prévision. Mais cette initialisation n'est pas parfaite. Elle comporte forcément des erreurs. En effet, il est impossible d'avoir des données de qualité partout (problème de calibrage des stations, instruments défectueux, pannes...). De plus le maillage des données recueillies est plus faible à certains endroits. Toutefois, des algorithmes statistiques essaient de pallier ses erreurs.
... et comme tous programmes informatiques, les modèles numériques buggent.
Malgré la puissance de calcul des super-ordinateurs des modèles numériques, leurs algorithmes ne peuvent pas modéliser à la perfection les mouvements de l'air. Pour cause, l'atmosphère est un milieu chaotique! Le nombre d'erreurs de calcul des modèles croit avec le temps. Ce nombre double en moyenne tous les cinq jours.
Les modèles numériques prévoient le temps par pas de 1h, 3h ou 6h. Il y a donc une discontinuité dans le temps qui ne colle pas à la réalité! En plus du séquençage du temps, au delà de 10 jours, la résolution est réduite; passant de 13km à 27km. Cela engendre forcément des approximations qui au final vont plus ou moins fausser la prévision.
Comment obtenir une prévision plus fiable?
Il est sage de comparer plusieurs modèles déterministes entre eux afin d'obtenir des convergences de prévisions. Comparer les deux principaux modèles (ECMWF et GFS) semblent le plus judicieux. Mais vous pouvez aussi les comparer avec d'autres modèles de prévisions tels que UKMO, NAVGEM, CMC, ARPEGE ...
Il faut également comparer les modèles déterministes et les modèles d'ensemble. Pour ces derniers on va volontairement modifier les données de l'initialisation afin de pallier à d'éventuelles erreurs. Si en comparant un modèle déterministe et un modèle d'ensemble un scenario similaire se dégage alors l'éventualité qu'elle se produise est plus forte.
Rappelez-vous que la précision d'un modèle diminue généralement avec le temps. Donc inutile de tenir pour acquis des prévisions à 384h!
www.cima.fcen.uba.ar
en.wikipedia.org/wiki/Numerical_weather_prediction
www.nonlin-processes-geophys.net/8/357/2001/npg-8-357-2001.pdf
IMAGE: ERIC CABANIS/AFP/GETTY IMAGES
dimanche 29 décembre 2013
mercredi 11 décembre 2013
Modèle de prévisions: comparaison des eaux précipitables
Vous entendez souvent parler de modèles de prévision. Vous trouverez ci-après une comparaison,montrant la quantité d'eau totale précipitable, entre les 2 modèles suivants: GFS, CMC.
Pour un meilleur confort visuel, cliquez sur la première image et utilisez votre molette de souris pour naviguer entre les différentes images.
Pour un meilleur confort visuel, cliquez sur la première image et utilisez votre molette de souris pour naviguer entre les différentes images.
Inscription à :
Articles (Atom)