Le 6 septembre dernier, la fusée Ariane 5 a vu son tir annulé dans les ultimes secondes précédant le décollage. Un incident qui n'avait plus été rencontré par le lanceur de satellites depuis mars 2011. "Les opérateurs humains n'avaient pas vu ce problème. C'est l'ordinateur qui a repéré à la dernière seconde une donnée mauvaise sur des milliers passées en revue", raconte Gilles Rabin, directeur de l'Innovation au Centre national d'études spatiales (Cnes) lors du débat organisé à Toulouse à l'occasion de la Mêlée numérique, sur l'apport du big data dans le secteur du spatial.
"Les satellites nous envoient 20 000 positions de bateaux par seconde"
"En réalité, le spatial fait du big data depuis longtemps puisqu'on analyse et on modélise des quantités importantes de données. Mais aujourd'hui, la machine a dépassé l'homme en termes de puissance de calcul. Elle est telle que l'homme n'arrive plus à visualiser les données", poursuit-il.
Pour mesurer l'ampleur de cette masse exponentielle d'informations qui parviennent aux ingénieurs, Philippe Gaspar, directeur du service innovation de CLS (société toulousaine spécialisée dans l'observation maritime par satellite) prend l'exemple de son domaine d'expertise : la pêche.
"Près de 90% des données collectées dans l'histoire de l'humanité l'ont été au cours des deux dernières années. Les satellites nous envoient 20 000 positions de bateaux par seconde", relève-t-il.
"La véracité des données est essentielle"
Ce saut technologique influe directement sur le modèle économique des acteurs du spatial. Des startups balbutiantes mais également des Gafas comme Google se positionnent sur le marché très juteux des données spatiales et viennent bousculer les entreprises historiques. Cette percée est facilitée également par l'ouverture des données spatiales. Par exemple, le programme européen Copernicus donne un libre accès aux données à la famille de satellites d'observation de la Terre Sentinel. Google a ainsi lancé en septembre 2016 Global fishing watch, une plateforme censée repérer les bateaux pratiquant la surpêche à travers le monde entier. Une fausse-bonne idée pour Philippe Gaspar :
"Des ONG ont montré des dysfonctionnements énormes sur la plateforme de Google. Un tiers de bateaux épinglés ne pratiquaient pas la pêche. Autre problème, le site ne se base que sur les données des pays se conformant aux normes internationales. Résultat : Global fishing watch a conclu que le détroit de Gilbraltar et les rivages de la Manche sont les lieux où l'on pratique le plus la surpêche. C'est très surprenant au vu des pratiques par exemple en Indonésie. Malgré ces biais très importants, Google a publié sans vergogne cet atlas de la surpêche".
Pour le responsable de CLS, l'arrivée massive de données ne doit pas mener à négliger la compréhension et la modélisation des données. "La véracité est essentielle sinon le big data pourrait rapidement perdre toute crédibilité".
Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !