L’équipe de Whale Seeker utilise l’algorithme Möbius, un outil développé au sein de la compagnie pour identifier les baleines dans des images aériennes. Nos clients nous confient les images à analyser, et nous leur renvoyons leurs données annotées et prêtes à être consultées pour orienter les décisions à prendre. Mais pourquoi ne pourrions-nous pas vendre un accès à Möbius pour que les personnes et organismes intéressés l’utilisent eux-mêmes sur leurs propres données?
Il serait envisageable d’adopter un tel mode de fonctionnement si nous travaillions avec une entrée constante et standardisée, par exemple si on devait analyser des pièces manufacturées toujours identiques et présentées à la caméra sous le même angle et le même éclairage. Or, nous nous intéressons à des données écologiques issues directement du monde naturel, un matériel irrégulier et en constant changement. Il n’existe donc pas de solution unique qui puisse donner des résultats fiables en toutes circonstances. Möbius n’est pas un algorithme qu’on peut laisser en liberté se débrouiller seul dans la nature!
La première caractéristique qui détermine la performance d’un modèle qui doit traiter des données hétéroclites est son pouvoir de généralisation, soit sa capacité à appliquer ce qu’il a appris lors de son entraînement à des données qu’il n’a jamais vues. Par exemple, si on entraîne un hypothétique modèle avec une capacité de généralisation parfaite avec des images de phoques couchés sur du sable, il sera tout aussi performant pour reconnaître des phoques sur la neige, dans des roches, dans l’eau ou dans une piscine à boules multicolores. Bien que ce soit une tâche qui paraît très facile aux humains, et que des progrès considérables en intelligence artificielle soient faits presque à chaque jour dans cette direction, même les meilleurs modèles actuels sont loin d’atteindre ce degré de généralisation. Résultat, il est préférable que des images ayant les mêmes caractéristiques générales que celles qu’on compte analyser soient incluses dans l’entraînement du modèle. Et on ne peut pas demander à nos clients de réentraîner le modèle à chaque nouvel ensemble de données!
Imaginons maintenant qu’on puisse entraîner un modèle qui généralise très bien et donne d’excellents résultats avec toutes les données qu’on peut lui présenter aujourd’hui : il est toujours possible que sa performance pâtisse de la dérive des données, ou « data drift ». Rien à voir avec un quelconque problème de dérive en mer de nos équipements! La dérive des données désigne la perte de pouvoir de généralisation dont peut être victime un modèle en raison des changements qui se produisent avec le temps dans les données qu’il est destiné à traiter. Dans notre cas, une telle dérive pourrait être due à deux facteurs principaux :
Changements dans les technologies et les protocoles d’échantillonnage : Les progrès réalisés dans le matériel photographique utilisé, la résolution ou les procédés de pré-traitement des images, et les modifications faites en conséquence dans l’altitude à laquelle volent les avions qui prennent les relevés, pourraient produire des changements peu visibles pour l’œil humain mais très difficiles à gérer pour un algorithme de vision par ordinateur.
Changements biologiques : Avec les changements climatiques, on peut s’attendre à l’inattendu dans les conditions marines et la distribution des espèces. Par exemple, des baleines pourraient se retrouver dans un nouvel environnement où le modèle n’a pas été entraîné à les rechercher. Sinon, avec les fluctuations dans la température de l’eau, les bouleversements dans les communautés d’algues ou de phytoplancton pourraient modifier l’apparence et la couleur de la surface de la mer.
En bref, cela signifie qu’un modèle qui est excellent aujourd’hui, s’il est laissé tel quel sans être mis à jour, pourrait potentiellement commencer à donner des résultats un peu inquiétants l’année prochaine, et franchement médiocres dans cinq, dix ou quinze ans. Comment Whale Seeker peut composer avec les limites de la capacité de généralisation de son algorithme, et minimiser sa vulnérabilité à la dérive des données?
Le modèle seul ne peut offrir une performance optimale : c’est pourquoi nous utilisons une approche à interaction humaine. Chaque fois qu’un ensemble d’images est soumis à Möbius, nous le réentraînons avec des données à jour, pertinentes et correctement étiquetées, et un expert révise tous les cas où l’algorithme est incertain afin de confirmer ou d’infirmer ses décisions. L’algorithme va ensuite intégrer ces nouvelles annotations pour faire de meilleures prédictions à l’avenir, afin qu’il s’améliore et s’actualise constamment. L’expertise des professionnels de Whale Seeker ne peut pas être vendue, s’apprendre en une fin de semaine ou se transmettre en quelque clics. Et c’est ce qui fait toute la valeur de la solution IA que nous proposons : en faisant tourner une boucle qui lie un humain chevronné à l’algorithme, nous pouvons fournir avec constance des résultats rapides, précis et fiables!