Ce travail explore une approche basée sur une Hyper-Heuristique (HH) avec un mécanisme d'Apprentissage Incrémental (ou IL pour Incremental Learning). L'objectif est d'assurer une réponse réactive et efficace face à un problème d'ordonnancement dynamique de système de production Cyber-Physique. Comparés aux règles d'ordonnancement classiques, les résultats montrent que cette approche surpasse significativement les heuristiques de la littérature. L'utilisation d'un Algorithme Génétique (AG) dans une phase hors-ligne permet de générer une combinaison de règles offrant de bonnes performances globales. Le système de contrôle, entièrement distribué, se charge d'appliquer la règle la plus pertinente selon le contexte décisionnel de l'instant.
Puis, dans un second temps, et en utilisant des cycles réguliers d'entraînement via simulation permettant l'intégration des nouveaux scénarios, l'HH avec IL démontre sa capacité à s'adapter au fil du temps. Cet apprentissage permet en effet de maintenir des performances proches de celles d'une méta-heuristique qui connaîtrait toutes les arrivées produit à l'avance. Il est démontré ainsi que l'IL couplé à de l'apprentissage via simulation garantit des combinaisons efficaces de règles d'ordonnancement tout en s'adaptant continuellement à l'évolution du système.