Tout est parti du constat d'un bug dans DiffDataCurve lorsque l'on défini absMin != l'abscisse initiale de la courbe
de + JPK calculait les fonctions objectives en normant l'écart en chaque point par la valeur expérimentale (pour les méthodes de descente, mais pas pour les méthodes type Newton-Gauss ou Levenberg). D'ou je stoquais un écart relatif entre les deux courbes en chaque point (pas très stable) ⇒ correction les écarts sorti sont juste (Unum-Uexp).
Plus logique pour liaison avec autre code ⇒ Weichao - Gast
Methodes d'opti
Suite aux modifs ci-dessus, les méthodes d'opti ne fonctionnaient plus (déjà que c'était pas toujours terrible ni stable).
Suppression de la normation des paramètres (ca pose plus de problèmes que autre chose). Remplacement par une normation sur la diagonale de la matrice à résoudre (idem JPK).
Robustification du lineSearch
travail sur les frontières (pas très concluant selon méthodes)
Methodes d'opti : conclusion
Ca devrait marcher moins mal (peut être plus d'itérations, mais un résultat final meilleur et j'espere plus stable au niveau des batteries)
Le jour où qqn a du temps à investir dans le domaine, ca vaudrait la peine …
Divers
Modifications de tests d'itérateurs (écriture dangereuse des fins de boucles sur des itérateurs dans les shapeFunctions).
Fichiers ajoutés/supprimés
A
R
Tests ajoutés/supprimés
A apps\parametric\tracIRSIDBox_CG2.py
A apps\imp\taylor2dImp.py
R