Les problèmes d'optimisation différentiable se posent lorsque l'on cherche à déterminer la valeur optimale d’un nombre fini de paramètres. L’optimalité signifie ici la minimalité d'un critère donné. La différentiabilité supposée des fonctions qui définissent le problème écarte d’emblée de notre propos l’optimisation combinatoire (les paramètres à optimiser ne prennent que des valeurs entières ou discrètes) et l’optimisation non lisse (les fonctions ont des irrégularités).
L’optimisation est un sujet très ancien. Taylor [1685-1731], Newton [1643-1727], Lagrange [1736-1813] et Cauchy [1789-1857] ont élaboré les bases des développements limités. L’optimisation a connu un nouvel essor depuis l’apparition des ordinateurs et s’applique désormais dans de très nombreux domaines : économie, gestion, planification, logistique, automatique, robotique, conception optimale, science de l’ingénieur, traitement du signale, etc.
Les méthodes numériques de l’optimisation ont principalement été développées après la Seconde Guerre mondiale, en parallèle avec l’amélioration des ordinateurs, et n’ont cessé depuis de s’enrichir. En optimisation non linéaire, on peut ainsi distinguer plusieurs vagues : méthodes de pénalisation, méthode du lagrangien augmenté (1958), méthodes de quasi-Newton (1959), méthodes newtoniennes ou SQP (1976), algorithmes de points intérieurs (1984). Une vague n’efface pas la précédente, mais permet d’apporter de meilleures réponses à certaines classes de problèmes, comme ce fut le cas pour les méthodes de points intérieurs en optimisation semi-définie positive (SDP). Une attention particulière sera portée aux algorithmes pouvant traiter les problèmes de grande taille, ceux qui se présentent dans les applications.
Inhaltsverzeichnis
- Introduction
- Ensembles Convexes et Théorèmes de Séparation:
- Ensembles Convexes:
- Définitions:
- Exemples D'enveloppes Convexes:
- Ensembles Convexes:
- Fonctions convexes
- Définitions et Propriétés générales
- Sous Gradient et sous différentiel
- Fonctions convexes et différentiables.
- Fonctions convexes une fois différentiables
- Fonctions convexes deux fois différentiables
- Optimisation Convexe
- Définitions et Exemples:
- Propriétés fondamentales des programmes convexe.
- conditions d'optimalité des probléme d'optimisation convexe:cas général.
- Condition d'optimalité des problemes d'optimisation convexe et différentiable
- Optimisation sans contraintes
- Direction de descente
- Schéma général des algorithmes
- Réultats d'existence et d'unicité
- Conditions d'optimalité.
- Optimisation unidimensionnelle
- Principe de méthode de descente
- Recherche linéaire
- Les recherches linéaires exactes
- Recherches linéaires inexactes
- Convergence des méthodes..
- La condition de Zoutendijk
- Notion de convergence globale
- Notion de vitesse de convergence
- Convergence des algorithmes et fonctions multivoques
- Algorithmes d'optimisation sans contrainte
- Méthode de la plus forte pente.
- Algorithme de la méthode de la plus forte pente
- Inconvénients de la méthode de la plus forte pente.
- Convergence de la méthode de la plus forte pente
- Méthodes quasi-Newtoniennes
- Méthode de Newton
- Méthodes de Quasi-Newton
- Formules de mise à jour de l'approximation du Hessien
- Méthode de correction de rang un (SR1 [1960])
- Méthode de Davidon-Fletcher-Powell (DFP)
- Méthode de Broyden-Fletcher-Goldfard-Shanno (BFGS [1970])
- Les méthodes de la classe Broyden
- Méthode de la plus forte pente.
- Travaux dirigés et travaux pratiques
- Travaux dirigés
- Solutions.
- Travaux pratiques.
- Solutions.
- Travaux dirigés
Zielsetzung und Themenschwerpunkte
Dieses Werk befasst sich mit der Optimierung ohne Nebenbedingungen, einem grundlegenden Konzept im Bereich der differenziellen Optimierung. Die Hauptaufgabe besteht darin, den optimalen Wert einer endlichen Anzahl von Parametern zu ermitteln, wobei Optimalität hier die Minimierung eines gegebenen Kriteriums bezeichnet. Das Werk befasst sich mit Methoden zur Lösung dieser Optimierungsprobleme und befasst sich mit Algorithmen, die für Probleme großer Dimensionen geeignet sind.
- Konvexe Mengen und Trennsätze
- Konvexe Funktionen und deren Eigenschaften
- Konvexe Optimierung und ihre Grundlagen
- Optimierung ohne Nebenbedingungen: Direktionsverfahren, Suchverfahren und Konvergenz
- Algorithmen zur Optimierung ohne Nebenbedingungen: Gradientenverfahren, Quasi-Newton-Methoden und deren Varianten
Zusammenfassung der Kapitel
- Die Einleitung liefert einen Überblick über die Thematik der differenziellen Optimierung und die historische Entwicklung des Forschungsfeldes.
- Kapitel 1 befasst sich mit konvexen Mengen und den dazugehörigen Trennsätzen. Es werden Definitionen und Beispiele erläutert.
- Kapitel 2 behandelt konvexe Funktionen und ihre grundlegenden Eigenschaften, einschließlich des Begriffs des Untergradienten und des Unterdifferentials.
- Kapitel 3 widmet sich der konvexen Optimierung. Es werden Definitionen und Beispiele sowie grundlegende Eigenschaften von konvexen Programmen vorgestellt. Das Kapitel behandelt außerdem Optimalitätsbedingungen für konvexe Optimierungsprobleme, sowohl im allgemeinen Fall als auch für differenzierbare Probleme.
- Kapitel 4 befasst sich mit der Optimierung ohne Nebenbedingungen. Es werden Direktionsverfahren und Suchverfahren erläutert, sowie wichtige Konvergenzbegriffe.
- Kapitel 5 behandelt verschiedene Algorithmen zur Optimierung ohne Nebenbedingungen, darunter das Gradientenverfahren und Quasi-Newton-Methoden.
Schlüsselwörter
Wichtige Schlüsselwörter und Schwerpunkte des Textes sind konvexe Mengen, konvexe Funktionen, konvexe Optimierung, Optimalitätsbedingungen, Optimierung ohne Nebenbedingungen, Gradientenverfahren, Quasi-Newton-Methoden, Suchverfahren und Konvergenz.
- Quote paper
- Dr. Hakima Degaichia (Author), 2024, Optimisation Sans Cantraintes, Munich, GRIN Verlag, https://www.hausarbeiten.de/document/1466318