Hausarbeiten logo
Shop
Shop
Tutorials
En De
Shop
Tutorials
  • How to find your topic
  • How to research effectively
  • How to structure an academic paper
  • How to cite correctly
  • How to format in Word
Trends
FAQ
Go to shop › Mathematics - Applied Mathematics

Optimisation Sans Cantraintes

Title: Optimisation Sans Cantraintes

Academic Paper , 2024 , 158 Pages

Autor:in: Dr. Hakima Degaichia (Author)

Mathematics - Applied Mathematics

Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Les problèmes d'optimisation différentiable se posent lorsque l'on cherche à déterminer la valeur optimale d’un nombre fini de paramètres. L’optimalité signifie ici la minimalité d'un critère donné. La différentiabilité supposée des fonctions qui définissent le problème écarte d’emblée de notre propos l’optimisation combinatoire (les paramètres à optimiser ne prennent que des valeurs entières ou discrètes) et l’optimisation non lisse (les fonctions ont des irrégularités).

L’optimisation est un sujet très ancien. Taylor [1685-1731], Newton [1643-1727], Lagrange [1736-1813] et Cauchy [1789-1857] ont élaboré les bases des développements limités. L’optimisation a connu un nouvel essor depuis l’apparition des ordinateurs et s’applique désormais dans de très nombreux domaines : économie, gestion, planification, logistique, automatique, robotique, conception optimale, science de l’ingénieur, traitement du signale, etc.

Les méthodes numériques de l’optimisation ont principalement été développées après la Seconde Guerre mondiale, en parallèle avec l’amélioration des ordinateurs, et n’ont cessé depuis de s’enrichir. En optimisation non linéaire, on peut ainsi distinguer plusieurs vagues : méthodes de pénalisation, méthode du lagrangien augmenté (1958), méthodes de quasi-Newton (1959), méthodes newtoniennes ou SQP (1976), algorithmes de points intérieurs (1984). Une vague n’efface pas la précédente, mais permet d’apporter de meilleures réponses à certaines classes de problèmes, comme ce fut le cas pour les méthodes de points intérieurs en optimisation semi-définie positive (SDP). Une attention particulière sera portée aux algorithmes pouvant traiter les problèmes de grande taille, ceux qui se présentent dans les applications.

Excerpt


Inhaltsverzeichnis

  • Introduction
  • Ensembles Convexes et Théorèmes de Séparation:
    • Ensembles Convexes:
      • Définitions:
    • Exemples D'enveloppes Convexes:
  • Fonctions convexes
    • Définitions et Propriétés générales
    • Sous Gradient et sous différentiel
    • Fonctions convexes et différentiables.
      • Fonctions convexes une fois différentiables
      • Fonctions convexes deux fois différentiables
  • Optimisation Convexe
    • Définitions et Exemples:
    • Propriétés fondamentales des programmes convexe.
    • conditions d'optimalité des probléme d'optimisation convexe:cas général.
    • Condition d'optimalité des problemes d'optimisation convexe et différentiable
  • Optimisation sans contraintes
    • Direction de descente
    • Schéma général des algorithmes
    • Réultats d'existence et d'unicité
    • Conditions d'optimalité.
    • Optimisation unidimensionnelle
      • Principe de méthode de descente
      • Recherche linéaire
      • Les recherches linéaires exactes
      • Recherches linéaires inexactes
    • Convergence des méthodes..
      • La condition de Zoutendijk
      • Notion de convergence globale
      • Notion de vitesse de convergence
    • Convergence des algorithmes et fonctions multivoques
  • Algorithmes d'optimisation sans contrainte
    • Méthode de la plus forte pente.
      • Algorithme de la méthode de la plus forte pente
      • Inconvénients de la méthode de la plus forte pente.
      • Convergence de la méthode de la plus forte pente
    • Méthodes quasi-Newtoniennes
      • Méthode de Newton
      • Méthodes de Quasi-Newton
      • Formules de mise à jour de l'approximation du Hessien
      • Méthode de correction de rang un (SR1 [1960])
      • Méthode de Davidon-Fletcher-Powell (DFP)
      • Méthode de Broyden-Fletcher-Goldfard-Shanno (BFGS [1970])
      • Les méthodes de la classe Broyden
  • Travaux dirigés et travaux pratiques
    • Travaux dirigés
      • Solutions.
    • Travaux pratiques.
      • Solutions.

Zielsetzung und Themenschwerpunkte

Dieses Werk befasst sich mit der Optimierung ohne Nebenbedingungen, einem grundlegenden Konzept im Bereich der differenziellen Optimierung. Die Hauptaufgabe besteht darin, den optimalen Wert einer endlichen Anzahl von Parametern zu ermitteln, wobei Optimalität hier die Minimierung eines gegebenen Kriteriums bezeichnet. Das Werk befasst sich mit Methoden zur Lösung dieser Optimierungsprobleme und befasst sich mit Algorithmen, die für Probleme großer Dimensionen geeignet sind.

  • Konvexe Mengen und Trennsätze
  • Konvexe Funktionen und deren Eigenschaften
  • Konvexe Optimierung und ihre Grundlagen
  • Optimierung ohne Nebenbedingungen: Direktionsverfahren, Suchverfahren und Konvergenz
  • Algorithmen zur Optimierung ohne Nebenbedingungen: Gradientenverfahren, Quasi-Newton-Methoden und deren Varianten

Zusammenfassung der Kapitel

  • Die Einleitung liefert einen Überblick über die Thematik der differenziellen Optimierung und die historische Entwicklung des Forschungsfeldes.
  • Kapitel 1 befasst sich mit konvexen Mengen und den dazugehörigen Trennsätzen. Es werden Definitionen und Beispiele erläutert.
  • Kapitel 2 behandelt konvexe Funktionen und ihre grundlegenden Eigenschaften, einschließlich des Begriffs des Untergradienten und des Unterdifferentials.
  • Kapitel 3 widmet sich der konvexen Optimierung. Es werden Definitionen und Beispiele sowie grundlegende Eigenschaften von konvexen Programmen vorgestellt. Das Kapitel behandelt außerdem Optimalitätsbedingungen für konvexe Optimierungsprobleme, sowohl im allgemeinen Fall als auch für differenzierbare Probleme.
  • Kapitel 4 befasst sich mit der Optimierung ohne Nebenbedingungen. Es werden Direktionsverfahren und Suchverfahren erläutert, sowie wichtige Konvergenzbegriffe.
  • Kapitel 5 behandelt verschiedene Algorithmen zur Optimierung ohne Nebenbedingungen, darunter das Gradientenverfahren und Quasi-Newton-Methoden.

Schlüsselwörter

Wichtige Schlüsselwörter und Schwerpunkte des Textes sind konvexe Mengen, konvexe Funktionen, konvexe Optimierung, Optimalitätsbedingungen, Optimierung ohne Nebenbedingungen, Gradientenverfahren, Quasi-Newton-Methoden, Suchverfahren und Konvergenz.

Excerpt out of 158 pages  - scroll top

Details

Title
Optimisation Sans Cantraintes
Author
Dr. Hakima Degaichia (Author)
Publication Year
2024
Pages
158
Catalog Number
V1466318
ISBN (eBook)
9783389014912
ISBN (Book)
9783389014929
Language
French
Tags
optimisation sans cantraintes
Product Safety
GRIN Publishing GmbH
Quote paper
Dr. Hakima Degaichia (Author), 2024, Optimisation Sans Cantraintes, Munich, GRIN Verlag, https://www.hausarbeiten.de/document/1466318
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • https://cdn.openpublishing.com/images/brand/2/preview_popup_advertising.jpg
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  158  pages
Hausarbeiten logo
  • Facebook
  • Instagram
  • TikTok
  • Shop
  • Tutorials
  • FAQ
  • Payment & Shipping
  • About us
  • Contact
  • Privacy
  • Terms
  • Imprint