Nichtlineares Optimierungsproblem mit Ungleichungsrestriktion
-
Hi
ich habe ein Problem der Form
min f(x)
N.b x1 + x2 <= 1
low[i] <= x_i <= high[i] für alle ida ich über f so gut wie nichts weiß mach ich darauf einen Gradientenabstieg.
Jetzt muss ich aber irgendwie diese blöde Ungleichung mit einbauen.Von der Theorie her gibt es Newton SQP Verfahren die solche Probleme lösen.
Wenn ich aber mit solchen Geschützen anfange, sitze ich aber noch eine ganze Weile bis ich das implementiert habe und erscheint mir für den Fall auch etwas übertrieben.Hat jemand eine Idee wie man das mit relativ einfachen Mitteln zurechtbiegen kann?
Viele Grüße
Fischi
-
Als alternative Fällt mir noch die Interior-Point-Methode ein. Ob das nu wesentlich einfacher zu implementieren ist, bezweifle ich. Such doch mal nach fertigen Paketen. Das ist doch eigentlich ein "Standard-Problem"
Du weißt nicht besonders viel über f. Was weißt du denn? Was für eine Dimension hat denn x bzw. in welche Größenordnung liegt er?
-
Taurin schrieb:
Als alternative Fällt mir noch die Interior-Point-Methode ein. Ob das nu wesentlich einfacher zu implementieren ist, bezweifle ich. Such doch mal nach fertigen Paketen. Das ist doch eigentlich ein "Standard-Problem"
Du weißt nicht besonders viel über f. Was weißt du denn? Was für eine Dimension hat denn x bzw. in welche Größenordnung liegt er?
Danke erstmal!
Ich weiß das f stetig diff'bar ist.
Zur Not kann ich auch noch annehmen, dass es zweimal stetig diff'bar ist.
Die Ableitungen kann ich aber nur per Differenzenquotient approximieren.Die Dimension von x ist variabel und liegt in der Größenordnung 5 - 20.
Mal schauen ob ich ein passendes Paket finde.
Viele Grüße
Fischi