Numerik von Minimierungsproblem - wann funktionieren SQP-Verfahren gar nicht?
-
Hallo Leute,
Ich hab ein -- wie ich dachte -- recht einfaches Optimierungsproblem, das Teil einer größeren Reglerarchitektur ist. Eigentlich dachte ich, meine Funktion zu minimieren wäre schrecklich einfach und ich könnte das Problem einfach so in Matlab und einen SQP-Solver (wie fmincon) reinstecken, aber irgendwie passt es nicht so ganz und ich weiß nicht so genau, woran es eigentlich liegt.
Das Problem sieht so aus (Latex mag nicht):
Minimiere f, wobei die u_i's meine Freiheitsgrade sind (bzw. der Vekor u=[u_1, ..., u_N]):
f=k_0 (x_N k_1 + k_2 x_N u_N) + Summe(i=1 ...N) (k_1 x_i + k_2 x_i u_i)
Die x_i werden dabei so berechnet (x_0=0 ist bekannt):
x_i+1 = x_i + k_3 u_i - k_4 - k_5 x_i^2
Des weiteren hat das Problem ein paar Nebenbedingungen:
0 <= x_i <= x_max
u_min <= u_i <= u_maxDie ganzen k_i's sind von Null verschiedene reelle Zahlen (k_1 ist negativ, und gewöhnlich ist auf das Minimum von f <0, k_0 ist groß und positiv, der Rest ist recht klein und positiv).
Das ganze Problem sieht mir verhältismäßig gutmütig aus, auch wenn es natürlich keine quadratischen Kosten hat, wie man es bei einem SQP-Solver eigentlich haben will und ein paar Nichtlinearitäten. Aber der Solver ist so schlecht ... und ich weiß leider nicht, warum. Erst mal die Symptome:
- Extrem lange Rechenzeiten (ein paar 10'000 Funktionsaufrufe, bis der Gradient <10^-6 wird)
- Starke Sensitivität gegenüber meinem ersten Schätzwert, mit dem ich meinen Solver initialisiere. Die Lösung für ein u_start=[u_min, u_min, u_min, ...] hat quasi nichts mit einem u_start=[u_max, u_max, u_max, ...] zu tun.Kurz: es funktioniert einfach gar nicht.
Problem ist, daß ich nicht so recht weiß, woran es liegt. Ich habe ein paar Gedanken zu dem Thema, es wäre nett, wenn jemand spezielle Ideen ausschließen kann oder neue hinzufügen kann:
- Die Kostenfunktion f ist einfach schlecht gewählt. Prinzipiell ist sie eigentlich recht schön (sie gibt mir tatsächlich Kosten in Geld), aber vielleicht hat sie ja strukturelle Mängel. Sie ist halt nichtlinear in meinen u_i's, das ist natürlich nicht so wahnsinnig schön, aber ich verstehe nicht, warum das bei einen Verfahren ein Problem ist. Der Gradientenschätzer scheint jedenfalls recht verwirrt in der Gegend rumzueiern und das nicht mal, weil die Funktion so flach ist (sie ist ja offensichtlich nicht flacher als 10^-6, sonst würde der Solver eher abbrechen), sondern er hin- und herzulaufen scheint (leider ist es nicht ganz einfach, Matlab dazu zu bringen, einen über sein internes Handeln Auskunft zu erteilen). Wenn das das Problem ist: Wie strukturiere ich so ne Funktion in der Praxis vernünftig, so daß ich tatsächlich via SQP-Verfahren das gleiche Minimum finde, wie meine anschauliche Funktion f? Literaturtipps sind willkommen.
- Aktuell berechne ich die x_i's in der Kostenfunktion f und wurschtle die Nebenbedingung dann da via Straffunktion rein, was mir die Sache zwar nicht unstetig macht, aber doch neue fiese Ableitungen am Rand "aktiviert". Wäre es eine bessere Strategie, die Variablen x_i als Teil des Optimierungsproblems zu betrachten und sie dann einer (nichtlinearen) Nebenbedingung zu unterwerfen, so daß die Gleichung oben (x_i+1=x_i + ...) weiterhin gilt? Hilft das dem Gradientenschätzer? (Zur Größenordnung, es gibt so etwa 100 u_i's. Wenn ich das mache, dann verdopple ich meine Eingangsvariablenanzahl. Schlimm für so einen numerischen Solver? Ich habe schon größere Probleme gelöst gesehen ...)
- Prinzipiell wäre es ja möglich, von Hand den Gradienten auszurechnen und in die Funktion reinzuwurschteln (inclusive den Gradienten der Constraints). Hilft das irgendwie? Ich verstehe nicht, warum eine automatisierte Schätzung, wie sie Matlab in dem Fall vornimmt, nicht ausreichen sollte.
- Vielleicht liegt es an meiner Matlab-Unkenntnis. Ich habe die Optimierungstoolbox (coolere Optimierer hab ich nicht, könnte aber in der Uni TombLab ausprobieren. Hat jemand ne Idee, was mich dann erwartet?) und ich benutze die Funktion fmincon mE. wie in der Hilfe und den Beispielen dokumentiert. Aber vielleicht gibt es ja trotzdem "Fallen", die ich machen kann. Zugegeben: damit bin ich im falschen Forum, könnte aber den Code am Wochenende posten, wenn es jemanden interessiert.
Oder hat sonst noch jemand ne Idee, was ich ausprobieren sollte und woran es hängen könnte, wenn SQP-Solver komplett versagen?
Das wäre sehr cool, danke.
-
Ohne mich jetzt damit auszukennen: Hast du mal versucht, das ganze für N=1 oder N=2 mal per Hand auszurechnen oder dir für diese Fälle mal ein paar Bilder anzuschauen? Vielleicht erkennt man da was...
-
Vielleicht hilft Dir dieser:
http://www.math.hu-berlin.de/~vigerske/sqp/sqp.pdfDaniel E. schrieb:
Ich hab ein -- wie ich dachte -- recht einfaches Optimierungsproblem, das Teil einer größeren Reglerarchitektur ist.
Wichtig: Du hast nur eine reine Kalibration und keine Neukonfiguration (Variability)?!
Daniel E. schrieb:
Das Problem sieht so aus (Latex mag nicht):
Minimiere f, wobei die u_i's meine Freiheitsgrade sind (bzw. der Vekor u=[u_1, ..., u_N]):
f=k_0 (x_N k_1 + k_2 x_N u_N) + Summe(i=1 ...N) (k_1 x_i + k_2 x_i u_i)
Die x_i werden dabei so berechnet (x_0=0 ist bekannt):
x_i+1 = x_i + k_3 u_i - k_4 - k_5 x_i^2
Des weiteren hat das Problem ein paar Nebenbedingungen:
0 <= x_i <= x_max
u_min <= u_i <= u_maxDu hast also deklarative (ungerichtete) Sekundärtupel [Freiheitsgrade] und jeder Freiheitsgrad hat die Richtungsdirektive [IN] (Eingabeattribute). D.h.: jeder Tupel ist wirklich unabhängig voneinander (Sterntopologie)?
Daniel E. schrieb:
Das ganze Problem sieht mir verhältismäßig gutmütig aus, auch wenn es natürlich keine quadratischen Kosten hat, wie man es bei einem SQP-Solver eigentlich haben will und ein paar Nichtlinearitäten. Aber der Solver ist so schlecht ... und ich weiß leider nicht, warum. Erst mal die Symptome:
- Extrem lange Rechenzeiten (ein paar 10'000 Funktionsaufrufe, bis der Gradient <10^-6 wird)
- Starke Sensitivität gegenüber meinem ersten Schätzwert, mit dem ich meinen Solver initialisiere. Die Lösung für ein u_start=[u_min, u_min, u_min, ...] hat quasi nichts mit einem u_start=[u_max, u_max, u_max, ...] zu tun.Kurz: es funktioniert einfach gar nicht.
Daniel E. schrieb:
- Die Kostenfunktion f ist einfach schlecht gewählt. Prinzipiell ist sie eigentlich recht schön (sie gibt mir tatsächlich Kosten in Geld), aber vielleicht hat sie ja strukturelle Mängel. Sie ist halt nichtlinear in meinen u_i's, das ist natürlich nicht so wahnsinnig schön, aber ich verstehe nicht, warum das bei einen Verfahren ein Problem ist. Der Gradientenschätzer scheint jedenfalls recht verwirrt in der Gegend rumzueiern und das nicht mal, weil die Funktion so flach ist (sie ist ja offensichtlich nicht flacher als 10^-6, sonst würde der Solver eher abbrechen), sondern er hin- und herzulaufen scheint (leider ist es nicht ganz einfach, Matlab dazu zu bringen, einen über sein internes Handeln Auskunft zu erteilen). Wenn das das Problem ist: Wie strukturiere ich so ne Funktion in der Praxis vernünftig, so daß ich tatsächlich via SQP-Verfahren das gleiche Minimum finde, wie meine anschauliche Funktion f? Literaturtipps sind willkommen.
Ja, ist klar. Du kannst Dir f grafisch als bizzard geformtes Wellblechdach vorstellen. Du hast also in den Extrema selbst noch Extrema. Definiert durch die Freiheitsgrade, liniare und nichtliniare Funktionen. Zur Rekusion (Näherungsverfahren) stell Dir ein Tischtennisball vor, den Du auf das Wellblechdach fallen lässt, der zwar erst ganz wild hin und her springt (x 10.000 Funktionsdurchläufe) aber dennoch in das nächste lokale Minimum konvergiert dessen Gradient < 10^-6 ist. Und deshalb konvergiert f vorzugsweise in Nähe des Schätzwertes.
Wenn ich das mit dem SQP-Verfahren richtig verstanden habe, brauchst Du ein quadratisches Element für die Kombinationsoptimierung (β-Reduktion).
Andernfalls ist SQP kein geeignetes Refactoring Pattern.Daniel E. schrieb:
- Aktuell berechne ich die x_i's in der Kostenfunktion f und wurschtle die Nebenbedingung dann da via Straffunktion rein, was mir die Sache zwar nicht unstetig macht, aber doch neue fiese Ableitungen am Rand "aktiviert". Wäre es eine bessere Strategie, die Variablen x_i als Teil des Optimierungsproblems zu betrachten und sie dann einer (nichtlinearen) Nebenbedingung zu unterwerfen, so daß die Gleichung oben (x_i+1=x_i + ...) weiterhin gilt? Hilft das dem Gradientenschätzer? (Zur Größenordnung, es gibt so etwa 100 u_i's. Wenn ich das mache, dann verdopple ich meine Eingangsvariablenanzahl. Schlimm für so einen numerischen Solver? Ich habe schon größere Probleme gelöst gesehen ...)
Also Du setzt FEM ein, nur als Menge von Tupel mit zusammen 100 Freiheitsgraden als Zellen?
http://de.wikipedia.org/wiki/Finite-Elemente-Methode. Wenn Du die x_i, x_i+1 mit in Dein Opitmierungskalkül reinziehst verletzt Du die Definition der SQP Methode. Ist SQP überhaupt Pflicht oder ist das nur ein gewählter Ansatz von Dir? So oder so, Du brauchst ein Assessment Concept, deshalb kannst Du nicht alles variabel halten. Ein festen Bezugspunkt muss es immer geben (Assessment Concept Primärtupel).
Vielleicht eine Kombination aus Betrachtung fixe Definition x_i mit Betrachtung mit fixen Wertebereich u_i (zwei unabhängige Assessment Concepts) mit den Primartupel (weiteres Assessment Concept). Die Anzahl der Freiheitsgrad ist dabei nicht das ausschlaggebende, sondern die kommulativen Effekte der nichtlinaren Funktionen.Daniel E. schrieb:
- Prinzipiell wäre es ja möglich, von Hand den Gradienten auszurechnen und in die Funktion reinzuwurschteln (inclusive den Gradienten der Constraints). Hilft das irgendwie? Ich verstehe nicht, warum eine automatisierte Schätzung, wie sie Matlab in dem Fall vornimmt, nicht ausreichen sollte.
- Vielleicht liegt es an meiner Matlab-Unkenntnis. Ich habe die Optimierungstoolbox (coolere Optimierer hab ich nicht, könnte aber in der Uni TombLab ausprobieren. Hat jemand ne Idee, was mich dann erwartet?) und ich benutze die Funktion fmincon mE. wie in der Hilfe und den Beispielen dokumentiert. Aber vielleicht gibt es ja trotzdem "Fallen", die ich machen kann. Zugegeben: damit bin ich im falschen Forum, könnte aber den Code am Wochenende posten, wenn es jemanden interessiert.
Da kann ich Dir nicht helfen, denn alles was wir hier einsetzen ist Eigenentwicklung und streng vertraulich. Außerdem sind die Matlab-Module im kommerziellen Bereich schweineteuer (Flooting Licence 38 k€ o.s.).
Daniel E. schrieb:
Oder hat sonst noch jemand ne Idee, was ich ausprobieren sollte und woran es hängen könnte, wenn SQP-Solver komplett versagen?
Das wäre sehr cool, danke.
Wir lösen so etwas oft in Kombination von EAs:
http://en.wikipedia.org/wiki/Evolutionary_algorithm
Stell dir vor die x_i und U_i sind Gene und die Kostenfunktion (Assessment Concept) ist dein Fitnesstest. Dann wird ein Zufallselement eingebaut, dass dich auf eine andere Stelle des Wellblechdachs beamt (Neukalibration von ein paar u_i und x_i und in ein anderes lokales Minimum konvergiert. Und dann werden einfach die Minima verglichen. Bei einer reinen Rekusion siehst Du nämlich nicht was hinter dem Berg liegt.
-
Prof84 schrieb:
Wir lösen so etwas oft in Kombination von EAs:
http://en.wikipedia.org/wiki/Evolutionary_algorithm
Stell dir vor die x_i und U_i sind Gene und die Kostenfunktion (Assessment Concept) ist dein Fitnesstest. Dann wird ein Zufallselement eingebaut, dass dich auf eine andere Stelle des Wellblechdachs beamt (Neukalibration von ein paar u_i und x_i und in ein anderes lokales Minimum konvergiert. Und dann werden einfach die Minima verglichen. Bei einer reinen Rekusion siehst Du nämlich nicht was hinter dem Berg liegt.Danke für eure Antworten. Ich hab auch mit genetischen Algorithmen und Simulated Annealing probiert, aber krieg das Problem immer noch nicht so richtig in den Griff. Ich probier's jetzt mal anders, danke nochmal.
-
Daniel E. schrieb:
Prof84 schrieb:
Wir lösen so etwas oft in Kombination von EAs:
http://en.wikipedia.org/wiki/Evolutionary_algorithm
Stell dir vor die x_i und U_i sind Gene und die Kostenfunktion (Assessment Concept) ist dein Fitnesstest. Dann wird ein Zufallselement eingebaut, dass dich auf eine andere Stelle des Wellblechdachs beamt (Neukalibration von ein paar u_i und x_i und in ein anderes lokales Minimum konvergiert. Und dann werden einfach die Minima verglichen. Bei einer reinen Rekusion siehst Du nämlich nicht was hinter dem Berg liegt.Danke für eure Antworten. Ich hab auch mit genetischen Algorithmen und Simulated Annealing probiert, aber krieg das Problem immer noch nicht so richtig in den Griff. Ich probier's jetzt mal anders, danke nochmal.
Ich vermute mal, Du hast das selbe moralische Problem wie volkard damals
:
http://www.c-plusplus.net/forum/viewtopic-var-t-is-74085-and-highlight-is-.htmlhttp://www.informatik.oelinger.de/data/datafiles_datafile_1045559964.pdf
http://www.informatik.oelinger.de/data/datafiles_datafile_1045560046.pdf
-
Hallo!
In so einem Fall ist es für gewöhnlich sinnvoll, sowohl u_i als auch x_i als Optimierungsvariablen aufzufassen, und
bildet dann zusammen mit den Variablenbeschränkungen von x und u die Nebenbedingungen. Stichwort in diesem Kontext: direct multiple shootng.
Durch diesen Ansatz besitzen die während der Optimierung benutzten Jacobi- und Hessematrizen ganz tolle sparsity-Eigenschaften, wodurch sich die entstehenden linearen Gleichungssysteme sehr effizient lösen lassen.
Dass SQP nur bei einer konvexen Zielfunktion ein globales Minimum finden kann, ist klar. Also sind gute Startwerte nicht blöd
Ansonsten in der Tat in Richtung anderer Algorithmen schauen (z. B. Simulated annealing), wobei SQP schon toll ist (das Entscheidende ist hierbei die Qualität des für die Unterprobleme benutzten QP-Solvers) und hiermit auch für hochdimensionale Probleme eine schnelle Lösung möglich ist.
//edit:
Auch interessant sind natürlich allgemein Interior-Point-Verfahren (z. B. https://projects.coin-or.org/Ipopt )Grüße
-
Bloops schrieb:
//edit:
Auch interessant sind natürlich allgemein Interior-Point-Verfahren (z. B. https://projects.coin-or.org/Ipopt )Im nicht-liniaren Bereich?!
Never!
http://de.wikipedia.org/wiki/Innere-Punkte-Verfahrenhttp://www.informatik.oelinger.de/data/datafiles_datafile_1045559964.pdf => S.44 Tabelle 2
-
Bloops schrieb:
In so einem Fall ist es für gewöhnlich sinnvoll, sowohl u_i als auch x_i als Optimierungsvariablen aufzufassen, und
bildet dann zusammen mit den Variablenbeschränkungen von x und u die Nebenbedingungen. Stichwort in diesem Kontext: direct multiple shootng.
Vielen Dank für das Stichwort, das sieht interessant aus, ich werd da auf jeden Fall nachrecherchieren. So werde ich es wohl mal versuchen.
Was ich aktuell noch nicht ganz verstanden habe: mein Problem, das ich oben hingeschrieben hab, ist ja einfach ein Optimalsteuerungsproblem -- und zwar problematischerweise eins, das an manchen Stellen singulär wird (weil sowohl meine Systemdynamik als auch meine Kosten linear von meinen Eingangswerten u abhängen). Darum versagen dann an diesen singulären Stellen alle meine indirekten Verfahren. Aber ich verstehe noch nicht ganz, wie sich dieses Problem in den direkten Verfahren äußert -- ich gucke mir ja so Dinge wie die Hamiltonfunktion o.ä. nie an. Aber ich fände es auf der anderen Seite auch verwunderlich, wenn so das Problem auf einmal komplett verschwinden würde. Hat dazu jemand ne Idee?
Dass SQP nur bei einer konvexen Zielfunktion ein globales Minimum finden kann, ist klar. Also sind gute Startwerte nicht blöd
Normalerweise habe ich die, das sollte also nicht das ganz große Problem sein (ich habe es mit einem prädiktiven Regler zu tun, dh. ich hab quasi das fast gleiche Problem ein paar Seunden vorher schon mal gelöst ...). Aber irgendwas passt immer noch nicht so ganz in meinem Code.
Aber nochmal vielen Dank euch.
-
Daniel E. schrieb:
Hat dazu jemand ne Idee?
Joh ...
"Heisen-Bug! - To measure the Bug changes the Bug itself." (Markus Völter)
Als Naturwissenschaftler muss ich klarstellen: Mit singulär meinst Du
http://de.wikipedia.org/wiki/Reguläre_Matrix => singuläre Matrix ?Wir lösen das über Entropie! Kräfte und Flüsse!
Wir weisen allen direkten Verfahren nach Laufzeitbetrachtung & Komplexitätsgrad Entropiewerte zu. Je höher die Ordnung (kleine Laufzeit & Komplexität) desto kleiner der Wert. Obwohl Du dann bestimmte singuläre Punkte hast, bist Du dann von unterschiedlichen Entropiegradienten umgeben (Kraft). Mit jeden direkten Verfahren hast Du beim Direct Multiple Shooting eine Kostenerhöhung/-reduktion für die Intervalle, die Du als Ressource betrachtest, um die Systemdyamik entweder anzuheißen oder abzukühlen. Das Threading der direkten Verfahren wird gewichtet nach dem Entropiegradienten und dem Ressourcegewinn-/Verlust der Intervalle beim DMS (Fluss). Was dann wieder zur Folge hat das der Entropiegradient abnimmt (ebenso Kraft und Fluss). So baust Du für die indirekten Verfahren (z.B. zufallgesteuert) einen Kernel aus den direkten Verfahren auf, den Du auch in singulären Punkten nutzen kannst. Nach der Abkühlung des Systems (Gradient < Schwellwert) dann einfach ein Simulated Annealing.
So habe ich bis heute fasst jedes harte Optimierungsproblem erschlagen, also so dass ich zumindestens ein Ergebnis rausbekam das annehmbar war. Ob es das Optimum war steht auf einen anderen Blatt ...
-
Prof84 schrieb:
Daniel E. schrieb:
Hat dazu jemand ne Idee?
Joh ...
"Heisen-Bug! - To measure the Bug changes the Bug itself." (Markus Völter)
Als Naturwissenschaftler muss ich klarstellen: Mit singulär meinst Du
http://de.wikipedia.org/wiki/Reguläre_Matrix => singuläre Matrix ?Nein, ich meine, daß die Hamilton-FunKtion unabhängig von den Systemeingängen wird und damit das Maximumsprinzip nicht mehr anwendbar ist.
-
Prof84 schrieb:
Bloops schrieb:
//edit:
Auch interessant sind natürlich allgemein Interior-Point-Verfahren (z. B. https://projects.coin-or.org/Ipopt )Im nicht-liniaren Bereich?!
Never!
http://de.wikipedia.org/wiki/Innere-Punkte-Verfahrenhttp://www.informatik.oelinger.de/data/datafiles_datafile_1045559964.pdf => S.44 Tabelle 2
Die Aussage ist einfach falsch.
Vor allem in den letzten 10-20 Jahren hat sich auf dem Gebiet der nichtlinearen Interior-Point-Methoden eine Menge getan. So gehören heute einige der effizientesten QP-Solver den IP-Methoden an und auch für allgemein nichtlineare Probleme sind IP-Methoden von sehr großem Interesse.
Guckst du einfach mal hier: Google: nonlinear interior point
Zum Beispiel ist gleich der erste Link sehr interessant: http://www.math.kth.se/~andersf/doc/sirev41494.pdf
Ob nun SQP, IP oder ein anderes Verfahren besser geeignet ist, hängt halt vom konkreten Problem ab.
PS: Randbemerkung @Prof84: So sehr ich dein umfangreiches Wissen auch bewundere, gibt es Personen, welche durch die Art ihrer Erklärungen allen anderen zeigen müssen, dass sie über ebendieses (zu) verfügen (glauben), oder aber es gibt Personen, die versuchen, durch ihre Erklärungen möglichst hilfreich zu sein, indem sie sich auf das Nötige beschränken und eine gute Verständlichkeit in den Mittelpunkt stellen. (Das musste einfach mal gesagt sein :p )
-
Bloops schrieb:
PS: Randbemerkung @Prof84: So sehr ich dein umfangreiches Wissen auch bewundere...
Mal eine halbe Stunde durch Wikipedia zu surfen und daraufhin eine eigene Interpretation des Gelesenen wiederzugeben, bekommst Du sicher auch hin.
-
Daniel E. schrieb:
Nein, ich meine, daß die Hamilton-FunKtion unabhängig von den Systemeingängen wird und damit das Maximumsprinzip nicht mehr anwendbar ist.
Ja, so falsch war mein Einwurf nicht:
Guckste Du hier:
http://en.wikipedia.org/wiki/Hamiltonian_mechanics
http://de.wikipedia.org/wiki/Hamiltonoperator
und dann kuckst Du da:
http://en.wikipedia.org/wiki/Hamiltonian_(control_theory)
http://en.wikipedia.org/wiki/Pontryagin's_maximum_principleaka Physicist vs Computer Scientist.
Bloops schrieb:
Deine Aussage ist einfach falsch.
Vor allem in den letzten 10-20 Jahren hat sich auf dem Gebiet der nichtlinearen Interior-Point-Methoden eine Menge getan.
Möglich, möglich ...
Die genaue Antwort muss ich Dir eine Zeit schuldig bleiben, bis ich Zeit finde mir die Sachen anzuschauen. Mein Verstand sagt mir, der Begriff non-liniar muss erweitert werden, damit die Sache funktionieren könnte. Stand by ...Bloops schrieb:
PS: Randbemerkung @Prof84: So sehr ich dein umfangreiches Wissen auch bewundere, gibt es Personen, welche durch die Art ihrer Erklärungen allen anderen zeigen müssen, dass sie über ebendieses (zu) verfügen (glauben), oder aber es gibt Personen, die versuchen, durch ihre Erklärungen möglichst hilfreich zu sein, indem sie sich auf das Nötige beschränken und eine gute Verständlichkeit in den Mittelpunkt stellen. (Das musste einfach mal gesagt sein :p )
Hmmm ...Registrierungsdatum 2003?! Dann hast Du ja nur etwa 100 Post von mir verpasst, die darlegen, dass ich weder zur Einen noch zur anderen Gruppe gehöre.
Wieso ist der Informationsgehalt in diesen Post plötzlich für MICH gestiegen? ...
http://de.wikipedia.org/wiki/Informationsgehalt
http://de.wikipedia.org/wiki/TransinformationParadoxerweise steht dies auch noch im direkten Zusammenhang zu Daniel E.s Problem.
-
Hängt der Begriff "non-liniar" eigentlich mit dem ähnlich klingenden "non-linear" zusammen? Bin nur neugierig, vielleicht kannst du mir das als Leadership Position Owner bei termini technici erklären.
-
scrub schrieb:
Hängt der Begriff "non-liniar" eigentlich mit dem ähnlich klingenden "non-linear" zusammen? Bin nur neugierig, vielleicht kannst du mir das als Leadership Position Owner bei termini technici erklären.
"That's your 35th attempt to stimulate an emotional response!"
(Student Spock to his class mates in "Star Trek" [ähmm oder war es "Star Wars"? Bei diesen Teil bin ich nicht so sicher ...])
NERD := Non Emotional Reacting Dude
... oder wie die gefrusteten ERDs hier immer sagen: "Was ein arroganter A.!"und morgen ist es wieder so weit - *bufftata* *bufftata*
-
scrub schrieb:
Hängt der Begriff "non-liniar" eigentlich mit dem ähnlich klingenden "non-linear" zusammen? Bin nur neugierig, vielleicht kannst du mir das als Leadership Position Owner bei termini technici erklären.
Den Begriff "non-linear" kann man nur schwer erweitern, er umfaßt schon alles außer dem Linearen. Mehr als alles wird er nicht definieren wollen. (Wollen schon, aber nicht können, und ich freu mich schon auf ein furchbar pseudowissenschaftliches Posting.) Also wäre die logische Antwort, daß "non-liniar" bestimmt was anderes ist. Mal hoffen, daß er uns morgen erleuchtet. Vielleicht wird "non-linear" in der anderen Richtung erweitert, quasi-linear, semi-linear, linear?
-
Die Frage ist doch eher: konvex oder nicht konvex?