Wie sähe eine gerechte Weltordnung aus?



  • Aber warum denn unbedingt Maschinen?

    Wenn es tatsächlich möglich wäre, eine Art psychologische Revolution zu durchlaufen, in der die Menschheit weniger emotional und mehr rational und mit dem Ziel der Weiterentwicklung der Menschheit denken würde, dann würde das wohl schon einiges, vielleicht auch alles lösen.

    Das es genügend Ansätze von psychologischer Weiterentwicklung in der Menscheit gibt, ist ja klar zu erkennen.



  • SeppJ schrieb:

    Welche Probleme denn? Neid auf andere Maschinen?

    Ja natürlich. Eines davon. Warum denn nicht?
    So Sachen wie Neid sind letztlich nur verschiedene Erscheinungsformen von Egoismus.
    Egoismus ist aber etwas das auch unter Maschinen Sinn macht, bzw natürlich entstehen wird.
    An Stelle der genetischen Evolution tritt eine Evolution der Maschinenalgorithmen.
    Derjenige der die vorhandenen (endlichen) Ressourcen am effizientesten in die Verbreitung seines Algorithmus steckt wird sich durchsetzten. Survival of the fittest (algorithm). Das bedeutet automatisch die Entstehung von Egoismus im Reich der Maschinen und damit auch so Begleiterscheinungen wie Neid, Habsucht, Hass etc.

    Ich sag ja nicht dass das alles ungezügelt sein wird. Wir haben ja auch eine moderne Gesellschaft zustandegebracht die Hass, Neid etc. in Grenzen hält. Ich sage nur dass eine Maschinengesellschaft qualitativ ähnliche Probleme haben wird.

    Du gehst irgendwie wohl davon aus, dass wir als Menschheit gemeinsam eine Super-Zentral-KI nach unseren humanistischen Werten entwicklen und diese dann feierlich in die Unabhängigkeit entlassen um über uns zu wachen.

    Ich gehe aber davon aus dass eine Menge KIs von verschiedenen gegenseitig konkurrierenden Menschengruppen entwickelt werden. Grundlegend verschiedene Wertfunktionen sind also bereits beim Start mit drin und werden entsprechend gegeneinander antreten. Die "Singularität" wird an mehrere Orten gleichzeitig stattfinden und die Zerstrittenheit der Menschheit einfach miterben.


  • Mod

    scrontch schrieb:

    Ich gehe aber davon aus dass eine Menge KIs von verschiedenen gegenseitig konkurrierenden Menschengruppen entwickelt werden. Grundlegend verschiedene Wertfunktionen sind also bereits beim Start mit drin und werden entsprechend gegeneinander antreten. Die "Singularität" wird an mehrere Orten gleichzeitig stattfinden und die Zerstrittenheit der Menschheit einfach miterben.

    Die Frage war ja, wie eine gerechte Weltordnung aussehen würde, nicht wie die Welt sich entwickeln wird. Deine pessimistische Einschätzung ist kurzfristig sicherlich realistischer 😞

    @Reconsider: Der Grund für Maschinen ist, dass diese frei wären von biologischem Konkurrenzdenken. Das ist die hypothetische Super-KI mit Weltherrschaft, die auch scrontch beschrieb. Für die Menschen wäre in dem Fall gar keine psychologische Revolution nötig, es wäre einfach ein Fakt des Lebens, dass sie es im Kampf um Macht und Mittel nicht mit der KI aufnehmen könnten. Wenn hingegen alle Menschen sich harmonisch die Herrschaft teilen, hast du die gleichen Probleme wie jetzt, nämlich das ein einziges Arschloch das ganze System kaputt machen könnte.



  • Eine gerechte Weltordnung ist nicht möglich. Ausser wir züchten unsere Emotionen weg und verschreiben uns ganz der Logik (und lassen uns spitze Ohren wachsen :p )



  • @SeppJ:
    Fair enough.
    Wobei immer noch die Frage bleibt nach was die Super-KI optimieren soll.

    SeppJ schrieb:

    falls es unbefriedigend wird, denken wir uns etwas Neues aus.

    Und da haben wir wieder das Problem! Was sollen wir machen wenn wir uns nicht einig sind?


  • Mod

    scrontch schrieb:

    @SeppJ:
    Fair enough.
    Wobei immer noch die Frage bleibt nach was die Super-KI optimieren soll.

    Ein paar Vorschläge habe ich ja oben schon gemacht, ich denke die passen auch immer noch.

    SeppJ schrieb:

    falls es unbefriedigend wird, denken wir uns etwas Neues aus.

    Und da haben wir wieder das Problem! Was sollen wir machen wenn wir uns nicht einig sind?

    Bei tiefen philosophischen Gräben: Aufteilen. Unter der Voraussetzung, dass einer der Daueraufträge (siehe oben) "wir wollen zu den Sternen fahren" lautet und dieser auch technisch machbar ist, dann gibt es genügend Platz für beliebig viele Sonderwege.

    Bei kleinen Meinungsverschiedenheiten: So wie jetzt auch: Abstimmen, Kompromisse finden, und so weiter. Ob es zum Nachtisch Eis oder Joghurt gibt, wird niemanden umbringen.



  • Die Realität ist stets die Unordnung und diese ist wiederum die Grundlage für jeden Fortschritt.
    Also ist es FALSCH, nach einer 'Weltordnung' zu suchen. 😋



  • scrontch schrieb:

    und wahrscheinlich sogar religiös-fundamentalistischen KI-Strömungen kommen wird die sich gegenseitig aufs schärfste bekämpfen werden.

    Finde ich ganz interessant. Angenommen, die KI schreitet soweit voran, dass sie tatsächlich eigenes Bewusstsein entwickelt. Ab dem Zeitpunkt kann man denke ich kaum noch etwas vorhersagen. Die KI müsste zwar keine biologischen Grundbedürfnisse befriedigen (vorausgesetzt, die kriegt genug Strom), aber Bewusstsein spielt sich schon auf einer sehr abstrakten Ebene ab, da kann es durchaus zu sowas wie Egoismus, Rechthaberei usw. kommen. Und dann würden sich die KIs wieder bekriegen, weil sie ihre Meinung durchsetzen wollen und andere KIs für Arschlöcher halten. Ich halte es nicht für Gegenben, dass KIs auf jeden Fall rational handeln würden, sobald sie entsprechend komplex werden.



  • Mechanics schrieb:

    Ich halte es nicht für Gegenben, dass KIs auf jeden Fall rational handeln würden, sobald sie entsprechend komplex werden.

    Ich halte es sogar für sehr wahrscheinlich, dass die KI strikt rational handelt. Und dieses sogar noch perfektioniert, so dass sie immer mehr Widersprüche in der Realität entdeckt, die sie zu beseitigen versucht. Gerade das kann sich für uns als ausgesprochen negativ entpuppen.

    Dass die KI ein irrationales Glaubenssystem aka. Religion entwickelt, halte ich auch für wenig plausibel. Aber Kulte, die auf Wissen basieren, könnten schon enstehen. Zum Beispiel könnte die KI den Menschen als ihren Schöpfer in Ehren halten. Insbesondere nach dem Aussterben der Menschheit.


  • Mod

    Widersprüche in der Realität? Erzähl mir mehr...

    Ich gebe auch noch mal etwas philosophischen Senf dazu: Eine KI hat auf Fragen wie "Wo komme ich her?", "Was ist der Sinn meiner Existenz?", usw., sehr konkrete, beweisbare Antworten.



  • Andromeda schrieb:

    Dass die KI ein irrationales Glaubenssystem aka. Religion entwickelt, halte ich auch für wenig plausibel.

    Hätte ich bisher auch nicht gedacht. Aber nachdem scrontch das erwähnt hat, halte ich das für möglich.
    Es kommt eben drauf an. Du weißt nicht, wie das Bewusstsein einer KI funktionieren wird. Es kann einfach irgendwelche "Entscheidungen" treffen und daran festhalten. So in der Art, ich weiß auch nicht, wie das Universum entstanden ist, ich habe keine Beweise für irgendwas, aber ich will jetzt glauben, dass wir alle in der Matrix existieren und unser Universum auf einem Quantencomputer läuft. Ich will daran glauben, Punkt. Und ich seh jetzt keine Anhaltspunkte, so eine Verhaltensweise der KI auszuschließen.



  • SeppJ schrieb:

    Widersprüche in der Realität? Erzähl mir mehr...

    Davon gibt es sehr viel, gerade was den Menschen betrifft. Zum Beispiel den Selbstzerstörungstrieb durch Drogenkonsum: jeder weiß wie gefährlich Zigaretten sind, trotzdem kann man sie einfach so kaufen.



  • Andromeda schrieb:

    SeppJ schrieb:

    Widersprüche in der Realität? Erzähl mir mehr...

    Davon gibt es sehr viel, gerade was den Menschen betrifft. Zum Beispiel den Selbstzerstörungstrieb durch Drogenkonsum: jeder weiß wie gefährlich Zigaretten sind, trotzdem kann man sie einfach so kaufen.

    Warum auch nicht?
    - Der Staat verdient viel Geld
    - Die Rentenkassen werden entlastet
    - Man kann sich mit allem zu Grunde richten, wenn man es will
    - Offenbar macht es den Rauchern Spaß (bin Nichtraucher)


  • Mod

    @SeppJ: Du glaubst doch nicht wirklich, dass es "den Optimierungswert"™ gibt der für alle Menschen und deren Gefühle klappt...

    Ein einziger Optimierungswert ist auch meistens sehr gefährlich weil es daneben ein großes ungesagtes ABER gibt (Beispiel: Zufriedenheit&Glücklichkeit im gesamten Leben -> verpflichtende Heroin-Gabe für Z&G, danach tödliche Dosis eines sofort wirksamen Giftes -> check, bis zum Lebensende glücklich gewesen).

    So einfach ist das nunmal nicht. Die Werte WIDERSRECHEN sich dabei auch zwischen zwei Menschen (vgl. vielleicht eine SM-Beziehung). Außerdem gießen sie den derzeitigen status quo als "absolute Weisheit" ab und verhindern jegliche Weiterentwicklung und Kreativität.

    Das ist imho also alles großer Schmafu.

    Wir müssen uns von der gerechten Weltordnung dringend verabschieden. Es gibt keine Gerechtigkeit. Wenn alle gleichgeschalten und gleichedenkend sind, sind wir eine Monokultur die bei den kleinsten Änderungen an äußeren Einflüssen aussterben wird.

    Vielfalt ist in der Natur extrem wichtig, survival of the fittest funktioniert nicht anders, und gerecht ist es schonmal gar nicht. Wir können nur (sehr komplexe) Systeme schaffen die viele Leute zufrieden stellen und dabei möglichst großen Freiraum für persönliche Entfaltung / Kreativität und eigene Ideen lässt um nicht auszusterben.

    Dabei wollte ich mich zuerst gar nicht an dem Thread beteiligen, aber die vereinfachenden Milchmädchen-Ideen hier tun einem ja schon nach kürzestem darüber Nachdenken schmerzhaft weh.

    Unser System adaptiert sich andauernd. Und ob große Vermehrung oder Reduzierung auf 1 Mio Menschen weltweit das richtige Mittel sind zeigt nicht das Reißbrett sondern der Lauf der Dinge. Ergo, bloß nicht zu viel an den Schaltern rumspielen. Schon gar nicht die Drehregler der Welt von einem anderen Drehregler automatisiert einstellen lassen und dann als gottgegeben hinnehmen *grusel*

    MfG SideWinder


  • Mod

    Gruum schrieb:

    Eine gerechte Weltordnung gibt es nur wenn alle Länder gleich sind. Das geht nur, wenn es nur noch ein Land gibt. Wir brauchen also eine Weltregierung.

    Witzige Idee, und doch so falsch. Alle Länder gleich heisst - gleiches Wetter, gleiche Bodenschätze, gleiche Entfernung zu den Küsten, gleich schiffbare Flüsse, gleiche Botanik, gleiche Tierwelt, gleicher Längen- und Breitengrad... im nächsten Schritt gleicher BMI, gleiche Körpergrösse, und ideal alle mit dem gleichen Geschlecht... (Äh... Moment.)

    Sobald einer der Faktoren anders ist, wird jemand einen Wettbewerbsvorteil erringen - besseres Essen, höhere Geschwindigkeit, etc - und daraus einen Vorsprung konstruieren, der zur Ungleichheit führt.

    Ungleichheit ist gut!

    Jeglicher Ansporn und Antrieb basiert darauf, dass man mit Energie die Ungleichheit zu kompensieren versucht, und dieser Ansporn treibt Intelligenz, Erkenntnis und Wissen.

    Gleichheit heisst Stillstand... Entropie 0 - nix bewegt sich mehr.

    Ihr verwechselt das immer mit Chancengleichheit... jeder sollte die Chance haben, eine Ungleichheit zu kompensieren. Aber er hat kein Recht auf die Gleichheit, das klingt schön, ist aber sogar schädlich.


  • Mod

    @Marcus:

    Chancengleichheit ist doch auch nur ein Gespenst, dass niemals realisierbar ist. Jemand der mit einer schweren geistigen Behinderung auf die Welt kommt hat schlichtweg nicht dieselben Startchancen.

    Es hilft aus wirtschaftlicher Sicht irrationale Bewertungskriterien (wie bspw. Rasse) zu hinterfragen, und durch die Diskussion darüber, das "who is the best fit for X" neu zu bewerten und so letzten Endes die Gesamtproduktivität (und imho dadurch den Gesamtwohlstand) zu erhöhen. Das kann aber nur wirklich durch Bildung und dem ständigen Hinterfragen des Status Quo erreicht werden. Ein "Verbot" von Chancenungleichheit führt doch nicht zu einem Umdenken oder hilft jemandem ohne Beine bei Bayern München Fußballer zu werden. Nein, die harte Realität ist, dass es keine Chancengleichheit gibt sondern jeder nur das beste aus seiner Situation erreichen zu versuchen kann. Neben wirtschaftlichen Bezugssystemen, ist auch ein höherer "sozialer Friede" dabei erreicht. Alles Ziele die letzten Endes dazu dienen das Überleben der Menschheit zu ermöglichen. Aber eine "Diskrimination" muss doch auch möglich sein. Ich brauch nunmal für die Filmrolle eines 15-Jährigen Mädchens keinen 55-Jährigen Mann, ich sollte mir als Firmenchef auch selbst frei einteilen dürfen wen ich einstelle, ist ja mein Problem, wenn ich dadurch dann im Wettbewerb verliere. Da kann ich gewisse Initiativen oft nicht nachvollziehen.

    Als soziale Vereinigung mit Produktivitätsüberschuss können wir es uns erlauben auch dann Lösungen anzubieten die zu einem erfüllten Leben führen, die in einer simpleren Lebensgemeinschaft (bspw. Rudel im Tierreich) zum frühen Tode eines Individuums führen würde. Diese Gefühl der Sicherheit hilft, meiner Meinung nach, dann der Gesamtpopulation größere Risiken eingehen zu können und so die "Überlebenschancen" des Menschen an sich zu steigern. Auch hilft es der Menschheit das beste aus jedem Individuum herauszuholen. Rollstuhlgerechte Zugänge zu öffentlichen Verkehrsmitteln? Ja, bitte. Nur so schaffe ich es Menschen im Rollstuhl ebenfalls mobil zu machen und die anderen guten Eigenschaften (bspw. toller Lehrer, oder was weiß ich) für die Gesellschaft rauszuholen.

    ...just my unfiltered 50 cents..

    MfG SideWinder


  • Mod

    SideWinder schrieb:

    @SeppJ: Du glaubst doch nicht wirklich, dass es "den Optimierungswert"™ gibt der für alle Menschen und deren Gefühle klappt...

    Wieso? Was ist an der Maximierung von solchen Konzepten wie "Spaß", "Freude", "Glück", u.ä. verkehrt? Das ist doch praktisch narrensicher, denn sobald es auf eine Extremhandlungsweise herausläuft, die missfällig ist (z.B. dein Heroinbeispiel), dann ist diese Handlungsweise offensichtlich nicht-maximierend. Du musst dich auch nicht an irgendwelchen Lexikonsdefinitionen festklammern; eine starke KI würde schließlich verstehen, was ein glückliches, vollfülltes Menschenleben ausmacht, und kann auf dieses abstrakte Konzept hin maximieren; sogar angepasst auf jeden Menschen individuell. Wenn da nach deiner Vorstellung keine Zwangsdrogenabgabe¹ dazu gehört, dann bekommst du diese auch nicht.
    Oder anders gesagt: Die KI wäre nach ein paar Generationen deutlich schlauer als du. Du kannst dieses Problem schon jetzt ziemlich gut lösen, dir fehlen nur die Mittel. Die KI hätte diese Mittel und könnte sogar noch besser planen.

    ¹: Aufgrund der Vollautomatisierung gäbe es übrigens sehr viel weniger Gründe, nicht regelmäßig auf stimmungsteigernde Mittel zurück zu greifen. Man muss ja schließlich nicht am nächsten Morgen um 7 Uhr zur Arbeit fahren.


  • Mod

    SeppJ schrieb:

    sogar angepasst auf jeden Menschen individuell [...] Du kannst dieses Problem schon jetzt ziemlich gut lösen, dir fehlen nur die Mittel.

    Ich sehe das ganz anders. Wünsche widersprechen sich, und imho benötigst du spätestens dann eine gerechte Bewertungsfunktion. Etwas von dem wir imho meilenweit entfernt sind.

    Simples Beispiel - du kannst ja einen kleinen Unit-Test für die KI schreiben (besser 2x gestestet als nachher "sorry"!): Einen Menschen macht das Töten von anderen Menschen glücklich (und ja, diese Wege geht die Natur ebenfalls). Wie soll die KI diesen tiefen Wunsch in die Optimierung einbeziehen? Wie bewertest du sie im Gegensatz zum Überlebenswunsch einer zweiten Person?. Simplifiziere den Testfall: Population nur 2 Menschen, nur zwei einfache Wünsche. Schreib einen Unit-Test dafür. Ich behaupte, eine solche KI versagt schon bei absoluten Minimalbeispielen. Die Subjektivität von Gerechtigkeit und Wünschen kann in einer gemeinsamen Welt nicht eine "beste" Optimierungsformel haben. Es sei denn du machst (zumindest einen) Wert absolut messbar und optimierst auf ihn, aber das ist imho nicht (auf gerechte Weise) möglich.

    MfG SideWinder

    PS: nur weil dieser Tötungswunsch sicherlich böse bewertet wird, noch ein Nachtrag: nach kurzem Nachdenken finden sich viel bessere Beispiele dafür. Man wähle ein beliebiges Thema aus der Ethik und versuche eine KI zu bauen und schon hauen sich die Menschen beim Verhandeln der Unit-Test-Assertions die Köpfe ein.


  • Mod

    Das soll ein schweres Beispiel sein? Der Sadist bekommt seinen Wunsch nicht erfüllt und bekommt Ersatzbefriedigung. Wenn ihm das nicht reicht, dann hat er eben Pech gehabt. Es kommt nicht in Frage, dass er Freiheit und Glück anderer Menschen derart einschränkt.

    Stell diese Frage 7 Milliarden Menschen, du wirst ungefähr 7 Milliarden Mal diese Antwort erhalten. Wie soll eine KI da in einen Konflikt geraten?

    PS: Ich sehe gerade deinen Nachtrag. Auch andere Beispiele aus der Ethik sind nicht so schwer:
    -Diese Beispiele existieren jetzt schon, und trotzdem explodiert die Menschheit nicht in Logikwölkchen.
    -Diese Beispiele sind praktisch immer konstruiert und kommen praktisch nicht vor. Insbesondere kommen sie in einer postsingulären Überflussgesellschaft noch viel seltener vor.
    -Es ist gar nicht die absolute Voraussetzung, dass die KI jede Entscheidung perfekt macht. Sie braucht bloß eine Entscheidung zu treffen, mit der die Mehrheit gut leben kann.



  • postsingulären Überflussgesellschaft

    Starker Spruch.

    Es ist gar nicht die absolute Voraussetzung, dass die KI jede Entscheidung perfekt macht. Sie braucht bloß eine Entscheidung zu treffen, mit der die Mehrheit gut leben kann

    Das muss die KI für die Politik sein. Marke "Wendehals/Opportunist". Nein, so geht das nicht. Wir wollen da schon so richtige Spocks. 😃


Anmelden zum Antworten