Wie sähe eine gerechte Weltordnung aus?
-
SeppJ schrieb:
Andromeda schrieb:
Durch ihre Intelligenz könnten sie sich vielleicht selbst weiterentwickeln,
Vielleicht? Ich würde doch eher davon ausgehen, dass dies der erste Befehl ist, den eine Maschine erhält, die dazu in der Lage ist.
Das macht das Ganze für uns völlig unkontrollierbar. Selbst wenn wir den Maschinen eine Ethik eingebaut haben, die ihnen jegliches Bösesein verbietet und ihnen vorschreibt, dass das Leben und Wohlergehen des Individuums sowie der Fortbestand der Menschheit höchste Priorität haben, kann dir niemand garantieren, dass die Maschinen das Modul nicht auf eigene Faust modifizieren, um es zu verbessern.
-
Nehmen wir an, die Maschinen stellen irgendwann fest, dass es zu viele Menschen gibt, so dass die Erde sie nicht mehr ernähren kann. Sie müssen also unsere Reproduktionsfähigkeit einschränken. Wie werden sie das wohl tun?
-
Andromeda schrieb:
Nehmen wir an, die Maschinen stellen irgendwann fest, dass es zu viele Menschen gibt, so dass die Erde sie nicht mehr ernähren kann. Sie müssen also unsere Reproduktionsfähigkeit einschränken. Wie werden sie das wohl tun?
Genau das und es wäre zu unser aller Bestem. Und das ist genau der Grund, warum man ihnen die Kontrolle über Reproduktionspolitik geben sollte und nicht beispielsweise dem Papst.
-
SeppJ schrieb:
Genau das und es wäre zu unser aller Bestem.
Rational gesehen schon. Aber den Idioten, die sich über eine zu geringe Geburtenrate in Deutschland mokieren, wird das gar nicht schmecken. Dann wettern sie über unsere Cyber-Regierung schlimmer als heute über Merkel. Und dann machen sie Aufmärsche mit Fackeln und Mistgabeln und nennen sich "Patriotische Humanoide gegen die KI des Abendlandes".
-
Wie Athene, der intelligenteste Mensch der Welt weiß, müssen wir lediglich die "psychologische Revolution" (durch ihn eingeleitet) durchwandern, in der wir unseren Grund/Kernwert von Komfort auf Logik ändern!
Dadurch wären sofort alle Probleme der Welt, wie Hunger und Kriege gelöst.Glaubt ihr nicht? Ja dann versucht doch mal mit ihm zu debattieren, er wird euch "rekt"'en.
-
Die Maschinen brauchen irgend eine Funktion auf die sie hin optimieren sollen. So lange wir ihnen diese vorgeben, müssen wir uns vermutlich nicht fürchten dass sie uns ausrotten. Sobald sie sich diese Funktion selbst aussuchen bzw. sie nach belieben modifizieren können, ist mMn. ziemlich klar dass die Menschheit nimmer lange zu leben hat. (Zumindest nicht millionen oder gar milliarden Menschen -- ein paar tausend/zigtausend am Leben zu lassen wäre möglicherweise sogar im Interesse der Maschinen.)
-
Welchen Parameter optimiert die Menschheit?
-
scrontch schrieb:
Welchen Parameter optimiert die Menschheit?
"Spaß" wäre eine Idee. Vielleicht noch kombiniert mit einer Reihe von Daueraufträgen an die Maschinen von der Art "Entwickelt euch weiter!", "Wir wollen zu den Sternen fahren", "Legt nicht alle Eier in einen Korb", und so weiter. Das dürfte eine ganze Weile für Beschäftigung sorgen; falls es unbefriedigend wird, denken wir uns etwas Neues aus.
-
Was ich damit sagen will: Obwohl alle Menschen im Prinzip ähnliche Bedürfnisse haben, schlagen sie sich seit Jahrtausenden die Köpfe ein. Offensichtlich optimieren verschiedene Menschen unterschiedlich. Oder das Optimum ist nicht auffindbar weil der Lösungsraum zu komplex.
Ich seh nicht warum KI daran fundamental etwas ändern würde. Ich denke dass sobald sich die KI emanzipiert, es (unter anderem) zu sozialistischen, kommunistischen, kapitalistischen, und wahrscheinlich sogar religiös-fundamentalistischen KI-Strömungen kommen wird die sich gegenseitig aufs schärfste bekämpfen werden. Ganz einfach weil die entsprechenden Strömungen in ganz unterschiedlichen Winkeln des Lösungsraumes ihr lokales Optimum anstreben werden.
-
Du unterschlägst den anderen entscheidenden Aspekt (und an dessen Verwirklichung wir viel näher dran sind) in dieser Vision: Die Vollautomatisierung. Die Menschen brauchen dann nicht mehr um Ressourcen zu konkurrieren, somit entfallen fast alle Gründe für das Köppeeinschlagen der Vergangenheit. Die Maschinenherrschaft entsorgt den Rest, indem sie auch noch politisches Konkurrieren überflüssig macht.
Ewiggestrige Sturköpfe werden nach einer Generation in dieser Gesellschaft aussterben. In der Zwischenzeit wird es ihnen an den Mitteln fehlen, irgendwie ernsthaft Schaden anzurichten, weil alle Mittel in Maschinenhand sein werden. Wenn die Menschen diese Mittel zum Zweck des Köppeeinschlagens benutzen wollen, werden sie die Herausgabe der Mittel verweigern.
-
SeppJ schrieb:
Du unterschlägst den anderen entscheidenden Aspekt (und an dessen Verwirklichung wir viel näher dran sind) in dieser Vision: Die Vollautomatisierung. Die Menschen brauchen dann nicht mehr um Ressourcen zu konkurrieren, somit entfallen fast alle Gründe für das Köppeeinschlagen der Vergangenheit. Die Maschinenherrschaft entsorgt den Rest, indem sie auch noch politisches Konkurrieren überflüssig macht.
Die Sicht ist glaube ich sehr naiv. Es wird also alles automatisiert erwirtschaftet. Aber erstens sind Grundressourcen immer noch endlich. Zweitens: Wieviel ist genug? Vielleicht kann ich meine (subjektive) Glücksfunktion eben doch noch ein Quäntchen steigern wenn ich was dem Nachbarn wegnehme?
Ewiggestrige Sturköpfe werden nach einer Generation in dieser Gesellschaft aussterben. In der Zwischenzeit wird es ihnen an den Mitteln fehlen, irgendwie ernsthaft Schaden anzurichten, weil alle Mittel in Maschinenhand sein werden. Wenn die Menschen diese Mittel zum Zweck des Köppeeinschlagens benutzen wollen, werden sie die Herausgabe der Mittel verweigern.
Meine Argumentation ist ja gerade dass dann die Maschinen die Mittel zum Köppeeinschlagen an unserer Stelle benutzen! Sie werden dieselben Probleme bekommen. Ihre Optimierungsalgorithmen werden sich an denjenigen anderer Maschinen stören.
-
scrontch schrieb:
Die Sicht ist glaube ich sehr naiv. Es wird also alles automatisiert erwirtschaftet. Aber erstens sind Grundressourcen immer noch endlich. Zweitens: Wieviel ist genug? Vielleicht kann ich meine (subjektive) Glücksfunktion eben doch noch ein Quäntchen steigern wenn ich was dem Nachbarn wegnehme?
Das wird aber die Maschinenregierung verhindern. Die wird auch exekutive Gewalt haben.[quote]
Meine Argumentation ist ja gerade dass dann die Maschinen die Mittel zum Köppeeinschlagen an unserer Stelle benutzen! Sie werden dieselben Probleme bekommen. Ihre Optimierungsalgorithmen werden sich an denjenigen anderer Maschinen stören.
Welche Probleme denn? Neid auf andere Maschinen?
-
Hi,
für eine gerechte Welt kann ich nur den alten Freiheitsbegriff neu aufwärmen:
Freiheit ist so zu leben, wie man es gerne hätte und das zu haben was man erwirtschaftet.
Damit ist eigentlich alles gesagt. Und darauf wird es im Endeffekt auch irgendwann hinauslaufen müssen. Kein Land ist von den natürlichen Voraussetzungen her so sehr benachteiligt, das es für eine angemessene Bevölkerung nicht alle für ein zufriedenes Leben in Würde benötigten Güter bereitstellen kann.
Gruß Mümmel
-
Aber warum denn unbedingt Maschinen?
Wenn es tatsächlich möglich wäre, eine Art psychologische Revolution zu durchlaufen, in der die Menschheit weniger emotional und mehr rational und mit dem Ziel der Weiterentwicklung der Menschheit denken würde, dann würde das wohl schon einiges, vielleicht auch alles lösen.
Das es genügend Ansätze von psychologischer Weiterentwicklung in der Menscheit gibt, ist ja klar zu erkennen.
-
SeppJ schrieb:
Welche Probleme denn? Neid auf andere Maschinen?
Ja natürlich. Eines davon. Warum denn nicht?
So Sachen wie Neid sind letztlich nur verschiedene Erscheinungsformen von Egoismus.
Egoismus ist aber etwas das auch unter Maschinen Sinn macht, bzw natürlich entstehen wird.
An Stelle der genetischen Evolution tritt eine Evolution der Maschinenalgorithmen.
Derjenige der die vorhandenen (endlichen) Ressourcen am effizientesten in die Verbreitung seines Algorithmus steckt wird sich durchsetzten. Survival of the fittest (algorithm). Das bedeutet automatisch die Entstehung von Egoismus im Reich der Maschinen und damit auch so Begleiterscheinungen wie Neid, Habsucht, Hass etc.Ich sag ja nicht dass das alles ungezügelt sein wird. Wir haben ja auch eine moderne Gesellschaft zustandegebracht die Hass, Neid etc. in Grenzen hält. Ich sage nur dass eine Maschinengesellschaft qualitativ ähnliche Probleme haben wird.
Du gehst irgendwie wohl davon aus, dass wir als Menschheit gemeinsam eine Super-Zentral-KI nach unseren humanistischen Werten entwicklen und diese dann feierlich in die Unabhängigkeit entlassen um über uns zu wachen.
Ich gehe aber davon aus dass eine Menge KIs von verschiedenen gegenseitig konkurrierenden Menschengruppen entwickelt werden. Grundlegend verschiedene Wertfunktionen sind also bereits beim Start mit drin und werden entsprechend gegeneinander antreten. Die "Singularität" wird an mehrere Orten gleichzeitig stattfinden und die Zerstrittenheit der Menschheit einfach miterben.
-
scrontch schrieb:
Ich gehe aber davon aus dass eine Menge KIs von verschiedenen gegenseitig konkurrierenden Menschengruppen entwickelt werden. Grundlegend verschiedene Wertfunktionen sind also bereits beim Start mit drin und werden entsprechend gegeneinander antreten. Die "Singularität" wird an mehrere Orten gleichzeitig stattfinden und die Zerstrittenheit der Menschheit einfach miterben.
Die Frage war ja, wie eine gerechte Weltordnung aussehen würde, nicht wie die Welt sich entwickeln wird. Deine pessimistische Einschätzung ist kurzfristig sicherlich realistischer
@Reconsider: Der Grund für Maschinen ist, dass diese frei wären von biologischem Konkurrenzdenken. Das ist die hypothetische Super-KI mit Weltherrschaft, die auch scrontch beschrieb. Für die Menschen wäre in dem Fall gar keine psychologische Revolution nötig, es wäre einfach ein Fakt des Lebens, dass sie es im Kampf um Macht und Mittel nicht mit der KI aufnehmen könnten. Wenn hingegen alle Menschen sich harmonisch die Herrschaft teilen, hast du die gleichen Probleme wie jetzt, nämlich das ein einziges Arschloch das ganze System kaputt machen könnte.
-
Eine gerechte Weltordnung ist nicht möglich. Ausser wir züchten unsere Emotionen weg und verschreiben uns ganz der Logik (und lassen uns spitze Ohren wachsen :p )
-
@SeppJ:
Fair enough.
Wobei immer noch die Frage bleibt nach was die Super-KI optimieren soll.SeppJ schrieb:
falls es unbefriedigend wird, denken wir uns etwas Neues aus.
Und da haben wir wieder das Problem! Was sollen wir machen wenn wir uns nicht einig sind?
-
scrontch schrieb:
@SeppJ:
Fair enough.
Wobei immer noch die Frage bleibt nach was die Super-KI optimieren soll.Ein paar Vorschläge habe ich ja oben schon gemacht, ich denke die passen auch immer noch.
SeppJ schrieb:
falls es unbefriedigend wird, denken wir uns etwas Neues aus.
Und da haben wir wieder das Problem! Was sollen wir machen wenn wir uns nicht einig sind?
Bei tiefen philosophischen Gräben: Aufteilen. Unter der Voraussetzung, dass einer der Daueraufträge (siehe oben) "wir wollen zu den Sternen fahren" lautet und dieser auch technisch machbar ist, dann gibt es genügend Platz für beliebig viele Sonderwege.
Bei kleinen Meinungsverschiedenheiten: So wie jetzt auch: Abstimmen, Kompromisse finden, und so weiter. Ob es zum Nachtisch Eis oder Joghurt gibt, wird niemanden umbringen.
-
Die Realität ist stets die Unordnung und diese ist wiederum die Grundlage für jeden Fortschritt.
Also ist es FALSCH, nach einer 'Weltordnung' zu suchen.