Werden Roboter uns ersetzen?
-
Shade Of Mine schrieb:
Erhard Henkes schrieb:
@Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben?
Wie zum Geier liest du den Blödsinn aus Marcus Beitrag raus?
Naja, kann man schon.
Wenn ein Bot ein selbstlernendes Netz hat und zum Beispiel lernt, dass sein Besitzer Freude empfindet wenn er sich selbst verletzt, so wird der Regelkreis "Besitzer-Freude-Optimierung" irgendwann den Bot dazu bringen, sich regelmässig selbst zu verletzen. Wäre das rational? Intrinsisch schon, extrinsisch sicherlich nicht.
Es wäre dann die Frage der internen Gewichte, ob der Schutz vor Verletzung höher gewichtet wäre als die Befriedigung des Nutzers.
Ein guter Bot wäre wohl an das emotionale Feedback des Herrchens gekoppelt, und in diesem Fall würden die Reaktionen entsprechende Lerneffekte auslösen. Wiederholungen verstärken den Effekt, blabla, Ihr wisst ja wie das abläuft.
Und Spontanität kannst Du einem System sogar systematisch beibringen, indem man zufällig*) bei jeder n-ten Entscheidung nicht die beste Möglichkeit aus dem Entscheidungsbaum auswählt, sondern nur die zweit- oder drittbeste. Ein solches System würde eine gewisse Irrationalität an den Tag legen, und selbst den aufmerksamen Beobachter von Zeit zu Zeit überraschen.
Würde ich einen Militärbot bauen, wäre das sogar eine meiner wesentlichen Taktikmassnahmen... eben nicht immer den Weg mit der besten Wirkung wählen, sondern manchmal einen anderen. Dies aber spontan. Andernfalls kann der Gegner mit ausreichender Gefechtserfahrung meine Aktionen (und aller Bots der gleichen Softwaregeneration) vorsehen. Das würde ich ja nicht wollen.
um jetzt gleich Gerede bzgl des berechneten Zufallsgenerators wegzuschieben - mein Zufallsgenerator basiert auf Elektronenrauschen, nicht auf einer Zahlenfolge
-
Marc++us schrieb:
mein Zufallsgenerator basiert auf Elektronenrauschen, nicht auf einer Zahlenfolge
Ist auch schon probiert worden und trotzdem sind nicht zu erwartende Häufungen aufgetreten. Ein Zufallsgenerator muß halt nur gut genug für seinen Zweck sein.
Bei Deep Thought soll sogar davon Gebrauch gemacht worden sein und während des ganzen Turniers an der Gewichtung geschraubt.Recht amüsant war ein Video, das ich jetzt natürlich nicht finde, wo sich ein neuronales Netz selbst das Fliegen beibringen sollte, ausführend war so ein Klapparatismus mit Flügeln an einer Stange, der positive Stimulus die gewonnene Höhe. Tatsächlich sind ein paar Bots auf das Prinzip des Fliegens gestoßen, viele haben sich in Irrwegen verlaufen, besonders putzig war einer, der ein vergessenes Stapel Bücher als Stütze verwendet und sich daran hochgestemmt hat und danach keine weitere Optimierung durchführen konnte. Also hat er bei Wiederholung der Aufgabe nach einem Halt gesucht und die Flügel nach unten geklappt, damit war die optimale Lösung für ihn erreicht.
Ich weiß nicht, ob's wirklich "I, Robot" war, hab' das Buch momentan nicht zur Hand. Jedenfalls wurde in der Story der Welthandel an ein selbstoptimierendes Computernetz übergeben, nach einiger Zeit stellen die Leute fest, daß die Wirtschaftsleistung drastisch zurückgefahren wird und vermuten eine fehlerhafte Programmierung, versuchen das wieder abzuschalten, allerdings wehrt sich das Netz mit allen Möglichkeiten dagegen, letztlich ist es eine Zwickmühle, die sich aus den robotischen Gesetzen ergibt:
Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.Alles hängt an der Regel eins, wenn man selbstlernende Kisten baut. In der Geschichte war das so, daß zum Schutz der Menschen vor sich selbst entsprechende Maßnahmen getroffen wurden.
Bis dahin hat aber die KI- Forschung noch viel zu tun ...PS: Hätte vorher den Wiki- Beitrag lesen sollen, dürfte das Nullte Gesetz aus "Robots and Empire" sein.
-
Wenn ein Bot ein selbstlernendes Netz hat und zum Beispiel lernt, dass sein Besitzer Freude empfindet wenn er sich selbst verletzt, so wird der Regelkreis "Besitzer-Freude-Optimierung" irgendwann den Bot dazu bringen, sich regelmässig selbst zu verletzen. Wäre das rational? Intrinsisch schon, extrinsisch sicherlich nicht. Es wäre dann die Frage der internen Gewichte, ob der Schutz vor Verletzung höher gewichtet wäre als die Befriedigung des Nutzers.
Ja, das ist richtig. Das wird auch genau so kommen. Denn alles, was man sich hier ausdenken kann, wird ab und zu passieren.
-
http://www.faz.net/aktuell/feuilleton/go-genie-lee-sedol-verliert-gegen-alphago-14116573.html
Die letzten „Genies“ werden gerade abgemetzelt. Im Schach war dies bereits in den 90er Jahren der Fall.
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
-
Erhard Henkes schrieb:
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
Uns bleiben Subjektivität, also so ganz grob echte Göttlichkeit, Träumerei schnelle intuitive Reaktionen, Fingerfertigkeit und Sensibilität, Mitgefühl, super Grafikkarte, Vielseitigkeit, Witzigkeit, Selbstversorgung und Reproduktion, Verneinung (Schachcompi: "hab heute keinen Bock auf Schach" -> würde den Sinn der Kiste noch weiter herabsetzen) oder schnell mal was mit Bleistift notieren, oder, hm...ja, (erst Hinterlist, dann..) schnell abhauen.
Und natürlich Müll rausbringen.Man darf aber gespannt sein, wann die ersten Roboter anfangen, persönliche Erfahrungen zu verarbeiten und Bücher darüber zu schreiben, oder einen eigenen Zirkus aufmachen und durch die Lande ziehen.
Der arme Pinoccio ist ja u.a. deswegen so schlecht dran, weil seine "Mutter" eher "schwierig" zu sein scheint. So bekommt er keine Mutterliebe, sondern nur Allgemeinplätze (wie man sollte, z.B. man sollte nicht in der Nase bohren, oder nicht schneller als 50 km/h fahren).
Lügen selbst (wie auch Täuschen und Tarnen, so tun als ob, simulieren usw.) ist weit verbreitet und überlebensdienlich. Es gehört zum (erfolgreichen) Menschsein dazu.
(z.B. wie soll Pinoccio Kohle beim Pokern machen?)
(Sido hatte es besser: https://www.youtube.com/watch?v=68tYVzz7YSY )
-
http://www.stern.de/digital/computer/microsoft-build--endlich-endet-die-computer-knechtschaft-6771122.html
Diese Entwicklung hin zu integrierten Assistenten erscheint auf den ersten Blick der richtige Weg. Aber wie läuft das mit Kontrolle ist besser als Vertrauen? Was, wenn die "Assistentin" eigenwilligen Mist baut? (bei MS zu erwarten)
-
Erhard Henkes schrieb:
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
Und die Religion. *lol*
-
Marc++us schrieb:
Und die Religion. *lol*
Auf einem weit entfernten Planeten arbeitet sich ein humanoider Roboter, genannt Elektrischer Mönch, durch eine Reihe unsinniger Glaubensvorstellungen. Seine einzige Aufgabe ist es, Dinge zu glauben (um so anderen Leuten die Mühe zu ersparen, es selbst zu tun)
Höchst lesenswert, wirklich!
-
Marc++us schrieb:
Erhard Henkes schrieb:
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
Und die Religion. *lol*
Das ist spannend, z.B. wenn man sich mal den Begriff "Religion" auf Wikipedia genauer ansieht.
Grob übersetzt:
Achtsam sein, Sorgfalt, genau sein, feine Auflösung usw.Aber Automatismen (Übung, Rituale, Computer usw.) helfen.
(etwa Häufigkeitsanalyse, Wecker (Turmuhr) Tempomat (oder auch todolist)Noch gröber übersetzt: z.B. Grundstellung/Neutralstellung beim Tischtennisspiel
https://www.youtube.com/watch?v=6SZOFnAK_uM
(gar nicht schlecht die Serie, z.B. Beispiel auch: https://www.youtube.com/watch?v=Vq_45r5K1bI (schlechter Start) )(Das Computer-Spiel Wizardry 7 (Gold) ist übrigens leicht spirituell angehaucht.)
Leicht verständlich ist, dass wir uns über Musik, bewusstseinsraubende Ekstase, Orgasmen oder Liebe hier nur eher schlecht unterhalten können.
Mal angenommen, in tausend Jahren finden Leute fragmetarische Texte über Musik. Sehen die aufgezeichneten Noten und denken, weil sie nur diese kennen: das ist Musik.Man könnte ja denken, Rechner wären religiöser, da vielleicht ausdauernder oder genauer, müssen ja nicht einschlafen. Aber nein:
https://de.wikipedia.org/wiki/Greedy-Algorithmus
(lasterhaft )
-
Lassen wir mal die Religion beiseite und sehen den Menschen begrenzt als biologisches System gesteuert von Genen, dann kann man feststellen, dass der Mensch ebenso wie Industrie 4.0, Roboter und KI auf die unausweichliche Perfektion zustrebt. Crispr ist eine erste Basis dafür.
Was ist das Ziel? In Brave New World ging es um „Stabilität, Frieden und Freiheit“ allerdings in einem eher zynischen Sinn. Geht es heute noch um Freiheit? Ich denke eher nein. Es geht um Stärke und Führung, und da stehen die selbsternannten Diktatoren gerne bereit. Frieden? Nein, es geht um Macht über die Daten. Machtkämpfe werden zu einer Art moderner Krieg führen. Stabilität? Nein, ganz im Gegenteil. Die Zeit ist aus den Fugen. Das spüren wohl viele.
-
"Roboter" tötet. <== Das wird ein bedeutender Teil der Zukunft: Maschinen, die Menschen töten (heute verwendet man schon die fliegenden Systeme, genannt Drohnen), als Polizisten, als Killer und als Soldaten.
-
Rate mal, warum das "MG" Maschinengewehr heisst, und woher der Spruch "0815" kommt. Und dann das Entstehungsjahr, sowie die Anzahl der Toten seither.
Dieser kleine Roboter hat niemanden getötet. Da war jemand an der Kamera, hat den Manipulator gesteuert, und irgendwann auf den Knopf gedrückt. Und genau die Person hat den anderen getötet, keine Maschine oder kein Roboter. [Hier IMO völlig zurecht.]
Der Neandertaler hat einen Stein genommen, und hier der hat eben einen fahrbaren Manipulator benutzt. Kein Grund zur Aufregung.
-
Da war jemand an der Kamera, hat den Manipulator gesteuert, und irgendwann auf den Knopf gedrückt.
Noch! Ist schon klar. Das ist lediglich eine Frage der Zeit, bis die KI diesen Killerjob übernimmt. Dann ist der Programmierer oder User dieses Bots der Mörder.
-
Nein, ein Mörder ist jemand, der einen Mord begeht. Der User oder Programmierer ist vielleicht ein Mörder, vielleicht aber ein Totschläger, vielleicht ein Nothelfer, vielleicht ein Kombattant.
Ich würde mal aus so Sachen die Emotionalität rauslassen.
Apropos, es wurde hier übrigens tatsächlich eine Grenze überschritten - aber anders als in der Diskussion vorkommt:
Die Polizei hat sich hier militärischer Methoden bedient, um den Attentäter zu töten. Üblicherweise wäre in solchen Fällen ein Schusswechsel erfolgt, ggfs mit Tod des Verdächtigen, aber mit einem Sprengsatz im Stil einer Sprengfalle vorzugehen ist eine militärische Einsatztaktik. Das ist die wirkliche Grenzüberschreitung.
-
Erhard Henkes schrieb:
"Roboter" tötet. <== Das wird ein bedeutender Teil der Zukunft: Maschinen, die Menschen töten (heute verwendet man schon die fliegenden Systeme, genannt Drohnen), als Polizisten, als Killer und als Soldaten.
Ein großer Kritikpunkt an Drohnen ist ja, dass der Tötungsakt zu einem Videospiel verkommt. Der Drohnenbediener sitzt vor seinem Terminal, drückt ein paar Knöpfchen, und Tausende Kilometer weiter sterben Dutzende Menschen. Der emotionale Bezug zur Tat wird auf ein Minimum reduziert. Aber gerade das ist doch das, was sich Militärs wünschen.
-
Üblicherweise werden ja Kinder, Jugendliche und Frauen mit Sprengstoffgürtel losgeschickt.
Ich hätte das jetzt nicht gut gefunden, wenn die Polizei ein kleines Kind geschnappt hätte und...(apropos Sprengstoffgürtel: woran erinnert mich das nur?)
-
nachtfeuer schrieb:
apropos Sprengstoffgürtel: woran erinnert mich das nur?)
Meinst der Roboter hat jetzt 72 jungfräuliche ASICs bekommen?
-
Der Drohnenbediener sitzt vor seinem Terminal, drückt ein paar Knöpfchen, und Tausende Kilometer weiter sterben Dutzende Menschen. Der emotionale Bezug zur Tat wird auf ein Minimum reduziert.
Das galt/gilt sicher auch für Bomberpiloten, z.B. über Hiroshima und Nagasaki. Abwerfen und schnell weg.
Mit den Robotern ist es ganz einfach. Die werden zu allem gebraucht/missbraucht, was man sich am grünen Tisch ausdenken kann. Killer, Soldat, Sklave, Gehilfe, Ratgeber, Wärter, Folterknecht, ... einfach alles.
-
Erhard Henkes war zwischen 2001 und 2006 offensichtlich als ein Spambot identifizierbar. So fehlerhaft, daß es sicherlich ein Projekt in Dephi war, der Sprache, wo sich damals alle Lernverweigerer tummelten. Kommt in diesem Forum nicht an: Allein die Frequenz der Postings läßt ihn als echt glauben.
Jetzt ist er nicht mehr offensichtlich ein Bot. Ich vermute, die Software wurde für billig Geld aufgekauft und jetzt wahrt ein Azubi den Schein, damit keiner Verdacht schöpft.Marc++us war von fast Anfang an und bis mindestens 2014 offensichtlich ein Roboter. Ich hatte noch früh Kontakt mit ihm: Eine Granate von Mensch! Hilfsbereit und zuvorkommend und schlau und so Krafanen, wie üblich mit über 130, der echte Marc++us konnte zu mehr als 50% aus drei Zeilen Chat in einem Game dem Gegenüber auf die Nase zusagen, welches Ausbildungsniveau er hat und falls er studiert, welchen Studiengang. Vermutlich war er zu gefährlich für werauchimmer die wirkliche Macht hat und wurde ausgetauscht.
Daneben laufen in diesem Forum auch noch einige Test-Bots. Wutz ist ja ganz klar. Ich bin auch einer.
Kurzum: Roboter *werden* uns nicht ersetzen, sondern *haben* uns ersetzt.
Alle kennen die Geschichte von Michael Jackson. Deutlicher gehts kaum. Das waren sehr frühe Versuche, über die man heute lacht. Steve Jobs auch easy. Merkel ist eh ein Roboter und sauschlecht geproggert; auch ein Grund gegen Java. Im Prinzip kann man inzwischen die Hälfte aller einigermaßen einflussreichen Fernsehfiguren als Bots erkennen. Und wir sind einfach nur Vieh, das geweidet wird und Erträge bringt. Und ich hab Spaß daran! Niemals vorher in der Geschichte konnte man sich so viele Luxusgüter leisten. Lass die mal machen. Bisweilen ist alle ok. Ich nehme an, diejenigen, die die Bots etablieren, machen das aus höheren Motiven. Minimale Einzelschicksale gehören zum Geschäft.
-
Hi Volkard,
Merkel kann nie im Leben in Java geproggt sei. Die muss GW-Basic sein.
Gruß Mümmel