Werden Roboter uns ersetzen?
-
Den Hinweis von Prof84 auf zu bewältigende Hürden bei "Deep Learning" fand ich interessant, allerdings gehören Dinge wie "Smart ..." oder "Deep ..." tatsächlich eher in den Bereich Marketing.
-
Übersichtsartikel in der FAZ zu diesem Thema: http://www.faz.net/aktuell/wirtschaft/streichel-mich-sonst-ersetz-ich-dich-14084129.html
Interessant ist, dass sich führende Köpfe wundern, dass die Leute der Künstlichen Intelligenz so ruhig entgegen sehen. Manche sehen KI als gefährlicher an als Nuklearwaffen.
-
{Linksammlung}
-
Prof84 schrieb:
{Linksammlung}
Vor diesen Kuscheltieren habe ich keine Angst. KI == null. Selbst der Werkstoff macht Probleme. Die Augen sind tot.
Nein, es geht um KI, die uns überlegen ist, die uns nieder diskutiert, viel mehr weiß wie wir. Dann werden wir auf Intuition, Unterbewusstsein und Qualia zurück geworfen. Zusätzlich werden wir uns nicht mehr aus dem Haus trauen, weil man dort alles über uns weiß, wenn man seine Sensoren/Datenbrille auf uns richtet, selbst Dinge, die wir bereits verdrängt haben. Wir werden uns armseelig und neurotisch fühlen. Der Kampf hat begonnen. Was wird das gegenteil sein von "Errare humanum est"?
-
https://www.bilanz.de/exklusiv/dfki-kuenstliche-intelligenz
Google kauft sich Firmenanteil um Firmenanteil zusammen, um von der "Suchmaschine" zur "Antwortmaschine" zu mutuieren. Der humanoide Bot "Atlas 2" von Tochter Boston Dynamics und die KI vom DFKI sollen erst der Anfang sein. Autos, die selbst fahren und Parkplätze suchen. Der uns begleitende Bot wird uns den Rest geben: Iss das nicht, bewege dich mehr, halte dich gerade, ... Letztendlich wird "sie" (meistens weibliche Stimmen) uns verachten, weil wir so vieles sogar bewusst falsch machen. Der Bot übernimmt die Fakten, wir sind das Bauchgefühl, der MetaBot (vielleicht auch "MeatBot").
Den Medien scheint das Thema humanoide Bots zu gefallen. Sie hypen es, wo es nur geht, auch wenn wir noch meilenweit entfernt sind von echten Erfolgen.
http://www.faz.net/aktuell/wissen/maschinen-intelligenz-verflixt-originell-der-knabe-14098418.html
-
{Whine}
-
Prof84 schrieb:
{Whine}
Dann betreilige Dich auf der diskreminierungsfreien unbraunen Spielwiese. Viel Glück!
-
muemmel schrieb:
Der einzige Unterschied den ich sehe ist der, dass Bots nicht irrational handeln können. Ihr Handeln muß immer einen Sinn ergeben, auch wenn der für Außenstehende vielleicht nicht erkennbar ist.
Wieso nicht? Was heisst irrationale Handlung überhaupt? Doch nur, dass man nicht dem logisch aufdringlich (d.h. vordergründig berechneten Entscheidungsbaum) folgt. Also man weiss, dass sich ein anderes Auto nach 3 Jahren rechnen würde, aber man greift nicht zu, weil einem die Farbe nicht gefällt.
Oder der Projektleiter sagt einen fixen Termin zu, der nicht haltbar ist basierend auf den vorliegenden Zeitrechnungen, aber sein Bauchgefühl sagt ihm, dass ein anderer genug Probleme verursachen wird, dass er den Terminverzug nachher auf eine andere Person schieben kann. [Diese Person handelt nach landläufigem Verständnis "berechnend", was ein negativer Charakterzug wäre.] Sagt der PL den Termin einfach so zu, dann ist die Entscheidung nur irrational - für Aussenstehende nicht nachvollziehbar.
Im inneren Regelkreis hat das aber Sinn ergeben. Selbst so Sachen wie Selbstverstümmelung sind für die innere Befriedigung sinnhaft. Wieso sollte man also nicht auch irrationale Handlungen algorithmisch abbilden können, diese dienen ja auch nur der Erfüllung bestimmter Regelschleifen - einfach nur solche, die man nicht auf den ersten Blick besitzt.
-
@Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben?
-
Erhard Henkes schrieb:
@Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben?
Wie zum Geier liest du den Blödsinn aus Marcus Beitrag raus?
-
Shade Of Mine schrieb:
Erhard Henkes schrieb:
@Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben?
Wie zum Geier liest du den Blödsinn aus Marcus Beitrag raus?
Naja, kann man schon.
Wenn ein Bot ein selbstlernendes Netz hat und zum Beispiel lernt, dass sein Besitzer Freude empfindet wenn er sich selbst verletzt, so wird der Regelkreis "Besitzer-Freude-Optimierung" irgendwann den Bot dazu bringen, sich regelmässig selbst zu verletzen. Wäre das rational? Intrinsisch schon, extrinsisch sicherlich nicht.
Es wäre dann die Frage der internen Gewichte, ob der Schutz vor Verletzung höher gewichtet wäre als die Befriedigung des Nutzers.
Ein guter Bot wäre wohl an das emotionale Feedback des Herrchens gekoppelt, und in diesem Fall würden die Reaktionen entsprechende Lerneffekte auslösen. Wiederholungen verstärken den Effekt, blabla, Ihr wisst ja wie das abläuft.
Und Spontanität kannst Du einem System sogar systematisch beibringen, indem man zufällig*) bei jeder n-ten Entscheidung nicht die beste Möglichkeit aus dem Entscheidungsbaum auswählt, sondern nur die zweit- oder drittbeste. Ein solches System würde eine gewisse Irrationalität an den Tag legen, und selbst den aufmerksamen Beobachter von Zeit zu Zeit überraschen.
Würde ich einen Militärbot bauen, wäre das sogar eine meiner wesentlichen Taktikmassnahmen... eben nicht immer den Weg mit der besten Wirkung wählen, sondern manchmal einen anderen. Dies aber spontan. Andernfalls kann der Gegner mit ausreichender Gefechtserfahrung meine Aktionen (und aller Bots der gleichen Softwaregeneration) vorsehen. Das würde ich ja nicht wollen.
um jetzt gleich Gerede bzgl des berechneten Zufallsgenerators wegzuschieben - mein Zufallsgenerator basiert auf Elektronenrauschen, nicht auf einer Zahlenfolge
-
Marc++us schrieb:
mein Zufallsgenerator basiert auf Elektronenrauschen, nicht auf einer Zahlenfolge
Ist auch schon probiert worden und trotzdem sind nicht zu erwartende Häufungen aufgetreten. Ein Zufallsgenerator muß halt nur gut genug für seinen Zweck sein.
Bei Deep Thought soll sogar davon Gebrauch gemacht worden sein und während des ganzen Turniers an der Gewichtung geschraubt.Recht amüsant war ein Video, das ich jetzt natürlich nicht finde, wo sich ein neuronales Netz selbst das Fliegen beibringen sollte, ausführend war so ein Klapparatismus mit Flügeln an einer Stange, der positive Stimulus die gewonnene Höhe. Tatsächlich sind ein paar Bots auf das Prinzip des Fliegens gestoßen, viele haben sich in Irrwegen verlaufen, besonders putzig war einer, der ein vergessenes Stapel Bücher als Stütze verwendet und sich daran hochgestemmt hat und danach keine weitere Optimierung durchführen konnte. Also hat er bei Wiederholung der Aufgabe nach einem Halt gesucht und die Flügel nach unten geklappt, damit war die optimale Lösung für ihn erreicht.
Ich weiß nicht, ob's wirklich "I, Robot" war, hab' das Buch momentan nicht zur Hand. Jedenfalls wurde in der Story der Welthandel an ein selbstoptimierendes Computernetz übergeben, nach einiger Zeit stellen die Leute fest, daß die Wirtschaftsleistung drastisch zurückgefahren wird und vermuten eine fehlerhafte Programmierung, versuchen das wieder abzuschalten, allerdings wehrt sich das Netz mit allen Möglichkeiten dagegen, letztlich ist es eine Zwickmühle, die sich aus den robotischen Gesetzen ergibt:
Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.Alles hängt an der Regel eins, wenn man selbstlernende Kisten baut. In der Geschichte war das so, daß zum Schutz der Menschen vor sich selbst entsprechende Maßnahmen getroffen wurden.
Bis dahin hat aber die KI- Forschung noch viel zu tun ...PS: Hätte vorher den Wiki- Beitrag lesen sollen, dürfte das Nullte Gesetz aus "Robots and Empire" sein.
-
Wenn ein Bot ein selbstlernendes Netz hat und zum Beispiel lernt, dass sein Besitzer Freude empfindet wenn er sich selbst verletzt, so wird der Regelkreis "Besitzer-Freude-Optimierung" irgendwann den Bot dazu bringen, sich regelmässig selbst zu verletzen. Wäre das rational? Intrinsisch schon, extrinsisch sicherlich nicht. Es wäre dann die Frage der internen Gewichte, ob der Schutz vor Verletzung höher gewichtet wäre als die Befriedigung des Nutzers.
Ja, das ist richtig. Das wird auch genau so kommen. Denn alles, was man sich hier ausdenken kann, wird ab und zu passieren.
-
http://www.faz.net/aktuell/feuilleton/go-genie-lee-sedol-verliert-gegen-alphago-14116573.html
Die letzten „Genies“ werden gerade abgemetzelt. Im Schach war dies bereits in den 90er Jahren der Fall.
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
-
Erhard Henkes schrieb:
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
Uns bleiben Subjektivität, also so ganz grob echte Göttlichkeit, Träumerei schnelle intuitive Reaktionen, Fingerfertigkeit und Sensibilität, Mitgefühl, super Grafikkarte, Vielseitigkeit, Witzigkeit, Selbstversorgung und Reproduktion, Verneinung (Schachcompi: "hab heute keinen Bock auf Schach" -> würde den Sinn der Kiste noch weiter herabsetzen) oder schnell mal was mit Bleistift notieren, oder, hm...ja, (erst Hinterlist, dann..) schnell abhauen.
Und natürlich Müll rausbringen.Man darf aber gespannt sein, wann die ersten Roboter anfangen, persönliche Erfahrungen zu verarbeiten und Bücher darüber zu schreiben, oder einen eigenen Zirkus aufmachen und durch die Lande ziehen.
Der arme Pinoccio ist ja u.a. deswegen so schlecht dran, weil seine "Mutter" eher "schwierig" zu sein scheint. So bekommt er keine Mutterliebe, sondern nur Allgemeinplätze (wie man sollte, z.B. man sollte nicht in der Nase bohren, oder nicht schneller als 50 km/h fahren).
Lügen selbst (wie auch Täuschen und Tarnen, so tun als ob, simulieren usw.) ist weit verbreitet und überlebensdienlich. Es gehört zum (erfolgreichen) Menschsein dazu.
(z.B. wie soll Pinoccio Kohle beim Pokern machen?)
(Sido hatte es besser: https://www.youtube.com/watch?v=68tYVzz7YSY )
-
http://www.stern.de/digital/computer/microsoft-build--endlich-endet-die-computer-knechtschaft-6771122.html
Diese Entwicklung hin zu integrierten Assistenten erscheint auf den ersten Blick der richtige Weg. Aber wie läuft das mit Kontrolle ist besser als Vertrauen? Was, wenn die "Assistentin" eigenwilligen Mist baut? (bei MS zu erwarten)
-
Erhard Henkes schrieb:
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
Und die Religion. *lol*
-
Marc++us schrieb:
Und die Religion. *lol*
Auf einem weit entfernten Planeten arbeitet sich ein humanoider Roboter, genannt Elektrischer Mönch, durch eine Reihe unsinniger Glaubensvorstellungen. Seine einzige Aufgabe ist es, Dinge zu glauben (um so anderen Leuten die Mühe zu ersparen, es selbst zu tun)
Höchst lesenswert, wirklich!
-
Marc++us schrieb:
Erhard Henkes schrieb:
Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.
Und die Religion. *lol*
Das ist spannend, z.B. wenn man sich mal den Begriff "Religion" auf Wikipedia genauer ansieht.
Grob übersetzt:
Achtsam sein, Sorgfalt, genau sein, feine Auflösung usw.Aber Automatismen (Übung, Rituale, Computer usw.) helfen.
(etwa Häufigkeitsanalyse, Wecker (Turmuhr) Tempomat (oder auch todolist)Noch gröber übersetzt: z.B. Grundstellung/Neutralstellung beim Tischtennisspiel
https://www.youtube.com/watch?v=6SZOFnAK_uM
(gar nicht schlecht die Serie, z.B. Beispiel auch: https://www.youtube.com/watch?v=Vq_45r5K1bI (schlechter Start) )(Das Computer-Spiel Wizardry 7 (Gold) ist übrigens leicht spirituell angehaucht.)
Leicht verständlich ist, dass wir uns über Musik, bewusstseinsraubende Ekstase, Orgasmen oder Liebe hier nur eher schlecht unterhalten können.
Mal angenommen, in tausend Jahren finden Leute fragmetarische Texte über Musik. Sehen die aufgezeichneten Noten und denken, weil sie nur diese kennen: das ist Musik.Man könnte ja denken, Rechner wären religiöser, da vielleicht ausdauernder oder genauer, müssen ja nicht einschlafen. Aber nein:
https://de.wikipedia.org/wiki/Greedy-Algorithmus
(lasterhaft )
-
Lassen wir mal die Religion beiseite und sehen den Menschen begrenzt als biologisches System gesteuert von Genen, dann kann man feststellen, dass der Mensch ebenso wie Industrie 4.0, Roboter und KI auf die unausweichliche Perfektion zustrebt. Crispr ist eine erste Basis dafür.
Was ist das Ziel? In Brave New World ging es um „Stabilität, Frieden und Freiheit“ allerdings in einem eher zynischen Sinn. Geht es heute noch um Freiheit? Ich denke eher nein. Es geht um Stärke und Führung, und da stehen die selbsternannten Diktatoren gerne bereit. Frieden? Nein, es geht um Macht über die Daten. Machtkämpfe werden zu einer Art moderner Krieg führen. Stabilität? Nein, ganz im Gegenteil. Die Zeit ist aus den Fugen. Das spüren wohl viele.