Werden Roboter uns ersetzen?



  • Boston Dynamics (inzwischen Google Tochter) hatte früher diesen berühmten Hund BIGDOG, nach dem man sogar treten konnte ...
    https://www.youtube.com/watch?v=W1czBcnX1Ww http://henkessoft.de/Roboter/Roboter.htm#mozTocId96745
    ... Nun bietet diese Firma, die die Welt verändern wird, einen 1,75 m großen Roboter namens ATLAS an, der humanoide Fähigkeiten besitzt und auch im Gelände eingesetzt werden kann.
    http://www.handelsblatt.com/unternehmen/beruf-und-buero/buero-special/roboter-in-der-arbeitswelt-atlas-und-der-angriff-auf-die-mittelschicht/13007996.html
    Allerdings wird immer noch nach ihm geschlagen und getreten. Sprache ist offensichtlich ein echtes Problem in der Kommunikation zwischen Mensch und Bot.

    Die Bots sollen massenweise Jobs "fressen". So haben wir uns eine neue schöne Welt aber immer vorgestellt, also jetzt nicht jammern, sondern neue Einsatzgebiete für den Menschen suchen. 😉
    http://www.handelsblatt.com/unternehmen/beruf-und-buero/buero-special/roboter-in-der-arbeitswelt-atlas-und-der-angriff-auf-die-mittelschicht/13007996.html

    Vielleicht treten und schlagen die Bots bald nach dem Menschen? 😕 😮


  • Mod

    Erhard Henkes schrieb:

    Vielleicht treten und schlagen die Bots bald nach dem Menschen? 😕 😮

    Nun, es ist ein vom Militär gesponsertes Projekt. Es dürfte klar sein, von welchem Langzeitziel die Geldgeber träumen.



  • Erhard Henkes schrieb:

    Vielleicht treten und schlagen die Bots bald nach dem Menschen? 😕 😮

    Vielleicht zünden sie bald die Hütten von Nazis an.
    Es ist zu tiefst logisch! Robo-V-Mann. Endlich die fehlerfreie Version...



  • Prof84 schrieb:

    Vielleicht zünden sie bald die Hütten von Nazis an.

    Dann pass aber auf, dass Deine Hütte nicht auch bald brennt... Deine Gesinnung ist den Nazis jedenfalls deutlich näher, als den meisten, denen Du das unterstellst. Tausche in Deinen Texten einfach das Wort Nazis gegen Flüchtlinge und vergleiche das Ergebnis... Erschreckend, wie schnell man eine Ideologie verwendet, die man doch angeblich abgrundtief verachtet...

    Sorry für's OT...



  • Jetzt lasst hier doch mal dieses allgegenwärtige Thema Polarisierung durch Migration beiseite. Das ist ein rein deutsches Problem. Hier geht es um die Zukunft der industriell entwickelten (Arbeits-)Welt.



  • Hi Erhard,

    Erhard Henkes schrieb:

    Jetzt lasst hier doch mal dieses allgegenwärtige Thema Polarisierung durch Migration beiseite. Das ist ein rein deutsches Problem. Hier geht es um die Zukunft der industriell entwickelten (Arbeits-)Welt.

    Siehs locker, uns, die wir echte Arbeit vollbringen werden sie nicht so schnell ersetzen könne, aber Spruchblasen und Linkschleudern wie Prof84 sind glaube ich bereits jetzt substituirbar. 😃 😃 😃

    Gruß Mümmel



  • Den Hinweis von Prof84 auf zu bewältigende Hürden bei "Deep Learning" fand ich interessant, allerdings gehören Dinge wie "Smart ..." oder "Deep ..." tatsächlich eher in den Bereich Marketing. 😉



  • Übersichtsartikel in der FAZ zu diesem Thema: http://www.faz.net/aktuell/wirtschaft/streichel-mich-sonst-ersetz-ich-dich-14084129.html

    Interessant ist, dass sich führende Köpfe wundern, dass die Leute der Künstlichen Intelligenz so ruhig entgegen sehen. Manche sehen KI als gefährlicher an als Nuklearwaffen. 🙄



  • {Linksammlung}



  • Prof84 schrieb:

    {Linksammlung}

    Vor diesen Kuscheltieren habe ich keine Angst. KI == null. Selbst der Werkstoff macht Probleme. Die Augen sind tot.

    Nein, es geht um KI, die uns überlegen ist, die uns nieder diskutiert, viel mehr weiß wie wir. Dann werden wir auf Intuition, Unterbewusstsein und Qualia zurück geworfen. Zusätzlich werden wir uns nicht mehr aus dem Haus trauen, weil man dort alles über uns weiß, wenn man seine Sensoren/Datenbrille auf uns richtet, selbst Dinge, die wir bereits verdrängt haben. Wir werden uns armseelig und neurotisch fühlen. Der Kampf hat begonnen. Was wird das gegenteil sein von "Errare humanum est"?



  • https://www.bilanz.de/exklusiv/dfki-kuenstliche-intelligenz

    Google kauft sich Firmenanteil um Firmenanteil zusammen, um von der "Suchmaschine" zur "Antwortmaschine" zu mutuieren. Der humanoide Bot "Atlas 2" von Tochter Boston Dynamics und die KI vom DFKI sollen erst der Anfang sein. Autos, die selbst fahren und Parkplätze suchen. Der uns begleitende Bot wird uns den Rest geben: Iss das nicht, bewege dich mehr, halte dich gerade, ... Letztendlich wird "sie" (meistens weibliche Stimmen) uns verachten, weil wir so vieles sogar bewusst falsch machen. Der Bot übernimmt die Fakten, wir sind das Bauchgefühl, der MetaBot (vielleicht auch "MeatBot").

    Den Medien scheint das Thema humanoide Bots zu gefallen. Sie hypen es, wo es nur geht, auch wenn wir noch meilenweit entfernt sind von echten Erfolgen.
    http://www.faz.net/aktuell/wissen/maschinen-intelligenz-verflixt-originell-der-knabe-14098418.html



  • {Whine}



  • Prof84 schrieb:

    {Whine}

    Dann betreilige Dich auf der diskreminierungsfreien unbraunen Spielwiese. Viel Glück! 👍


  • Mod

    muemmel schrieb:

    Der einzige Unterschied den ich sehe ist der, dass Bots nicht irrational handeln können. Ihr Handeln muß immer einen Sinn ergeben, auch wenn der für Außenstehende vielleicht nicht erkennbar ist.

    Wieso nicht? Was heisst irrationale Handlung überhaupt? Doch nur, dass man nicht dem logisch aufdringlich (d.h. vordergründig berechneten Entscheidungsbaum) folgt. Also man weiss, dass sich ein anderes Auto nach 3 Jahren rechnen würde, aber man greift nicht zu, weil einem die Farbe nicht gefällt.

    Oder der Projektleiter sagt einen fixen Termin zu, der nicht haltbar ist basierend auf den vorliegenden Zeitrechnungen, aber sein Bauchgefühl sagt ihm, dass ein anderer genug Probleme verursachen wird, dass er den Terminverzug nachher auf eine andere Person schieben kann. [Diese Person handelt nach landläufigem Verständnis "berechnend", was ein negativer Charakterzug wäre.] Sagt der PL den Termin einfach so zu, dann ist die Entscheidung nur irrational - für Aussenstehende nicht nachvollziehbar.

    Im inneren Regelkreis hat das aber Sinn ergeben. Selbst so Sachen wie Selbstverstümmelung sind für die innere Befriedigung sinnhaft. Wieso sollte man also nicht auch irrationale Handlungen algorithmisch abbilden können, diese dienen ja auch nur der Erfüllung bestimmter Regelschleifen - einfach nur solche, die man nicht auf den ersten Blick besitzt.



  • @Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben? 😕



  • Erhard Henkes schrieb:

    @Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben? 😕

    Wie zum Geier liest du den Blödsinn aus Marcus Beitrag raus?


  • Mod

    Shade Of Mine schrieb:

    Erhard Henkes schrieb:

    @Marc++us: Du meinst, Bots werden sich irgendwann bei "vorgetäuschten Fehlern" (aus Berechnung) an die Stirn schlagen, sich "bewusst" selbst zerstören und Emotionen haben? 😕

    Wie zum Geier liest du den Blödsinn aus Marcus Beitrag raus?

    Naja, kann man schon.

    Wenn ein Bot ein selbstlernendes Netz hat und zum Beispiel lernt, dass sein Besitzer Freude empfindet wenn er sich selbst verletzt, so wird der Regelkreis "Besitzer-Freude-Optimierung" irgendwann den Bot dazu bringen, sich regelmässig selbst zu verletzen. Wäre das rational? Intrinsisch schon, extrinsisch sicherlich nicht.

    Es wäre dann die Frage der internen Gewichte, ob der Schutz vor Verletzung höher gewichtet wäre als die Befriedigung des Nutzers.

    Ein guter Bot wäre wohl an das emotionale Feedback des Herrchens gekoppelt, und in diesem Fall würden die Reaktionen entsprechende Lerneffekte auslösen. Wiederholungen verstärken den Effekt, blabla, Ihr wisst ja wie das abläuft.

    Und Spontanität kannst Du einem System sogar systematisch beibringen, indem man zufällig*) bei jeder n-ten Entscheidung nicht die beste Möglichkeit aus dem Entscheidungsbaum auswählt, sondern nur die zweit- oder drittbeste. Ein solches System würde eine gewisse Irrationalität an den Tag legen, und selbst den aufmerksamen Beobachter von Zeit zu Zeit überraschen.

    Würde ich einen Militärbot bauen, wäre das sogar eine meiner wesentlichen Taktikmassnahmen... eben nicht immer den Weg mit der besten Wirkung wählen, sondern manchmal einen anderen. Dies aber spontan. Andernfalls kann der Gegner mit ausreichender Gefechtserfahrung meine Aktionen (und aller Bots der gleichen Softwaregeneration) vorsehen. Das würde ich ja nicht wollen.

    😉 um jetzt gleich Gerede bzgl des berechneten Zufallsgenerators wegzuschieben - mein Zufallsgenerator basiert auf Elektronenrauschen, nicht auf einer Zahlenfolge



  • Marc++us schrieb:

    mein Zufallsgenerator basiert auf Elektronenrauschen, nicht auf einer Zahlenfolge

    Ist auch schon probiert worden und trotzdem sind nicht zu erwartende Häufungen aufgetreten. Ein Zufallsgenerator muß halt nur gut genug für seinen Zweck sein.
    Bei Deep Thought soll sogar davon Gebrauch gemacht worden sein und während des ganzen Turniers an der Gewichtung geschraubt.

    Recht amüsant war ein Video, das ich jetzt natürlich nicht finde, wo sich ein neuronales Netz selbst das Fliegen beibringen sollte, ausführend war so ein Klapparatismus mit Flügeln an einer Stange, der positive Stimulus die gewonnene Höhe. Tatsächlich sind ein paar Bots auf das Prinzip des Fliegens gestoßen, viele haben sich in Irrwegen verlaufen, besonders putzig war einer, der ein vergessenes Stapel Bücher als Stütze verwendet und sich daran hochgestemmt hat und danach keine weitere Optimierung durchführen konnte. Also hat er bei Wiederholung der Aufgabe nach einem Halt gesucht und die Flügel nach unten geklappt, damit war die optimale Lösung für ihn erreicht.

    Ich weiß nicht, ob's wirklich "I, Robot" war, hab' das Buch momentan nicht zur Hand. Jedenfalls wurde in der Story der Welthandel an ein selbstoptimierendes Computernetz übergeben, nach einiger Zeit stellen die Leute fest, daß die Wirtschaftsleistung drastisch zurückgefahren wird und vermuten eine fehlerhafte Programmierung, versuchen das wieder abzuschalten, allerdings wehrt sich das Netz mit allen Möglichkeiten dagegen, letztlich ist es eine Zwickmühle, die sich aus den robotischen Gesetzen ergibt:

    Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
    Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

    Alles hängt an der Regel eins, wenn man selbstlernende Kisten baut. In der Geschichte war das so, daß zum Schutz der Menschen vor sich selbst entsprechende Maßnahmen getroffen wurden.
    Bis dahin hat aber die KI- Forschung noch viel zu tun ...

    PS: Hätte vorher den Wiki- Beitrag lesen sollen, dürfte das Nullte Gesetz aus "Robots and Empire" sein.



  • Wenn ein Bot ein selbstlernendes Netz hat und zum Beispiel lernt, dass sein Besitzer Freude empfindet wenn er sich selbst verletzt, so wird der Regelkreis "Besitzer-Freude-Optimierung" irgendwann den Bot dazu bringen, sich regelmässig selbst zu verletzen. Wäre das rational? Intrinsisch schon, extrinsisch sicherlich nicht. Es wäre dann die Frage der internen Gewichte, ob der Schutz vor Verletzung höher gewichtet wäre als die Befriedigung des Nutzers.

    Ja, das ist richtig. Das wird auch genau so kommen. Denn alles, was man sich hier ausdenken kann, wird ab und zu passieren.



  • http://www.faz.net/aktuell/feuilleton/go-genie-lee-sedol-verliert-gegen-alphago-14116573.html

    Die letzten „Genies“ werden gerade abgemetzelt. Im Schach war dies bereits in den 90er Jahren der Fall.

    Uns bleiben nur Bewusstsein, Emotionen, Leben und Tod, und die berühmten Qualia.


Anmelden zum Antworten