Anonim

Bild: Wissenschaftsfotobibliothek / Corbis

Ein neues Startup für künstliche Intelligenz namens Osaro zielt darauf ab, Industrierobotern den gleichen Turbolader zu geben, den DeepMind Technologies Atari-spielende Computerprogramme gab.

Im Dezember 2013 präsentierte DeepMind eine Art künstlicher Intelligenz, die innerhalb von Stunden sieben Atari 2600-Spiele von Grund auf beherrschte und einige der besten menschlichen Spieler übertreffen konnte. Google hat das in London ansässige Unternehmen und die dahinterliegende Technologie für tiefgreifende Lernprozesse rasch für 400 Millionen US-Dollar aufgeschnappt.

Nun, Osaro, mit Investitionen in Höhe von 3,3 Millionen US-Dollar von Leuten wie Peter Thiel und Jerry Yang, behauptet, das Lernen mit tiefgreifender Verstärkung auf die nächste Stufe gebracht zu haben und dieselbe übermenschliche KI-Leistung zu liefern, jedoch über 100-mal so schnell.

Tiefes Lernen ist aus tiefem Lernen entstanden, einer Methode, bei der mehrere Schichten neuronaler Netzwerke verwendet werden, um Berge von Rohdaten effizient zu verarbeiten und zu organisieren (siehe "10 Breakthrough Technologies 2013: Deep Learning"). Deep Learning ist heute für viele der besten Gesichtserkennungs-, Videoklassifizierungs- und Text- oder Spracherkennungssysteme von Google, Microsoft und IBM Watson verantwortlich.

Durch das Lernen mit intensiver Verstärkung wird dem Mix mehr Kontrolle verliehen. Durch die Verwendung von Deep Learning können Eingaben, wie z. B. Videoframes aus einem Breakout- oder Pong-Spiel, genau klassifiziert werden, um eine hohe Punktzahl zu erreichen. Lernsysteme mit Tiefenverstärkung trainieren sich automatisch, indem sie eine Aufgabe immer wieder wiederholen, bis sie ihr Ziel erreichen. "Die Kraft der tiefen Verstärkung besteht darin, dass Sie Verhaltensweisen entdecken können, die ein Mensch nicht mit Code erraten oder vermuten lassen würde", sagt Derik Pridmore, Präsident und Chief Operating Officer von Osaro.

Das Trainieren eines neuen KI-Systems aus einer leeren Tafel kann jedoch sehr lange dauern. Die Atari-Demo von DeepMind benötigte zig Millionen Video-Frames, das entspricht vielen Tausenden von Spielen, um nahezu perfekt zu sein. Das ist gut für digitale Aufgaben, die auf Supercomputern praktisch auf Stunden oder Minuten komprimiert werden können, aber sie lassen sich nicht gut auf reale Robotik übertragen.

"Ein Roboter ist ein physisch verkörpertes System, das Zeit braucht, um sich durch den Weltraum zu bewegen", sagt Pridmore. "Wenn Sie einem Roboter das grundlegende Erlernen der Tiefenverstärkung beibringen möchten, um eine Tasse von Grund auf aufzunehmen, würde dies buchstäblich ein Jahr oder mehr dauern."

Um diesen Trainingsprozess zu beschleunigen, ließ sich Osaro von der Art und Weise inspirieren, in der die meisten Aktivitäten erlernt werden - indem er andere Menschen beobachtet. Osaro hat ein Programm zum Spielen von Spielen entwickelt, das beginnt, indem ein Mensch mehrere Spiele spielt. Diese Verhaltensweisen werden dann als Ausgangspunkt für die eigenen Trainingsbemühungen verwendet. "Es kopiert keinen Menschen und Sie müssen nicht genau oder sehr gut spielen. Sie geben ihm nur eine vernünftige Vorstellung davon, was zu tun ist", sagt Pridmore. Er behauptet, das Kiosystem von Osaro könne ein Spiel 100-mal so schnell abrufen wie das Programm von DeepMind, obwohl das Unternehmen seine Forschung noch nicht veröffentlicht habe.

Die erste Anwendung von Osaro für die Lerntechnologie mit tiefem Verstärkungsfaktor ist wahrscheinlich die Massenfertigung, bei der die Umprogrammierung von Fließbandrobotern derzeit Wochen von hochqualifizierten (und hochbezahlten) Fachkräften erfordern kann. Laut Pridmore kann Osaro diese Zeit auf etwa eine Woche reduzieren, was den zusätzlichen Vorteil des Bauens effizienter Steuerungssysteme mit sich bringt, die mit "lauten" Bedingungen wie beispielsweise ungleichmäßigen Komponenten oder wechselnden Lichtverhältnissen fertig werden.

Schließlich, so Pridmore, sollte der Trainingsprozess fast mühelos ablaufen. "In Zukunft können Sie einem Roboter drei Eimer mit Teilen geben, ihm ein fertiges Produkt zeigen und einfach sagen:" Machen Sie so etwas. "" Dieser Tag ist immer noch ein Stück entfernt. Osaros nächster Schritt besteht darin, simulierte Roboter-Demos in einer virtuellen Umgebung namens Gazebo auszuführen, bevor sie 2017 bei Industrieroboterherstellern und ihren Kunden eingeführt werden.

Oren Etzioni, Geschäftsführer des Allen Institute for Artificial Intelligence, sagt, der Ansatz sei "technisch spannend" und "verlockend". Pieter Abbeel, Professor für Informatik an der University of California, Berkeley, und Organisator eines tiefgreifenden Lernsymposiums, stimmt dem zu. "Direkter von menschlichen Demonstrationen und Ratschlägen in allen möglichen Formaten zu lernen, ist intuitiv der Weg, ein System schneller zum Lernen zu bringen", sagt er. "Es ist jedoch eine Herausforderung, ein System zu entwickeln, das in der Lage ist, eine Vielzahl von Lernmodi zu erlernen."

Und es ist immer die Frage, woran DeepMind gearbeitet hat. Wenn das KI-System von DeepMind den Atari innerhalb weniger Stunden beherrschen könnte, könnten zwei Jahre hinter den geschlossenen Türen von Google sogar Osaros KI-Systeme zurückbleiben, die von Menschen unterrichtet werden.

  • Dieser besorgniserregend einfache Hack könnte jeden mit dem Klima basteln lassen
  • Eine Strategie zum Abtöten von Zellen, um das Altern zu verlangsamen, hat dieses Jahr den ersten Test bestanden
  • Wann werden wir fliegende Autos haben? Vielleicht früher als du denkst.
  • Preisalgorithmen können lernen, miteinander zu stimmen, um die Preise zu erhöhen

Dieser Artikel wurde ursprünglich bei MIT Technology Review hier veröffentlicht