Baupläne für maschinelles Lernen Roboter
diese Daten von Hand zu schaffen, ist sehr schmerzhaft und braucht viel Zeit und Mühe, zu bauen einige dieser Datensätze fast 10 Jahren erforderlich.
Noch wichtiger ist, ist es nicht, wie Lebewesen allein Menschen Namen lernen zu lassen. Wir sind nicht Bilder zugeführt und dann von den Namen etwas schreit heraus, was für Millionen von Bildern im Bild ist. Wir lernen, mit unserer Umwelt in Wechselwirkung zu treten. Je näher wir bauen unsere Modelle für maschinelles Lernen zu lernen, wie Menschen lernen, desto mehr Fortschritte werden wir zum Aufbau intelligenter Computer machen. Wir brauchen Computer in einer unüberwachten Einstellung trainieren, wo der Computer mit seiner Umgebung lernen und interagieren.
wenn Sie heute einen Computer mit Bildern trainieren wollen, gibt es ein paar Datensätze bereits im Internet wie Bild net, MNIST. und MSCOCO. unter anderen.
Das Problem mit dem statischen Bild Trainingssätzen ist, dass sie nur kleine Schnappschüsse des Lebens enthalten: ein Bild von Pferden, ein Haus, ein Strand, etc. Aber das Leben umfasst alle Arten von anderen Konzepten, die in den Bildern werden nicht erfasst. Wir brauchen Computer trainieren Konzepte zu verstehen, wie „verschütten einen Drinks“, „Hubschrauberlandungen“, „doggy Paddel“, „ein Buch der Rückkehr“, „läuft im Kreis“, „schießt einen Basketball“, etc. Diese erfordern alle Bewegung zu verstehen, was los ist. Bilder können als „voller Treue“ dieser Situationen nicht erfassen, sie sind 2d Schnappschüsse. aber wir navigieren, um die Welt in höheren Dimensionen. Wir brauchen eine andere Systemdaten zu erfassen, die höhere Genauigkeit hat.
Was passiert, wenn stattdessen bauten wir kleine Roboter mit Kameras, die Sie rund um folgen und Videodaten ständig zu analysieren, die alle werden sie erhalten. Sie könnten Sie folgen in Ihrem täglichen Leben um. Sie würden mit einer Disposition programmiert werden, was bedeutet, zu lernen, wenn sie die Dinge in seiner Umgebung sah, dass es nicht erkannt hat, ist es über diese neuen Objekte und Konzepte lernen wollen. Alle ihre Trainingsdaten würden von echten Live-Wechselwirkungen kommen, die sie statt nur statische Bilder, die andere Menschen markiert hatten.
Wenn Sie ein Netzwerk dieser Roboter haben, werden alle Daten an einen zentralen Server gesammelt werden könnten, um noch schneller zu lernen.
Der Lernalgorithmus müßte eine Art von Online-Echtzeit-Lernalgorithmus sein, dass der Roboter erlaubt, Daten in Echtzeit zu verarbeiten. Aktuelle Algorithmen, die wahrscheinlich von Verstärkungslernalgorithmen wie Q-Learning bestehen würde für die Basis dieses Systems verwendet werden könnte.
Das System würde ein Spracherkennungssystem prebuilt benötigen und ausgebildet, so dass sie alle Worte gesagt einnehmen könnte so taht es es mit dem Video zuordnen könnte es sieht. Das Spracherkennungssystem würde mit den mehr Daten im Laufe der Zeit verbessert sie gesammelt. Das System würde Audio-Befehle lernen, dass Sie sagen würden, um ihnen zu sagen, auf bestimmte Konzepte konzentrieren, um zu erfahren.