Kann es Menschen schlagen: Google hat einen Tischtennis-spielenden Roboter entwickelt

Nachrichtenzentrum

Google hat seine Arbeit im Bereich der künstlichen Intelligenz um ein weiteres erweitert und einen Roboter entwickelt, der Tischtennis spielen kann.

Der von DeepMind entwickelte Roboter fällt durch schnelle Bewegungen und präzise Schläge auf.

Obwohl sich der Roboter gegen menschliche Gegner sehr gut geschlagen hat, kann er vorerst auch auf Amateurniveau spielen.

Zu den herausragenden Merkmalen des Roboters zählen besonders schnelle Reflexe und seine Überlegenheit bei der Vorhersage der Ballseite.

SPIELEND MIT MENSCHEN LERNEN

Nach der Simulationsphase beginnt der Roboter, gegen echte Menschen zu spielen und setzt seine Lernreise fort, indem er aus diesen Erfahrungen lernt.

Während der Tischtennisroboter alle menschlichen Anfängergegner und 55 % der Amateurspieler besiegen konnte, verlor er alle Spiele gegen fortgeschrittene Spieler.

Experten sagen, dass der Roboter noch einige Jahre braucht, um sich zu einem kommerziellen Produkt zu entwickeln.

Pannag Sanketi, ein leitender Softwareentwickler bei Google DeepMind, der das Projekt leitet, verwendete in seiner Stellungnahme die folgenden Aussagen:

Schon vor ein paar Monaten haben wir vorhergesagt, dass der Roboter realistischerweise nicht gegen Menschen gewinnen kann, mit denen er noch nie zuvor gespielt hat. Das System hat unsere Erwartungen definitiv übertroffen.

WIE WURDE DER ROBOTER TRAINIERT

Um ein erfahrener Tischtennisspieler zu werden, müssen Menschen über eine perfekte Hand-Auge-Koordination verfügen, sich schnell bewegen und schnelle Entscheidungen treffen können, indem sie auf ihre Gegner reagieren. Das alles sind wertvolle Herausforderungen für Roboter.

Die Forscher von Google DeepMind nutzten einen zweistufigen Ansatz, um das System so zu trainieren, dass es diese Fähigkeiten nachahmt.

Mithilfe von Computersimulationen trainierten die Forscher das System, Schlagtricks zu meistern.

Anschließend wurde anhand realer Informationen eine Feinabstimmung vorgenommen und der Roboter im Laufe der Zeit weiter verbessert.

Die Forscher stellten einen Datensatz über den Zustand von Tischtennisbällen zusammen, einschließlich Positions-, Spin- und Geschwindigkeitsinformationen.

Das System nutzte diese Bibliothek in einer simulierten Umgebung, die die Physik von Tischtennisspielen wirklich widerspiegeln sollte, um Fähigkeiten wie Rückschlag, Vorhand-Topspin oder Rückhandschlag zu erlernen.

Da der Roboter aufgrund seiner Einschränkungen nicht in der Lage war, den Ball zu schlagen, wurden reale Spiele entsprechend angepasst.

WIE FUNKTIONIERT DER ROBOTER?

Bei Spielen gegen Menschen sammelt der Roboter Informationen über seine Leistung, um seine Fähigkeiten zu verbessern.

Es verfolgt die Position des Balls mithilfe von Daten, die von zwei Kameras erfasst wurden, und verfolgt den Spielstil seines menschlichen Gegners über ein Bewegungserfassungssystem, das LEDs am Schläger des Gegners verwendet.

Ballinformationen werden für das Training an die Simulation zurückgekoppelt, wodurch stets eine Rückkopplungsschleife entsteht.

Dieses Feedback ermöglicht es dem Roboter, neue Kunststücke auszuprobieren, um seinen Gegner zu besiegen; Das bedeutet, dass er seine Taktik und sein Verhalten genau wie ein Mensch anpassen kann.

Ensonhaber

BallDatenGeschwindigkeitMenschRoboter
Comments (0)
Add Comment