Arbeitet Apple an einem AI-gesteuerten Roboter wie Luxo Jr.?
Laut Berichten hat ein Team von Robotikforschern bei Apple einen lampenähnlichen Roboter mit lebensechten Bewegungen samt einem Prototyp entwickelt.
Über den Apple-Roboter
Die Lampe, die uns an das niedliche Pixar-Maskottchen Luxo Jr. erinnert, könnte auf Apples Zukunftspläne hinweisen. Das Video zeigt, wie der Roboter auf lebensechte Weise mit einer Person interagiert. Zum Beispiel fragt die Person den Roboter, wie das Wetter an diesem Tag ist, und der Roboter schaut aus dem Fenster, bevor er mit der Vorhersage antwortet. Die Person sagt, dass sie an diesem Tag wahrscheinlich eine Wanderung machen wird, aber der Roboter sieht traurig aus, als er herausfindet, dass er nicht eingeladen ist. In einer anderen Szene reagiert der Roboter auf die Handgesten der Person, indem er sich bewegt, um die gewünschte Beleuchtung für die iPhone-Fotografie bereitzustellen. Im nächsten Szenario schiebt der Roboter eine Tasse auf einem Schreibtisch auf die Person zu, um sie daran zu erinnern, Wasser zu trinken. Später im Video beobachtet der Roboter die Person, die einen 3D-Drucker baut, und projiziert ein relevantes Tutorial-Video an die Wand. Und schließlich spielt der Roboter Musik und tanzt als sozialer Begleiter dazu.
Das Forscherteam umfasst Yuhan Hu, Peide Huang, Mouli Sivapurapu und Jian Zhang. Sie fanden heraus, dass diese lebensechten, expressionsgesteuerten Bewegungen das Benutzerengagement mit dem Roboter gegenüber herkömmlichen “funktionsgesteuerten” Bewegungen “deutlich verbessern”. Mark Gurman von Bloomberg berichtete letztes Jahr, dass Apple einen Tischroboter mit einem “iPad-ähnlichen Display” entwickelt, das an einem “Roboterglied” befestigt ist, so dass Apples Forschung in diesem Bereich auf die zukünftige Funktionalität des Geräts hinweisen könnte. Ab abgesehen von Rückschlägen sagte er, dass Apple das Gerät bereits 2026 oder 2027 ankündigen möchte. Der Tischroboter würde laut Gurman hauptsächlich mit Siri und Apple Intelligence gesteuert werden. Er sagte, dass das Gerät auf Befehle wie “Schau mich an” reagieren könnte, die den Bildschirm während eines FaceTime-Videoanrufs auf dem Gesicht des Benutzers positionieren würden. Das Gerät würde auch verschiedene Stimmen verstehen, so die Aussage. Was haltet ihr davon?