Dans un blog article publié la semaine dernière, Méta demande, « Où sont les robots ? » La réponse est simple. Ils sont là. Tu dois juste savoir où regarder. C’est une réponse frustrante. Je le reconnais. Mettons de côté les conversations sur les voitures et l’assistance à la conduite et concentrons-nous uniquement sur les choses que nous avons tous tendance à considérer comme des robots. Pour commencer, cette livraison Amazon ne vous parvient pas sans assistance robotique.

Une question plus pertinente serait : pourquoi n’y a-t-il pas plus de robots ? Et plus précisément, pourquoi n’y a-t-il pas plus de robots dans ma maison en ce moment ? C’est une question complexe avec beaucoup de nuances – une grande partie se résume à l’état actuel des limitations matérielles autour du concept d’un robot « à usage général ». Roomba est un robot. Il y a beaucoup de Roombas dans le monde, et c’est en grande partie parce que les Roombas font bien une chose (une décennie supplémentaire de R&D a aidé à faire avancer les choses d’un état « plutôt bon »).

Ce n’est pas tant que la prémisse de la question est erronée – c’est plutôt une question de recadrage léger. « Pourquoi n’y a-t-il pas plus de robots ? » est une question parfaitement valable à poser pour un non-roboticien. En tant que spécialiste du matériel de longue date, je commence généralement ma réponse par là. J’ai eu suffisamment de conversations au cours de la dernière décennie pour que je sois assez confiant de pouvoir monopoliser toute la conversation en discutant des nombreux points de défaillance potentiels avec un préhenseur robot.

La prise de Meta est basée sur un logiciel, et c’est assez juste. Au cours des dernières années, j’ai été témoin d’une explosion de startups s’attaquant à diverses catégories importantes telles que l’apprentissage robotique, le déploiement/la gestion et les solutions sans et à faible code. Un cri toujours vert ici pour les près de deux décennies de recherche et de développement qui ont été consacrées à la création, à la maintenance et à l’amélioration de ROS. À juste titre, les intendants de longue date d’Open Robotics ont été acquis par Alphabet, qui a fait son propre travail dans la catégorie grâce aux efforts locaux, Intrinsic et Everyday Robots (qui ont été touchés de manière disproportionnée par la réduction des ressources à l’échelle de l’organisation).

Meta / Facebook fait sans aucun doute sa part de projets skunkworks qui font surface de temps en temps. Jusqu’à présent, je n’ai rien vu qui suggère qu’ils soient à la hauteur de ce qu’Alphabet/google a exploré au fil des ans, mais il est toujours intéressant de voir certains de ces projets se dévoiler. Dans une annonce que je soupçonne fortement d’être liée à la prolifération des discussions sur l’IA générative, le géant des médias sociaux a partagé ce qu’il appelle « deux avancées majeures vers des agents d’IA incarnés à usage général capables d’exécuter des compétences sensorimotrices difficiles ».

Citant directement ici :

Un cortex visuel artificiel (appelé VC-1) : un modèle de perception unique qui, pour la première fois, prend en charge une gamme variée de compétences sensorimotrices, d’environnements et d’incarnations. VC-1 est formé sur des vidéos de personnes effectuant des tâches quotidiennes à partir de l’ensemble de données révolutionnaire Ego4D créé par Meta AI et des partenaires académiques. Et VC-1 correspond ou surpasse les résultats les plus connus sur 17 tâches sensorimotrices différentes dans des environnements virtuels.

Une nouvelle approche appelée coordination des compétences adaptatives (sensorimotrices) (ASC), qui atteint des performances presque parfaites (98 % de réussite) sur la tâche difficile de la manipulation mobile robotique (naviguer vers un objet, le ramasser, naviguer vers un autre emplacement, placer le objet, répétition) dans des environnements physiques.

Crédits image : Méta

Des recherches intéressantes, sans aucun doute, et je suis ravi de potentiellement approfondir certaines de ces questions, à l’avenir. L’expression « usage général » est beaucoup utilisée ces jours-ci. C’est un sujet de conversation perpétuellement intéressant en robotique, mais il y a eu une prolifération massive de robots humanoïdes à usage général sortant des boiseries à la suite du dévoilement du bot Tesla. Pendant des années, les gens m’ont dit des choses comme « Dis ce que tu veux à propos de Musk, mais Tesla a suscité un regain d’intérêt pour les véhicules électriques », et c’est plus ou moins ce que je ressens pour Optimus en ce moment. Il a joué un double rôle important en renouvelant la discussion autour du facteur de forme, tout en fournissant un visuel clair sur lequel pointer pour expliquer à quel point ce truc est difficile. Est-il possible d’augmenter considérablement les attentes du public tout en les tempérant ?

Encore une fois, ces conversations s’accordent bien avec toutes ces percées GPT. Tout cela est très impressionnant, mais Rodney Brooks a mis le danger de confondre assez bien les choses dans ce même bulletin il y a quelques semaines : « Je pense que les gens sont trop optimistes. Ils confondent performance et compétence. Vous voyez une bonne performance chez un humain, vous pouvez dire en quoi il est compétent. Nous sommes assez bons pour modéliser les gens, mais ces mêmes modèles ne s’appliquent pas. Vous voyez une excellente performance de l’un de ces systèmes, mais cela ne vous dit pas comment cela va fonctionner dans l’espace adjacent tout autour, ou avec des données différentes.

Bras robotique covariant

Crédits image : Covariant

Évidemment, cela ne m’a pas empêché de demander à la plupart des gens à qui j’ai parlé chez ProMat leur point de vue sur le rôle futur de l’IA générative dans la robotique. Les réponses étaient. . . large éventail. Certains ignorent cela, d’autres voient un rôle très réglementé pour la technologie, et d’autres sont encore extrêmement optimistes quant à ce que tout cela signifie pour l’avenir. Dans la newsletter de la semaine dernière, Peter Chen, le PDG de Covariant (qui vient de lever 75 millions de dollars), a proposé un contexte intéressant en ce qui concerne l’IA généralisée :

Avant le récent ChatGPT, il existait de nombreuses IA de traitement du langage naturel. Recherche, traduction, détection de sentiments, détection de spam – il y avait beaucoup d’IA en langage naturel. L’approche avant GPT consiste, pour chaque cas d’utilisation, à former une IA spécifique, en utilisant un sous-ensemble de données plus petit. Regardez les résultats maintenant, et GPT abolit fondamentalement le domaine de la traduction, et il n’est même pas formé à la traduction. L’approche du modèle de base est essentiellement, au lieu d’utiliser de petites quantités de données spécifiques à une situation ou d’entraîner un modèle spécifique à une circonstance, formons un grand modèle généralisé de base sur beaucoup plus de données, de sorte que l’IA est plus généralisée.

Bien sûr, Covariant est actuellement hyper concentré sur le picking et le placement. C’est franchement un challenge assez gros pour les occuper longtemps. Mais l’une des promesses de systèmes comme celui-ci est la formation dans le monde réel. Les entreprises qui ont de vrais robots effectuant de vrais travaux dans le monde réel construisent des bases de données et des modèles extrêmement puissants sur la façon dont les machines interagissent avec le monde qui les entoure (les murs d’un centre de recherche peuvent être limitants à cet égard).

Il n’est pas difficile de voir combien de blocs de construction apparemment disparates renforcés par les chercheurs et les entreprises pourraient un jour se réunir pour créer un système véritablement polyvalent. Lorsque le matériel et l’IA seront à ce niveau, il y aura une mine apparemment inépuisable de données de terrain sur lesquelles les former. J’admets que j’ai fait un peu de mixage et d’appariement de listes robotiques sur le sol de ProMat, en essayant de déterminer à quel point nous sommes proches de l’état actuel de la technologie disponible dans le commerce.

Pour le moment, l’approche de la plateforme a beaucoup de sens. Avec Spot, par exemple, Boston Dynamics vend effectivement des clients sur un modèle d’iPhone. D’abord, vous produisez la première génération d’un matériel impressionnant. Ensuite, vous proposez un SDK aux parties intéressées. Si les choses se passent comme prévu, vous avez soudainement ce produit qui fait des choses que votre équipe n’aurait jamais imaginées. En supposant que cela n’implique pas de monter un pistolet à l’arrière du produit (conformément aux directives de BD), c’est une proposition passionnante.

Screenshot 2023 04 05 at 2.55.36 PM

Crédits image : 1 FOIS

Il est beaucoup trop tôt pour dire quoi que ce soit de précis sur Le robot NEO de 1X Technologies, au-delà du fait que l’entreprise espère clairement vivre dans ce croisement entre la robotique et l’IA générative. Certes, il a un allié puissant dans OpenAI. Le fonds de démarrage du géant de l’IA générative a mené une ronde de 23,5 millions de dollars, qui comprenait également Tiger Global, entre autres.

Selon le fondateur et PDG de 1X, Bernt Øivind Børnich, « 1X est ravi qu’OpenAI dirige ce cycle car nous sommes alignés sur nos missions : intégrer de manière réfléchie les technologies émergentes dans la vie quotidienne des gens. Avec le soutien de nos investisseurs, nous continuerons à faire des progrès significatifs dans le domaine de la robotique et à augmenter le marché du travail mondial.

Une remarque intéressante à ce sujet (pour moi du moins) est que 1X tourne en rond depuis une minute. La firme norvégienne était connue sous le nom de Halodi jusqu’à sa toute récente (exactement il ya un mois) changement de marque lapidaire. Il suffit de revenir un an ou deux en arrière pour voir les débuts prendre la forme humanoïde que la société développait pour la restauration. La technologie semble définitivement plus sophistiquée que son homologue de 2021, mais la base à roulettes trahit le chemin qu’il reste à parcourir pour accéder à une version du robot que nous voyons si elle est rendue.

Soit dit en passant, c’est peut-être moi, mais il semble y avoir une évolution convergente ici :

Untitled1

Crédits image : Tesla/Figure/IX — Collage de l’auteur

De haut en bas, ce sont des rendus de Tesla Optimus, Figure 01 et 1X Neo. Pas des copies directes, évidemment, mais ils ont certainement l’air d’être des cousins. Neo est celui qui insiste pour porter un sweat à capuche, même lors d’occasions formelles. Écoutez, je ne suis pas un designer industriel, mais qu’en est-il d’un chapeau de cow-boy ou quelque chose comme ça ?

robot avec un ballon de foot

Crédits image : MIT CSAIL

Que diriez-vous de terminer la semaine de l’actualité avec une paire de projets de recherche ? Le premier est amusant du MIT. Quand on y pense vraiment, jouer au Football est un excellent moyen de tester la locomotion. Il y a une raison pour laquelle la Robocup donne des coups de pied depuis près de 20 ans. Dans le cas de Dribblebot, cependant, le défi est un terrain accidenté – qui comprend des éléments comme l’herbe, la boue et le sable.

Selon le professeur du MIT Pulkit Agrawal :

Si vous regardez autour de vous aujourd’hui, la plupart des robots sont à roues. Mais imaginez qu’il y ait un scénario de catastrophe, une inondation ou un tremblement de terre, et nous voulons des robots pour aider les humains dans le processus de recherche et de sauvetage. Nous avons besoin que les machines traversent des terrains qui ne sont pas plats, et les robots à roues ne peuvent pas traverser ces paysages. Tout l’intérêt d’étudier les robots à pattes est d’aller sur des terrains hors de portée des systèmes robotiques actuels.

IMG 5739 1

Crédits image : UCLA

Le deuxième projet de recherche provient de la Samueli School of Engineering de l’UCLA, qui récemment publié résultats de ses travaux autour des robots origami. Les Origami MechanoBots, ou « OrigaMechs », s’appuient sur des capteurs intégrés dans leurs blocs de construction en polyester minces. Le chercheur principal Ankur Mehta a des plans assez lointains pour la technologie.

« Ces types de scénarios dangereux ou imprévisibles, comme lors d’une catastrophe naturelle ou d’origine humaine, pourraient être ceux où les robots origami se sont révélés particulièrement utiles », a-t-il déclaré dans un article lié à l’actualité. « Les robots pourraient être conçus pour des fonctions spécialisées et fabriqués à la demande très rapidement. De plus, bien que ce soit très loin, il pourrait y avoir des environnements sur d’autres planètes où des robots explorateurs insensibles à ces scénarios seraient très souhaitables.

Ce n’est pas tout à fait la surface de Vénus, mais le piège à mouches qui détecte les proies est néanmoins assez soigné.

Emplois

D’accord, que diriez-vous d’une nouvelle série d’offres d’emploi ? Je prévois de continuer à les faire périodiquement par tranches, à l’avenir. La meilleure façon d’être listé est de suivez-moi sur LinkedIn et répondez sur les discussions où j’annonce qu’un nouveau travail est à venir. Ce n’est certainement pas la façon la plus efficace de le faire, mais cela a fonctionné pour moi, donc je vais garder le cap.

Comme je l’ai mentionné cette semaine, je vais donner la priorité à ceux qui n’ont pas été présentés auparavant.

Emplois de robots pour les humains

Une évasion (14 rôles)

Apptronik (20 rôles)

Dextérité (18 rôles)

Digitale pourprée (3 rôles)

Fantôme automatique (21 rôles)

IA du sanctuaire (15 rôles)

Slamcore (5 rôles)

Tissé par Toyota (4 rôles)

actuator blue

Crédits image : Bryce Durbin/fr.techtribune.net

Venez explorer des mondes lointains avec Actuator. Abonnez-vous ici.