Robot, fais-moi un sandwich : comment votre futur androïde de maison saura-t-il où se trouve la cuisine ?

Nous naissons avec des yeux pour voir, des oreilles pour entendre, un nez pour sentir, une langue pour goûter et des mains pour toucher : en somme nous venons au monde avec tous les outils nécessaires à la compréhension de notre environnement. Mais les robots n’ont pas cette chance. Pour qu’ils voient, on doit les équiper d’une caméra. Pour qu’ils entendent, on doit leur intégrer des micros. Chez eux rien n’est inné : tout doit être construit, physiquement et intellectuellement. Et c’est un grand défi pour les ingénieurs en robotique d’aujourd’hui qui travaillent à fabriquer les robots intelligents de demain.

Dans son livre Le robot, meilleur ami de l’homme ? (2015, Éds du Pommier), Rodolphe Gelin aborde donc, parmi d’autres, la question capitale de la perception de l’environnement chez nos amis à circuits imprimés. Il faut préciser que Rodolphe Gelin sait de quoi il parle : après 20 ans passés au CEA, il est depuis 2009 responsable de la recherche chez Aldebaran Robotics, que vous connaissez déjà forcément : cette entreprise, fleuron de son industrie, s’est notamment faite connaître des médias et du grand public avec ses robots Neo et Romeo, aussi adorables que performants.

L’un des plus grands défis à relever quand on veut fabriquer un robot, c’est de le rendre capable de se repérer dans son environnement : comment voulez-vous qu’un robot domestique vous aide s’il ne trouve pas son chemin entre la cuisine et le salon ?

Pour cela il lui faut un capteur. Et il y a plusieurs solutions, la première étant d’employer un télémètre laser tournant :

Il va relever la distance de l’obstacle le plus proche dans toutes les directions autour de lui.  Cela va lui permettre de repérer tous les murs autour de lui. Le robot pourra donc en déduire s’il est bien au milieu du couloir et à quelle distance il est du bout du couloir. Connaissant la longueur du couloir et la position de la porte de la chambre de mon frère dans le couloir, grâce au plan de la maison, le robot pourra savoir s’il est arrivé à la hauteur de la porte et s’il peut tourner, ou s’il doit encore avancer un peu. Le laser lui permettra aussi de savoir si la porte de la chambre est ouverte ou fermée, et lui évitera donc de se jeter dans la porte fermée dans le deuxième cas.

Cette méthode est celle dite du SLAM (Simultaneous Localization and Mapping) : le robot dresse une carte des lieux lors d’une première exploration, puis s’y réfère pour ses déplacements suivants. C’est une technologie qui fonctionne bien, mais qui est coûteuse : le télémètre laser est une technologie très sophistiquée difficilement compatible avec un usage grand-public, en tout cas pour le moment.
Les ingénieurs ont donc cherché des solutions plus abordables, à savoir appliquer la mécanique du SLAM non plus à l’aide d’un télémètre laser ou de capteurs 3D, mais avec quelque chose de très bon marché : des caméras comme celles que nous avons sur nos smartphones. Problème : les images fournies ne sont plus en 3D, mais en 2D.

On peut voir dans une photo prise par une caméra si la porte en face du robot occupe une plus ou moins grande partie de la photo ; en revanche un robot ne peut pas savoir s’il est devant une très grande porte qui est loin ou si c’est une toute petite porte qui est tout près. Alors, pour le savoir, il va avancer un peu. Si la dimension de la porte dans l’image bouge beaucoup, c’est que la porte était tout près et était toute petite. Si la dimension de la porte varie très peu, c’est que la porte était loin et qu’elle doit être grande. En fait le robot ne voit pas qu’il y a une porte devant lui. Il voit un rectangle blanc dont il va repérer des zones caractéristiques : les bords, les coins, les taches sur le rectangle blanc faites par le trou de la serrure, la poignée, les gonds. En termes techniques, on dit que ce sont des « points d’intérêt ». 

La notion de points d’intérêt est donc capitale quand on souhaite faire en sorte que le robot puisse se repérer, et reconnaître des objets ou des visages. Comme l’explique l’auteur, nous disposons en tant qu’êtres biologiques et sociaux d’une perception globale : si nous nous trouvons face à une porte (ou à une table, ou à une chaise), la somme de nos connaissances et de nos perceptions fait que nous reconnaissons immédiatement s’il s’agit d’une table, d’une chaise, d’une porte ou du chien de la voisine. Mais le robot, lui, doit déduire d’un certain nombre de mesures et de croisements de données qu’il s’agit de tel objet, telle personne, tel obstacle. C’est un travail de titan pour son petit cerveau.

Le robot ne connaît pas a priori le concept de porte et ce sont des micro-détails faciles à détecter pour lui et parfois imperceptibles pour nous (variation de couleur autour des gonds et de la serrure) qui vont l’intéresser, au moins pour se localiser. En suivant l’évolution de milliers de points qu’il aura ainsi détectés, le robot pourra calculer de proche en proche la position dans l’espace de ces points, mais aussi sa propre position. En se promenant dans l’appartement, le robot reconstruira un nuage de points 3D qui constitueront sa représentation du monde, dans laquelle il se localisera et naviguera. Si le robot se promène dans un labyrinthe aux murs courbes (sans coins) et uniformément blancs, il sera incapable de se repérer. Mais il faut bien admettre que ce genre de situation est assez peu fréquent.

Mais si cette méthode est peu coûteuse en termes matériels, elle l’est d’une autre façon : la puissance de calcul nécessaire à de telles opérations est faramineuse. Les ingénieurs ont donc imaginé une troisième solution, non plus métrique mais topologique. En gros, il s’agit d’indiquer son chemin au robot en l’aidant à se repérer grâce à des étapes distinctes et facilement identifiables. À savoir : plutôt que de lui dire « avance de 6 mètres, puis pivote de 90 degrés vers la droite, puis avance encore encore de 2 mètres », on va lui dire « prends le couloir devant toi, ensuite prends le couloir à droite et entre dans la chambre au bout de ce couloir ». Pour résumer, plutôt que d’utiliser des instructions factuelles, on utilise des instructions symboliques. Mais il faut pour cela que le robot soit capable de reconnaître ces éléments topographiques distincts, tels qu’un couloir, une porte ou la devanture d’une boulangerie.

Photo : Alex Knight (via Unsplash)

Il faudra donc constituer une base de données suffisamment large pour que le robot ait des points de comparaison, et qu’il sache que la devanture d’une boulangerie ressemble en général à ça, qu’un hélicoptère ressemble en général à ça et qu’un panneau de signalisation routière ressemble en général à ça. Cette base de données, constituées de millions de photos de boulangeries, d’hélicoptères et de panneaux prises sous tous les angles et dans toutes les lumières possibles, doit être gigantesque pour être efficace. Et même après cela, nous devons l’aider encore un peu.

Vous avez peut-être déjà été confronté à cela lorsque vous faisiez une recherche sur Google : pour « vérifier que vous êtes bien un humain », on vous propose un petit jeu sous la forme panel de photos, et on vous demande d’identifier les carrés dans lesquels se trouvent des panneaux, des hélicoptères ou des façades de magasins. En cliquant sur les carreaux correspondants, vous aidez l’intelligence artificielle de Google à s’améliorer en comparant ses résultats aux vôtres. En somme, vous êtes devenu l’espace d’un instant le professeur particulier d’un robot. À l’instar des écoliers, les robots doivent apprendre de nous avant d’être capables de se débrouiller peut-être un jour seuls.

Dans l’excellente collection des Petites Pommes du Savoir, qui s’attache à rendre la science ludique et accessible, Le robot, meilleur ami de l’homme ? de Rodolphe Gelin est une lecture essentielle pour le néophyte qui, au-delà des fantasmes et des imageries médiatique et culturelle, voudrait prendre la mesure des défis qui accompagnent la recherche robotique contemporaine et des questions éthiques qui les suivent : en 128 pages, le panorama est suffisamment clair et complet pour se faire une solide idée du sujet.

❤️

C’est grâce à la générosité de ses soutiens que Page42 ne comporte aucune publicité et continue d’être régulièrement mis à jour. Vous pouvez soutenir Page42 de façon ponctuelle ou mensuelle via Tipeee, LiberaPay et PayPal. Toutes les contributions sont les bienvenues.

Si cet article vous a plu, faites passer le message et partagez-le sur vos réseaux sociaux.

Page42 propose un récapitulatif hebdomadaire des meilleurs articles du blog. Inscrivez-vous pour le recevoir. Pas de pub, pas de spam, promis.

Bandeau d'illustration : Andy Kelly (via Unsplash)

Fantôme dans la machine: les robots seront-ils un jour capables d’aimer?

Cela fait des millénaires que les humains cherchent à se dupliquer : depuis l’antiquité grecque jusqu’aux cours royales de la Renaissance on retrouve cette volonté de reproduire le vivant, de le copier et d’y transférer une partie de soi: automates à vapeur, mécanismes complexes, androïdes semi-synthétiques sont un eldorado de la science moderne.

“Dans la mythologie grecque, le dieu Vulcain forgeait ses serviteurs dans l’or. Archytas de Tartentum, un mathématicien grec, évoquait dès 400 av. J.C. la possibilité de construire un oiseau propulsé à la vapeur. […] Un peu plus tard, au premier siècle, Hero d’Alexandrie créa les « automatons », dont l’un d’entre eux était, selon la légende, doué de parole. […] Même Léonard de Vinci dessina les plans de robots chevaliers capables de s’asseoir, de bouger les bras, la tête et la mâchoire. Les historiens pensent d’ailleurs qu’il s’agit là de la première ébauche réaliste d’un homme-machine.”

Quant à notre époque, celle-ci est déjà pleine de robots : de Terminator à Battlestar Galactica, en passant par Metropolis, Ghost in the Shell, Isaac Asimov (dont les trois lois de la robotique sont appliquées par les ingénieurs), les Furby et notre propre voiture, nous sommes entourés de pseudo-intelligences informatiques.

Mais si les robots deviennent chaque jour plus habiles, plus précis, plus rapides, ils n’en sont pas moins de dénués de tout affect. Cette subjectivité — cette conscience émotive — est selon de nombreux chercheurs en intelligence artificielle la frontière à franchir pour réellement parler de robots intelligents. Mais pourquoi donner des émotions à des robots? À quoi cela pourrait bien servir que votre grille-pain se mette à être heureux?

Michio Kaku est une star mondiale de la vulgarisation scientifique. Professeur en physique théorique au City College de New-York, il est à l’origine d’un nombre impressionnant d’articles, sur des sujets tels que les supercordes, la théorie du Grand Tout (l’unification des théories recherchée par de nombreux chercheurs comme le Graal de la physique moderne) et la physique quantique en général. Mais il est aussi un auteur à succès outre Atlantique. Chacun de ses livres devient immédiatement un best-seller, et à raison: les opus du scientifique sont de véritables remue-méninges qui méritent qu’on s’y attarde si l’on est un tant soit peu attiré par la prospective. La spécialité de Kaku: les sciences de l’impossible. Mondes parallèles, hyper-espace, voyages dans le temps, intelligence extraterrestre, cosmologie … un véritable voyage onirico-scientifique nous attend à chaque page tournée. Et dans Physics of the Impossible, Michio Kaku réserve un chapitre entier aux robots et plus particulièrement à l’intelligence qu’on souhaiterait les voir revêtir. L’intelligence artificielle, nous sommes plus d’un fan de science-fiction à en avoir rêvé. Car si aujourd’hui, des robots sont capables de gagner des jeux télévisés, de contrôler des systèmes de voirie ou de rouler à la surface de Mars, il leur manque toujours ce petit quelque chose qui ferait d’eux nos égaux. Ce petit quelque chose, ce pourrait être… une palette d’émotions.

L’être mécanique qui rêve de devenir humain et de partager ses émotions est un thème récurrent de la littérature et des arts. Insatisfait de n’être qu’un amas de câbles et d’acier glacé, le robot souhaiterait rire, pleurer et ressentir tous les plaisirs émotionnels d’un être humain.

Les robots, dans bien des tâches, nous surpassent déjà. Mais lorsqu’il s’agit d’apprécier la beauté d’une oeuvre d’art, de faire un dessin ou de montrer de la compassion, ils en sont incapables. La faute aux processeurs qui les équipent, et qui malgré leur degré de sophistication ne leur permettent pas de disposer d’une palette de choix suffisants dans leur réactions possibles. Ce que notre cerveau parvient à effectuer en quelques dixièmes de seconde — capacité d’analyse, ressenti, impression — les connexions neurales d’un robot ne peuvent pas (encore) le reproduire : en guise de comparaison, autant demander à un insecte ce qu’il pense de Shakespeare.

Certains estiment que nos émotions représentent le plus haut de gré de notre humanité. Aucune machine ne sera jamais capable de s’enthousiasmer pour un magnifique lever de soleil, ou de rire à une blague, disent-ils. D’autres pensent que les machines ne ressentiront jamais d’émotions, si l’on considère que les émotions représentent l’apogée du développement humain.

Force est de constater que sur bien des sujets n’impliquant pas le calcul (après tout, les robots ne sont « que » de grandes machines à calculer), nos alter ego de métal ne sont pas plus futés qu’un bébé de 3 mois. Mais cela pourrait changer. Kaku explique que certains scientifiques sont  bien loin de considérer les émotions comme l’apanage des humains seuls. En fait, ils estiment même que les émotions ne sont qu’une conséquence de l’évolution, et non l’inverse. En gros, nous avons développé des émotions uniquement parce qu’elles étaient bonnes pour nous, qu’elles nous aidaient « à survivre dans la forêt, et qu’encore aujourd’hui, elles nous aident à naviguer à travers les dangers de la vie. »

 Par exemple, « aimer » quelque chose est très important du point de vue de l’évolution, car la plupart des choses sont dangereuses pour nous. Au milieu de millions d’objets que nous rencontrons chaque jour, seule une poignée nous est bénéfique. « Aimer » quelque chose permet de faire la différence entre ce qui est bon pour nous et ce qui ne l’est pas : ce qui pourrait nous blesser.

Et Kaku d’expliquer que ce ne sont pas nos muscles ou notre intelligence qui nous ont permis d’accéder aux plus hautes sphères de l’évolution, mais bel et bien nos émotions.

La jalousie est un sentiment important: la survie de nos gènes — et donc de notre espèce— en dépend. C’est pour cela que le sexe et l’amour sont aussi chargés émotionnellement. De la même manière, la honte et le remords sont importants car ils nous aident à apprendre la sociabilité, un atout essentiel dans la construction d’une civilisation. Si nous n’apprenions jamais à nous excuser, nous serions finalement expulsé du clan, condamné à l’exil. Nous dépendons des ressources des autres pour survivre.

Les exemples s’enchaînent, et l’on comprend alors tout l’intérêt de doter ces robots d’émotions : au-delà de leur faculté à calculer, la véritable évolution pour eux consisterait à pouvoir ressentir les choses, plutôt que de les observer.

En d’autres termes, quand les robots atteindront un certain stade d’évolution, nous devrons les doter d’émotions. Peut-être les robots seront-ils programmés pour s’attacher à leur propriétaire, s’assurant ainsi de ne pas être jetés au vide-ordures. De telles émotions pourraient faciliter leur intégration dans la société : ils pourraient devenir de précieux compagnons, plutôt que des rivaux.

Cela parait tomber sous le sens, expliqué comme cela. Ainsi le spécialiste en informatique Hans Moravec pense que les robots seront programmés pour ressentir de la peur. Imaginons que celui-ci se décharge, et que sa batterie doive être rechargée: il pourrait alors, en cas d’urgence (ou de panne locale), aller sonner chez le voisin et expliquer à quel point il serait important pour lui de brancher sa prise.

Le robot “exprimerait” des signes d’agitation ou de panique, des signaux qu’un humain pourrait reconnaître.

Les émotions sont également vitales dans le processus de prise de décision. Prenant l’exemple de certains patients atteints de dommages irréparables au cerveau, les empêchant de ressentir la moindre émotion, Michio Kaku évoque Alain Damasio et l’un de ses patients qui, incapable de ressentir quoi que ce soit, mettait un temps infini pour prendre la moindre décision. Quand on y pense, nous utilisons nos émotions à chaque instant de notre vie. Au supermarché, par exemple : face à un trop grand nombre de choix, nous ne pouvons pas nous en tenir à la pure rationalité.

Lorsque nous faisons du shopping, nous effectuons inconsciemment des jugements de valeur sur tout ce que nous voyons: ceci est trop cher, ceci n’est pas d’assez bonne qualité, cet emballage ne me plait pas, celui-là est trop coloré ou ne m’inspire pas confiance, etc.

Face à une infinité de choix trop rationnels, les robots pourraient vite se bloquer, incapables de déterminer quelque action privilégier. Les doter de subjectivité deviendrait alors nécessaire si l’on ne souhaite pas que la moindre décision, le moindre mouvement, la moindre action ne prenne d’interminables heures de calcul avant de déterminer l’acte le plus rationnel à effectuer. Et Kaku de citer Dostoïevsky:

“Si tout ce qui se trouve sur Terre était rationnel, alors plus rien ne se passerait.” En d’autres termes, les robots du futur pourraient avoir véritablement besoin des émotions pour se déterminer des buts et donner un sens à leur “vie”, ou bien il se retrouveraient paralysés devant une infinité de choix possibles.

Donner des émotions aux robots n’est donc pas qu’un caprice de scientifiques ayant été biberonnés aux épisodes de Star Trek: il pourrait aussi s’agir d’un pas essentiel en direction d’un futur où les robots deviendraient des alliés utiles.

Tout cela, bien entendu, avant l’apocalypse robotique où les machines prendraient le pouvoir. Mais ceci est une autre histoire. En attendant, tous ces sujets (et bien d’autres) sont à retrouver dans Physics of the Impossible de l’excellent Michio Kaku.

❤️

Si Page42 ne comporte aucune publicité et continue d’être régulièrement mis à jour, c’est grâce à la générosité de ses soutiens. Vous pouvez soutenir Page42, de façon ponctuelle ou mensuelle, via Tipeee, LiberaPay et PayPal. Toutes les contributions, même les plus modestes, sont les bienvenues.

 Vous pouvez également soutenir Page42 en partageant cet article sur vos réseaux sociaux.

Page42 propose un récapitulatif hebdomadaire des meilleurs articles du blog. Inscrivez-vous pour le recevoir. Pas de pub, pas de spam. Promis.

Photo de couverture tirée du film Ex Machina d'Alex Garland | tous droits réservés ©

Le nez dans la machine

Elle sort de chez elle, manœuvrant sa poussette d’une main. De l’autre, elle tient son smartphone à hauteur de sa poitrine, écran incliné à 45 degrés de manière à conserver l’environnement immédiat dans son champ de vision, prête à éviter un obstacle ou un tas d’excrément. La poussette cahote, slalome sur les pavés ; elle n’est pas faite pour n’être poussée qu’à moitié. Cela n’incommode pas la femme. Penchée sur sa machine, le regard absent, elle est à la fois ici et ailleurs. Me penchant discrètement par-dessus son épaule, je vois l’interface familière de l’application mobile Facebook. L’enfant se fiche complètement de la semi-absence de sa mère. Il y a de bonnes chances pour qu’il reproduise ce modèle dans quelques années. Continuer la lecture de « Le nez dans la machine »

#23 | Maison close

 

Les dix derniers jours ont été si chargés qu’à écrire ces quelques lignes, mes yeux s’ouvrent et se ferment comme si j’allais m’endormir sur le clavier. Il faut dire qu’après une semaine à Paris (où j’ai appris à des éditeurs en formation à fabriquer un ebook), un détour par la province (où j’ai respiré l’air de la campagne, visité la maison de mon arrière-grand-mère en pleine rénovation et profité de ma famille) et une participation à une table ronde mardi soir, je n’ai pas eu le temps de m’ennuyer. Retour donc à Berlin hier matin, aux aurores et sous la neige, juste à temps pour tout remettre en place et vous proposer la nouvelle de la semaine, intitulée Maison Close, qui portera désormais le numéro 23 dans la chronologie du Projet Bradbury.

cover

Quelques mots à son propos :

Miss A est une femme d’affaires d’un genre un peu particulier : dans un futur proche où les ingénieurs ont doté les robots de sentiments, de besoins et d’envies pour relancer une économie moribonde, son entreprise offre des prestations sexuelles aux machines, cyborgs et autres androïdes. Son business est florissant. Un jour, un homme vient à elle avec une proposition qui, bien qu’inhabituelle, éveille sa curiosité : il s’agit de s’occuper d’un client hors du commun.

Pour écrire cette nouvelle, je suis parti d’une idée simple, mais néanmoins dérangeante : dans un monde où les  machines feraient partie du quotidien, au point que les frontières entre humains et robots deviendraient si tenues qu’elles finiraient par être abolies, tant d’un côté que de l’autre, que se passerait-il si l’on donnait la possibilité à des androïdes de connaître les plaisirs de la chair ? J’ai donc imaginé une spécialiste de la robotique qui décide de se lancer dans le business de la satisfaction des désirs cybernétiques.

Nous vivons dans un monde où l’on nous réduit souvent à notre simple rôle de consommateur. Si la technologie le permettait (voire l’obligeait), et que l’économie le nécessitait, il n’y aurait aucun obstacle à doter des intelligences artificielles de désirs humains. Il a été montré que la prochaine étape vers des intelligences artificielles plus développées était d’équiper les robots de sentiments tels que la peur, afin de les aider à reconnaître et à estimer le danger. En extrapolant un peu, on pourrait aisément se représenter des machines éprouvant de l’amour et du désir. Cynique ? Oui, très. Mais à l’heure où les robots nous sont de plus en plus familiers, il est normal de se poser certaines questions. La supplique de Hal 9000 à Dave dans 2001, l’Odyssée de l’Espace résonne encore à mes oreilles :

Maison close est, comme d’habitude, disponible au prix de 0,99€ chez Kobo, Smashwords, Apple, Amazon et Youscribe. La couverture est signée Roxane Lecomte. Vous pouvez aussi et surtout vous abonner à l’intégralité des nouvelles pour 40€ et devenir mécène du Projet Bradbury. Pour ceux qui ne souhaitent pas s’abonner, une première intégrale du Projet Bradbury a vu le jour. Disponible au prix de 9,99€ dans les librairies cités ci-dessus, elle regroupe les treize premières nouvelles.

Pour passer à un tout autre sujet, j’étais cette semaine l’invitée, avec Camille Domange et Lional Maurel (aussi connu sous le nom de Calimaq) d’une soirée organisée à la Mutinerie (Paris) par le think-tank Without Model, sur le thème des licences ouvertes, de l’open et du libre dans les milieux de l’art et de la culture. J’ai pu ainsi expliquer devant un public attentif le principe du Projet Bradbury et du roman-mail Nemopolis. C’était une soirée très agréable, où j’ai rencontré de nombreuses personnes très sympathiques et intéressantes, ce qui ne gâche rien. Pour ceux, et vous êtes nombreux, qui auraient loupé cet évènement, les organisateurs ont filmé la discussion et l’ont mise sur Youtube. Vous pouvez donc y jeter un oeil. Je passe aux alentours de la 46ème minute, mais les autres intervenants sont tout aussi intéressants, notamment le panorama du libre par Lionel Maurel au tout début. Voici la vidéo :

Je regrette de ne pas arriver à être plus actif sur ce blog, j’aimerais parvenir à poster plus souvent, mais il est vrai que je me complais dans la longueur et que j’aime bien avoir le temps de développer mon sujet. Peut-être devrais-je raccourcir mes articles pour pouvoir vous en proposer davantage ? Qu’en pensez-vous ?

En attendant d’en faire un petit compte-rendu, je suis en train de lire un ouvrage passionnant au sujet des soi-disants surdoués et génies qui ont traversé l’Histoire comme des étoiles filantes. On y apprend de nombreuses choses au sujet des sportifs de haut niveau, des artistes de talent, et plus généralement des gens qui se donnent la peine de travailler dur pour arriver à des résultats probants. Finie, la légende d’un Mozart né avec le don du piano. Les neurosciences expliquent pourquoi le talent n’est pas inné, mais le résultat d’un long apprentissage et d’un entraînement intensif. Je vous le conseille chaleureusement : il s’appelle « The Talent Code » et n’existe malheureusement qu’en anglais pour le moment.

Je vous souhaite une excellente semaine et de très belles lectures.