Knepper examine les émotions derrière l'humain
Lorsque les robots deviendront courants dans nos maisons et nos lieux de travail, comment allons-nous nous comporter avec eux ? Les traiterons-nous avec dignité et respect ou les considérerons-nous comme des citoyens de seconde zone ? Pourrions-nous développer des relations affectives avec eux ?
"Nous, les ingénieurs, avons le devoir de planifier cela", déclare Ross Knepper, professeur adjoint d'informatique. Knepper a abordé la question dans une conférence intitulée "Autonomie, incarnation et anthropomorphisme : l'éthique de la robotique", le 24 avril, dans le cadre d'une série hebdomadaire sur "L'émergence des machines intelligentes : défis et opportunités".
Les robots que nous rencontrerons seront "incarnés" - il y a une machine qui se tient là ; ce n'est pas seulement la voix désincarnée d'une intelligence artificielle fonctionnant dans une boîte. Et ils seront "autonomes", prenant leurs propres décisions sur ce qu'il faut faire : vous ne contrôlez pas la machine avec un joystick. (Ce n'est pas le libre arbitre, a souligné Knepper ; puisque le robot suit sa programmation, ce que vous voyez est une "opération humaine décalée dans le temps".)
Mais à la suite de cette combinaison, nous nous anthropomorphisons, répondant au robot comme s'il était humain.
Knepper a construit de petits robots qui assemblent des meubles Ikea. Une partie de leur programmation consiste à demander de l'aide à un humain en cas de besoin : "Veuillez localiser le numéro de pièce F-13." Il a découvert que lorsque cela se produit, les visiteurs de son laboratoire conversent avec les robots comme s'ils étaient de jeunes enfants.
Certaines personnes peignent des visages sur leurs robots aspirateurs Roomba. Les robots en forme de chiens ou d'animaux en peluche suscitent parfois les mêmes réactions que les vrais animaux.
L'éléphant dans la pièce s'avère être des robots sexuels (récemment introduits au Japon). Dans les sondages, beaucoup de gens pensent que c'est une bonne chose, pour réduire la prostitution et empêcher la propagation des MST. Mais la plupart s'accordent à dire que ces robots ne doivent pas exprimer d'émotions.
Quels que soient les types de robots impliqués, nous pouvons nous retrouver dans la "vallée de l'étrange" - souvent une préoccupation des réalisateurs de films d'animation - où quelque chose qui semble très proche de l'humain mais pas parfait suscitera un malaise voire une répulsion.
Knepper a commencé avec la vidéo actuellement virale d'une petite fille parlant à un chauffe-eau, pensant que c'était un robot. Elle finit par l'embrasser. Mais ensuite, il y a eu le "Hitchbot", un robot qui a été envoyé pour essayer de faire de l'auto-stop à travers les États-Unis mais qui a fini par être vandalisé. "Une expérience sur l'humanité qui a échoué", a déclaré Knepper.
L'avenir peut dépendre de la façon dont les ingénieurs enseignent aux robots à se comporter, mais l'essentiel, a déclaré Knepper, est : "La façon dont nous traitons les robots reflète la façon dont nous traitons les gens."
Pas seulement un problème pour les ingénieurs.
La série de conférences, bien qu'ouverte au public, fait partie d'un cours, CS 4732, "Enjeux éthiques et sociaux en IA".
Recevez les nouvelles de Cornell directement dans votre boîte de réception.