Wednesday, November 30, 2011

Stuff Magazine de Novembre : le robot est une créature mythique

J'ai le plaisir d'être quasi côte à côte avec les jolies jeunes femmes dans le dernier numéro de Stuff Magazine (n. 115 de Novembre). Outre l'intéressant dossier sur les tablettes (elles deviendront, avec les smartphones, les principales plateformes grand public d'ici quelques années, ce qui préfigure de nombreux changements dans les usages et dans la hiérarchie des systèmes d'exploitation...), vous trouverez également un dossier sur "le monde des robots" auquel j'ai humblement participé. Celui-ci contient un entretien instructif avec Bruno Bonnell et un interview de votre serviteur. Vous pouvez lire cet interview sur mon site personnel, mais je vous recommande plutôt l'achat de la revue pour toutes les raisons que j'ai évoqué....

Sunday, November 13, 2011

Robots war : bientôt une réalité

Les experts militaires évoquent une véritable "révolution". La robotisation du champ de bataille s'accélère. La technologie est mûre pour bouleverser la guerre : car la perspective, désormais à portée, est celle d'une automatisation de l'usage de la force, de l'acte de tuer. Seraient balayées les lois de l'écrivain Isaac Asimov exigeant qu'un robot ne puisse porter atteinte à un être humain et doive obéir aux ordres qu'il lui donne. Les démocraties l'accepteront-elles ? Les milieux de la défense sont, eux, déjà en plein débat, comme en ont témoigné les militaires, chercheurs et industriels qui se sont réunis pour un colloque international aux Ecoles de Saint-Cyr, les jeudi 9 etvendredi 10 novembre, à Coëtquidan (Morbihan).
Une ligne jaune vient d'être franchie en France, comme elle fut plus récemment aux Etats-Unis ou en Israël. Sans oser le dire, les armées ont, en 2011, admis le principe du robot armé, du robot tueur, voire du robot suicide. Le langage employé, "robots effecteurs", témoigne d'un embarras moral. Il ne s'agit plus seulement de donner la mort à distance, ce que font déjà de nombreux soldats, pilotes de chasse, opérateurs de drones ou de missiles guidés. (Source Le Monde, article complet : Avec les robots guerriers la guerre va changer de visage).

Saturday, November 12, 2011

Amazon envisage aussi la reconnaissance vocale et l'IA

Amazon a racheté Yap, une start-up spécialisée dans la reconnaissance vocale. Yap éditait notamment une application Android et iPhone pour transcrire des messages dictés en messages textes. Depuis le lancement de l'iPhone 4S qui contient une application de recherche vocale doublée de capacités d'intelligence artificielle (Siri), la reconnaissance vocale est le nouveau secteur chaud du moment.
Récemment, le président de Google Eric Schmidt a qualifié Siri de "développement significatif" dans le secteur de la recherche. Google, qui propose lui-même des services de recherche vocale qu'il a d'ailleurs améliorés dans la dernière version de son système d'exploitation Android (Ice Cream Sandwich, que l'on retrouvera dans le Samsung Galaxy Nexus).
Aujourd'hui, tous les grands noms du mobile, dont Samsung, qui en fait un axe important de recherche pour 2012, bûchent sur les technologies de reconnaissance vocale et les services associés.
Comment Amazon exploitera-t-il Yap ? Amazon a annoncé sa tablette, le Kindle Fire, pour le 15 novembre. Elle est considérée comme un concurrent sérieux pour l'iPad et les tablettes Android. Yap s'intègrera certainement à la prochaine version du Kindle Fire, tout comme Siri devrait apparaître sur le prochain iPad. Amazon a les infrastructures nécessaires, en termes de cloud computing, pour faire tourner un logiciel comme Siri, qui on le rappelle ne fonctionne que lorsque l'iPhone est connecté au web (Siri passe par les serveurs d'Apple pour gérer les requêtes et trouver les réponses sur internet).
En rêvant un peu, on peut imaginer les applications du futur de la reconnaissance vocale, pour un site comme Amazon : pouvoir chercher un dialogue, par exemple, ou les paroles d'une chanson, dans la gigantesque base de films et de disques du site... (article paru sur lesoleil.sn).

Monday, October 17, 2011

Invité de "La tête au carré" sur France Inter mercredi : Metropolis

J'aurai le plaisir d'être l'un des invités de l'émission "La tête au carré" animée par Mathieu Vidard sur France Inter mercredi prochain (19 octobre) de 14H00 à 15H00. Le thème de l'émission sera centré sur le film culte de Fritz Lang (1927) : Metropolis.
Metropolis a été soigneusement restauré à plusieurs reprises durant les années 1980 et 1990, mais il manquait toujours des scènes importantes, disparues lors des remontages opérés à l’époque pour raccourcir le film. En 2008, un miracle se produit : une  version du film dans son métrage d’origine est découverte au Museo del Cine de Buenos Aires. Quasiment tous les plans manquants de  Metropolis subsistent désormais, et le film de Lang restauré a retrouvé presque tout son sens originel. Il est désormais disponible en Blu-Ray et DVD.
À l'occasion de cette sortie, la cinémathèque a réalisé une exposition à ne pas manquer sur ce film mythique inscrit au patrimoine de l'humanité par l'UNESCO.
L’exposition permettra du 19 octobre au 29 janvier prochain de découvrir le film à travers son scénario, du prologue dans la cité moderniste à la scène finale dans la cathédrale. Les six grandes séquences du film (La Cité des Fils ; La Ville Ouvrière ; La Ville Haute ; Le Laboratoire Rotwang ; Les Catacombes ; La Cathédrale) servent de parcours et sont illustrées par des projections et des pièces uniques : dessins originaux des décorateurs, robot de la « femme-machine », costumes, appareils, photos de plateau…
Metropolis, c'est en effet non seulement cette oeuvre magistrale où la cité est le personnage central, mais c'est aussi le premier véritable "robot" du cinéma qui influencera ensuite notre regard sur les créatures artificielles. Et ce n'est pas C3PO qui me contredira... Il a bien un air de famille, non ? À mercredi!

Sunday, October 09, 2011

L'IA au coeur de l'interface utilisateur de l'iPhone avec SIRI


Alors que les commentateurs s’interrogent sur la survie d’Apple après le décès de Steve Jobs, la firme à la pomme propose a priori une « simple » évolution de l’Iphone 4. Nombreux ont été déçus par cette annonce en demi-teinte alors qu’ils s’attendaient à un iPhone 5 débordant de nouveautés, en hommage au départ sans retour possible de leur gourou. Pour ma part, je pense que l’évolution dans cet iPhone 4S n’est pas décevante, elle est au contraire extrêmement ambitieuse et prometteuse pour la suite. Je ne parle pas ici du double cœur plus rapide ou de l’amélioration de la résolution du capteur, mais bien de l’arrivée en Beta de l’assistant personnel Siri.
De mon point de vue, il ne s’agit pas uniquement d’un simple système de commandes vocales, plutôt déceptifs, tel que l’on peut en avoir sur la plupart des smartphones. Il s’agit d’une interface intelligente qui préfigure les agents intelligents (IA) qui seront répandues sur tous nos terminaux mobiles d’ici quelques années. Mais d’où vient donc Siri ?
À l’origine, il s’agit d’un projet en IA appelé IRIS (Integrate, Relate, Infer, Share.) qui faisait partie du programme de recherche CALO (Cognitive Assistant that Learns and Organizes) financé par les militaires, mené par l’équipe d’Adam Cheyer au SRI (Stanford Research Institute) en Californie.
L’idée centrale est de réaliser un « Do Engine » plutôt qu’un « Search Engine » en agrégeant un ensemble d’applications pré-existantes autour d’un « cœur » intelligent sémantique. Les utilisateurs peuvent alors taper des commandes au clavier ou poser une question vocalement et le logiciel interprète leur intention en s’aidant du contexte grâce aux données disponibles sur le téléphone, comme la liste des contacts ou la localisation GPS. La fonction de reconnaissance vocale est assurée par la technologie de la société Nuance, reconnue comme l’une des plus efficaces. Néanmoins, celle-ci trouve rapidement ses limites en environnement bruité.
En parallèle avec les travaux de recherches, Adam Cheyer a créé une start-up avec quelques collègues pour commercialiser une version grand public du prototype de recherche, la technologie de base étant sous licence SRI. Un test de la version 1.0 de Siri était déjà possible l’année dernière avec un iPhone d’ancienne génération, en téléchargeant l’application sur l’Apple Store (image ci-contre). Depuis, Apple a racheté la start-up d’Adam Cheyer pour intégrer la technologie Siri au cœur de l’interface utilisateur de l’iPhone.
Certain pensent qu’il ne s’agit là que d’un ajout pour combler le vide sidéral des améliorations de l’iPhone 4S. Je ne suis pas de cet avis. Au départ, Apple était certes une entreprise de Hardware, puis elle s’est distinguée rapidement par son système d’exploitation et son approche utilisateur. Aujourd’hui c’est avant tout une entreprise où l’innovation technologique est essentiellement guidée par le design et l’ergonomie. Mettre au coeur de l’iPhone et de l’iPad un agent intelligent pour améliorer l’interface utilisateur est donc tout à fait dans la direction stratégique qu’a insufflée Steve Jobs. D’ailleurs, pour s’en convaincre, il suffit de consulter quelques uns des brevets déposés par l’entreprise qui visent à verrouiller le domaine des améliorations à venir. À suivre

Monday, September 26, 2011

Journées de la Chaire Modélisation des Imaginaires Télécom ParisTech

Les 5 et 6 octobre prochains se tiendront à Telecom ParisTech les journées de la Chaire "Modélisation des Imaginaires" consacrées aux Robots et Avatars.
Outre les experts issus des laboratoires industriels de Dassault Systèmes, Orange Lab, Ubisoft, PSA et Alcatel Bell Labs, les intervenants ci-dessous ont confirmé leur participation: Jean-Michel Besnier  (Philosophe, Paris IV, auteur d’ouvrages sur le post-humanisme) ; Bruno Bonnell (Robopolis, auteur de  « Viva la  robolution ! »)  ; Jean-Claude Martin et Christian Jacquemin (LIMSI, Unité CNRS associée à UPMC et Paris XI) ; Laurent Gille (Télécom ParisTech) sur la question de la valeur et du signe en lien avec la représentation ; David Le Breton (Sociologue, CNRS Strasbourg) sur l'anthropologie du corps ; Brigitte Munier sur la Perspective SHS et un panorama sur les robots, l’imagination et l’imaginaire ; Catherine Pelachaud sur une perspective technologique et un  panorama sur les avatars et les interactions émotionnelles ; Nadia Berthouze (UCL Computer Science, Université de Londres) sur l’interaction émotionnelle ;  Philippe Gaussier (ETIS, Université de Cergy-Pontoise) sur l’autonomie.
Pour ma part, j'interviendrai sur une perspective historique et prospective des Robots & Avatars. Voici un bref résumé de mon intervention :
Les créatures artificielles androïdes ont toujours été les icônes fantasmatiques des technologies de pointe, voir de notre conception du monde. Elles représentent un domaine où s’entremêlent recherches scientifiques et imaginaire débridé. Dans cette boucle étrange, il est souvent difficile de séparer la réalité de ce qui relève d’un mythe aux racines profondes. Dans cette conférence, nous rappellerons brièvement leur histoire, depuis les origines jusqu’à l’horizon d’un avenir probable. Cette mise en perspective nous aidera à mieux cerner les limites épistémologiques des recherches actuelles et le décalage de leurs représentations dans l’imaginaire.

Sunday, September 25, 2011

Autour de la question sur RFI mardi 27 Septembre : les cyborgs !

Pour ceux qui n'ont pas eu la chance de participer à la superbe soirée de lancement du jeu DEUS-EX Human Revolution (Square Enix - Eidos Montreal), nous remettons cela sur RFI mardi 27 septembre de 11h10 à 12h00. Nous continuerons en effet le débat sur les cyborgs dans l'émission "Autour de la question" animée par la journaliste Caroline Lachowsky. Autour de la question est un magazine scientifique et technique hebdomadaire qui aborde l'actualité des sciences et des nouvelles technologies. En plus d'Ariel Kyrou et moi-même, il y aura évidemment des interactions avec les concepteurs du jeu. Alors... à mardi sur RFI!

Friday, September 16, 2011

Conférence Jeu Vidéo & Marketing : le futur est au rendez-vous !

Le vendredi 23 septembre 2011, de 8h30 à 17h00, se tiendra au Pôle Universitaire Léonard de Vinci, la première conférence professionnelle sur le jeu vidéo et le marketing et plus spécialement sur ce qu'il convient d'appeler les "advertgames". Dans ce contexte, j'animerai une table ronde sur le thème des applications innovantes et du futur avec : Nicolas Gaumes (Mimesis Republic), Jean-François Rodriguez (Orange), Arnaud Machus (Péléo Entertainment) et Olivier Lejade (Mekensleep).Voici un résumé introductif du thème de nos débats :
Même si l’on écarte les délires fantasmatiques de certains techno-prophètes, il semble néanmoins évident qu’Internet, et plus généralement les réseaux de communication, évoluent progressivement vers une forme de « cybersphère ». Dans cette vision prospective, les hommes  sont constamment connectés par le biais de terminaux portables et d’interfaces proches du corps ; l’ensemble des systèmes, machines, véhicules, et la plupart des objets sont également connectés et géolocalisés. La cybersphère n’est donc plus un « simple » monde virtuel, elle se superpose au monde physique et devient une partie de la réalité. On parle alors d’environnement « pervasif » (un anglicisme dérivé du latin pervasus s’étendre, s'insinuer, se propager, pénétrer, etc.). Il semble également probable que cet océan informationnel deviennent un écosystème peuplé d’avatars, d’agents intelligents et autres créatures virtuelles.
Peut-on percevoir dans les applications innovantes d’aujourd’hui la confirmation de cet horizon ? À quelle échéance ? Quels seront les modèles et les « advertgames » du futur ?

Friday, August 26, 2011

DEUS-EX Human Revolution : soirée de lancement

Très belle soirée de lancement hier de Deus Ex – Human Revolution de Square Enix – Eidos Montréal dans le cadre prestigieux du cinéma Max Linder sur les Grands Boulevards à Paris. Près de 300 personnes ont été invitées pour l'occasion : la Presse et les bloggeurs bien évidemment, mais aussi un bon nombre de joueurs fan de la série des Deus Ex.
Après les trailers d'usages et avant la démo live du jeu, j'ai participé à une table-ronde sur le thème central du jeu : le transhumanisme et plus spécifiquement l’augmentation des capacités humaines par des implants cybernétiques et des prothèses mécatroniques. Les protagonistes étaient : David Anfossi – Producer et Jean-Francois Dugas – Game Director du côté de l’équipe de développement Eidos, mon ami Ariel Kyrou et moi-même du côté des spécialistes de ce thème. Le débat a été animé par Emmanuel Forsans – Directeur Général de l’Agence Française pour le Jeu Vidéo. Les photos de l’évènement peuvent être vues sur le site de l’AFJV.
Le débat a été très stimulant. C’est d’ailleurs une première d’inviter un scientifique et un philosophe pour débattre avec les concepteurs d’un jeu lors de son lancement officiel. Merci à Nathalie Lepori pour cette initiative ! Parmi les bons moments du débat, citons les inévitables tirades humoristiques d’Ariel (mais toujours confondantes dans leur profondeur de sens) : « L’homme augmenté est aussi un homme diminué », « la chèvre augmentée », « les coureurs augmentés de la grande boucle », « la réalité n’est pas augmentée, c’est l’homme qui l’est », etc.

 

Thursday, July 28, 2011

DEUS-EX Human Revolution : demain tous cyborgs?

Le 25 août prochain, je participerai, avec mon ami philosophe et écrivain Ariel Kyrou, à une table ronde avec le game designer et le scénariste du jeu Deus-Ex Human Revolution (Eidos - Square-Enix). En effet, le thème central de ce jeu très attendu est l'augmentation des capacités humaines. Nous aborderons au cours de la table ronde la faisabilité technologique et les aspects éthiques de ces prothèses. En attendant, visitez le site de la vraie fausse entreprise Sarif Industries qui donne le ton du débat passionnant que nous allons avoir! Impressionnant!

Monday, June 06, 2011

Des avatars au festival d'astronomie de Fleurance

C'est déjà l'été ou presque. Cette année, je participerai au  21ème Festival d'Astronomie de Fleurance qui se déroulera dans le Gers du 6 au 12 août à la Ferme des étoiles. Dans un cadre enchanteur, nous pourrons participer à un très riche panel d'activités scientifiques et de découvertes : un  « marathon des sciences », des cycles de conférences et de formations pour tous niveaux, des ateliers pratiques, des soirées d'observation, des animations et j'en passe. Il y aura des invités de prestige, comme Hubert Reeves pour ne citer que lui, qui ne manquera pas de nous faire rêver avec son talent de conteur.
Personnellement, j'interviendrai lors de la journée d'ouverture dans le cadre du "marathon des sciences." Nous aborderons ensemble le sujet des mondes virtuels et plus précisément celui des avatars :
Depuis le film de James Cameron, les avatars suscitent un engouement médiatique sans précédent. Le concept d'avatar est pourtant très ancien et revêt de multiples formes. L'une des plus connues est celle de ces « marionnettes numériques » qui permettent de s'immerger dans les mondes virtuels comme Second Life et les jeux vidéo. Dans cette conférence, nous rappellerons l'origine et l'histoire des avatars jusqu'aux conceptions les plus modernes. Nous décrirons les principales formes de créatures virtuelles qui s'inspirent de l'humain. Enfin, nous tracerons les tendances d'un avenir symbiotique où l'humain et ses avatars, le réel et l'imaginaire se mêlent.

Friday, May 27, 2011

Useless Turing Test

In 1950, Alan Turing proposed a general procedure to test the intelligence of an agent known as the Turing test (TT). The idea was to talk in natural language using a computer screen and a keyboard to one machine and one human. All participants are separated from one another and cannot see the other ones. After an arbitrary amount of time, if the “judge” cannot reliably make a difference between the answers of the human and the machine, then the machine is said to have passed the test. In this case, Alan Turing concluded that the machine is as intelligent as the human and, moreover, that the machine is able to think in the same way that humans do.
There have been a huge number of philosophical debates about the validity of the TT. One of the main detractors was John Searle who proposed a strong argument against the TT known as the "Chinese room" thought experiment. Searle argued that an agent could pass the test simply by manipulating symbols of which they had no understanding. Without this understanding, an agent could not be described as "thinking" in the same sense people do. In turn, John Searle’s argument was widely criticized.
One crucial parameter is the time of the test. Shorter the test is, easier the machine could pass the test. Also, if the conversation covers a large number of fields and topics, the challenge is far more difficult than focusing on a specific problem, such as a particular chemistry expertise for example.
Another problem with the TT is that the “judge” knows that there is a machine. As a consequence, his behavior is very different compared to a natural conversion between two or more people. Most of the time, the “judge” tries to trick the machine using nonsense or unnatural sentences. Sometime, we have also seen some people involved in this kind of test trying to imitate the machine…
My conclusion is that the TT is definitely not a good procedure for testing intelligence. A better way could be a procedure with multiple people involved in a natural conversation for a given amount of time where participants don’t know that one of them is a computer program. This could be done using an existing forum or a chat system for example. Then, after the test, we could analyse the log file to state about the result. This way is far more close a real application. To be clear, I don’t speak here about useless contests or prizes, but about useful experiments for researchers and developers.
Anyway, even if successfully passed, the conclusion of this kind of test cannot be any sort of equivalence between the human brain and the machine…

Friday, May 06, 2011

Demain les robots

J'aurai le plaisir, jeudi prochain, de participer avec deux collègues roboticiens, Benoît Girard et David Janiszek, à la conférence grand public "Demain les robots" organisée par l'association Science Ouverte à Drancy (voir affiche ci-jointe pour plus d'information).
De 13h30 à 17h00, il y aura une animation pour les collégiens, qui se poursuivra ensuite jusqu'à 19H00 pour le public. La conférence débutera à 20h00. Pour ma part, je débuterai la conférence parun panorama historique et culturel de l’émergence des robots et des avatars puis je dresserai quelques perspectives pour le futur. Benoît Girard nous parlera des robots bio-inspirés et nous présentera le robot-rat Psikharpax. David Janiszek fera quant à lui une démo de Nao, pour montrer ses possibilités et ses différentes utilisations. Venez nombreux!

Saturday, April 30, 2011

The Media Equation and Artificial Creatures

I want to make a short comment about “The Media Equation” from Reeves and Nass* since it has many implications for the design of artificial creatures.
Their theory claims that humans are social animals that come from their evolution history: they interact following the rules of interpersonal communication even if the interaction is not with a person (anthropomorphism). In other words, they tend to respond to media as they would another person like by being polite, cooperative, and attributing a personality type.
*Byron Reeves & Clifford Nass, The Media Equation: How People Treat Computers, Television, and New Media like Real People and Places, Cambridge University Press (1996).

More precisely, the media equation relies on eight main propositions:
(1) Everyone responds socially and naturally to media.
(2) Media are more similar than different.
(3) Reactions occur automatically without conscious effort.
(4) When using any type of media, a person is likely to assign it a personality.
(5) What seems true is more important than what is true.
(6) People respond to what is present.
(7) People like simplicity.
(8) People already know how to function in the natural world (be polite, etc.).

From my experience, I think this is also true for artificial creatures. It appears to me that the Media Equation is a good guide for creating interacting characters. It does not contain all the rules, but these ones are important.


Des agents conversationnels à la Société Générale

J'ai participé mercredi à la rencontre organisée par Pacte PME à la Société Générale (La Défense) en tant qu'expert sur le thème de l'IA et du langage naturel. Le thème central était plus précisément celui des agents conversationnels et de leurs applications. Quatre entreprises invitées ont présenté leur offre produits et services à une assemblée composée d'une quarantaine de cadres du groupe : Davi Interactive, Dialonics, Spirops et Zenvia. Je connaissais bien Spirops puisque son créateur, Axel Buendia, a développé la version initiale de sa technologie dans le cadre de sa thèse au laboratoire de l'IIM. Je connaissais moins bien les trois autres acteurs, mais ils ont ensemble démontré la vivacité des PME françaises sur ce sujet. Après les présentations, une table ronde de quatre experts, deux du groupe Société Générale, et deux externes (dont votre serviteur) ont réagis aux présentations des entreprises et répondu aux questions du public. Comme l'a souligné fort justement l'un des participants à cette rencontre, il serait nécessaire que les PME spécialisées sur ce sujet prometteur fassent cause commune plutôt que de luter les unes contres les autres sur un marché encore émergent. Leur taille étant généralement assez réduite, elles ne pourraient que profiter d'une alliance ou d'un regroupement qui rendrait plus crédible leurs offres (souvent complémentaires) auprès des grands comptes.
Le second thème était celui de l'Internet des objets avec d'autres entreprises et experts. Pour ma part, j'aurai bien liés ces deux sujets, car je pense que l'avenir est aux objets "vivants", autonomes et intelligents, capables de dialoguer avec les utilisateurs en langage naturel.

Wednesday, April 20, 2011

Complex Artificial Intelligence at Erice

Following my previous post on an extended version of Uncanny Valley applied to the study of complex systems, I want now to explain with more details my new approach to Artificial Intelligence. I've called this approach "Complex Artificial Intelligence".
There have been numerous models of intelligence. The field of AI has been one of the most prolific since its birth in the middle 1950s. We can roughly class them in four categories:
Symbolic AI: In the early years of AI, most models were based on the theory that human intelligence could be reduced to symbol manipulation. The main outcome of this approach was the development of expert systems based on rule inference and symbolic processing.
Neuron-based AI: The study of artificial neural networks began in the decade before the field AI research was founded. It was based on a formal model of the neuron cell in the form of a simple threshold automaton. Researchers focused on elaborating different types of neural networks and their related learning algorithms. Pattern recognition is the main application field for this approach.
Reactive AI: In the 1990s, behavioral robotic architectures and Artificial Life focused on “intelligence without representation” instead of the classical symbolic computational models. The idea was to work on bio-inspired adaptive systems addressing their basic perceptual and sensorimotor tasks.
Distributed AI: During the same period of time, many projects were dedicated to the development of Distributed Artificial Intelligence and Multi-Agent Systems. The key concept is the abstraction called a software agent: a virtual autonomous entity that has an understanding of its environment and acts upon it. An agent communicates with other agents to achieve a common goal, that one agent alone could not achieve.
While taking advantages of the previous ones, Complex AI considers machine intelligence as a global property that emerges from the large amount of non-linear interactions between numerous small software agents and the environment at the edge of order and chaos.
In the workshop “Image In Action” at Erice (Sicily), I have illustrated this approach using three models: (1) a generalized Game of Life Cellular Automata showing the emergence of complex behaviors at the edge of chaos; (2) the emergence of simple “intelligent” behaviors in the evolution of species in the Lifedrop virtual world; and finally the “schizophrenic” model of the Ms House experiment using EVA (Evolutionary Virtual Agent). Ms House is an intelligent character composed of multiple distinct personalities. Each individual personality is implemented as an autonomous bio-inspired nano-agent which is able to react to the user’s input by computing an appropriate message. A coherent identity emerges from the interactions between these nano-agents and the user at the edge of order and chaos. Ms House is composed of near 30 different personalities at this time. Our goal is to have a swarm of over 100 personalities in the near future.

Friday, April 08, 2011

The uncanny valley and complex systems

In two weeks I will make akeynote speech at the "Science: image in action", the 7th International workshop data analysis in astronomy at the Ettore Majorana Foundation and Centre for Scientific Culture in Erice, Italy.
The title of my talk is "Reality, models and Representations: the case of Galaxies, Intelligence and Avatars." I will present three different case studies: the modeling of colliding galaxies in astronomical research, the modeling and simulation of human intelligence in computer science, the creation of digital avatars in computer graphics. I will clarify the relationships between reality, models and representations using a semiotic approach based on the classical triangle of references. I will show that visual representation is as important as the modeling and that there is no possible equivalence between the real phenomena and its model and representation for complex systems.
The main reason is a “complexity barrier” between the real phenomenon and its synthetic counterpart. This barrier is due to the huge difference in terms of quantitative and qualitative complexity. In addition, I think that the “uncanny valley” problem, originally formulated by M. Mori (see figure) for humanoid robots, can be generalized to all modeling and simulation of complex systems. The importance of details in visual representations and behaviors increases exponentially when it becomes close to the one of a real phenomena. In other words, if a very small detail can transform an empathic avatar into a monster, it can also substantially decreases the benefits of a model and its representation.

Monday, March 28, 2011

Japan asks: Where are our robots?


Inside a nondescript warehouse south of Mannheim, Germany, a dozen robots, ranging in size from a low-slung inspection bot no bigger than a toy wagon to a 22-ton Caterpillar excavator, stand ready to respond to a nuclear emergency. With their electronics hardened to withstand radiation, the versatile machines can handle fuel rods as well as monitor doses that would kill a human engineer.
A similar robotic quick-response squad is housed near the Chinon nuclear power plant in France. But in Japan, where the Fu­kushima Daiichi nuclear crisis drags into its third week, the question is: Where are the robots?
The answer is disquieting, say Japan’s top roboticists. Instead of building robots that go where humans never could, this country renowned for its robotics expertise invested in machines that do things that humans can already do — like talk, dance, play the violin and preside over weddings.
“The government believed this accident wouldn’t happen,” said Hirose Shigeo, a robotics researcher at the Tokyo Institute of Technology. “Most of the robot experts are concentrating on humanoid [robots] and home use.”
“We should have focused on response and disaster-mitigation robots,” said Satoshi Tadokoro, who builds search-and-rescue robots at Tohoku University in Sendai. “The Ministry of Economy, Trade and Industry did not do that. The [power] companies did not do that. It is very strange and inappropriate.”
After a 1999 accident at a nuclear fuel processing facility in Tokai in which two workers died from radiation exposure, the Japanese government and the company operating the facility began developing radiation-resistant robots. But after a year, the trade ministry halted the project, said Shigeo and Tadokoro.
Another Japanese agency, the Nuclear Safety Technology Center, constructed two robots equipped with cameras and hazardous-materials monitors. One, called Monirobo, was dispatched to Fukushima last week, according to Japanese news reports. But representatives of Tokyo Electric Power Co., which operates the Daiichi facility, aren’t saying how, or even whether, the robot is being used on-site.
The need for robots that can withstand high radiation was made even more evident over the weekend after two workers at Daiichi were hospitalized after wading in radioactive water. Robots sent to the site early in the crisis could have guided key decisions by providing vital data on damage to the facility’s reactors and adjacent pools of used uranium fuel.
Instead, official statements from Tepco convey uncertainty about the extent of damage. And the International Atomic Energy Agency has repeatedly pushed for better information.
Shigeo said a robot developed in his lab, called Helios IX, could fill the reconnaissance niche. The machine can climb stairs, open doors, and monitor temperature and radiation. If its cameras aimed at the spent fuel pools, they could show whether water cannons operated by ground crews were refilling the pools or simply splashing streams onto the floor.
After the crisis began more than two weeks ago, Shigeo upgraded the radio communications on Helios IX so it can be guided from longer distances and through the heavy concrete of the Daiichi plant. So far, though, no one has requested his help — or that of his robot.
Another reconnaissance robot, built by Tadokoro and named Quince, may be called into action. The Tokyo Fire Department, which has sent vehicles and workers to Daiichi, is evaluating how the low-slung, tank-tracked machine could assist, Tadokoro said.
American robots are being enlisted as well. A Massachusetts company, iRobot, known for its Roomba vacuum cleaners, sent four of its heavier-duty robots to Fukushima, said Joseph W. Dyer, the company’s chief operating officer. Citing the sensitivity of the situation, Dyer declined to discuss which operations the robots might be involved in or whether the Japanese government had requested the shipment.
On Friday, a spokeswoman for the Department of Energy said the agency was evaluating its robotic inventory at the request of the Japanese government. The department has built several remotely operated robots to clean up radioactive waste from former nuclear-fuel processing facilities at its Hanford Site in Washington state and Savannah River Site in South Carolina.
Despite these investments, France (which derives about 80 percent of its electricity from nuclear power), and Germany (25 percent) are the only countries with at-the-ready robots designed for nuclear disasters. The nuclear power industry in each country has funded the operations for decades.
In the United States, the government and the nuclear industry have instead been reactive, building a handful of robots for specific nuclear tasks — but only after accidents.
Four years after the 1979 Three Mile Island crisis in Pennsylvania, the team tasked with cleaning up the mess tapped a robotics pioneer at Carnegie Mellon University, William L. “Red” Whittaker. Whittaker’s lab quickly built two robots that provided the first views of the damaged reactor. One of the machines ultimately spent four years chewing on the building’s irradiated concrete walls, sucking up radioactive water and scooping up partially melted uranium fuel.
After that success, Whittaker co-founded a company called RedZone Robotics, which in 1998 built a robot for the Chernobyl disaster in the Ukraine. But a few years later the company abandoned the market, said chief executive Eric C. Close. “It’s very hard to have a business model that waits for nuclear disaster,” he said. RedZone instead builds snake-like robots that navigate and maintain sewage pipes.
Tadokoro said that after Japan’s 1999 nuclear accident, regulatory officials and the country’s power companies discussed developing a robot response squad like those in Europe. It never happened.
“A decision was made not to invest,” Tadokoro said. “It’s very frustrating.”

Has religion influenced the cultural acceptance of robots?

From Wired's blog : The Japanese are more accepting of robots because they don't suffer from the Judeo-Christian guilt or fear associated with making idols, according to Jean-Claude Heudin, a researcher at the University of Paris.
He explained to Wired.co.uk that because of Exodus 20 ("You shall not make for yourself an image in the form of anything in heaven above or on the earth beneath or in the waters below", i.e. no idols) many Westerners see the creation of life or something as lifelike as a robot as a transgression of some sort of moral law. For that reason we have scary iconic figures such as Dr Frankenstein's monster and Golem (of Jewish folklore, not LOTR, fame) and frequent Hollywood robot horror movies such as Terminator to pollute our attitudes towards robots.
Heudin says: "That explains a bit culturally why the first impression about this technology is one of anguish, unlike our Japanese contemporaries where robots are viewed as a companion of life or the saviour of humanity."
Fujiko Suda, the Japanese founder of Project Kobo, agreed with Heudin, talking of a culture of Japanese accepting robots as friends. When asked why a lot of robotic innovation was coming from Japan and Korea rather than Europe and the US, she responded: "I think it's that religious difference. In Japan we don't have this one god who created mankind. When you create robot it can feel too godlike. We have eight million gods. God is in everything. So if you have a human-shaped robot, it's just another thing in nature that we work with. We're not afraid of it. "
It is certainly true that Japan has the world's highest use of industrial robots and that it specialises in humanoid types. However, there are no major studies that support this hypothesis. So while it's certainly an interesting theory, it will have to remain as such until it is scrutinised more scientifically.

Friday, March 25, 2011

Innorobo : une réussite avec plus de 5000 visiteurs

Voila, Innorobo c'est fini pour cette année. Malgré mon appréhension au départ sur la réussite d'un tel projet, je dois bien reconnaître que c'est un franc succès. Plus de 5000 visiteurs ont en effet participé à l’évènement qui s'est déroulé à Lyon du 22 au 25 mars. Sur l'espace d'exposition, on pouvait rencontrer près de 80 sociétés exposantes provenant de 12 nationalités différentes et voir plus de 100 robots en démonstrations dont une trentaine étaient montrés pour la toute première fois en Europe. Personnellement, j'ai eu un faible pour le robot Jazz de la société française Gostai, même si l'équipe sur place, très compétente techniquement, manquait encore de réflexes commerciaux de base...  Côté conférence, la qualité était au rendez-vous avec un panel d'orateurs sélectionné par la sympathique équipe de Robolift. Merci à eux de m'avoir permis de présenter lors de cette conférence ma vision de l'Intelligence Artificielle basée sur les sciences de la complexité. J'ai appelé cette approche "Complex Artificial Intelligence". J'ai montré sur mes exemples favoris (automates cellulaires, Lifedrop, Ms House) que l'intelligence était une propriété émergente des systèmes complexes qui se situent à la frontière des systèmes ordonnés et des systèmes chaotiques.
Un grand merci à Bruno Bonnell pour cette initiative qui replace l'Europe et surtout la France au rang des nations qui comptent en matière de robotique. Un clin d'oeil amical à Catherine Simon qui a travaillé sans relâche depuis deux ans sur ce projet. Rendez-vous à Innorobo 2012 à Lyon du 14 au 16 mars!

Friday, March 18, 2011

Des robots français à la centrale de Fukushima ?

Alors que la situation s'est aggravé ces derniers jours à la centrale de Fukushima, on s'interroge sur le fait surprenant que la robotique, pourtant très en pointe chez nos amis japonais, est la grande absente. L'agence Reuters mardi dernier titrait "Le Japon : des robots partout sauf dans les centrales nucléaires".
Le même jour, Le Monde s'étonnait de la variété des robots japonais qui font de la cuisine, jouent du violon, etc., mais dont aucun n'est a priori capable d'intervenir dans un environnement déstructuré, chaud et radioactif (Ci-contre une image de la catastrophe de Fukushima (c) afp/tepco).
Une demande aurait d’ailleurs été émise par l’agence internationale de l’énergie atomique aux pays qui “disposeraient de robots et de véhicules sans pilote capables de fonctionner dans une zone fortement radioactive”. Les équipes françaises d'EDF ont répondu à cet appel et se disent prêts à envoyer hommes, robots et matériels. Mercredi, sur France Info, Dominique Minière, directeur de la production nucléaire d’EDF, précisait “On peut leur apporter des robots pour aller contrôler la radioactivité sur le site, faire des prélèvements”. A suivre.



Monday, March 14, 2011

Conférence sur l'IA à Robolift - Innorobo (Innovation Robotic Summit)

Passionnés de robots, soyez nombreux à venir à Innorobo qui se déroulera à Lyon la semaine prochaine du 23 au 25 mars. J'aurai le plaisir de partager la session du Jeudi 24 mars à 16H00 sur le futur de la robotique sur le thème "Artificial intelligence: acquired versus programmed intelligence?" avec Pierre-Yves Oudeyer. Mon intervention sera orientée sur mon approche de l'IA par les systèmes complexes et plus particulièrement sur le projet "Ms House" basée sur une IA composée de multiples personnalités et capable de chercher de l'information en temps réel sur le web et de l'utiliser dans la discussion en langage naturel avec l'utilisateur. Le pitch de mon intervention est le suivant :
Du super-ordinateur intelligent à la singularité technologique, l'intelligence artificielle (IA) a toujours fait l'objet de prédictions fantasmatiques. Cette image est amplifiée par la littérature de science-fiction et les films à grands spectacles où l'IA est souvent une créature belliqueuse capable d’apprendre et d’évoluer par elle-même. Malgré de nombreuses avancées, la réalité dans les laboratoires est bien plus laborieuse. Nous rappellerons brièvement l'histoire tumultueuse de cette discipline, puis nous tenterons de comprendre les raisons profondes qui limitent son développement. Nous proposerons enfin une perspective qui s'appuie sur les sciences de la complexité.

Thursday, March 10, 2011

Un téléphone mobile nippon en forme de poupée androïde

L'université d’Osaka et les laboratoires ATR ont présenté un téléphone cellulaire original puisque celui-ci prend la forme d’une poupée humaine asexuée. Le premier prototype, baptisé Elfoid P1, est assez simple puisqu’il ne contient qu’une puce GSM basique et donc limitée à la communication par la voix uniquement. Plus intéressant est la « coque » du téléphone recouverte d’un gel de polyuréthane qui imite la peau pour que le mobile puisse permettre « de ressentir la présence de la personne à qui vous parlez. »  Le haut-parleur est intégré dans la tête de la poupée et une lumière dans le torse pour donner son état : rouge en veille (?) et bleue si le téléphone est allumé. Dans une version future, il est prévu d’intégrer une caméra pour détecter les mouvements de tête et les reproduire à distance. Je proposerai bien d’autres accessoires à ce nouveau téléphone, comme par exemple des aiguilles pour vaudou 3G+… Ouille!

Sunday, March 06, 2011

EVA can search the web and use it in the flow of conversation

EVA (Evolutionary Virtual Agent) can now     make realtime search on the web and use the result in the flow of conversation. The image on the left shows a simple example during the Ms House experiment. The user asks "What is a pencil?" and the answer appears in less than one second: "A pencil is a writing implement or art medium usually constructed of a narrow pigment core inside a protective casing." Another example: "Who is Michelle Obama?" results in the following answer: "Michelle LaVaughn Robinson Obama is the wife of the 44th and incumbent President of the United States, Barack Obama, and is the first African-American First Lady of the United States."
We emphasize the fact that there was no information about these subjects in the knowledge base before the questions. This result shows that the next generation of conversational agents will be able to mine information from the web or in a database without the need of programming a knowledge base.

Monday, February 28, 2011

Quels seront les interfaces de recherche de demain ?

Vendredi prochain (4 Mars), je donnerai une conférence sur les interfaces de recherche dans le cadre de SEARCH 2011 au Pôle Universitaire Léonard de Vinci de 13h15 à 14h15 :

L’accès à l’information est devenu vital non seulement pour les entreprises mais pour pratiquement toutes les activités humaines. Depuis Archie en 1990, les moteurs de recherche ont certes progressé, mais leur interface est restée « sommaire » : un simple champ texte où quelques mots clés génèrent une interminable liste de liens. Cette situation semble d’autant plus paradoxale à une époque où les technologies de représentation de l’information n’ont jamais été aussi évoluées : images et vidéo, avatars 3D, réalité augmenté, etc.
Dans le roman de science-fiction prémonitoire (1984) de William Gibson, Neuromancer, Internet est le « cyberspace », un océan d’information omniprésent où les Intelligences Artificielles assistent les humains et où se croisent avatars et fantômes numériques.
La réalité va-t-elle rejoindre la fiction?
Quelles seront les interfaces de recherche de demain?

Sunday, February 20, 2011

Une Intelligence Artificielle Schizophrène

J'ai publié ces derniers temps sur un modèle d'IA « Schizophrénique. » En fait, je devrais dire « trouble de personnalités multiples » puisque la véritable schizophrénie est une maladie au cours de laquelle le sujet présente une dissociation, une désagrégation de sa personnalité, et non pas plusieurs identités successives définies. Le trouble de la personnalité multiple a été décrit pour la première fois dans les années 1980 aux USA. Les patients atteints présentent des alternances de personnalités différentes, et peuvent passer de l'un à l'autre sans pouvoir le contrôler. Développer une IA « schizophrène », en voilà donc une drôle d’idée. Déjà qu’elles sont profondément autistes, pourquoi faire des créatures virtuelles à personnalités multiples ?
C’est une idée qui me trottait dans la tête depuis longtemps, mais le déclencheur a été la lecture du roman « Babylon Babies » de Maurice G. Dantec (1999) où une machine électronique vivante, dotée d'un cerveau bionique et d'organes de perception, est en fait une IA schizophrène. La même idée était déjà présente dans « Les racines du mal » en 1996. On retrouve aussi cette idée dans le film « virtuosity » de Leonard Brett en 1995 où un personnage synthétique composé à partir des personnalités de tueurs et de terroristes est utilisé pour entraîner la police. Je pense que cette idée d’une IA à personnalités multiples est extrêmement féconde et ceci pour plusieurs raisons.
Tout d’abord, elle permet d’élaborer des personnalités virtuelles bien plus riches et crédibles. Les différentes « facettes » étant toujours présentes mais émergeants en fonction de l’environnement et des situations.  Les expérimentations que nous avons menées montrent clairement cet apport dans la diversité des comportements, ce qui rend la créature moins prévisible et plus réaliste. Néanmoins, l’inconvénient majeur réside parfois dans son instabilité comportementale puisque, par définition, elle peut passer d’une personnalité à une autre. Une solution (presque) évidente consiste à essayer de réguler le comportement global par un « métabolisme émotionnel. » Ce n’est probablement pas la seule solution. Dans les expérimentations, je n’ai utilisé qu’une dizaine de personnalités différentes ou complémentaires, ce qui est peu. Je pense qu’il en faudrait plusieurs centaines pour atteindre une sorte de stabilité statistique comportementale. Un tel nombre permettrait en effet de commencer réellement à étudier l’émergence d’une intelligence « machinique » : je fais référence ici entre autres à mes travaux sur les systèmes complexes au bord du chaos (automates cellulaires, Lifedrop, etc.).
La seconde raison est que ce modèle permet d’envisager plus sereinement l’apprentissage. En effet, les différentes personnalités ne sont pas limitées au seul dialogue avec un utilisateur. Elles peuvent également interagir et dialoguer entre elles, faire preuve pour certaines de motivation et de focalisation sur des objectifs : par exemple collecter des informations sur un sujet. Outre cet apprentissage de nouvelles connaissances, le modèle est également propice à une évolution comportementale, par exemple en utilisant des techniques de programmation génétique.
J’ai choisi le tableau de 1952 de Dali, « Galatée aux sphères », pour illustrer cette idée d’une intelligence artificielle émergeant de l’interaction d’un grand nombre d’agents. Dans un prochain post je parlerai des résultats que nous avons obtenus récemment dans le domaine de la recherche d’information en temps réel avec notre IA schizophrène…

Monday, February 07, 2011

Microsoft : Surface, Kinect et Sixth Sense

Depuis l'annonce de Surface en 2007, il semble que la stratégie de Microsoft s'oriente progressivement mais surement vers les nouveaux interfaces et la réalité augmentée. Après la vente de plusieurs millions de Kinect en quelques mois et devant l'apparition d'un véritable mouvement de hacking, Microsoft serait sur le point d'annoncer prochainement des drivers officiels et un kit de développement sur Windows. En outre, le fameux projet Sixth Sense de Pranav Mistry du MIT, présenté entre autres lors des conférences TED en 2009, se retrouve presque tel quel dans les prédictions publicitaires de la firme américaine. Au laboratoire, nous avons pour notre part essayé d'en trouver les sources mais sans succès, et cela malgré l'annonce à l'époque de leur disponibilité prochaine en "open source." Affaire à suivre...

Wednesday, February 02, 2011

Conférence: Intelligence Artificielle, l'approche systèmes complexes

Je donnerai une conférence dans le cadre de l'Institut Fredrik R. Bull le 8 février prochain à 16H30 au Pôle Universitaire Léonard de Vinci. Le titre de mon intervention est "IA : l'approche systèmes complexes."
Du super-ordinateur intelligent à la singularité technologique, l'intelligence artificielle (IA) a toujours fait l'objet de prédictions fantasmatiques. Cette image a été amplifiée par la littérature de science-fiction et les films à grand spectacles où l'IA est omniprésente et omnisciente. Malgré de nombreuses avancées, la réalité dans les laboratoire est bien plus laborieuse. Nous rappellerons brièvement l'histoire tumultueuse de cette discipline, puis nous tenterons de comprendre les raisons profondes qui limitent son développement. Nous proposerons enfin une nouvelle approche qui s'appuie sur les sciences de la complexité.

Monday, January 10, 2011

EVA Goes to Rome

The latest research results of EVA (Evolutionary Virtual Agent) will be presented at the 3rd International Conference on Agents and Artificial Intelligence in Rome, Italy, at the end of January. The title of the paper is "A Schizophrenic Approach for Intelligent Conversational Agents". I will show a demo of the Ms. House project using real-time web search in the flow of conversation...
The purpose of the 3rd International Conference on Agents and Artificial Intelligence (ICAART) is to bring together researchers, engineers and practitioners interested in the theory and applications in these areas. Two simultaneous but strongly related tracks will be held, covering both applications and current research work within the area of Agents, Multi-Agent Systems and Software Platforms, Distributed Problem Solving and Distributed AI in general, including web applications, on one hand, and within the area of non-distributed AI, including the more traditional areas such as Knowledge Representation, Planning, Learning, Scheduling, Perception and also not so traditional areas such as Reactive AI Systems, Evolutionary Computing and other aspects of Computational Intelligence and many other areas related to intelligent systems, on the other hand. I hope to meet you there!