Du mathématicien à l’éthicien : les concepteurs de l’intelligence artificielle
- Psycho
- Digital
- Ecoles d'ingénieurs
- Secteurs qui recrutent
Si mathématiciens et informaticiens sont les profils les plus à même de concevoir des machines intelligentes, ils doivent être entourés de psychologues, mais aussi d’éthiciens et de juristes pour répondre aux problématiques qui dépassent les enjeux techniques.
Conception d’agents virtuels, de robots, de logiciels ultra performants…, l’intelligence artificielle (IA) recouvre un large panel de domaines qui peuvent être utilisés dans de nombreux secteurs et reposent sur des techniques diverses. « Il existe plusieurs types d’IA. On parle de "computer vision" lorsque la machine reconnait des images complexes, de "natural language processing" lorqu’elle est capable d’interagir par la voix… », résume Eric Dosquet, chief innovation officer chez Avanade, une joint-venture entre Accenture et Microsoft, qui accompagne les entreprises dans leur transformation digitale. « L’IA est un ensemble de disciplines qui s’appuie sur différents savoirs : le machine learning, la statistique, le traitement du signal, la vision par ordinateur, les systèmes expert… », poursuit Pascal Bianchi, professeur enseignant chercheur en statistique et optimisation à Télecom Paristech.
Mathématiciens et informaticiens
Pour concevoir ces machines intelligentes, les profils dotés de compétences pointues en informatique et en mathématiques sont les mieux placés. « Le terme intelligence artificielle a été utilisé pour la première fois par le scientifique Marvin Minsky et par l’informaticien John McCarthy en 1955. Leur hypothèse de départ : tout processus d’apprentissage ou de décision peut être décrit de façon précise sous la forme d’un algorithme pour être mis en œuvre dans un ordinateur », rappelle Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (Isir), professeur en robotique et intelligence artificielle à Sorbonne Université.
Pour élaborer un algorithme, il faut être capable d’analyser de gros volumes de données, de savoir ce que l’on veut leur faire dire, puis de concevoir le modèle informatique correspondant. « Soit on a des data et on sait à quelle fin on va les utiliser, soit on a un besoin particulier et on doit identifier les données permettant d’y répondre. Pour cela, il faut des compétences techniques mais également business afin de s'adapter au mieux aux problématiques des entreprises », explique Francis Bach, spécialiste du machine learning, chercheur à l’Inria (Institut national de recherche en informatique et en automatique).
Ergonomes et psychologues
L’intelligence artificielle repose aussi sur l’interaction avec l’humain : il s’agit de créer des machines qui lui ressemblent, capables de lui parler, de l’aider, de l’accompagner. « Actuellement, on s’arrache les ergonomes pour répondre aux exigences de l’UX design (expérience utilisateur). Dans 10 ans, ce sont les psychologues que l’on va s’arracher : ils seront centraux dans la fabrication de nouvelles interfaces personnalisées et seront employés comme psychologues designers », pronostique Eric Dosquet.
Car plus un robot ou un agent virtuel est familier, plus il inspire confiance et s'avère utile. C'est à sa proximité et à sa ressemblance que se mesurent sa capacité d'interaction et donc sa performance. « Pour créer un agent social interactif, nous analysons des données, issues notamment de vidéos, afin d’identifier des attitudes et des mimiques humaines et de permettre à l’agent de les comprendre et de les reproduire », souligne Catherine Pélachaud, directeur de recherche au Centre national de la recherche scientifique (CNRS) qui développe des agents virtuels avec son équipe à l’Isir. Dans son laboratoire, travaillent des informaticiens, mais également des psychologues, des spécialistes des sciences cognitives qui interviennent sur la représentation mentale et le raisonnement, et même des philosophes.
Éthiciens et juristes
Car l’intelligence artificielle pose aussi des questions éthiques : jusqu’où doit aller la machine ? Comment l'encadrer ? Comment construire un modèle informatique « juste » ? « Les algorithmes utilisent des jeux de données. Si celles-ci sont biaisées (par exemple, si les hommes sont plus représentés que les femmes), les résultats ne sont pas satisfaisants. Il est important d’en tenir compte. Beaucoup de formations dans l’intelligence artificielle intègrent un volet éthique », analyse Francis Bach.
L'intelligence artificielle a besoin de professionnels qualifiés capables de prendre de la hauteur pour répondre aux problèmes philosophiques et déontologiques qu'elle soulève. « La technologie doit respecter les droits humains et non pas les réduire. Elle doit trouver en son sein des mécanismes de contrôle. Il faut se préparer à ces transformations pour qu’elles aillent dans le bon sens. On a un grand besoin d’éthiciens et de philosophes, de personnes pour travailler sur le cadrage des machines », prévient Raja Chatila. Les juristes sont également impliqués, pour intervenir sur des questions diverses, allant de l’adaptation des algorithmes aux spécificités locales au respect de la vie privée en passant par les droits des salariés face aux machines.
Isabelle Fagotat © CIDJ
Article mis à jour le 09/10/2018
/ créé le 26-09-2018
Crédit photo : Franck V