La nouvelle est tombée la semaine passée : à la suite de pression de certains de ses employés, Google a décidé d’abandonner « Project Maven », au travers duquel la firme devait équiper le Pentagon avec des technologies de reconnaissance faciale super-avancées. Sundar Pichai, le CEO de Google en a profité également pour mettre en ligne un nouveau règlement éthique. Ce document de 8000 mots, expose les cas où l’entreprise se réserve la possibilité de limiter l’usage de l’intelligence artificielle. Insistant sur le sérieux de cette mini charte, Pichai a souligné qu’il s’agissait de « standards concrets qui guideraient de manière active la recherche et le développement des produits Google et auraient un impact sur nos décisions en matière de business. » Véritable incarnation du Don’t be evil, mantra fondateur de Google, cette charte réaffirme que l’entreprise n’achètera pas de technologies qui peuvent faire du mal, ou sont susceptibles d’en faire et en l’occurrence, n’utilisera pas l’Intelligence Artificielle pour les armements. Concernant cette dernière, elle devrait profiter à la société dans son ensemble, éviter les utilisations injustes, et être testée pour sa sureté ; elle devrait également protéger les données privées, privilégier l’excellence scientifique et pouvoir faire l’objet de l’intervention humaine. De ce fait, Google affirme se réserver le droit de mettre un terme à un usage technologique de l’IA quand il se rend compte qu’il contrevient à ses principes. Après s’être débarrassé de Boston Dynamics, firme qui avait affolé le web avec ses vidéos de « robots sur pattes » sautant et courant dans la forêt, il semblerait bien que ce soit le deuxième geste concret de Google visant à limiter un développement technologique lié au progrès de l’intelligence artificielle ; le géant californien joint ainsi l’acte à la parole de ses fondateurs qui ont sonné l’alarme, il y a quelques temps déjà, au côté d’autres figures telles que Bill Gates, Elon Musk ou encore le défunt Stefan Hawkins.
Dans la catégorie des développements technologiques de l’IA qui posent question, Google est loin d’être seul. Eye in the Sky s’impose comme un modèle du genre. Des chercheurs de l’Université de Cambridge ont développé un algorithme qui permet d’identifier les mouvements de types « attaques » ou « violence » en temps réel. Ainsi il est possible de monter une caméra sur un DSS (Drone Surveillance System) afin de surveiller les réactions d’une foule. Les chercheurs à l’origine de ce projet veulent équiper les drones qui sont utilisées par les forces de l’ordre pour faire de la surveillance. Comme ils l’expliquent, un système SHDL (ScatterNet Hybrid Deep Learning) permet de comparer les situations observées avec d’autres et ainsi détecter des scènes de violence. Il peut ainsi reconnaitre différentes figures telles qu’une strangulation, une frappe, un coup de pied, un tir ou encore un coup de couteau. La précision du système en question dans sa dernière mouture est de 89%. A noter que celle-ci décroît en fonction du nombre d’individus observés (plus celui-ci est élevé, moins les observations sont précises). Pour l’instant, les expériences réalisées (avec au minimum deux et au maximum 10 individus) ne concernaient que des scènes jouées par des figurants. Répondant aux questions du site TheRegister, Amarjot Singh, un des co-auteurs de l’étude, affirme que les images captées ne seront pas conservées dans le cloud à d’autres fins que celles du logiciel. Un autre problème concerne les mauvaises interprétations de type « faux positif » (False positive). Une solution un peu zélée ou mal programmée, pourrait, par exemple, signaler, par erreur, des compétitions sportives…. Une autre éventualité – sans doute beaucoup plus grave – serait que ce système de surveillance tombe entre les mains d’un gouvernement mal intentionné, éventualité reconnue par Singh, qui souligne : « Le système pourrait être utilisé pour identifier et suivre des individus signalés par le gouvernement comme étant violents, alors qu’ils ne le sont pas véritablement (…) le créateur du système final décide de ce qui est ‘violent’, ce qui est, je pense, un problème. » Il reconnait qu’il est tout à fait possible d’utiliser ce genre de système pour en faire un mauvais usage, mais précise que le développement du système nécessite une quantité énorme de données et des connaissances poussées en programmation et espère qu’une surveillance sera mise en place pour empêcher l’utilisation abusive de cette technologie. Il a prévu d’expérimenter le projet prochainement lors de deux festivals de musique et également pour surveiller les frontières nationales de l’Inde. Si les résultats sont concluants, il espère pouvoir commercialiser son dispositif de surveillance.
Ces deux exemples montrent à quel point l’avenir de l’Intelligence Artificielle est pavé de problèmes d’éthiques. D’un côté nous avons un géant mondial qui édicte une charte et décide carrément de mettre un frein à ses « super-pouvoirs » en suspendant un développement de l’IA, jugeant qu’un Etat ne peut pas disposer d’une telle efficacité technologique. De l’autre, nous trouvons des étudiants chercheurs prêts à tout pour pousser jusqu’au bout et commercialiser leur technologie, tout en étant conscients que celles-ci pourrait tomber entre les mains d’un Etat, voire, d’individus malfaisants.
Toute chose égale par ailleurs, il est rassurant de constater que ce sont les entreprises et les chercheurs eux-mêmes qui sont conscients de ces problématiques et initient d’eux-mêmes ces réflexions en faisant preuve de précautions. En extrapolant un peu, on peut oser dire que la situation est comparable avec les débuts du génie génétique dans les années 70, lorsque les chercheurs se sont réunis lors de la conférence d’Asilomar et ont commencé à réfléchir sur les conséquences de leurs actes, si jamais des bactéries génétiquement modifiées venaient à se disséminer hors du laboratoire. On pourrait dire qu’une prise de conscience similaire semble naître parmi les acteurs de l’IA qui cherchent à en développer les applications. Il y a quelques semaines nous avions évoqué dans un éditorial le rapport Villani, du nom du mathématicien et élu français qui a réfléchi sur l’avenir de l’IA en Europe et a fait de l’éthique un préalable à tout développement ultérieur de celle-ci sur le « vieux continent ». Nous avions évoqué alors le piège tendu par ce genre d’injonction. Car en effet, si on peut se rassurer du fait que les acteurs de l’IA se posent eux-mêmes des questions d’éthiques sur leurs propres applications et les conséquences de leurs développements, il peut, à l’inverse être contreproductif de poser celle-ci en préalable, surtout sous forme de principe abstrait et quand on sait que la concurrence mondiale fait rage [1]. On comprend bien au travers de nos deux exemples que les « mauvais usages » de l’IA peuvent être aussi bien le fait des Etats que des individus ; on sait par ailleurs qu’il est illusoire de vouloir mettre une fin à un développement technologique. Il suffit pour s’en persuader de regarder la vitesse à laquelle des pays comme la Chine adoptent les technologies à base de reconnaissance faciale. Par ailleurs, le nombre des « applications positives » de l’IA à ce jour semble dépasser largement celui des usages malfaisants, et dans un raisonnement de type « balance bénéfice-risque », il apparait clairement que nous ne saurions nous priver de telles avancées (voir à ce sujet nos réflexions sur l’agriculture de précision).
Rassurons-nous, par conséquent, que la prise de conscience des « risques potentiels » de l’IA soit bien présente parmi les acteurs qui la pratiquent au quotidien. Nous devons faire le pari que l’intelligence collective issue de la réunion de toutes les parties prenantes sera le meilleur garant du bon usage des super-pouvoir de l’IA et qu’un équilibre naîtra de la confrontation des différents contrepouvoirs impliqués.
[1] Antoine Petit, le patron du CNRS, lors de la conférence #AIForHumanity, qui dévoilait le rapport de la commission Villani a semé le doute : “Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business. Ne faisons pas croire à une homogénéité des valeurs éthiques dans le monde!” Ce qui fait dire à l’économiste Philippe Silberzahn : « En plaçant l’IA au service de l’éthique, le rapport commet donc deux erreurs : d’une part il ne se donne aucune chance de penser l’éthique de l’IA correctement, car nous penserons dans le vide – nous ne pourrons penser qu’en faisant, et d’autre part il condamne la France à regarder les autres danser depuis le balcon. »
This post is also available in: EN (EN)DE (DE)