Peut-on faire confiance à l’intelligence artificielle ?

31 janvier 2018 par Super Administrateur
Alors que nous faisons de plus en plus appel à des systèmes d’aide à la décision, s’en remettre à des machines ne nous fait-il pas perdre un peu de notre humanité ? De surcroît, les programmes ont beau disposer d'une logique «froide», ils ne sont pas exempts de préjugés. Les chercheurs planchent pour leur injecter de la «morale».

« Les féministes devraient toutes brûler en enfer » et « Hitler aurait fait un meilleur boulot que le singe actuel »1, psalmodiait en mars 2016 le chatbot de Microsoft, Tay, dès son premier jour d’immersion sur Twitter, Snapchat, Kik et GroupMe, apprenant en deep learning comment parler avec les « djeun’s ». Entraînée par les internautes qui s’amusaient à la faire déraper, l’intelligence artificielle (IA) twitteuse a même fini par nier l’existence de l’Holocauste. Piteuse vitrine de l’apprentissage machine, Tay a été mise hors circuit par ses concepteurs au bout de quelques heures. Mais que se passerait-il si on déléguait à des IA et autres algorithmes des décisions importantes ?

Une aide à la décision

En vérité, banques, sociétés d’assurances et directions des ressources humaines peuvent déjà tester d’efficaces systèmes d’aide à la décision pour gérer des patrimoines, calculer des primes et sélectionner des CV. Des voitures autonomes arpentent depuis des années les routes de Californie. Tandis que l’algorithme d’admission post-bac (qui a conduit au tirage au sort de certains bacheliers de la promotion 2017 pour une place en fac) n’a pas fini de faire grincer des dents. « Pour un film ou des chaussettes, ça m’est égal de recevoir des conseils de systèmes d’aide à la décision, mais je trouve plus gênant qu’ils orientent mes lectures vers des sites d’information qui peuvent conditionner mes opinions, voire être complotistes », commente Serge Abiteboul, chercheur au département d’Informatique de l’École normale supérieure2. « Et lorsqu’on se fie aux algorithmes et à l’IA (algorithme sophistiqué “simulant” l’intelligence) pour prendre des décisions qui ont de lourdes conséquences dans la vie des êtres humains, cela pose clairement des problèmes éthiques », complète-t-il.

Les réseaux de neurones ne sont que des calculs numériques : je ne vois pas comment on pourrait en extraire des concepts.

En la matière, la libération sur parole des détenus américains est un exemple étonnant. « Il a été démontré que la probabilité d’être libéré est très supérieure si vous passez devant le juge après déjeuner plutôt que juste avant », informe Serge Abiteboul. Des algorithmes, exempts du « syndrome » du ventre vide, ont été testés en parallèle. « Comparer leurs performances est facile car, aux États-Unis, la libération sur parole ne dépend que d’un seul paramètre : le risque que la personne s’enfuie ou récidive. » Résultat du match : « Statistiquement, l’algorithme gagne haut la main et permet dans ce cas-là une justice aveugle ne tenant compte que des faits objectifs », commente le chercheur. Mais jusqu’où aller ? Si des systèmes perfectionnés permettaient de juger d’autres cas, accepteriez-vous la décision d’une machine ?

Cet article provient du CNRS le journal 
Lire la suite sur le site du journal
=> https://lejournal.cnrs.fr/articles/lessor-des-circuits-courts-energetiques

A lire aussi