La data science connaît une expansion fulgurante depuis les 10 dernières années. Parmi les très nombreux secteurs qu’elle transforme, l’industrie de la santé n’échappe pas à la règle.
Dans cette seconde partie, vous découvrirez la vision des intervenants concernant le rôle joué par l’humain dans le développement des nouvelles technologies au sein du secteur de la santé.
Merci aux trois spécialistes :
Kap Code : Quelle est pour vous la place de l’humain au sein des nouvelles technologies comme l’IA et le Big Data ?
PF : « Pour moi, on ne peut pas séparer humain et nouvelles technologies. C’est le risque de ce qu’on appelle les boîtes noires : il ne faut pas laisser l’IA prendre toutes les décisions par elle-même, il doit y avoir un contrôle à chaque étape. A la fois lors de la création des algorithmes, pour s’assurer que ce n’est pas biaisé, mais aussi après le déploiement, en mettant en place des actions et des évaluations contrôlant le fonctionnement du modèle et ses conséquences.
Pour prendre un exemple très connu, il y a eu des algorithmes en RH défavorisant les femmes ou les candidats issus de minorités ethniques à diplômes équivalents. Il y a beaucoup d’exemples de ce genre où un manque de contrôle a induit des biais, qui initialement viennent des humains et qui sont systémiques.
En santé, on a eu le même genre d’exemple avec des IA dépistant une maladie mais partant de données non représentatives, ce qui aboutissait à des résultats faussés pour une certaine classe de la population. C’est très simple, si dans le jeu de données il y a 60% d’hommes blancs, mais 5% de femme noires, l’algorithme sera beaucoup plus précis et le modèle sera de meilleure qualité dans son diagnostic pour les hommes blancs que pour les femmes noires. Tout ça pour dire que les nouvelles technologies d’IA ne vont pas fonctionner toutes seules, il faut des humains derrière pour contrôler la chose et s’assurer que les modèles sont pertinents. »
IH : « Pour moi, l’humain est prépondérant : on a beau parler des systèmes auto-apprenants, au départ c’est quand même nous qui programmons, orientons et, le cas échéant, créons des biais. C’est pour ça qu’il est primordial que tout le monde se sente concerné pour donner un avis sur ce qu’on fait avec la technologie et voir même se sente légitime à y contribuer.
Typiquement, dans le domaine de la santé, il est extrêmement important d’inclure des professionnels de santé, pour qu’ils collaborent avec ceux qui développent les nouvelles technologies. Les professionnels de santé possèdent des connaissances et une éducation différente des profils plus « tech ». Cette vision est très importante car il y a une culture de précaution, une vraie connaissance étiologique, une préoccupation du patient. Au-delà des professionnels de santé, il est également important à mon avis d’inclure les patients. En plus de cela, quand on travaille sur de la donnée, une partie de créativité, il faut explorer la donnée, la faire parler. C’est pourquoi il est nécessaire d’avoir des équipes mixtes qui incluent des personnes impactées directement et connaissant bien les données dont on parle, donc dans la santé cela inclut les patients et les professionnels !
C’est d’ailleurs une tendance qu’on voit se développer petit à petit. On voit émerger de plus en plus d’initiatives allant dans ce sens, par exemple le projet « Moi Patient », de l’association de patients Renaloo qui ont construit une base de données faite par les patients pour les patients. Ou encore les facultés de médecine qui commencent à intégrer des formations sur l’utilisation des données et la programmation. Sans devenir un expert, l’objectif est de donner les bases pour permettre aux professionnels de santé et aux patients de donner un avis et s’intégrer dans un projet. »
Isabelle Hilali, Emmanuel Capitaine et Pierre Foulquié nous parle de la place de l’humain au sein des nouvelles technologies
EC : « Les nouvelles technologies ne sont qu’un moyen au service de l’humain. Sa place est donc essentielle en tant que bénéficiaire. A date, pour ce qui est de son pilotage, trois modèles se dessinent :
- HIC : human in command
- HITL : human in the loop
- HOTL : human on the loop
Pour la santé, le principe de prudence s’applique : HIC est le modèle à privilégier en regard du niveau de maturité sur le sujet et des difficultés à prédire les conséquences des solutions.
Il y a un vrai risque que les régulations dont nous avons besoin soient trop lentes à être mises en place et que la technologie aille plus vite que l’humain. D’ailleurs, c’est déjà le cas et c’est un risque que vous retrouvez dans tous les domaines.
Regardez par exemple les vapoteuses : il y avait un vide sur la régulation, du coup les gens qui les fabriquent et les distribuent se sont engouffrés dans cette brèche. Aujourd’hui, il y a des vapoteuses partout. Et c’est de manière rétroactive que les autorités de santé essayent de comprendre leur impact. Peut-être que dans 5 ans il va y avoir une publication qui va montrer que c’est beaucoup plus délétère que le tabac.
Il y a des exemples, à la fois contemporains, certainement malheureusement futurs, mais aussi passés. Pendant longtemps vous aviez de vieilles publicités sur les bienfaits de la radioactivité, disant que l’eau radioactive était bonne pour le corps.
Le niveau de connaissance de l’humain évolue à travers le temps, et on a accès à des vérités qui sont variables temporellement et également variables selon les régions, selon les cultures. Cette idée peut s’illustrer par exemple avec la définition de la vérité donnée par Plank, que j’aime beaucoup : « la vérité c’est l’idée qui est partagée par le plus grand nombre parce que ses opposants ont disparu ».
Donc oui, il risque d’y avoir un phénomène de synchronicité entre l’apparition et la mise à disponibilité de certains services numériques innovants via l’intelligence artificielle et la régulation. »
PF : « Pour l’instant je n’ai pas l’impression qu’il y ait beaucoup de contrôle dans le développement de solutions d’intelligence artificielle. A part la RGPD, il y a peu d’encadrement car ce sont des choses inédites, il faut du temps pour que la législation se mette en place.
Pour ce qui est de l’acceptabilité par l’homme, il y a surement des gens réfractaires mais ce n’est pas une mauvaise chose il ne faut pas faire de l’IA pour l’IA, mais bien réfléchir aux conséquences derrières. Par contre, il y a aussi beaucoup de fantasmes entre les gens qui pensent qu’on aura demain des voitures autonomes ou au contraire qui pensent qu’on va vers Terminator. Les deux sont complètement imaginaires, la réalité en est très loin.
Pour l’instant, les IA qu’on a créées sont très bonnes dans une seule tâche. Par exemple, AlphaGo sait jouer au go, c’est très bien, il est super fort, mais au-delà il ne sait rien faire. Pour aller plus loin, on a les techniques dites du Transfer Learning, c’est-à-dire un modèle qui a appris sur une certaine base de données, et va pouvoir réutiliser ces connaissances pour d’autre tâches. Mais ce sont des techniques encore à un stade de balbutiement, il y a très peu de choses fonctionnelles à ce niveau aujourd’hui. »
Ce second article présentant les regards croisés de spécialistes de l’innovation en santé met en lumière le rôle central joué par l’humain au sein des nouvelles technologies. Dans le domaine médical, c’est l’ensemble des personnes intéressées, professionnels de santé comme patients, qui doivent être inclus en raison de leur prépondérance dans le domaine.
Au-delà de la place de l’homme dans les technologies, l’émergence de la Data Science voit naître des problématiques de gouvernance, de responsabilités, et de législation. Quels sont les enjeux, les freins, mais également les opportunités à venir dans le futur de la data science en santé ? Ce sera le sujet du troisième et dernier article de notre série « Regards Croisés ».